0

    3步教你用网络爬虫爬取股票数据,内附完整程序代码

    2023.08.11 | admin | 127次围观

    人工智能时代,大数据获取至关重要,利用网络爬虫获取数据是当前最有效的手段。爬虫本质上就是代替人工操作访问网站,自动找到目标数据,并获取目标数据的过程。今天不谈任何协议结构,只通过结合爬取股票数据的代码介绍最基本的爬虫实现,力求让略有python基础的爱好者有一个直观印象。

    任务:爬取东方财富网上以6开头(比如浦发银行600000)的股票数据(最高价、换手率、成交量和成交额)。首先在东方财富网()获取全部股票代码列表网页图片源代码怎么看,然后访问百度股市通(+股票代码)获取具体数据。

    第一步,访问网站,核心函数html=requests.get(url),url是访问链接网页图片源代码怎么看,返回值html是目标网页源码的全部数据。这里的返回值与通常的网站界面不一样,网站界面的全部显示数据都在源码中有详细记录。点击网页右键查看源代码即可看到。

    部分网页源码

    第二步,从第一步获取的网页源码数据找到我们需要的目标数据,网页源码按照一定的格式标签排列,通过标签访问目标数据,这个过程称为数据解析和查找。目标函数

    解析函数soup = BeautifulSoup ( html , 'html.parser' )

    查找函数 find() 或者find_all()或者利用正则表达式对字符串进行匹配查找。

    第三步,按照一定格式进行数据存储。可直接存储到txt文件即可。程序运行后部分结果数据如下图

    部分结果数据

    Python3.5 实现代码如下:

    from bs4 import BeautifulSoup
    import traceback
    import re
    import time
    import requests
    def GetHTMLSource(url): # 得到目标网页源码
     try:
     r=requests.get(url)
     r.raise_for_status ()
     r.encoding = r.apparent_encoding
     return r.text
     except:
     print ( "异常" )
     return ""
    def SetFileName():
     dirname = time.strftime ( '%Y%m%d' , time.localtime ( time.time () ) ) #获取当前日期
     dirname += 'sh'
     return dirname
    def getStockList(lst , stock_list_url): # 获得东方财富网上以sh6开头的股票代码
     html = GetHTMLSource ( stock_list_url )
     soupdata = BeautifulSoup ( html , 'html.parser' )
     a = soupdata.find_all ( 'a' ) # 用find_all方法遍历所有'a'标签,并取出在'a'标签里面的’href’数据
     for i in a:
     try:
     href = i.attrs[ 'href' ]
     lst.append ( re.findall ( r"sh6\d{5}" , href )[ 0 ] ) # 匹配sh6开头的股票
     except:
     continue
    def getStockInfo(lst , stock_info_url , fpath):
     ndate = time.strftime ( '%Y%m%d' , time.localtime ( time.time () ) )
     for stock in lst:
     url = stock_info_url + stock + '.html' # 具体单只股票的url
     html = GetHTMLSource ( url )
     try:
     if html == "":
     continue
     infoDict = {}
     soup = BeautifulSoup ( html , 'html.parser' )
     stockInfo = soup.find ( 'div' , attrs={'class': 'stock-bets'} )
     if stockInfo == None:
     continue
     keyData = stockInfo.find_all ( 'dt' )
     valueData = stockInfo.find_all ( 'dd' )
     inp = stock + "," + ndate + ","
     for i in range ( len ( keyData ) ):
     key = keyData[ i ].text
     val = valueData[ i ].text
     infoDict[ key ] = val
     inp += infoDict[ '最高' ] + "," + infoDict[ '换手率' ] + "," + infoDict[ '成交量' ] + "," + infoDict[ '成交额' ] + "\n"
     with open ( fpath , 'a' , encoding='utf-8' ) as f:
     f.write ( inp )
     except:
     traceback.print_exc ()
     continue
    def main():
     stock_name_url = 'http://quote.eastmoney.com/stocklist.html'
     stock_data_url = 'http://gupiao.baidu.com/stock/'
     output_file = './' + SetFileName () + '.txt' # 输出文件的文件名,路径在默认在项目文件夹下
     slist = [ ]
     getStockList ( slist , stock_name_url ) #获取股票名称
     getStockInfo ( slist , stock_data_url , output_file ) #根据股票名称获取数据,保存到output_file文件中
    main ()
     
     
     
    

    版权声明

    本文仅代表作者观点。
    本文系作者授权发表,未经许可,不得转载。

    发表评论