Python爬虫入门实例八之股票数据定向爬取并保存(优化版)

您所在的位置:网站首页 查看东方财富股票数据 Python爬虫入门实例八之股票数据定向爬取并保存(优化版)

Python爬虫入门实例八之股票数据定向爬取并保存(优化版)

2024-05-29 13:48| 来源: 网络整理| 查看: 265

文章目录 写在前面一、准备工作1.功能描述2.候选数据网站的选择3.程序的结构设计4.本篇选取的数据网站(1)网站链接(2)网站内容 二、数据网站分析1.股票列表的分析2.个股信息的分析 三、编程过程1.使用到的库2.获取页面(编写getHTMLText()函数)3.获取股票的信息列表(编写getStockList()函数)4.获取个股信息(编写getStockInfo()函数) 四、完整代码引用源自

写在前面

  昨天在学习中国MOOC嵩天老师的课程时,到了股票信息的定向爬取实例,但是因为视频是两年前的了,而且例子中的很多网站也都不能再用了。所有今天写这篇文章分享一下我的采坑经历,并且为大家提供完整的代码供小伙伴们参考,下图是我爬取数据并保存在txt文件中的截图。

在这里插入图片描述

一、准备工作

  这一部分嵩天老师在课程中给出了详细的介绍,我整理并分享给大家。

1.功能描述

目标:获取上交所和深交所所有股票的名称和交易信息

输出:保存到文件中

技术路线:requests ­bs4­ re

2.候选数据网站的选择

新浪股票:http://finance.sina.com.cn/stock/(由于数据保存在js中,目前技术无法爬取)

百度股票:https://gupiao.baidu.com/stock/(网站已停止维护,链接不存在)

选取原则:股票信息静态存在于HTML页面中,而不是通过js代码生成,没有Robots协议限制。

选取方法:浏览器F12,源代码查看等。

选取心态:不要纠结于某个网站,多找信息源尝试。

3.程序的结构设计

步骤1:从东方财富网获取股票列表

步骤2:根据股票列表逐个到百度股票获取个股信息

步骤3:将结果存储到文件

4.本篇选取的数据网站

  经过我多次查找,反复比较,最终选定了股城网。股城网的页面结构和之前的百度股票很相似,所以在源代码上也更贴近嵩天老师的内容。

(1)网站链接

链接:https://hq.gucheng.com/gpdmylb.html

(2)网站内容

网站截图:

在这里插入图片描述

二、数据网站分析

  为了能够编写相应代码解析数据网站内容,我们必须要对数据网站的布局进行分析,去查看它的源代码。

1.股票列表的分析

在这里插入图片描述   通过对股票列表源代码的分析,我们发现所有的股票代码都存放在a标签内的href当中,我们只要把他解析出来就可以获得相应的股票代码。

2.个股信息的分析

在这里插入图片描述   这里我选取了平安银行(000001)股票进行其源代码的查看。通过对股票个股信息的分析,我们发现一只股票的全部信息封装在一个div标签下,它的属性名是stock_top clearfix。股票的名称封装在header 标签下,它的属性名是stock_title。再通过观察我们发现,所有的股票信息都存在dt和dd标签下,其中dt存储的是信息键的部分,dd存储的是信息值的部分,所以我们可以先用find_all()方法找到所有的键和值,然后构建键值对来表示并存储在字典中。

三、编程过程 1.使用到的库 import requests from bs4 import BeautifulSoup import traceback import re 2.获取页面(编写getHTMLText()函数) def getHTMLText(url,code='UTF-8'): try: r = requests.get(url,headers=kv,timeout = 30) r.raise_for_status() #r.encoding = r.apparent_encoding r.encoding = code return r.text except: return "" 3.获取股票的信息列表(编写getStockList()函数) def getStockList(lst,stockURL):#获得股票的信息列表 #第一个参数表示列表保存的列表类型,存储了所有股票的信息,第二个参数是获得股票列表的URL网站 html = getHTMLText(stockURL,'UTF-8') soup = BeautifulSoup(html,'html.parser')#解析页面 a = soup.find_all('a')#找到所有的a标签 for i in a: try: href = i.attrs['href'] lst.append(re.findall(r"[S][ZH]\d{6}",href)[0]) except: continue 4.获取个股信息(编写getStockInfo()函数) def getStockInfo(lst,stockURL,fpath):#获得每一支个股的股票信息,并且储存到数据结构,包括三个参数:1.保存所有股票的信息列表 2.获得股票信息的URL网站 3.将来要把信息存到文件的文件路径 count = 0 for stock in lst: url = stockURL + stock html = getHTMLText(url) try: if html == " ": continue infoDict = {}#定义字典存储从当前页面中返回的所有个股信息 soup = BeautifulSoup(html,'html.parser') stockInfo = soup.find('div',attrs={'class':'stock_top clearfix'}) name = stockInfo.find_all(attrs={'class':'stock_title'})[0] infoDict.update({'股票名称':name.text.split()[0]}) keyList = stockInfo.find_all('dt') valueList = stockInfo.find_all('dd') for i in range(len(keyList)): key = keyList[i].text val = valueList[i].text infoDict[key] = val #字典可以直接使用key=value,向字典中新增内容 #将相关信息保存在文件中 with open(fpath,'a',encoding = 'utf-8') as f: f.write(str(infoDict)+'\n') #增加进度条可看当前进度百分比 count = count + 1 print('\r当前完成进度:{:.2f}%'.format(count*100/len(lst)),end=" ") except: print('\r当前完成进度:{:.2f}%'.format(count * 100 / len(lst)),end=" ") continue 四、完整代码 ''' 功能描述 目标:获取上交所和深交所所有股票的名称和交易信息 输出:保存到文件中 技术路线:requests-bs4-re 候选数据网站的选择 股城网:https://hq.gucheng.com/gpdmylb.html 000001股信息网站:https://hq.gucheng.com/SZ000001/ 程序的结构设计 步骤一:从股城网首页获取股票列表 步骤二:根据股票列表逐个获取个股信息 步骤三:将结果存储到文件 ''' import requests from bs4 import BeautifulSoup import traceback import re kv = {'user-agent': 'Mozilla/5.0'}#模拟浏览器发送请求 def getHTMLText(url,code='UTF-8'): try: r = requests.get(url,headers=kv,timeout = 30) r.raise_for_status() #r.encoding = r.apparent_encoding r.encoding = code return r.text except: #print("获取资源失败") return "" def getStockList(lst,stockURL):#获得股票的信息列表 #第一个参数表示列表保存的列表类型,存储了所有股票的信息,第二个参数是获得股票列表的URL网站 html = getHTMLText(stockURL,'UTF-8') soup = BeautifulSoup(html,'html.parser')#解析页面 a = soup.find_all('a')#找到所有的a标签 for i in a: try: href = i.attrs['href'] lst.append(re.findall(r"[S][ZH]\d{6}",href)[0]) except: continue def getStockInfo(lst,stockURL,fpath):#获得每一支个股的股票信息,并且储存到数据结构,包括三个参数:1.保存所有股票的信息列表 2.获得股票信息的URL网站 3.将来要把信息存到文件的文件路径 count = 0 for stock in lst: url = stockURL + stock html = getHTMLText(url) try: if html == " ": continue infoDict = {}#定义字典存储从当前页面中返回的所有个股信息 soup = BeautifulSoup(html,'html.parser') stockInfo = soup.find('div',attrs={'class':'stock_top clearfix'}) name = stockInfo.find_all(attrs={'class':'stock_title'})[0] infoDict.update({'股票名称':name.text.split()[0]}) keyList = stockInfo.find_all('dt') valueList = stockInfo.find_all('dd') for i in range(len(keyList)): key = keyList[i].text val = valueList[i].text infoDict[key] = val #字典可以直接使用key=value,向字典中新增内容 #将相关信息保存在文件中 with open(fpath,'a',encoding = 'utf-8') as f: f.write(str(infoDict)+'\n') #增加进度条可看当前进度百分比 count = count + 1 print('\r当前完成进度:{:.2f}%'.format(count*100/len(lst)),end=" ") except: print('\r当前完成进度:{:.2f}%'.format(count * 100 / len(lst)),end=" ") continue def main(): stock_list_rul = 'https://hq.gucheng.com/gpdmylb.html'#获得股票列表的URL链接 stock_info_rul = 'https://hq.gucheng.com/'#获取股票信息的链接的主体部分 output_file = 'E://StockInfo.txt' slist = []#股票的信息定义成一个列表变量 getStockList(slist,stock_list_rul)#获得股票列表 getStockInfo(slist,stock_info_rul,output_file)#根据股票列表,到相关网站获取股票信息,并存储在文件中 main()

  本篇完,如有错误欢迎指出~

引用源自 中国大学MOOC Python网络爬虫与信息提取 https://www.icourse163.org/course/BIT-1001870001


【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3