【Python爬虫】一键获取微博评论,轻松实现舆情分析! |
您所在的位置:网站首页 › 微博舆情处理流程 › 【Python爬虫】一键获取微博评论,轻松实现舆情分析! |
目录 前言 一、🌍爬虫是什么?🌍 二、🌍微博爬虫的难点🌍 三、🌍微博API爬取步骤🌍 1.🌕基础信息配置 🌕 1.1注册微博开放平台 1.2.创建一个应用 1.3获取token 2.🌕调用API接口获取数据 🌕 3.🌕获取“所有”评论数据 🌕 四、🌍总结 🌍 3.🌕代码汇总🌕 展望 336 条记录,直接上结果 基于最近的一些微博爬虫工作,对目前微博爬虫内容需要考虑的问题进行描述。当前基于爬虫的思路主要有以下两种: 思路一:从页面上把数据下载下来,再用正则表达式一条一条匹配 思路二:微博平台提供了一种更便捷的思路,通过调用API,返回需要的数据。 本文选取思路二,基于微博API展开工作内容。 说明:工作是基于微博移动客户端(通常都是选择这个)https://m.weibo.cn/ 一、🌍爬虫是什么?🌍爬虫(Spider)是指一类网络程序,其目的是自动地浏览互联网,并收集特定的信息。通常情况下,爬虫被用于从网页中提取数据,如文本内容、链接、图片等,并将这些数据保存下来供后续分析或展示使用。 二、🌍微博爬虫的难点🌍难点: 1)受到请求频率的限制,需要采用一些方法来避免限制,例如:time.sleep等 2)通常来说,需要设置cookie,通过设置url,模拟网页发送请求,获得网页内容。缺点:需要对数据进行预处理,并且需要找到网页url的逻辑,cookie。 3)经过测试,当前微博的评论,不能全部提取。本文通过实验得到结果,微博评论通常只能抓到200条数据后,就会被限制。 基于上述问题,为了爬取到微博的评论,本文爬取的思路采取通过微博API进行调用相关接口,具体实现步骤如下: 三、🌍微博API爬取步骤🌍 1.🌕基础信息配置 🌕 1.1注册微博开放平台登录微博开放平台,如下链接。注册一个账号。 https://open.weibo.com/ 1.2.创建一个应用在顶部【微连接】中,创建一个微链接。 查看创建应用的App Key,App Secret 【我的应用】->【应用信息.基本信息】 配置【高级信息】,两项都设置为 https://api.weibo.com/oauth2/default.html 经过上面的配置后,我们将获得的App Key,App Secret发送给客户端,返回给用户特定的token值,拿到这个token之后,我们才能调用API拿到数据。 导入包,可以去github上下载sinaweibopy3:https://github.com/olwolf/sinaweibopy3 import webbrowser from sinaweibopy3.sinaweibopy3 import APIClient 其中XXXXX替换为创建应用的App Key,App Secret; APP_KEY = 'XXXXX' APP_SECRET = 'XXXXX' CALLBACK_URL = 'https://api.weibo.com/oauth2/default.html'#回调授权页面 client = APIClient(app_key=APP_KEY, app_secret=APP_SECRET, redirect_uri=CALLBACK_URL) url = client.get_authorize_url() webbrowser.open_new(url) code = input('输入 code:') r = client.request_access_token(code) print(r)这时会自动打开浏览器,需要登录你创建应用的微博账号进行扫码登录,登录后,会返回一串code码,注意看浏览器中的网址。将网址中code后面的部分复制下来,返回到python的输出窗口进行粘贴。 https://api.weibo.com/oauth2/default.html?code=edd808049ac941c8dccd76a071b95a88 这时,程序返回数据,我们将access_token这部分数据保存下来 'access_token': '2.00XXXXXXXXXXXXXXXXXXXXXX' #这里要自己进行替换具体得到的token 参数说明: access_token是在第二部分你获得的; suffix是你调用的API,具体还有哪些API接口,可以参考官方的接口文档: https://open.weibo.com/wiki/微博api params中的参数,id是每条微博对应的号码,举个例子,打开一条微博 注意观察浏览器的网址变化,不难发现detail/后面的数字就是这条微博对应的ID https://m.weibo.cn/detail/496044833636XXXX from weibopy import WeiboOauth2, WeiboClient import json # access_token , params中的id需要替换 access_token = '2.00XXXXXXXXXXXXXXXXXXXXXX' client = WeiboClient(access_token) #调用API result = client.get(suffix='comments/show.json', params={'id': 496044833636XXXX, 'count': 50, 'page': 1}) json_result = json.dumps(result) print(json_result)执行上述程序,我们即可获得微博(page=1)对应的评论数据,得到的数据是JSON格式,复制得到的数据,可以通过JSON可视化网站进行可视化。 JSON在线可视化视图|(ES JSON在线工具) ![]() 很显然,我们知道如果采用思路一,即在网页下爬取评论数据,我们做过这样的测试,发现在思路一下每条微博最多能获取200条左右的数据(即在拿到200条数据后,返回的数据为空,受到限制)。故此,通过思路二的方式我们可以爬取微博下的全部评论,这里的全部其实是一个引号,当然API能爬到的评论受到的限制远小于在网页上获取数据。 接下来,我们设计获取尽可能多的评论,通过第三部分知道,我们是通过变量page来获得数据。 import re import time import pandas as pd from weibopy import WeiboClient import csv # 下面两行的解释在第三部分有详细说明 access_token = '2.00XXXXXXXXXXXXXXXXXXXXXX' #替换为自己应用的token,获取方法见本文第二部分 client = WeiboClient(access_token) comment_list = [] # 保存所有评论正文 # 共获取 10 页 * 每页最多 50 条评论 for i in range(1, 11): result = client.get(suffix='comments/show.json', params={'id': 4966558150951081, 'count': 50, 'page': i}) comments = result['comments'] if not len(comments): break for comment in comments: # 获取微博文本 original_text = comment['status']['text'] # 获取评论文本 text = re.sub('回复.*?:', '', str(comment['text'])) created_at = comment['created_at'] # 获取评论时间 created_time = str(pd.Timestamp(created_at).tz_convert(tz=None)) # 获取评论地区 location = comment['user']['location'] # 拼接数据 comment_concat = [original_text, created_time, text, location] comment_list.append(comment_concat) print('已抓取评论 {} 条'.format(len(comment_list))) time.sleep(1) # 将数据写入csv文件中 with open("result.csv", 'w', newline='', encoding="utf-8") as f: writer = csv.writer(f) writer.writerows(comment_list)结果: 已抓取评论 45 条 已抓取评论 84 条 已抓取评论 121 条 已抓取评论 165 条 已抓取评论 207 条 已抓取评论 240 条 已抓取评论 283 条 已抓取评论 321 条 已抓取评论 336 条 Process finished with exit code 0 只需要配置自己的token,修改你想要爬取的微博ID,不用任何修改!!! 童叟无欺,直接上手,话不多说,代码附上! # -----------------------------------------------------------------# # Step1:先创建一个py文件,写入以下内容,用于获取你的token ''' import webbrowser #python内置的包 from sinaweibopy3.sinaweibopy3 import APIClient APP_KEY = '857XXXXXX'#注意替换这里为自己申请的App信息 APP_SECRET = '110f8c95d7d371964e08XXXXXXXXXXXX' CALLBACK_URL = 'https://api.weibo.com/oauth2/default.html'#回调授权页面 #利用官方微博SDK client = APIClient(app_key=APP_KEY, app_secret=APP_SECRET, redirect_uri=CALLBACK_URL) #得到授权页面的url,利用webbrowser打开这个url url = client.get_authorize_url() print(url) webbrowser.open_new(url) code = input('输入 code:') r = client.request_access_token(code) print(r) ''' # -----------------------------------------------------------------# # Step2:创建第二个py文件,将你的token写入到这里 from weibopy import WeiboClient access_token = '2.00c7LqqH0CJbDw49044ad8XXXXX' #替换自己的token client = WeiboClient(access_token) # -----------------------------------------------------------------# #调用API result = client.get(suffix='comments/show.json', params={'id': 4966558150951081, 'count': 50, 'page': 1}) # import json # json_result = json.dumps(result) # # print(json_result) # -----------------------------------------------------------------# import re import csv import time import pandas as pd comment_list = [] # 保存所有评论正文 # 共获取 10 页 * 每页最多 50 条评论 for i in range(1, 11): result = client.get(suffix='comments/show.json', params={'id': 4966558150951081, 'count': 50, 'page': i}) comments = result['comments'] if not len(comments): break for comment in comments: # 获取微博文本 original_text = comment['status']['text'] # 获取评论文本 text = re.sub('回复.*?:', '', str(comment['text'])) created_at = comment['created_at'] # 获取评论时间 created_time = str(pd.Timestamp(created_at).tz_convert(tz=None)) # 获取评论地区 location = comment['user']['location'] # 拼接数据 comment_concat = [original_text, created_time, text, location] comment_list.append(comment_concat) print('已抓取评论 {} 条'.format(len(comment_list))) time.sleep(1) # 将数据写入csv文件中 with open("result.csv", 'w', newline='', encoding="utf-8") as f: writer = csv.writer(f) writer.writerows(comment_list) 展望本文通过调用微博API进行爬取微博评论,克服了在网页端爬取时,对于每条微博限制爬取200条左右的评论,并且在数据预处理方面,通过API调用也更简洁,对新手十分有利。 思考,微博官方对每个用户的token设置了访问API的限制,如何才能避免限制爬取多条微博的多条评论,在下一篇文章中,我们的工作引入了反爬机制,爬取了接近20万余条评论记录。下一篇工作:【Python爬虫】高效实现的微博爬虫代码资源 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |