用python爬取影评及影片信息(评论时间、用户ID、评论内容)

您所在的位置:网站首页 python豆瓣电影Top250爬虫代码 用python爬取影评及影片信息(评论时间、用户ID、评论内容)

用python爬取影评及影片信息(评论时间、用户ID、评论内容)

2023-07-19 07:56| 来源: 网络整理| 查看: 265

爬虫入门:python爬取某瓣影评及影片信息:影片评分、评论时间、用户ID、评论内容 思路分析元素定位完整代码

某瓣网作为比较官方的电影评价网站,有很多对新上映影片的评价,不多说,直接进入正题。 因为版权问题不让放图片

思路分析

爬取的目标网站为某瓣网。可以看到最新上映的电影的相关信息,但是含有电影评论的网址是一个二级链接,需要点击电影进入详细信息才可以查看,所以第一步需要获得影片的链接。观察后可以看到链接如下: 二级网址链接形式 使用BeautifulSoup和正则表达式re库可以解析这个网站所在的class以及确定具体链接所在的位置,具体方式如下:

bs = BeautifulSoup(html.text,'html.parser') movie_list = bs.find_all(class_='item') #定位链接元素 links = re.compile('class="nbg" href="(.*?)" title=') links = re.findall(links,str(movie_list))

可以在控制台看到是否查询成功,得到的结果如下:

['https://movie.douban.com/subject/35118954/', 'https://movie.douban.com/subject/35414623/', 'https://movie.douban.com/subject/35230876/', 'https://movie.douban.com/subject/34477861/', 'https://movie.douban.com/subject/35507172/', 'https://movie.douban.com/subject/35700395/', 'https://movie.douban.com/subject/30362175/', 'https://movie.douban.com/subject/35240235/', 'https://movie.douban.com/subject/35073886/', 'https://movie.douban.com/subject/35056243/']在这里插入代码片

拿到这些链接之后,在分别请求这些链接,分析页面,就可以拿到最后所需要的数据。

for item in links: #TODO 解析页面 定位元素 ... pass 元素定位

分析页面 得到各个所需的信息所在位置 综合使用re和BeautifulSoup定位即可 以用户ID为例:(因为这里有短评和长评两种,所以分开查询)

#用户名称 user = comment.find_all(class_ = 'comment-info') user = re.findall('href.*?/">(.*?)',str(user)) subscriber = re.findall('class="name".*?href.*?/">(.*?)',str(long_comment)) #print(subscriber) 打印用户名称信息 #['CydenyLau', '斯宾诺莎画板', 'Zion', '莫选好片', '小小X', '今夜', 'Maggie_in_LA', 'Gary', '辉兔的爱与生活', '职业影迷']

这里有一个小tips:查找元素的时候要由大到小查询,先查询大的包含的元素,在慢慢锁定自己需要的内容、有用的信息。理论上来说是可以直接用re精确定位到自己所需要的元素 但是这样定位的精度低、错误率高,不建议使用。

完整代码

完整代码如下,复制就可以直接使用,最后使用Dataframe存储数据,也可以保存到本地:

import requests import re from bs4 import BeautifulSoup import pandas as pd url = 'https://movie.douban.com/chart' #headers是将爬虫脚本伪装为浏览器请求 如果没有浏览器headers 请求结果是空的 所以一定要加headers headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/105.0.0.0 Safari/537.36' } html = requests.get( url , headers = headers) bs = BeautifulSoup(html.text,'html.parser') movie_list = bs.find_all(class_='item') #定位链接元素 links = re.compile('class="nbg" href="(.*?)" title=') links = re.findall(links,str(movie_list)) #为代码整洁 减少冗余代码 def collection_data(pakeage = None ,data = None): for item in data: item.replace(" " ,'') pakeage.append(item) return pakeage #声明容器 movies_title,release_date,movies_rate,comment_user,movie_comment,comment_postline= [],[],[],[],[],[] #通过链接找到新的页面 for item in links: page = requests.get(item,headers=headers) page = BeautifulSoup(page.text,'html.parser') #标题 title = page.find_all(id = 'content' ) set_title = re.compile('property="v:itemreviewed">(.*?)') title = re.findall(set_title,str(title)) #年份 year = page.find_all(class_ = 'year') year = re.findall(">(.*?)",str(year)) #评分 rate = page.find_all(class_ = 'll rating_num') rate = re.findall('"v:average">(.*?)',str(rate)) #短评信息 comment = page.find_all(class_="comment") comment = BeautifulSoup(str(comment),'html.parser') #发表时间 postline = comment.find_all(class_= 'comment-time') postline = re.findall('title="(.*?)"',str(postline)) #评论内容 short_commentary = comment.find_all(class_ = 'comment-content') short_commentary = re.findall('"short">(.*?)',str(short_commentary)) #用户名称 user = comment.find_all(class_ = 'comment-info') user = re.findall('href.*?/">(.*?)',str(user)) #正常影评 long_comment = page.find_all(class_ = 'main review-item' ) #用户 subscriber = re.findall('class="name".*?href.*?/">(.*?)',str(long_comment)) #评论发表时间 long_comment = BeautifulSoup(str(long_comment),'html.parser') set_time = re.compile('main-meta".*?">(.*?)') posttime = re.findall(set_time,str(long_comment)) # commentary = long_comment.find_all(class_ = 'short-content' ) set_comment = re.compile('"short-content">(.*?)\(


【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3