爬虫结合批量下载评书、有声书、戏曲等的使用教程

您所在的位置:网站首页 评书网的评书怎么不能下载了 爬虫结合批量下载评书、有声书、戏曲等的使用教程

爬虫结合批量下载评书、有声书、戏曲等的使用教程

2023-08-27 17:54| 来源: 网络整理| 查看: 265

为了教妈妈如何给姥爷下载唱戏机评书歌曲 出了一份图解教程如下

1.打开ht网.(此爬虫专用网站) 2.在网站上选择喜欢的内容记住他的id号码(下图举例)图片中id号为9774 在这里插入图片描述 3.以家里电脑为例,进入F盘名为“评书”文档 4.打开有声书爬虫工具 在这里插入图片描述 5.根据所示例子id,所以此处输入9774,输入后,按回车键执行 显示书籍名称和章数后,按照提示输入“1”后,按回车键开始下载 因为例子共14章所以等十四章下载结束后,即可关闭窗口 在这里插入图片描述 6.此时F盘评书文件档中已有此书下载地址的记事本文件,打开他,并全选复制。(下载地址会生成在有声书爬虫程序的同一目录下) 在这里插入图片描述 在这里插入图片描述 7.打开迅雷,创建新任务,点红色标记标选的加号 在这里插入图片描述 9.此时会自动输入到迅雷下载任务面板中(如果没有显示,再次复制所有下载地址即可) 在这里插入图片描述 10.点击此处,选择想要保存的位置开始下载(注意一点的是需要提前创建所放下载文件的文档,图中我把文档创建为“ljc父子") 在这里插入图片描述 11.还是原来的目录里,此音频已经全下载完毕。 在这里插入图片描述 12.直接拖入到内存卡中即可 。

程序代码用python编写

# -*- coding: utf-8 -*- import requests import re from bs4 import BeautifulSoup import os os.environ['NO_PROXY'] = 'ting89.com' BaseUrl = "http://www.ting89.com/" listUrl = "books/" downUrl = "down/?" SuffixUrl = ".html" #获取章节数量以及小说名称 def get_directory(bookId): total = 0 s_num = bookId.__str__() print('获取%s书籍' % s_num) FinalUrl = BaseUrl + listUrl + s_num + SuffixUrl get = requests.get(FinalUrl) get.encoding = 'gbk' soup = BeautifulSoup(get.text, 'lxml') title = soup.find('img', class_='imgd')['alt'] div_directory = soup.find('span', class_="gaosuxiazai").parent.next_sibling directory = div_directory.children for s1 in directory: total = sum(1 for _ in s1) break return total,title # 获取地址 def get_chapter_url(number,id): print('获取%d章地址' % (number+1)) s_num = number.__str__() s_id = id.__str__() FinalUrl = BaseUrl + downUrl + s_id + "-" + s_num +SuffixUrl get = requests.get(FinalUrl) get.encoding = 'gbk' soup = BeautifulSoup(get.text, 'lxml') iframe = soup.find('iframe') str_iframe = str(iframe) pat = re.compile('(?


【本文地址】


今日新闻


推荐新闻


    CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3