Python网络爬虫小入门实战,正式开始!

您所在的位置:网站首页 网页url获取 Python网络爬虫小入门实战,正式开始!

Python网络爬虫小入门实战,正式开始!

#Python网络爬虫小入门实战,正式开始!| 来源: 网络整理| 查看: 265

回复“书籍”即可获赠Python从入门到进阶共10本电子书

随意春芳歇,王孙自可留。

大家好,我是小一

萧萧的风在瑟瑟的吹,还是可以穿短袖的深圳,似乎也即将会变天

前几天,有一个读者在和我交流技术的时候,提出了一个小小的问题

这其实是一个很简单的事情,搁在之前,我早就分分钟写个脚本抛给他了。但是苦于最近的工作实在太多,各种文档报告写的头疼,也是拖了好几天才在上个周末抽了点时间把代码搞定了。

最近确实事情有点多,加上在和几个大佬一起组建交流群,所以也是在今天才有空写完爬虫对应的笔记教程,供大家参考学习。

如果说只是分享代码,那其实就是甩一个链接的事儿,但是这明显不符合小一我的气质,所以我写了这篇笔记

手把手教学,正式开始!

正文

今天爬取数据的链接是:https://www.8684.cn/

这个是8684网站的网址,上面有各种公交站点、地铁站点、违章、资讯等等数据,小功能做的相当不错。

页面长这样:

对应的我们点击热门公交中的某个城市,例如:深圳公交,注意看点击的时候网址栏发生的变化

此时的网址变成了:https://shenzhen.8684.cn/

以此类推,其他城市对应的访问链接想必你会很容易构造出来

点进去之后的页面是这样的:

从我的经验来判断,我们想要的数据一定在红框里面。

而且从这几种网站的分类类型来看,绿框框出来的一定是最靠谱最有用的分类,而且在后期的分析过程中一定会最有用。

直接打开F12,进行源码分析(或者在某个超链接上点击右键->检查)内容一目了然:

处理思路如下:定位到 bus-layer depth w120 的这个 div,然后定位到它的第三个 class为‘pl10’ 的子div,这个就是我们我们需要的线路分类

对应上面的网页显示内容,源码都展开之后是这样的:

其中有两种标签:class="kt" 的span标签,对应的是分类的标题;class='list' 的div标签,子标签对应的是每一个分类的链接 href 和名称 wbfspan 标签。有用的是第二个标签。

正常点击网页上的某一种分类线路,例如:常规线路,注意看点击的时候网址栏发生的变化

此时的网址变成了:https://shenzhen.8684.cn/line1,也就是在之前链接的结尾加上上面的 href 内容

再回到我们的网页上,可以看到显示的公交路线,同样分析源码,内容如下:

处理思路如下:定位到 list clearfix 的这个div,它下面的每一个子标签(a标签)对应的都是一条公交线路,href 同样为该公交线路的链接,wbfspan 同样为名称

随便点开某一条公交线路,例如:8号线,注意看点击的时候网址栏发生的变化

此时的网址变成了:https://shenzhen.8684.cn/x_3dfcd0fb,也就是将之前的 href 内容换成了最新的 href 内容

再回到我们的网页上,这个就是我们需要爬取数据的终极目标网页:

上半部分的公交详细信息:运行时间、票价、公司、更新时间等

下半部分的公交详细站点,以及每个站点的经纬度等

ok,来整理一下总体思路:

通过城市名称构造第一类访问 url

访问第一类 url

解析该城市的公交分类,获取到想要的分类类型,构造第二类访问 url

访问第二类 url

解析分类类型的每一个公交线路,构造第三类访问 url

访问第三类 url

解析该公交路线的上、下两部分数据

循环第二类 -> 第三类的过程,直到爬完所有数据

解析城市的公交分类,构造第二类访问 url 的核心代码如下:

上面的 dic_result 中存储的就是每一个分类的名称 text 和访问 href

对其进行遍历,即可获得每一个类型下的所有公交线路

核心代码如下:

类似的, bus_arr 中存储的就是每一个公交路线的名称 text 和访问 href

同样的代码设计思路,遍历访问每个链接,解析最终的网页即可

最后我爬到的数据是这样的:

每个公交路线经过的站点列表我放入了一个字典,也就是上图的最后一列

对了,上述数据我没有做数据清洗,要清洗的话我建议:

运行时间列进行拆分,构造最早发车、最晚发车、起始站、终点站 四个字段;

票价列进行解析,识别出数字;

最后更新列进行解析,识别出时间;

站点信息列进行解析,统计总站点数、是否环形、经过哪些行政区等

另外,上文中提到了可以解析出站点经纬度信息,这个在上述笔记中没有写出来,感兴趣的自行摸索,或者在文末留言交流

写在最后的话

整体来说,虽然流程的设计比较繁琐,但是仍然是很基础的一篇内容

与本文相关的爬虫参数设置、简单爬虫伪装,网页解析都可以在以前的文章中找到,在此不一一提及

另外,建议大家在运行的过程中,适当的设置程序休眠,理性爬虫

小伙伴们,快快用实践一下吧!如果在学习过程中,有遇到任何Python问题,欢迎加我好友,我拉你进Python学习交流群共同探讨学习。

-------------------End-------------------



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3