爬虫的基本原理:网络爬虫、爬虫基本流程、解析方式.. |
您所在的位置:网站首页 › python数据爬取的基本原理 › 爬虫的基本原理:网络爬虫、爬虫基本流程、解析方式.. |
原标题:爬虫的基本原理:网络爬虫、爬虫基本流程、解析方式.. 新互联教育(http://nie.jiadezhihe.com/) 提醒您。网络爬虫(Web crawler),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本,它们被广泛用于互联网搜索引擎或其他类似网站,可以自动采集所有其能够访问到的页面内容,以获取或更新这些网站的内容和检索方式。从功能上来讲,爬虫一般分为数据采集,处理,储存三个部分。传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。聚焦爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL,并重复上述过程,直到达到系统的某一条件时停止。另外,所有被爬虫抓取的网页将会被系统存贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索;对于聚焦爬虫来说,这一过程所得到的分析结果还可能对以后的抓取过程给出反馈和指导。 爬虫原理 Web网络爬虫系统的功能是下载网页数据,为搜索引擎系统提供数据来源。很多大型的网络搜索引擎系统都被称为基于 Web数据采集的搜索引擎系统,比如 Google、Baidu。由此可见Web 网络爬虫系统在搜索引擎中的重要性。网页中除了包含供用户阅读的文字信息外,还包含一些超链接信息。Web网络爬虫系统正是通过网页中的超连接信息不断获得网络上的其它网页。正是因为这种采集过程像一个爬虫或者蜘蛛在网络上漫游,所以它才被称为网络爬虫系统或者网络蜘蛛系统,在英文中称为Spider或者Crawler。 展开全文爬虫基本流程 Request和Response Request:浏览器就发送消息给该网址所在的服务器,这个过程叫做HTTP Request。 Response:服务器收到浏览器发送的消息后,能够根据浏览器发送消息的内容,做相应处理,然后把消息回传给浏览器。这个过程叫做HTTP Response。浏览器收到服务器的Response信息后,会对信息进行相应处理,然后展示。 Request详解 请求方式:主要有GET、POST两种类型,另外还有HEAD、PUT、DELETE、OPTIONS等。 请求URL:URL全称统一资源定位符,如一个网页文档、一张图片、一个视频等都可以用URL唯一来确定。 请求头:包含请求时的头部信息,如User-Agent、Host、Cookies等信息。 请求体:请求时额外携带的数据如表单提交时的表单数据。 Response详解 响应状态:有多种响应状态,如200代表成功、301跳转、404找不到页面、502服务器错误。 响应头:如内容类型、内容长度、服务器信息、设置Cookie等等。 响应体:最主要的部分,包含了请求资源的内容,如网页HTML、图片二进制数据等。 能抓取哪些数据 网页文本:如HTML文档、Json格式文本等。 图片:获取到的是二进制文件,保存为图片格式。 视频:同为二进制文件,保存为视频格式即可。 And so on:只要是能请求到的,都能获取。 解析方式 抓取中出现的问题 问:为什么我抓到的和浏览器看到的不一样? 答:网页通过浏览器的解析,加载CSS与JS等文件对网页进行解析渲染,达到我们看到绚丽的网页,而我们抓到的文件只是一些代码,css文件无法调用,使得样式不能表现出来,那么网页就会出现错位等等问题。 问:怎样解决Java渲染的问题? 答:分析Ajax请求、Selenium/WebDriver、Splash、PyV8、Ghost.py等库 保存数据 文本:纯文本、Json、Xml等。 关系型数据库:如MySQL、Oracle、SQL Server等具有结构化表结构形式存储。 非关系型数据库:如MongoDB、Redis等Key-Value形式存储。 二进制文件:如图片、视频、音频等等直接保存成特定格式即可。返回搜狐,查看更多 责任编辑: |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |