未加星标

爬虫之全站爬取方法

字体大小 | |
[开发(python) 所属分类 开发(python) | 发布者 店小二05 | 时间 2018 | 作者 红领巾 ] 0人收藏点击收藏

爬虫之全站爬取方法
这是崔斯特的第六十九篇原创文章 方法

做过好几个关于网站全站的项目,这里总结一下。

先把上面那张图写下来,全站爬取的两种方法:

关系网络: 优点:简单;可以抓取“热门”数据 缺点:无法抓取全量数据;速度慢;需要解决去重问题 可行性:比较高 遍历ID 优点:可以抓取所有数据;不用数据去重 缺点:资源消耗大;速度慢;可能被发现 可行性:仅可用于ID自增 关于关系网络

其实这个很好理解。比如说知乎,一个大V有100W粉丝,从这个大V出发,抓取粉丝的粉丝,一直循环下去。(可能是个死循环)

这个方法就比较简单, Scrapy 中就是继承 CrawlSpider ,再编写匹配规则就好。

Example

import scrapy from scrapy.spiders import CrawlSpider, Rule from scrapy.linkextractors import LinkExtractor class MySpider(CrawlSpider): name = 'example.com' allowed_domains = ['example.com'] start_urls = ['http://www.example.com'] rules = ( # Extract links matching 'category.php' (but not matching 'subsection.php') # and follow links from them (since no callback means follow=True by default). Rule(LinkExtractor(allow=('category\.php', ), deny=('subsection\.php', ))), # Extract links matching 'item.php' and parse them with the spider's method parse_item Rule(LinkExtractor(allow=('item\.php', )), callback='parse_item'), ) def parse_item(self, response): self.logger.info('Hi, this is an item page! %s', response.url) item = scrapy.Item() item['id'] = response.xpath('//td[@id="item_id"]/text()').re(r'ID: (\d+)') item['name'] = response.xpath('//td[@id="item_name"]/text()').extract() item['description'] = response.xpath('//td[@id="item_description"]/text()').extract() return item

这种方法一般是搜索引擎会做的。而且抓取的内容基本是最多人看到的,所以月排在前面,和SEO有关。

但是这种方法的缺点也是很明显的,最明显的就是没法抓全数据,像那种冷门的数据就没法抓取到,速度也是比较慢的,必须保存去重队列,以防止重复抓取页面。(了解下 布隆过滤器 )

如果对数据完整性要求没那么高可以考虑这种方法。

遍历ID

找各种方法就比较无脑了,啥也不用想,从0开始遍历跑吧。

毫无疑问,这种方法可以抓取网站所有的数据,因为在开始抓取前就已经完成的去重,所以这方面就不用管了。

但是缺点也很明显,因为是遍历ID,所以需要很多服务器资源和代理资源,有可能某个ID已经下架或失效。所以整个工程请求量会非常大。而且可能被别人发现,一般人都去看那些热门帖子,结果你把那么重来没人看的翻了一遍,别人也会发现数据异常的(也会存在假数据的情况:sob:)。

而且这种方法之适用于ID自增的,大多数是数字ID递增,比如说天眼查的:

https://www.tianyancha.com/company/24762997 https://www.tianyancha.com/company/150041670 https://www.tianyancha.com/company/1073358312

知乎也是:

https://zhuanlan.zhihu.com/p/47969297 https://zhuanlan.zhihu.com/p/48652497 https://zhuanlan.zhihu.com/p/47805332

应该是和数字有关系,可以先采样进行抓取,研究数据分布情况。

当提供不正确ID时,也会返回数据不存在的情况


爬虫之全站爬取方法
爬虫之全站爬取方法

在这里提供一个生成ID的方法

def gen_uid(num): """ 使用生成器生成ID :param num: 起始ID :return: 生成器 """ js = 0 result = list() while js < 20000: num += 1 js += 1 result.append(num) yield result

最后再看看这张图。两种方法都有优缺点,根据实际需求选取,如果你还知道别的抓取方法,欢迎指出。


爬虫之全站爬取方法

本文开发(python)相关术语:python基础教程 python多线程 web开发工程师 软件开发工程师 软件开发流程

代码区博客精选文章
分页:12
转载请注明
本文标题:爬虫之全站爬取方法
本站链接:https://www.codesec.net/view/611290.html


1.凡CodeSecTeam转载的文章,均出自其它媒体或其他官网介绍,目的在于传递更多的信息,并不代表本站赞同其观点和其真实性负责;
2.转载的文章仅代表原创作者观点,与本站无关。其原创性以及文中陈述文字和内容未经本站证实,本站对该文以及其中全部或者部分内容、文字的真实性、完整性、及时性,不作出任何保证或承若;
3.如本站转载稿涉及版权等问题,请作者及时联系本站,我们会及时处理。
登录后可拥有收藏文章、关注作者等权限...
技术大类 技术大类 | 开发(python) | 评论(0) | 阅读(150)