python反爬虫中如何躲避蜘蛛陷阱

426次阅读
没有评论

python反爬虫中如何躲避蜘蛛陷阱

当我们想要捕捉动物的时候,会想到做一个陷阱,只要动物进入陷阱就会被抓住。这样的思想在python反爬虫中也得到了应用。当外面放出的爬虫来的网站获取数据时,网站设置了蜘蛛陷阱,所以就会有爬虫掉进陷阱中,那么获取数据的速度就大大的被降低了。那么,我们有没有什么方法可以帮助爬虫躲避这种蜘蛛陷阱呢?

Spider Trap

蜘蛛陷阱导致网络爬虫进入无限循环之类的东西,这会浪费蜘蛛的资源,降低其生产力,并且在编写得不好的爬虫的情况下,可能导致程序崩溃。礼貌蜘蛛在不同主机之间交替请求,并且不会每隔几秒钟从同一服务器请求多次文档,这意味着“礼貌”网络爬虫比“不礼貌”爬虫的影响程度要小得多。

反爬方式:

创建无限深度的目录结构

HTTP://http://example.com/bar/foo/bar/foo/bar/foo/bar /

动态页面,为网络爬虫生成无限数量的文档。如由算法生成杂乱的文章页面。

文档中填充了大量字符,使解析文档的词法分析器崩溃。

此外,带蜘蛛陷阱的网站通常都有robots.txt告诉机器人不要进入陷阱,因此合法的“礼貌”机器人不会陷入陷阱,而忽视robots.txt设置的“不礼貌”机器人会受到陷阱的影响。

爬虫方法:

把网页按照所引用的css文件进行聚类,通过控制类里最大能包含的网页数量防止爬虫进入trap后出不来,对不含css的网页会给一个penalty,限制它能产生的链接数量。这个办法理论上不保证能避免爬虫陷入死循环,但是实际上这个方案工作得挺好,因为绝大多数网页都使用了css,动态网页更是如此。

 

缺点:

反爬方式1,2会增加很多无用目录或文件,造成资源浪费,也对正常的SEO十分不友好,可能会被惩罚。

学会了的小伙伴可以用来解救我们的小爬虫啦,这样也能多获得一些需要的数据。不过毕竟这种方法存在一定的风险,小伙伴们使用的时候一定要慎重哦。

神龙|纯净稳定代理IP免费测试>>>>>>>>天启|企业级代理IP免费测试>>>>>>>>IPIPGO|全球住宅代理IP免费测试

相关文章:

版权声明:wuyou2021-05-23发表,共计776字。
新手QQ群:570568346,欢迎进群讨论 Python51学习