爬虫的基本定义与原理

420次阅读
没有评论
爬虫的基本定义与原理

    学习目标:了解爬虫的定义和原理,并知道为什么要学爬虫。


    你听说过爬虫吗?从今天开始我们一起学习Python爬虫吧!

一、为什么要学爬虫

    至于这个问题,不同的人会给你不同的答案:因为爬虫可以爬取一些付费内容,所以有些人是为了省钱;因为爬虫可以爬取一些大数据,有利于分析数据,所以有些人是为了帮助工作;因为爬虫有利于学习网络知识,所以有些人是想当程序员……不过不论如何,只要学会了,都是有帮助的,还不赶紧学起来吧!

二、爬虫的定义

    你可能不知道,其实你现在就在爬虫,原来爬虫分为通用爬虫和聚焦爬虫,通用爬虫就是我们平常的上网,而我们Python则是聚焦爬虫。爬虫主要是通过我们的电脑向服务器发送请求,然后服务器返回数据给我们。

三、爬虫的原理

    通用爬虫一般是我们电脑在打开网站时,我们的电脑向服务器发送一个请求,然后服务器发送给我们页面代码,在我们的浏览器上运行。我们每次完成一个操作就会重新向服务器发送一个相应的请求。以此类推交换信息,这就是通常的爬虫。

    而聚焦爬虫不一样,他是专门为了获取某样信息而建立的爬虫,所以他一般只会爬取一个文件或一些文件,得到想要数据的效果。

以上就是爬虫的定义和原理,下一篇文章我们开始爬虫的正式学习。

神龙|纯净稳定代理IP免费测试>>>>>>>>天启|企业级代理IP免费测试>>>>>>>>IPIPGO|全球住宅代理IP免费测试

相关文章:

版权声明:Python教程2022-10-24发表,共计518字。
新手QQ群:570568346,欢迎进群讨论 Python51学习