爬虫——爬虫中使用正则表达式
下面我们尝试爬取内涵段子网站:http://www.neihan8.com/article/list_5_1.html
打开之后,当你进行翻页的时候,不难注意到,url地址的变化:
第一页url: http: //www.neihan8.com/article/list_5_1 .html
第二页url: http: //www.neihan8.com/article/list_5_2 .html
第三页url: http: //www.neihan8.com/article/list_5_3 .html
第四页url: http: //www.neihan8.com/article/list_5_4 .html
这样,我们把url规律找到了,要想爬取所有的段子,只需要修改一个参数即可。下面,我们就开始一步一步将所有的段子爬取下来。
第一步:获取网页数据(网页上全部内容)
1.按照我们之前的用法,我们需要写一个加载页面的方法。
这里我们定义一个类,将url请求作为一个成员方法处理。
我们创建一个duanzi_spider.py文件。
然后定义一个Spider类,并且添加一个加载页面的成员方法。
#!/usr/bin/python3 # -*- coding:utf-8 -*- import requests class Spider(object): """ 一个爬虫类 """ def loadPage(self, url): """ 下载指定url页面的内容 :return: """ # User-Agent头 header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.71 Safari/537.36'} response = requests.get(url = url, headers = header) html = response.content.decode("gb18030") # 打印页面内容 print(html) # 返回页面内容 return html
2.写main函数测试loadPage()方法
if __name__ == '__main__': # 实例化类对象 my_spider = Spider() # 让用户输入需爬取页面的页码 page = int(input("请输入你需要爬取的页码:")) # 拼接用户需爬取页面的url地址 url = "http://www.neihan8.com/article/list_5_{}.html".format(page) html = my_spider.loadPage(url)
第二步:筛选数据
我们已经得到了整个页面的数据。但是,里面有很多内容我们并不需要,所以下一步我们需要对上面爬取的内容进行筛选。如果筛选,这里就用到了我们前面讲到的正则表达式。
首先
import re
然后:在我们得到的html中进行筛选匹配。
我们需要一个匹配规则:
我们可以打开内涵段子的网页,鼠标点击右键“查看源代码”,你会发现,我们需要的每个段子的内容都是在一个<div>标签中,而且每个div都有一个属性class="f18 mb20"。
所以,我们只需要匹配到网页中所有<div class="f18 mb20">到</div>的数据就可以了。
根据正则表达式,我们可以推算出一个公式是:
<div class="f18 mb20">(.*?)</div>
这个表达式实际上就是匹配到所有div中class="f18 mb20"里面的内容
然后将这个正则应用到代码中,我们会得到以下代码:
#!/usr/bin/python3 # -*- coding:utf-8 -*- import requests import re class Spider(object): """ 一个爬虫类 """ def loadPage(self, url): """ 下载指定url页面的内容 :return: """ # User-Agent头 header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.71 Safari/537.36'} response = requests.get(url = url, headers = header) html = response.content return html.decode("gb18030") def screenPage(self, html): """ 筛选html内容,返回列表 :param html: :return: """ # <div class="f18 mb20">...</div> pattern = re.compile(r'<div class="f18 mb20">(.*?)</div>', re.S) item_list = pattern.findall(html) return item_list if __name__ == '__main__': # 实例化类对象 my_spider = Spider() # 让用户输入需爬取页面的页码 page = int(input("请输入你需要爬取的页码:")) # 拼接用户需爬取页面的url地址 url = "http://www.neihan8.com/article/list_5_{}.html".format(page) # 下载网页内容 html = my_spider.loadPage(url) # 筛选数据 item_list = my_spider.screenPage(html)
这里需要注意的是re.S是正则表达式中匹配的一个参数。
如果没有re.S,则是只匹配一行中有没有符合规则的字符串,如果没有则下一行重新匹配。
如果加上re.S则是将所有的字符串作为一个整体进行匹配,findall将所有匹配到的结果返回列表中。
第三步:保存数据
我们可以将所有的段子存放在文件中。
def writePage(self, list): """ 以追加的形式存储筛选后的内容 :param list: 筛选后的数据,列表形式 :return: """ with open(self.file_name, "a", encoding = "utf-8") as f: for content in list: # 段子内容:因为段子中有很多<p>,</p>,<br />。。。,还有一些转义字符。在这里作下替换 content = content.replace("…", "…").replace("“", "“").replace("”", "”") content = content.replace(" ", "").replace("\t", "").replace(":", ":") content = content.replace("<p>", "").replace("</p>", "").replace("<br />", "").replace(" ", "") content = content.replace("\u3000", "").replace("\r\n\r\n", "\r\n") content = content.strip() # 写入一个段子的内容 f.write(content) # 我是分割线 f.write("*" * 30)
第四步:完整的程序
#!/usr/bin/python3 # -*- coding:utf-8 -*- import requests import re class Spider(object): """ 一个爬虫类 """ def __init__(self, start_page, end_page): """ 类的初始化函数 :param start_page: :param end_page: :return: """ self.start_page = start_page self.end_page = end_page self.file_name = "duanzi.txt" def loadPage(self, url): """ 下载指定url页面的内容 :return: """ # User-Agent头 header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.71 Safari/537.36'} response = requests.get(url = url, headers = header) html = response.content return html.decode("gb18030") def screenPage(self, html): """ 筛选html内容,返回列表 :param html: :return: """ # <div class="f18 mb20">...</div> pattern = re.compile(r'<div class="f18 mb20">(.*?)</div>', re.S) item_list = pattern.findall(html) return item_list def writePage(self, list): """ 以追加的形式存储筛选后的内容 :param list: 筛选后的数据,列表形式 :return: """ with open(self.file_name, "a", encoding = "utf-8") as f: for content in list: # 段子内容:因为段子中有很多<p>,</p>,<br />。。。,还有一些转义字符。在这里作下替换 content = content.replace("…", "…").replace("“", "“").replace("”", "”") content = content.replace(" ", "").replace("\t", "").replace(":", ":") content = content.replace("<p>", "").replace("</p>", "").replace("<br />", "").replace(" ", "") content = content.replace("\u3000", "").replace("\r\n\r\n", "\r\n").replace("\r\n", "\n") content = content.strip() # 写入一个段子的内容 f.write(content) # 我是分割线 f.write("*" * 30) def run(self): """ 让爬虫开始工作 :return: """ # 循环处理我们需要爬取的页面 for page in range(self.start_page, self.end_page + 1): # 拼接当前页码page的url地址 url = "http://www.neihan8.com/article/list_5_{}.html".format(str(page)) print("正在下载第{}页".format(str(page))) # 下载url对应的全部内容 html = self.loadPage(url) # 筛选数据 item_list = self.screenPage(html) # 存储筛选后的数据 self.writePage(item_list) # 主函数 if __name__ == '__main__': # 让用户输入需爬取页面的起始页码 start_page = int(input("请输入您需要爬取的起始页:")) # 让用户输入需爬取页面的终止页码 end_page = int(input("请输入您需要爬取的终止页:")) # 实例化类对象 mySpider = Spider(start_page, end_page) # 让爬虫开始工作 mySpider.run()
最后,我们执行上面的代码,完成后查看当前路径下的duanzi.txt文件,里面已经有我们要的内涵段子。
以上便是一个非常精简的小爬虫程序,使用起来很方便,如果想要爬取其他网站的信息,只需要修改其中某些参数和一些细节就行了。
神龙|纯净稳定代理IP免费测试>>>>>>>>天启|企业级代理IP免费测试>>>>>>>>IPIPGO|全球住宅代理IP免费测试