想要了解一些新知识点,除了整篇看完内容外,我们还可以通过问答题的形式了解其中的重点。这也算是很多小伙伴考前复习的一种方法,只抓取整篇内容中的重点部分。说到正则表达式多半印象是搜索字符串的,小编觉得只发挥这方面的作用,未免有些大材小用,要知道正则表达式同样是可以进行获取数据的,接下来小编就给大家到来正则表达式爬取问答的方法。
爬虫思路
1、确定爬取的url路径,headers参数
2、发送请求 — requests 模拟浏览器发送请求,获取响应数据
3、解析数据 — re模块:提供全部的正则表达式功能
4、保存数据 — 保存json格式的数据
完整步骤:
确定爬取的url路径,headers参数
base_url = 'https://www.guokr.com/ask/highlight/' headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
发送请求 — requests 模拟浏览器发送请求,获取响应数据
response = requests.get(base_url, headers=headers) data = response.text
解析数据 — re模块:提供全部的正则表达式功能
href="https://www.guokr.com/question/669761/">印度人把男人的生殖器叫林伽,把女人的生殖器叫瑜尼,林伽和瑜尼的交合,便是瑜伽。这是真还是假的</a></h2>
编译正则表达式 预编译的代码对象比直接使用字符串要快,因为解释器在执行字符串形式的代码前都必须把字符串编译成代码对象
pattern = re.compile('<h2><a target="_blank" href="(.*?)">(.*?)</a></h2>', re.S) pattern_list = pattern.findall(data) # -->list # json [{[]}]{} # 构建json数据格式 data_list = [] for i in pattern_list: data_dict = {} data_dict['title'] = i[1] data_dict['href'] = i[0] data_list.append(data_dict)
保存json格式的文件
with open("guoke01.json", 'w', encoding='utf-8') as f: f.write(json_data_list)
构建一个循环爬取
for page in range(1, 101): print("====正在爬取第{}业数据====\n".format(page))
优化代码,把page传递进去
base_url = 'https://www.guokr.com/ask/highlight/?page={}'.format(str(page))
把列表添加到for循环上面去
data_list = []
最后运行代码。
以上就是用正则表达式爬取问答的流程,相信以题目形式展现的内容短时间内可以帮助大家快速学习某方面的新知识。整篇爬取数据的重点在正则表达式的使用上,大家可以多花点时间研究。
神龙|纯净稳定代理IP免费测试>>>>>>>>天启|企业级代理IP免费测试>>>>>>>>IPIPGO|全球住宅代理IP免费测试