爬虫爬取某网站的购买记录就是模拟浏览器抓取东西,爬虫三部曲:数据爬取、数据解析、数据存储,数据爬取:手机端、pc端数据解析:正则表达式数据存储:存储到文件、存储到数据库。下面实战记录爬取某网站的购买记录。
第一步:添加必要的库,创建一个BUY类
import requests,re,xlwt
第二步:class Color;
def __init__(self): '''添加请求头''' self.headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 ' '(KHTML, like Gecko) Chrome/87.0.4280.141 Safari/537.36', } #添加查询订单地址 self.port = 'http://xxxxxx.xxfaka.cn/?mod=query&data=xxxxxxxxxxx' '''请求视频网页链接''' def request_link(self): self.response = requests.get(self.port, headers=self.headers) self.html = self.response.text print(self.html) if __name__ == '__main__': app= Color() app.request_link()
直接运行之后的数据有点多,这里没有完全显示
第三步:找到cookie添加到请求头
根据搜索资料发现需要加cookie,然后又去网页找到cookie添加到请求头,然后headers会出现下面这种情况
self.headers = { 'Cookie':'mysid=bcd178f6a7784bdaf63c03e321cfb77a; PHPSESSID=gml9nd9psrik73840v6jem6mm4; sec_defend=baa2a7703f2f3326fa7a366428aef295ac40ff679f2fec0284578de88e87bcac; sec_defend_time=1', 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 ' '(KHTML, like Gecko) Chrome/77.0.3560.141 Safari/537.36', }
第四步:再次运行代码
这时候就可以拿到网页数据了
初步打算一次直接匹配一个订单全部消息,但是发现有对括号导致一直匹配内容为空
</span> (<font size="2" color="#836FFF">2020-12-24 01:09:09</font>)<br>…太长了…<hr>
用两个replace将括号替换为空
self.html = self.html.replace('(','') self.html = self.html.replace(')', '') re.findall(r'…(.*?)…(.*?)…',self.html)
第五步:一条语句扣一个内容,之后在for循环将对应数据放到一个列表
匹配了六七个(.?)内容,发现总是不能准确扣到具体内容,有可能好几条订单被扣到一个(.?)里面。这个时候可以换个思路,一条语句扣一个内容,之后在for循环将对应数据放到一个列表,然后整体再放入列表组成二维列表。
#获取订单时间 self.order_time = re.findall(r'<font size=".*?" color="#836FFF">(.*?)</font>.*?<br><h4>商品名称:<a href="\./\?mod=buy&tid=\w?\w?\w?\w?">(.*?)</a></h4>联系方式:.*?总价<font color=".*?">(.*?)</font>元.*?</strong></font>(.*?)<hr>',self.html) #获取商品名称 self.pur_info = re.findall(r'',self.html) #获取订单联系方式 self.contact_info = re.findall(r'',self.html) #获取订单总价 self.price_total = re.findall(r'总价<font color=".*?">(.*?)</font>元',self.html) #获取账号不完全信息 self.km_info = re.findall(r'</strong></font>(.*?)<hr>',self.html) #获取下单总数 self.num_total = re.findall(r'<li><span class="rows">共(.*?)条</span> </li>', self.html) temp_info =[] for i in range(0,len(self.order_time)): for lie in range(0,6):#lie temp_info.append(self.order_time[lie]) temp_info.append(self.pur_info[lie]) temp_info.append(self.contact_info[lie]) temp_info.append(self.price_total[lie]) temp_info.append(self.km_info[lie]) temp_info.append(self.num_total[0]) temp_info.append(''.join(temp_info)) self.account_info.append(list(temp_info)) print(self.account_info)
写出来基本就是上面的样子,运行发现四五秒以后直接卡死,然后半小时没动重新开机了,代码没保存再运行append那就报错了,就暂时放弃这种方法,重新回到之前的思路,把数据一次都提取出来,既然这单个的都准确提取了,放到一起就可以了。把每个放到一起连接起来运行,直接生成了二维数据。
for i in range(0,len(self.info)): self.info[i] = list(self.info[i]) #通过这里来判断订单的三种情况 km_info = re.findall(r'>账号信息:(.*?)</b><br>',self.info[i][5]) if km_info==[]: km_info = re.findall(r'</b><span class="(.*?)">卡密可能漏发,请联系客服</span>',self.info[i][5]) if km_info == []: km_net = re.findall(r'<br>卡密操作:<a href=".(.*?)" title="点击查看卡密"><button', self.info[i][5]) km_net = self.port +(''.join(km_net))#多张卡密提取链接 #尚未完成一个单子多张卡密提取 self.info[i][5] = km_info
神龙|纯净稳定代理IP免费测试>>>>>>>>天启|企业级代理IP免费测试>>>>>>>>IPIPGO|全球住宅代理IP免费测试