mac下 如何简单粗暴 使用Python进行网络爬虫(2)

929次阅读
没有评论

这次 我们来爬一个图片网站 然后保存到数据库
目标 我们选择 http://www.win4000.com/zt/fengjing.html
先打开网站看一下

mac下

我们的目的 就是抓风景桌面的壁纸 但这些都是缩略图 大图 在点击后的详情页里面
我们再次点击 一张素略图 看看

mac下

基本上 每一个缩略图都对应8-9张大图
那么 我们的目的很明确了 根据每个缩略图 找到对应的大图 并且下载下来

回到 http://www.win4000.com/zt/fengjing.html 检查元素查看网页 源代码

mac下

这个简直太简单了 直接用 BeautifulSoup获得每一个缩略图对应的详情

mac下

再来查看对应大图的

mac下

既然每张大图 大概有8-9张不等 那我们就搞一个循环直接便利

mac下

得到图片url后 开始下载

mac下

(注 我这里把下载扔到桌面 你也可以根据自己的需求更换地址)
到这一步 我们算是把图片抓取过来了。

继续扩展一下 既然捕捉到了图片 那么我们能不能存到数据库里?
当然可以! 看如下操作

首先 数据库软件 我使用

mac下

mac系统下 有破解版的 破解过程很简单 我就不重复了
打开软件
在127.0.0.1点击右键->新建数据库

mac下

mac下

id自增 title url 一共三个字段

mac下

我是根据 标题 来判断 当前的图片 是否下载成功
如果数据库 没有 才可以从网络上下载
downPic(img)这个方法 就是上面下载的函数方法

完整代码

import requests from bs4 import BeautifulSoup import html5lib import time import pymysql import random import urllib

#抓取网页数据 def getRequestHtml(): response = requests.get('http://www.win4000.com/zt/fengjing.html') soup = BeautifulSoup(response.content,'html5lib') content = soup.find('div', class_='tab_box') li_list = content.findAll('li')

#找到所有 li 标签内容 for li in li_list: url = li.find('a')['href'] getPicDetail(url)

def getPicDetail(url):

for i in range(1, 10): splitUrl = url.replace('.html','_%s.html'%i) print('拼接url :%s'%splitUrl) response = requests.get(splitUrl) soup = BeautifulSoup(response.content, 'html5lib') soupArticle = soup.find('div', class_='pic-meinv')

#判断当前对象 是不是为空 if soupArticle: # print(soupArticle) soupImg = soupArticle.find('img') # print(soupImg)

title = soupImg['title'] # 得到标题 splitTitle = '%s%s' % (title, i) img = soupImg['src'] # 得到图片

# 根据数据库里面数据来判断 该图片是否下载 insert_table(img, splitTitle) time.sleep(2) # 休眠2秒

else: print('当前链接为空') return

#把爬虫数据 插入到数据库 def insert_table(img, splitTitle): # 建立连接 db = pymysql.connect(host='localhost', user='root', password='123', db='pictureData', charset="utf8") # 插入数据 query_sql = 'select * from picture where title=%s' sql = 'insert into picture (title,url) values (%s, %s)' # 使用 cursor() 方法创建一个游标对象 cursor cursor = db.cursor() try: query_value = (splitTitle) #执行sql语句 判断 是否已经有了 cursor.execute(query_sql,query_value) results = cursor.fetchall() if len(results) == 0: value = (splitTitle, img) cursor.execute(sql,value)

#提交事务 db.commit() print('———《%s》已经插入成功—–'%splitTitle) downPic(img) return True else: print('————–《%s》 已经存在————-' % splitTitle) return False except BaseException as e: # 如果发生错误则回滚 db.rollback() print('插入数据时产生了错误') print(e)

finally: # 关闭游标连接 cursor.close() # 关闭数据库连接 db.close()

def downPic(url): print('开始下载图片:%s'%url) message = None createNum = createRandom() #给每个下载图片 赋值成不同的名字 file = open('/Users/sike/Desktop/scenery/%s.jpg' % createNum, 'wb') try: getImg = urllib.request.urlopen(url) file.write(getImg.read()) print('下载完成')

except Exception as e: #捕捉异常 message = str(e) print(message) finally: file.closed print('关闭文件系统')

print('\n')

#生成20个随机字符 def createRandom(): chars = 'AaBbCcDdEeFfGgHhIiJjKkLlMmNnOoPpQqRrSsTtUuVvWwXxYyZz0123456789' picName = '' length = len(chars) – 1 for i in range(20): picName += chars[random.randint(0, length)]

return picName

if __name__ == '__main__':

getRequestHtml()

参考资料
Python 爬虫实战(一):使用 requests 和 BeautifulSoup – SegmentFault 思否
Python 爬虫实战(二):使用 requests-html – SegmentFault 思否

神龙|纯净稳定代理IP免费测试>>>>>>>>天启|企业级代理IP免费测试>>>>>>>>IPIPGO|全球住宅代理IP免费测试

相关文章:

版权声明:Python教程2022-10-28发表,共计3155字。
新手QQ群:570568346,欢迎进群讨论 Python51学习