Python简单实现爬虫实例

720次阅读
没有评论

下载图片的步骤如下:

  • 获取网页html文本内容;
  • 分析html中图片的html标签特征,用正则解析出所有的图片url链接列表;
  • 根据图片的url链接列表将图片下载到本地文件夹中。
  • urllib+re实现:

    #!/usr/bin/python
    # coding:utf-8
    # 实现一个简单的爬虫,爬取百度贴吧图片
    import urllib
    import re

    # 根据url获取网页html内容
    def getHtmlContent(url):
        page = urllib.urlopen(url)
        return page.read()

    # 从html中解析出所有jpg图片的url
    # 百度贴吧html中jpg图片的url格式为:<img … src="XXX.jpg" width=…>
    def getJPGs(html):
        # 解析jpg图片url的正则
        jpgReg = re.compile(r'<img.+?src="(.+?\.jpg)" width')  # 注:这里最后加一个'width'是为了提高匹配精确度
        # 解析出jpg的url列表
        jpgs = re.findall(jpgReg,html)
        
        return jpgs

    # 用图片url下载图片并保存成制定文件名
    def downloadJPG(imgUrl,fileName):
        urllib.urlretrieve(imgUrl,fileName)
        
    # 批量下载图片,默认保存到当前目录下
    def batchDownloadJPGs(imgUrls,path = './'):
        # 用于给图片命名
        count = 1
        for url in imgUrls:
            downloadJPG(url,''.join([path,'{0}.jpg'.format(count)]))
            count = count + 1

    # 封装:从百度贴吧网页下载图片
    def download(url):
        html = getHtmlContent(url)
        jpgs = getJPGs(html)
        batchDownloadJPGs(jpgs)
        
    def main():
        url = 'http://tieba.baidu.com/p/2256306796'
        download(url)
        
    if __name__ == '__main__':
        main()

     

     

    requests + re实现:

     

    #!/usr/bin/python
    # coding:utf-8
    # 实现一个简单的爬虫,爬取百度贴吧图片
    import requests
    import re

    # 根据url获取网页html内容
    def getHtmlContent(url):
        page = requests.get(url)
        return page.text

    # 从html中解析出所有jpg图片的url
    # 百度贴吧html中jpg图片的url格式为:<img … src="XXX.jpg" width=…>
    def getJPGs(html):
        # 解析jpg图片url的正则
        jpgReg = re.compile(r'<img.+?src="(.+?\.jpg)" width')  # 注:这里最后加一个'width'是为了提高匹配精确度
        # 解析出jpg的url列表
        jpgs = re.findall(jpgReg,html)
        
        return jpgs

    # 用图片url下载图片并保存成制定文件名
    def downloadJPG(imgUrl,fileName):
        # 可自动关闭请求和响应的模块
        from contextlib import closing
        with closing(requests.get(imgUrl,stream = True)) as resp:
            with open(fileName,'wb') as f:
                for chunk in resp.iter_content(128):
                    f.write(chunk)
        
    # 批量下载图片,默认保存到当前目录下
    def batchDownloadJPGs(imgUrls,path = './'):
        # 用于给图片命名
        count = 1
        for url in imgUrls:
            downloadJPG(url,''.join([path,'{0}.jpg'.format(count)]))
            print '下载完成第{0}张图片'.format(count)
            count = count + 1

    # 封装:从百度贴吧网页下载图片
    def download(url):
        html = getHtmlContent(url)
        jpgs = getJPGs(html)
        batchDownloadJPGs(jpgs)
        
    def main():
        url = 'http://tieba.baidu.com/p/2256306796'
        download(url)
        
    if __name__ == '__main__':
        main()

     

    两种方法输出都一样:

    Python简单实现爬虫实例

    神龙|纯净稳定代理IP免费测试>>>>>>>>天启|企业级代理IP免费测试>>>>>>>>IPIPGO|全球住宅代理IP免费测试

    相关文章:

    版权声明:Python教程2022-10-28发表,共计2218字。
    新手QQ群:570568346,欢迎进群讨论 Python51学习