HtmlParser 一个不错的网站爬虫工具

507次阅读
没有评论

有时候我们需要在网上获取自己需要的内容时,而且需求量达到一定程度时,就要通过代码来实现重复的操作。

当用Java来帮我们解决这个问题时,我们又如何通过Java来过滤掉多余的内容,剩余自己想要的信息呢,这时HtmlParser会是一个不错的选择。

HtmlParser是一个用java语言写的,用来解析html文件(网页)的应用库,主要的作用就是做网页的信息提取。

HtmlParser提供了许多的过滤器给我们选择,而且使用它只需要下载一个jar包,然后向项目导入jar包就可以引用了。

HtmlParser

在这里,笔者使用几个比较常用的过滤器来做网页提取。


首先,我们需要下载HtmlParser的jar包,下载地址:点击打开链接

我们选择最新的1.6的版本,下载完后,解压压缩包,到htmlparser1_6\lib目录下,复制htmlParser.jar文件然后粘贴到你的项目里面,跟着下面步骤操作。

HtmlParser

HtmlParserHtmlParserHtmlParser

HtmlParser

然后,我们就要用htmlparser来为我们提取我们需要的信息

第一种过滤器:LinkStringFilter

(LinkStringFilter(String 属性值)过滤器是根据href连接属性中是否含属性值字段来筛选)

场景:

估计大家都不会讨厌看电影的,那么就先来获取电影的下载链接

有些人也许会感觉纳闷,直接点击链接不就可以了吗,但当你要获取1000个电影的连接时,你就不会这么觉得了)

HtmlParser

抓取代码并不是这么容易的,要在网页的源代码找到我们需要的信息(也就是下载地址),然后找到这个信息特别的地方,然后利用合适的过滤器去抓取。

HtmlParserHtmlParser

下面用代码来获取电影的下载地址(部分代码会有提示):

/** * 功能:通过电影的介绍地址来获取下载地址 * @param movieIntroUrl:电影的介绍地址 * @return 返回电影的下载地址 */ public static String getDownloadUrl(String movieIntroUrl) { String downloadUrl=""; try { Parser parser=new Parser(movieIntroUrl); //通过Parser来对Url建立连接,获取该html的内容 parser.setEncoding("GBK"); //设置编码格式 NodeList list=(NodeList) parser.extractAllNodesThatMatch(new LinkStringFilter("ftp")); //parser.extractAllNodesThatMatch是一个html文本过滤选择器,返回类型是NodeList //extractAllNodesThatMatch(new 过滤器类型) //LinkStringFilter(String 属性值)过滤器是根据href连接属性中是否含属性值字段来筛选 for(int i=0;i<list.size();i++){ //遍历集合里面的元素 LinkTag lt=(LinkTag) list.elementAt(i); //把list里面的元素转成LinkTag类型的对象来传递信息 downloadUrl=lt.getLink(); //通过LinkTag对象的getLink()方法获取抓取的信息 } System.out.println(downloadUrl); } catch (ParserException e) { e.printStackTrace(); } return downloadUrl; }代码本身是不多的,只是注释有点多。然后我们来拷贝这个网页的ip地址,运行一下这个方法。
public static void main(String[] args) { getDownloadUrl("http://www.dytt8.net/html/gndy/dyzz/20161230/52841.html"); } HtmlParser

第二种过滤器:HasAttributeFilter

(HasAttributeFilter(String 属性名,String 属性值)根据对应的属性名是否存在这样的属性值查找元素)

这个过滤器的功能强大一些,但是有一些地方需要注意,不是包含属性值,只能找到完全相等的属性值的元素

场景:

HtmlParser

有些网页有许多部电影,如果你想把这些电影的下载地址全部获取,怎么办?

点击这些链接,只是进去电影的介绍界面,里面才有我们要的下载地址,也就是一个电影至少要点击两次才能下载电影,重复的事情让代码帮我们去完成吧。

分析:首先我们要进入每个电影的介绍界面才能获取电影的下载地址,那么我们就要把它们的介绍地址全部拿过来,然后再循环进入到这些介绍界面获取我们最爱的下载地址。查看网页的源代码寻找一些这些链接的规律。

HtmlParserHtmlParser

下面来获取电影的介绍地址(部分代码有提示):

/** * 功能:获取一个分页里面的所有电影的介绍地址 * @param pageListUrl 分页的地址 * @return 返回一个String[]用于存储这个分页的所有的电影的介绍地址 */ public static String[] getIntroUrlFromPageList(String pageListUrl) { String movieIntroUrl[]=new String[25]; //定义String数组,储存介绍地址,注意长度一定要刚刚好,否则会出现错误 try { Parser parser=new Parser(pageListUrl); parser.setEncoding("GBK"); NodeList list=(NodeList)parser.extractAllNodesThatMatch(new HasAttributeFilter("class","ulink")); //HasAttributeFilter(String 属性名,String 属性值)根据对应的属性名是否存在这样的属性值查找元素 //注意不是包含属性值,只能找到完全相等属性值的元素 for(int i=0;i<list.size();i++){ LinkTag lt=(LinkTag) list.elementAt(i); movieIntroUrl[i]="http://www.ygdy8.net"+lt.getLink(); } } catch (ParserException e) { e.printStackTrace(); } return movieIntroUrl; }接着我们来获取这些电影介绍地址里面的下载地址:

public static void main(String[] args) { String introUrl[]=new String[25]; introUrl=getIntroUrlFromPageList("http://www.ygdy8.net/html/gndy/dyzz/index.html"); for (int i = 0; i < introUrl.length; i++) { String downloadUrl=getDownloadUrl(introUrl[i]); } } HtmlParser

第三种过滤器:TagNameFilter

(TagNameFilter(String 标签名),根据标签名来查找对应的元素)

这个过滤器一般结合其他过滤器来使用,单独使用的查找效果很低,这里就不作范例了。

其他过滤器的使用方法与使用效果可以去查看htmlparser的API文档:点击打开链接

神龙|纯净稳定代理IP免费测试>>>>>>>>天启|企业级代理IP免费测试>>>>>>>>IPIPGO|全球住宅代理IP免费测试

相关文章:

版权声明:Python教程2022-10-24发表,共计2997字。
新手QQ群:570568346,欢迎进群讨论 Python51学习