WebCollector网络爬虫框架
WebCollector是一个无须配置、便于二次开发的Java爬虫框架(内核),它提供精简的的API,只需少量代码即可实现一个功能强大的爬虫。WebCollector-Hadoop是WebCollector的Hadoop版本,支持分布式爬取。WebCollector致力于维护一个稳定、可扩的爬虫内
-
大小:
16.89MB
-
演示网站:
暂无
-
当前版本:
暂无
-
日期:
2024-11-15 05:40:00
-
相关链接:
Home Page
-
所属分类:
开发框架
、
Java 、
-
软件评级:
-
下载人气:
259
源码属性
WebCollector是一个无须配置、便于二次开发的Java爬虫框架(内核),它提供精简的的API,只需少量代码即可实现一个功能强大的爬虫。WebCollector-Hadoop是WebCollector的Hadoop版本,支持分布式爬取。
WebCollector致力于维护一个稳定、可扩的爬虫内核,便于开发者进行灵活的二次开发。内核具有很强的扩展性,用户可以在内核基础上开发自己想要的爬虫。源码中集成了Jsoup,可进行精准的网页解析。2.x版本中集成了selenium,可以处理JavaScript生成的数据。
WebCollector特性:1、自定义遍历策略,可完成更为复杂的遍历业务,例如分页、AJAX2、可以为每个 URL 设置附加信息(MetaData),利用附加信息可以完成很多复杂业务,例如深度获取、锚文本获取、引用页面获取、POST 参数传递、增量更新等。3、使用插件机制,用户可定制自己的Http请求、过滤器、执行器等插件。4、内置一套基于内存的插件(RamCrawler),不依赖文件系统或数据库,适合一次性爬取,例如实时爬取搜索引擎。5、内置一套基于 Berkeley DB(BreadthCrawler)的插件:适合处理长期和大量级的任务,并具有断点爬取功能,不会因为宕机、关闭导致数据丢失。6、集成 selenium,可以对 JavaScript 生成信息进行抽取7、可轻松自定义 http 请求,并内置多代理随机切换功能。 可通过定义 http 请求实现模拟登录。8、使用 slf4j 作为日志门面,可对接多种日志9、使用类似Hadoop的Configuration机制,可为每个爬虫定制配置信息。
WebCollector网络爬虫框架下载地址 已被下载259次
本资源由用户投稿上传,内容来自互联网,本站只做免费推荐用于学习分享,如有版权及其他问题,请联系
本站编辑 处理
重要:如软件存在付费、会员、充值等,均属软件开发者或所属公司行为,与本站无关,网友需自行判断