相比于python爬虫,java爬虫框架要不就是如nutch这般太过重量级,要不就如webcollector一样,因为内置了BerkeleyDB,
所以会经常报一些莫名其妙的错误。为了解决这些问题,本人在开发搜索引擎的过程中编写了一个简单便捷的基于spring boot
的爬虫框架,此框架简单纯净,不内置任何数据库,而且线程利用率高、爬取速度快(当然可以根据需要自己调整)、
使用起来特别方便,希望能对大家有所帮助。
github源码地址:https://github.com/houbbbbb/crawler-spring-boot-starter
<dependency>
<groupId>com.github.houbbbbb</groupId>
<artifactId>crawler-spring-boot-starter</artifactId>
<version>0.0.1</version>
</dependency>
配置方式:application.yml, 如果不配置,默认值:线程池大小:poolSize=6; 超时时间:timeout=2000;
crawler:
pool-size: 6
timeout: 2000
代码示例
@Autowired
WebCrawler webCrawler; // 网页内容爬取
@Autowired
FileCrawler fileCrawler;
// 网页爬取
void crawlerTest() {
Starter starter = webCrawler.getStarter(); // 获取爬取启动类
starter.setRootUrl("http://www.xxx.com/"); // 要爬取的根url
starter.setParser((document, tran) -> { // 网页解析器,可以自定义解析网页文档
Elements elements = document.select("a");
for(Element element: elements) {
String url = element.absUrl("href"); // 可以获取完整的url
System.out.println("url " + url);
new Requester(tran, url); // 将要爬取的url加入到任务队列
}
});
starter.start(); // 启动爬取方法
}
// 本地文件遍历
void fileCrawlerTest() {
FileStarter starter = fileCrawler.getStarter(); // 获取文件遍历启动器
starter.setRootUrl("G:\\exc\\hhh"); // 设置文章根目录,只要设置好根目录,就是自动遍历目录中所有文件
starter.setParser((file) -> { // 文件解析器,自定义实现,可以从这里获取到文件路径
System.out.println("fileName " + file.getFileName()); //
});
starter.start(); // 启动遍历方法
}