网络爬虫 kamike.collect

晋西岭
2023-12-01

Another Simple Crawler 又一个网络爬虫,可以支持代理服务器的FQ爬取。

1.数据存在mysql当中。

2.使用时,先修改web-inf/config.ini的数据链接相关信息,主要是数据库名和用户名和密码

3.然后访问http://127.0.0.1/fetch/install 链接,自动创建数据库表

4.修改src\java\cn\exinhua\fetch中的RestServlet.java文件:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
    FetchInst.getInstance().running= true ;
 
    Fetch fetch =  new  Fetch();
 
    fetch.setUrl( "http://www.washingtonpost.com/" );
 
     fetch.setDepth( 3 );
 
     RegexRule regexRule =  new  RegexRule();
 
     regexRule.addNegative( ".*#.*" );
 
     regexRule.addNegative( ".*png.*" );
 
     regexRule.addNegative( ".*jpg.*" );
 
     regexRule.addNegative( ".*gif.*" );
 
     regexRule.addNegative( ".*js.*" );
 
     regexRule.addNegative( ".*css.*" );
 
     regexRule.addPositive( ".*php.*" );
 
     regexRule.addPositive( ".*html.*" );
 
     regexRule.addPositive( ".*htm.*" );
 
     Fetcher fetcher =  new  Fetcher(fetch);
 
     fetcher.setProxyAuth( true );
 
     fetcher.setRegexRule(regexRule);
 
     List<Fetcher> fetchers =  new  ArrayList<>();
 
     fetchers.add(fetcher);
     FetchUtils.start(fetchers);
 
 
     将其配置为需要的参数,然后访问http: //127.0.0.1/fetch/fetch启动爬取
 
     代理的配置在Fetch.java文件中:
     protected  int  status;
 
protected  boolean  resumable =  false ;
 
protected  RegexRule regexRule =  new  RegexRule();
protected  ArrayList<String> seeds =  new  ArrayList<String>();
protected  Fetch fetch;
 
protected  String proxyUrl= "127.0.0.1" ;
protected  int  proxyPort= 4444 ;
protected  String proxyUsername= "hkg" ;
protected  String proxyPassword= "dennis" ;
protected  boolean  proxyAuth= false ;

5.访问http://127.0.0.1/fetch/suspend可以停止爬取

hubinix / kamike.collect

Watch 2 Fork 3

Another Simple Crawler — More...

master分支代码最近更新:2015-03-30

下载zip
 类似资料: