当前位置: 首页 > 软件库 > 应用工具 > 网络爬虫 >

NZBGet

新闻采集器
授权协议 未知
开发语言 C/C++
所属分类 应用工具、 网络爬虫
软件类型 开源软件
地区 不详
投 递 者 祁永嘉
操作系统 Linux
开源组织
适用人群 未知
 软件概览

NZBGet是一个新闻采集器,其中从新闻组下载的资料格式为nzb文件。它可用于单机和服务器/客户端模式。在独立模式中通过nzb文件作为参数的命令行来下载文件。服务器和客户端都只有一个可执行文件”nzbget”。

功能和特点
控制台界面,使用纯文本,彩色文字或互动接口
客户机/服务器模型,易于增加下载队列和监测/控制服务器
网络界面
带宽限制
多个服务器,多个连接
自动检查和修复
低的CPU占用
非常低的内存使用
可以运行外部处理脚本
支持TLS/SSL
支持IPv6
对下载文件分类
监测传入的所有文件夹
下载队列可以显示文件或组织
编辑下载队列-移动,暂停,取消暂停,删除文件或组织
在退出时下载队列可以被保存和重新启动
支持多种操作系统,包括Linux和Windows操作系统;
守护模式(POSIX正)或服务(Windows)
几个记录水平写日志文件

 相关资料
  • 美容新闻淘客免维护全自动采集 1.采集瑞丽女性美容频道文章,免维护全自动采集 2.可自定义网站标题,关键字,描述等 3.可选择是否应用新浪SAE平台 支持 新浪SAE环境 与普通环境自由切换 4.自定义推广产品 5.自定义广告链接 6.自定义文章替换规则方便推广 7.自定义是否开启缓存 自定义缓存时间 8.url采用base64_decode处理 9.本站代码完全开源 10.增加清空缓存 11.增

  • 本文向大家介绍Python采集腾讯新闻实例,包括了Python采集腾讯新闻实例的使用技巧和注意事项,需要的朋友参考一下 目标是把腾讯新闻主页上所有新闻爬取下来,获得每一篇新闻的名称、时间、来源以及正文。 接下来分解目标,一步一步地做。 步骤1:将主页上所有链接爬取出来,写到文件里。 python在获取html方面十分方便,寥寥数行代码就可以实现我们需要的功能。 我们都知道html链接的标签是“a”

  •        点击数据管理中操作选项内新建采集任务选项,可弹出新建任务弹框:        输入任务名称后,点击确定即可完成创建并切换至该工程:        以模板创建:选择以模板创建后,会跳转至文件管理器页面,通过选择模板后进行导入(模板为.wpm格式文件,可在外业精灵-导出目录中查找)。        导入正确模板后,会弹出新建弹框,输入任务名称后点击确定即可完成创建并切换至该任务。

  • 采集流程: 采集一般可以分为3个过程:1.设置采集规则;2.采集数据内容;3.导出内容,这3个内容是可以独立分开来的。 设置采集规则:这个就是在操作中的添加采集节点,并对这个节点规则进行设置,比如:设置采集内容列表的地址、指定采集标题或者内容的位置(规则)、设置采集内容过滤规则。这个规则是采集最根本最基础的东西,采集规则可以导入导出,方便对这个采集规则进行分享。 采集数据内容:根据不同情况对数据采

  • 关于采集: 什么是采集呢?我们可以这样理解,我们打开一个网站,看到有一篇文章很不错,于是将文章的标题和内容复制,然后将这篇文章转到我们的网站上,这个过程就可以称作采集,将别人网站上对自己有用的信息转到自己网站上。 采集器也是这样,不过整个过程是由电脑来完成的,我们复制人家的标题和内容,是在知道什么地方是内容,什么地方是标题前提下进行操作的,但电脑是不知道的,所以我们要告诉电脑怎么识别怎么采,这就是