XGBoost

分布式梯度增强库
授权协议 Apache-2.0
开发语言 C/C++ Scala
所属分类 神经网络/人工智能、 机器学习/深度学习
软件类型 开源软件
地区 不详
投 递 者 乌杰
操作系统 跨平台
开源组织
适用人群 未知
 软件概览

XGBoost是"极端梯度提升"(eXtreme Gradient Boosting)的简称。XGBoost 源于梯度提升框架,但是更加高效,秘诀就在于算法能并行计算、近似建树、对稀疏数据的有效处理以及内存使用优化,这使得 XGBoost 至少比现有梯度提升实现有至少 10 倍的速度提升。

XGBoost 支持在多台机器上进行分布式训练,包括 AWS,GCE,Azure 和 Yarn 集群。可以与 Flink,Spark 和其他云数据流系统集成。

XGBoost 可以处理回归、分类和排序等多种任务。由于它在预测性能上的强大且训练速度快,XGBoost 已屡屡斩获 Kaggle 各大竞赛的冠军宝座。

 相关资料
  • 问题内容: 我有一个生成计数器的要求,该计数器将发送到一些api调用。我的应用程序在多个节点上运行,因此我想如何生成唯一计数器。我尝试了以下代码 并通过Task Parallel libray运行测试。当我有边界值时,我看到的是设置了多次0条目 请让我知道我需要做的更正 更新:我的最终逻辑如下 问题答案: 实际上,您的代码在翻转边界附近并不安全,因为您正在执行“获取”,(等待时间和思考),“设置”

  • 本文向大家介绍DNN的梯度更新方式相关面试题,主要包含被问及DNN的梯度更新方式时的应答技巧和注意事项,需要的朋友参考一下 参考回答: 1)批量梯度下降法BGD 批量梯度下降法(Batch Gradient Descent,简称BGD)是梯度下降法最原始的形式,它的具体思路是在更新每一参数时都使用所有的样本来进行更新,其数学形式如下: (1) 对上述的能量函数求偏导: (2) 由于是最小化风险函数

  • 在求期望时,需要对状态分布和动作分布进行积分。这就要求在状态空间和动作空间采集大量的样本,这样得到的均值才能近似期望。 而确定性策略的动作是确定的,所以在确定性策略梯度存在的情况下,对确定性策略梯度的求解不需要在动作空间进行采样积分。因此,相比于随机策略方法,确定性策略需要的样本数据要小,确定性策略方法的效率比随机策略的效率高很多,这也是确定性策略方法的主要优点。

  • 问题内容: 给定一个流行的示例,该示例具有一个标签集合,假设我们希望每个标签都不仅仅是一个字符串,而是一个字符串的元组和一个表示该标签强度的双精度型。 一个查询如何根据标签强度的总和发布和评分(假设我们正在标签名称中搜索确切的字词) 问题答案: 可以通过将标签作为嵌套文档建立索引,然后将嵌套查询与自定义分数查询结合使用来完成。在下面的示例中,字词查询找到匹配的标签,自定义分数查询使用“标签”文档的

  • 本文向大家介绍梯度消失,梯度爆炸的问题,相关面试题,主要包含被问及梯度消失,梯度爆炸的问题,时的应答技巧和注意事项,需要的朋友参考一下 参考回答: 激活函数的原因,由于梯度求导的过程中梯度非常小,无法有效反向传播误差,造成梯度消失的问题。

  • 在本节中,我们将介绍梯度下降(gradient descent)的工作原理。虽然梯度下降在深度学习中很少被直接使用,但理解梯度的意义以及沿着梯度反方向更新自变量可能降低目标函数值的原因是学习后续优化算法的基础。随后,我们将引出随机梯度下降(stochastic gradient descent)。 一维梯度下降 我们先以简单的一维梯度下降为例,解释梯度下降算法可能降低目标函数值的原因。假设连续可导

  • 看了上一节的例子后,你可能会想“微生物的数量是有限制的吗?”,对该问题直截了当的回答是“是”。由于HTML5的画布上下文没有硬件加速,并且我们的动画完全由JavaScript来驱动,如果长时间工作,肯定有这么一个点,当过了这个点,浏览器就会歇菜。为了说明这个,我们可以显示动画的FPS,并观察屏幕上微生物的数目和FPS之间的关系。 图5-11 增强画布并显示FPS值 操作步骤 按照以下步骤,为画布加

  • 问题内容: 问题是由于火车数据大小,我的火车数据无法放入RAM。因此,我需要一种方法,该方法首先在整个火车数据集上构建一棵树,然后计算残差来构建另一棵树,依此类推(就像梯度增强树一样)。显然,如果我在某个循环中调用-这将无济于事,因为在这种情况下,它只会为每个批次重建整个模型。 问题答案: 免责声明:我也是xgboost的新手,但我想我已经明白了。 在进行第一批训练后,请尝试保存模型。然后,在连续