当前位置: 首页 > 软件库 > 应用工具 > >

regression

Go 的多变量回归库
授权协议 MIT
开发语言 Google Go
所属分类 应用工具
软件类型 开源软件
地区 不详
投 递 者 司宏伯
操作系统 跨平台
开源组织
适用人群 未知
 软件概览

regression 是 Go 的多元线性回归。

用法举例:

导入安装包,创建一个回归和数据,并添加进去。你可按照你的需要添加变量,下面实例中我们使用三个变量:

package mainimport (    "fmt"

    "github.com/sajari/regression")func main() {    r := new(regression.Regression)
    r.SetObserved("Murders per annum per 1,000,000 inhabitants")
    r.SetVar(0, "Inhabitants")
    r.SetVar(1, "Percent with incomes below $5000")
    r.SetVar(2, "Percent unemployed")
    r.Train(
        regression.DataPoint(11.2, []float64{587000, 16.5, 6.2}),
        regression.DataPoint(13.4, []float64{643000, 20.5, 6.4}),
        regression.DataPoint(40.7, []float64{635000, 26.3, 9.3}),
        regression.DataPoint(5.3, []float64{692000, 16.5, 5.3}),
        regression.DataPoint(24.8, []float64{1248000, 19.2, 7.3}),
        regression.DataPoint(12.7, []float64{643000, 16.5, 5.9}),
        regression.DataPoint(20.9, []float64{1964000, 20.2, 6.4}),
        regression.DataPoint(35.7, []float64{1531000, 21.3, 7.6}),
        regression.DataPoint(8.7, []float64{713000, 17.2, 4.9}),
        regression.DataPoint(9.6, []float64{749000, 14.3, 6.4}),
        regression.DataPoint(14.5, []float64{7895000, 18.1, 6}),
        regression.DataPoint(26.9, []float64{762000, 23.1, 7.4}),
        regression.DataPoint(15.7, []float64{2793000, 19.1, 5.8}),
        regression.DataPoint(36.2, []float64{741000, 24.7, 8.6}),
        regression.DataPoint(18.1, []float64{625000, 18.6, 6.5}),
        regression.DataPoint(28.9, []float64{854000, 24.9, 8.3}),
        regression.DataPoint(14.9, []float64{716000, 17.9, 6.7}),
        regression.DataPoint(25.8, []float64{921000, 22.4, 8.6}),
        regression.DataPoint(21.7, []float64{595000, 20.2, 8.4}),
        regression.DataPoint(25.7, []float64{3353000, 16.9, 6.7}),
    )
    r.Run()

    fmt.Printf("Regression formula:\n%v\n", r.Formula)
    fmt.Printf("Regression:\n%s\n", r)
}

提醒:你同样可以一个一个地添加数据点。

一旦计算出来,你可以打印数据,检查R ^ 2,方差,残差等,您也可以直接访问该系数的其他使用地方。如:

// Get the coefficient for the "Inhabitants" variable 0:c := r.Coeff(0)元
You can also use the model to predict new data points
prediction, err := r.Predict([]float64{587000, 16.5, 6.2})
  • 1. 基本概念 回归(regression)是监督学习(given {(xi,yi)})的一个重要分类。回归用于预测输入变量(自变量,Xi)与输出变量(因变量,Yi) 之间的关系,特定是当输入变量的值发生变化时,输出变量的值随之发生的变化。 回归模型正是表示从输入变量(xi∈Rn)到输出变量(y∈R,也就是一个一维的数值,如果输出也是多维呢?至少不是一个分类任务了)之间映射的函数。回归问题的学习等

  • 先来说说Linear Regression与正态分布(高斯分布)的关系 上过吴恩达老师的机器学习课程的都熟悉,吴恩达老师在引出Linear Regression的时候是用了一个房价的例子来说明,这里我们同样拿房价这个量来说事。 首先引出一个增量delta,这个变量往往用来分析某个量(如房价)的真实值与预测值之间的误差,这个误差一般来说,我们认为它是服从正态分布的,因为它是由许多个微小的因素(如采光

  • 模型校准 模型的预估值往往存在偏差,其原因包括: 模型的假设不一定完全成立,比如贝叶斯模型对事件独立同分布的假设 训练样本是有偏差的,没有反应真实的分布情况 训练算法的缺陷,导致并没有学习到最优的参数 以点击率估计为例,某些场景下,有偏点击率是可以直接使用,比如排序场景下重要的是估计值的相对大小,点击率绝对值并不重要;另一些场景下,有偏估计值需要经过校正后才能使用,比如过滤逻辑中点击率的绝对值就会

  • # -*-coding:utf-8 import numpy as np import matplotlib.pyplot as plt def loadDataSet(fileName): f = open(fileName) _numFeat = len(f.readline().split('\t')) - 1 # 训练数据的特征总数 dataMat = []

  • 最近在瞄别人的论文《lasso在多元回归分析中应用》时,新学了个概念叫做multivariable regression,区别于以前的多元回归,脑子一片糊糊 multiple regression,即一个因变量对多个自变量。线性回归中四大假设条件:因变量正态分布(非正态为广义回归),独立性(非独立则为下面那种回归),线性及同方差性 multivariable regression,即多个因变量对多

  • x_data=[338.,333.,328.,207.,226.,25.,179.,60.,208.,606.] y_data=[640.,633.,619.,393.,428.,27.,193.,66.,226.,1591.] import numpy as np x = np.arange(-200,-100,1) y = np.arange(-5,5,0.1) Z = np.zeros((

  • import torch import torch.nn.functional as F # 激励函数都在这 import matplotlib.pyplot as plt from torch.autograd import Variable x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1) # x data (tenso

 相关资料
  • 我正在研究Pytorch的线性回归问题 我在单变量情况下取得了成功,但是当我执行多变量线性回归时,我得到了以下错误。我应该如何执行多变量线性回归? TypeError Traceback(最近调用最后一次)in()9optimizer.zero_grad()#渐变10输出=模型(输入)#输出--- /anaconda/envs/tensorflow/lib/python3.6/site-packa

  • 好的,那么这个算法到底意味着什么呢? 据我所知: i) 阿尔法:梯度下降的步骤有多大。 ii)现在,∑{hTheta[x(i)]-y(i)}:指给定θ值的总误差。 误差是指预测值{hTheta[x(i)]}与实际值之间的差值。[y(i)] σ{hTheta[x(i)]-y(i)}给出了所有训练示例中所有误差的总和。 结尾的Xj^(i)代表什么? 在为多元线性回归实现梯度下降时,我们是否在执行以下操

  • 本文向大家介绍scikit-learn线性回归,多元回归,多项式回归的实现,包括了scikit-learn线性回归,多元回归,多项式回归的实现的使用技巧和注意事项,需要的朋友参考一下 匹萨的直径与价格的数据 训练模型 预测一张12英寸匹萨价格:$13.68 一元线性回归假设解释变量和响应变量之间存在线性关系;这个线性模型所构成的空间是一个超平面(hyperplane)。 超平面是n维欧氏空间中余维

  • 我的每个变量都是一个单独的列表。 我正在使用另一个线程上找到的方法。 我唯一的问题是,在我的回归输出中,解释变量被标记为x1、x2、x3等。我想知道是否有可能将这些变量更改为更有意义的名称? 谢谢

  • 我写了下面的代码来反转链表的前K个节点,它在反转链表的前K个节点时解决了一些问题,为什么递归在最后一次迭代中执行两次,现在它可以正常工作,但为什么它会导致链表中的循环当我尝试在“if”条件下使用变量“k”而不是“PresCouner”时,原因是什么?以及如何避免它?

  • 本文向大家介绍python实现简单的单变量线性回归方法,包括了python实现简单的单变量线性回归方法的使用技巧和注意事项,需要的朋友参考一下 线性回归是机器学习中的基础算法之一,属于监督学习中的回归问题,算法的关键在于如何最小化代价函数,通常使用梯度下降或者正规方程(最小二乘法),在这里对算法原理不过多赘述,建议看吴恩达发布在斯坦福大学上的课程进行入门学习。 这里主要使用python的sklea

  • 多元回归是线性回归到两个以上变量之间关系的扩展。 在简单线性关系中,我们有一个预测变量和一个响应变量,但在多元回归中,我们有多个预测变量和一个响应变量。 多元回归的一般数学方程是 - y = a + b1x1 + b2x2 +...bnxn 以下是所用参数的说明 - y是响应变量。 a, b1, b2...bn是系数。 x1, x2, ...xn是预测变量。 我们使用R中的lm()函数创建回归模

  • 多元(多重)回归是线性回归扩展到两个以上变量之间的关系。在简单的线性关系中,我们有一个预测因子和一个响应变量,但在多元回归中,可以有多个预测变量和一个响应变量。 多元回归的一般数学方程为 - 以下是使用的参数的描述 - y - 是响应变量。 a,b1,b2 … bn - 是系数。 x1,x2,… xn - 是预测变量。 我们使用R中的函数创建回归模型。该模型使用输入数据确定系数的值。 接下来,可以