#!/usr/bin/env python # -*- coding: utf-8 -*- # @File : 自实现一个线性回归.py # @Author: 赵路仓 # @Date : 2020/4/12 # @Desc : # @Contact : 398333404@qq.com import os import tensorflow as tf def linear_regression(): """ 自实现一个线性回归 :return: """ # 命名空间 with tf.variable_scope("prepared_data"): # 准备数据 x = tf.random_normal(shape=[100, 1], name="Feature") y_true = tf.matmul(x, [[0.08]]) + 0.7 # x = tf.constant([[1.0], [2.0], [3.0]]) # y_true = tf.constant([[0.78], [0.86], [0.94]]) with tf.variable_scope("create_model"): # 2.构造函数 # 定义模型变量参数 weights = tf.Variable(initial_value=tf.random_normal(shape=[1, 1], name="Weights")) bias = tf.Variable(initial_value=tf.random_normal(shape=[1, 1], name="Bias")) y_predit = tf.matmul(x, weights) + bias with tf.variable_scope("loss_function"): # 3.构造损失函数 error = tf.reduce_mean(tf.square(y_predit - y_true)) with tf.variable_scope("optimizer"): # 4.优化损失 optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.01).minimize(error) # 收集变量 tf.summary.scalar("error", error) tf.summary.histogram("weights", weights) tf.summary.histogram("bias", bias) # 合并变量 merged = tf.summary.merge_all() # 创建saver对象 saver = tf.train.Saver() # 显式的初始化变量 init = tf.global_variables_initializer() # 开启会话 with tf.Session() as sess: # 初始化变量 sess.run(init) # 创建事件文件 file_writer = tf.summary.FileWriter("E:/tmp/linear", graph=sess.graph) # print(x.eval()) # print(y_true.eval()) # 查看初始化变量模型参数之后的值 print("训练前模型参数为:权重%f,偏置%f" % (weights.eval(), bias.eval())) # 开始训练 for i in range(1000): sess.run(optimizer) print("第%d次参数为:权重%f,偏置%f,损失%f" % (i + 1, weights.eval(), bias.eval(), error.eval())) # 运行合并变量操作 summary = sess.run(merged) # 将每次迭代后的变量写入事件 file_writer.add_summary(summary, i) # 保存模型 if i == 999: saver.save(sess, "./tmp/model/my_linear.ckpt") # # 加载模型 # if os.path.exists("./tmp/model/checkpoint"): # saver.restore(sess, "./tmp/model/my_linear.ckpt") print("参数为:权重%f,偏置%f,损失%f" % (weights.eval(), bias.eval(), error.eval())) pre = [[0.5]] prediction = tf.matmul(pre, weights) + bias sess.run(prediction) print(prediction.eval()) return None if __name__ == "__main__": linear_regression()
以上就是python 实现一个简单的线性回归案例的详细内容,更多关于python 实现线性回归的资料请关注小牛知识库其它相关文章!
本文向大家介绍python实现简单的单变量线性回归方法,包括了python实现简单的单变量线性回归方法的使用技巧和注意事项,需要的朋友参考一下 线性回归是机器学习中的基础算法之一,属于监督学习中的回归问题,算法的关键在于如何最小化代价函数,通常使用梯度下降或者正规方程(最小二乘法),在这里对算法原理不过多赘述,建议看吴恩达发布在斯坦福大学上的课程进行入门学习。 这里主要使用python的sklea
本文向大家介绍Python实现的简单线性回归算法实例分析,包括了Python实现的简单线性回归算法实例分析的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了Python实现的简单线性回归算法。分享给大家供大家参考,具体如下: 用python实现R的线性模型(lm)中一元线性回归的简单方法,使用R的women示例数据,R的运行结果: > summary(fit) Call: lm(formul
随着深度学习框架的发展,开发深度学习应用变得越来越便利。实践中,我们通常可以用比上一节更简洁的代码来实现同样的模型。在本节中,我们将介绍如何使用MXNet提供的Gluon接口更方便地实现线性回归的训练。 生成数据集 我们生成与上一节中相同的数据集。其中features是训练数据特征,labels是标签。 from mxnet import autograd, nd num_inputs =
本文向大家介绍sklearn+python:线性回归案例,包括了sklearn+python:线性回归案例的使用技巧和注意事项,需要的朋友参考一下 使用一阶线性方程预测波士顿房价 载入的数据是随sklearn一起发布的,来自boston 1993年之前收集的506个房屋的数据和价格。load_boston()用于载入数据。 输出内容为: 可以看到测试集上准确率并不高,应该是欠拟合。 使用多项式做线
本文向大家介绍利用Pytorch实现简单的线性回归算法,包括了利用Pytorch实现简单的线性回归算法的使用技巧和注意事项,需要的朋友参考一下 最近听了张江老师的深度学习课程,用Pytorch实现神经网络预测,之前做Titanic生存率预测的时候稍微了解过Tensorflow,听说Tensorflow能做的Pyorch都可以做,而且更方便快捷,自己尝试了一下代码的逻辑确实比较简单。 Pytorch
通过遵循GEKKO文档,我使用了线性和多项式回归的示例。这里是关于简单线性回归的部分。 我只是想知道为什么不评论这些行会得到不同的结果 文件中获得的结果(线性、二次、三次)似乎不是最小二乘法。在这些情况下使用了什么样的最小化标准? 向你问好,拉多万