当前位置: 首页 > 面试题库 >

LR和SVM 区别

文增
2023-03-14
本文向大家介绍LR和SVM 区别相关面试题,主要包含被问及LR和SVM 区别时的应答技巧和注意事项,需要的朋友参考一下

参考回答:

1)LR是参数模型,SVM是非参数模型。2)从目标函数来看,区别在于逻辑回归采用的是logistical loss,SVM采用的是hinge loss.这两个损失函数的目的都是增加对分类影响较大的数据点的权重,减少与分类关系较小的数据点的权重。3)SVM的处理方法是只考虑support vectors,也就是和分类最相关的少数点,去学习分类器。而逻辑回归通过非线性映射,大大减小了离分类平面较远的点的权重,相对提升了与分类最相关的数据点的权重。4)逻辑回归相对来说模型更简单,好理解,特别是大规模线性分类时比较方便。而SVM的理解和优化相对来说复杂一些,SVM转化为对偶问题后,分类只需要计算与少数几个支持向量的距离,这个在进行复杂核函数计算时优势很明显,能够大大简化模型和计算。5)logic 能做的 svm能做,但可能在准确率上有问题,svm能做的logic有的做不了。

 类似资料:
  • 本文向大家介绍LR与SVM的联系与区别?相关面试题,主要包含被问及LR与SVM的联系与区别?时的应答技巧和注意事项,需要的朋友参考一下 LR与SVM都可以处理分类问题,且一般都可以用于线性二分类问题 两个方法都可以增加不同的正则化项 区别: LR是参数模型,SVM是非参数模型(参数模型是假设总体服从某一个分布,该分布由一些参数确定,在此基础上构建的模型为参数模型,而非参数模型对于总体的分布不做假设

  • 本文向大家介绍什么是支持向量机,SVM与LR的区别?相关面试题,主要包含被问及什么是支持向量机,SVM与LR的区别?时的应答技巧和注意事项,需要的朋友参考一下 参考回答: 支持向量机为一个二分类模型,它的基本模型定义为特征空间上的间隔最大的线性分类器。而它的学习策略为最大化分类间隔,最终可转化为凸二次规划问题求解。 LR是参数模型,SVM为非参数模型。LR采用的损失函数为logisticallos

  • 本文向大家介绍LR和线性回归的区别相关面试题,主要包含被问及LR和线性回归的区别时的应答技巧和注意事项,需要的朋友参考一下 参考回答: 线性回归用来做预测,LR用来做分类。线性回归是来拟合函数,LR是来预测函数。线性回归用最小二乘法来计算参数,LR用最大似然估计来计算参数。线性回归更容易受到异常值的影响,而LR对异常值有较好的稳定性。

  • 本文向大家介绍LR与线性回归的区别?相关面试题,主要包含被问及LR与线性回归的区别?时的应答技巧和注意事项,需要的朋友参考一下 LR就是一种线性回归,经典线性回归模型的优化目标是最小二乘,而逻辑回归是似然函数,另外线性回归在整个实数域范围内进行预测,线性回归模型无法做到sigmoid的非线性形式,simoid可以轻松处理0/1分类问题

  • 本文向大家介绍LR公式相关面试题,主要包含被问及LR公式时的应答技巧和注意事项,需要的朋友参考一下 参考回答: 逻辑回归本质上是线性回归,只是在特征到结果的映射中加入了一层逻辑函数g(z),即先把特征线性求和,然后使用函数g(z)作为假设函数来预测。g(z)可以将连续值映射到0 和1。g(z)为sigmoid function. sigmoid function 的导数如下: 逻辑回归用来分类0/

  • 本文向大家介绍LR推导相关面试题,主要包含被问及LR推导时的应答技巧和注意事项,需要的朋友参考一下 参考回答: 逻辑回归本质上是线性回归,只是在特征到结果的映射中加入了一层逻辑函数g(z),即先把特征线性求和,然后使用函数g(z)作为假设函数来预测。g(z)可以将连续值映射到0 和1。g(z)为sigmoid function. 则 逻辑回归用来分类0/1 问题,也就是预测结果属于0 或者1 的二