归一化可以:
归一化后加快了梯度下降求最优解的速度(两个特征量纲不同,差距较大时,等高线较尖,根据梯度下降可能走之字形,而归一化后比较圆走直线) 归一化有可能提高精度 (一些分类器需要计算样本之间的距离,如果一个特征值域范围非常大,那么距离计算就主要取决于这个特征,这是不合理的)
本文向大家介绍哪些机器学习算法不需要做归一化处理?相关面试题,主要包含被问及哪些机器学习算法不需要做归一化处理?时的应答技巧和注意事项,需要的朋友参考一下 概率模型不需要归一化,因为他们不关心变量的值,而是关心变量的分布和变量之间的条件概率,如决策树、RF。而像Adaboost、GBDT、SVM、LR、KNN、KMeans之类的最优化问题就需要归一化
简单、纯中文的解释,辅以数学、代码和真实世界的示例 谁应该阅读它 想尽快赶上机器学习潮流的技术人员 想要入门机器学习,并愿意了解技术概念的非技术人员 好奇机器如何思考的任何人 本指南旨在让任何人访问。将讨论概率,统计学,程序设计,线性代数和微积分的基本概念,但从本系列中学到东西,不需要事先了解它们。 为什么机器学习重要 人工智能将比本世纪的任何其他创新,更有力地塑造我们的未来。 任何一个不了解它的
1. 手撕,给出中序遍历和后序遍历,构建树 2. 介绍树模型,(GBDT,XGBoost等) 3. 项目为什么用XGBoost 4. 介绍LR 6. XGB和LR的区别,各适用哪些场景。 7. 项目中Lovain算法是个什么算法。 8. 项目中使用的评价指标 9. 准确率有什么缺点和问题 10. AUC 11. 优化算法 12. 激活函数 13. 特征提取方法? 14. CNN和MLP区别,CNN
关联规则:关联规则反映一个事物与其他事物之间的相互依存性和关联性。如果两个或者多个事物之间存在一定的关联关系,那么,其中一个事物就能够通过其他事物预测到。Apriori算法利用频繁项集生成关联规则。它基于频繁项集的子集也必须是频繁项集的概念。频繁项集是支持值大于阈值(support)的项集。
一面: 自我介绍、极大似然估计、假设检验、朴素贝叶斯的公式、逻辑回归损失函数是什么,怎么来的(对数损失,等价于极大似然估计)、说说xgboost(我说了目标函数推导,还有一些过拟合措施等等)、了解transformer吗(没细问)、看过源码吗(没看过)、卷积为什么叫卷积(我随便说了个卷积公式,但不对)、对卷积的理解(我说滤波,因为我跟一维卷积打交道比较多,我还举了个人脸识别例子,我说底层的卷积会提
9.3一面(1h) 面试官先做了自我介绍 自我介绍 简历上项目比赛介绍、提问 附加问题:矩阵乘法,前向网络计算和反向传播计算梯度哪个更耗时?矩阵C = A*B,已知Grad(C),计算A和B的梯度 手撕算法题:类似LC上合并k个有序链表,将一个二维数组合并成一维数组,二维数组每行是有序的,合并k行到一行并保证有序。用堆做的,并分析算法的时间复杂度。 反问:业务内容?主要是做自动驾驶里的Planni