特征缩放是构建机器学习算法的数据预处理阶段的重要步骤。它有助于规范化数据以使其落在特定范围内。
有时,它还有助于提高机器执行计算的速度。
作为输入馈入学习算法的数据应保持一致和结构化。输入数据的所有特征都应在单个范围内,以有效地预测值。但是在现实世界中,数据是非结构化的,而且在大多数情况下,数据的规模是不同的。
这是规范化的时候。这是最重要的数据准备过程之一。它有助于将输入数据集的列的值更改为相同的范围。
让我们了解如何使用Scikit学习库在Python中执行功能缩放。
import numpy as np
from sklearn import preprocessing
input_data = np.array(
[[34.78, 31.9, -65.5],
[-16.5, 2.45, -83.5],
[0.5, -87.98, 45.62],
[5.9, 2.38, -55.82]])
data_scaler_minmax = preprocessing.MinMaxScaler(feature_range=(0,1))
data_scaled_minmax = data_scaler_minmax.fit_transform(input_data)
print ("\nThe scaled data is \n", data_scaled_minmax)
输出结果
The scaled data is
[[1. 1. 0.1394052 ]
[0. 0.75433767 0. ]
[0.33151326 0. 1. ]
[0.43681747 0.75375375 0.21437423]]
所需的软件包已导入。
输入数据是使用Numpy库生成的。
“预处理”类中提供的MinMaxScaler函数用于将数据缩放到0到1的范围内。
这样,数组中的任何数据都会按比例缩小到0到1之间的值。
此缩放的数据显示在控制台上。
本文向大家介绍scikit-learn库如何用于在Python中加载数据?,包括了scikit-learn库如何用于在Python中加载数据?的使用技巧和注意事项,需要的朋友参考一下 Scikit-learn,通常称为sklearn,是Python中的一个开源库,用于实现机器学习算法。 在Python强大而稳定的界面的帮助下,这包括分类,回归,聚类,降维等等。该库基于Numpy,SciPy和Mat
本文向大家介绍解释Python中scikit-learn库的基础?,包括了解释Python中scikit-learn库的基础?的使用技巧和注意事项,需要的朋友参考一下 Scikit-learn,通常称为sklearn,是Python中的一个库,用于实现机器学习算法。 这是一个开源库,因此可以免费使用。强大而强大,因为它提供了多种工具来执行统计建模。在Python强大而稳定的界面的帮助下,这包括分类
本文向大家介绍解释如何使用python中的scikit-learn库实现L2规范化?,包括了解释如何使用python中的scikit-learn库实现L2规范化?的使用技巧和注意事项,需要的朋友参考一下 将值范围转换为标准值范围的过程称为标准化。这些值可以在-1到+1或0到1之间。数据也可以借助减法和除法进行归一化。 让我们了解L2归一化的工作原理。它也被称为“最小正方形”。此归一化修改数据的方式
本文向大家介绍解释如何在Python中使用scikit-learn库实现L1规范化?,包括了解释如何在Python中使用scikit-learn库实现L1规范化?的使用技巧和注意事项,需要的朋友参考一下 将值范围转换为标准值范围的过程称为标准化。这些值可以在-1到+1或0到1之间。数据也可以借助减法和除法进行归一化。 作为输入馈入学习算法的数据应保持一致和结构化。输入数据的所有特征都应在单个范围内
问题内容: 我很难理解scikit-learn的Logistic回归中的参数如何运行。 情况 我想使用逻辑回归对非常不平衡的数据集进行二进制分类。这些类别分别标记为0(负)和1(正),并且观察到的数据的比率约为19:1,大多数样本的结果均为负。 第一次尝试:手动准备训练数据 我将我拥有的数据分为不相交的数据集进行训练和测试(大约80/20)。然后,我手工对训练数据进行了随机采样,得到的训练数据比例
问题内容: 我正在使用具有9个样本和大约7000个属性的随机森林模型。在这些样本中,我的分类器可以识别3个类别。 我知道这远非理想条件,但我正在尝试找出哪些属性在特征预测中最重要。哪些参数最适合优化功能重要性? 我尝试了不同的方法,发现“重要特征”(即数组中的非零值)的数量急剧增加。 我已经阅读了文档,但是如果有任何经验,我想知道最适合调整哪些参数,并简要说明原因。 问题答案: 根据我的经验,sk