特征选择 Feature Selection - Ex 7: Comparison of F-test and mutual information

优质
小牛编辑
125浏览
2023-12-01

特征选择/范例七: Comparison of F-test and mutual information

http://scikit-learn.org/stable/auto_examples/feature_selection/plot_f_test_vs_mi.html

这个范例是解释单变量选择特征的两个方法,F-test statistics以及mutual information。单变量特征选择可以算是选择特征的预处理,用以判断适当的特征选择方式。

此范例假设了三个特征变数x1, x2, x3分布在0与1之间,并且依照下列公式模拟预测目标:
y = x1+ +sin(6 pi x2)+0.1 * N(0,1) 第三个特征变量与预测目标无相关

下面的函式画出了y与每个x_i之间的相依性,并且把F-test statistics以及mutual information的计算分数算出来,可以看到不同的变数影响方式在两种方法会有不同的结果。

F-test 的结果只会关注线性相关的变数影响,该方法选择x1作为最具有特征影响力的变量。另一方面,mutual information方法可以选出经过不同函式呈现的目标变数特征,而他选择了X2作为最具有影响力的特征,我们在直觉上认为能找出经过三角函数转换过的特征变数,更符合在这个例子中目标变数的影响方式。而两种方法都准确的判断x3与目标变数无相关性。

Ex 7: Comparison of F-test and mutual information - 图1

  1. import numpy as np
  2. import matplotlib.pyplot as plt
  3. from sklearn.feature_selection import f_regression, mutual_info_regression
  4. np.random.seed(0)
  5. X = np.random.rand(1000, 3)
  6. y = X[:, 0] + np.sin(6 * np.pi * X[:, 1]) + 0.1 * np.random.randn(1000)
  7. f_test, _ = f_regression(X, y)
  8. f_test /= np.max(f_test)
  9. mi = mutual_info_regression(X, y)
  10. mi /= np.max(mi)
  11. plt.figure(figsize=(15, 5))
  12. for i in range(3):
  13. plt.subplot(1, 3, i + 1)
  14. plt.scatter(X[:, i], y)
  15. plt.xlabel("$x_{}$".format(i + 1), fontsize=14)
  16. if i == 0:
  17. plt.ylabel("$y$", fontsize=14)
  18. plt.title("F-test={:.2f}, MI={:.2f}".format(f_test[i], mi[i]),
  19. fontsize=16)
  20. plt.show()