我recursive feature elimination with cross validation (rfecv)
用作以下功能选择器randomforest classifier
。
X = df[[my_features]] #all my features
y = df['gold_standard'] #labels
clf = RandomForestClassifier(random_state = 42, class_weight="balanced")
rfecv = RFECV(estimator=clf, step=1, cv=StratifiedKFold(10), scoring='roc_auc')
rfecv.fit(X,y)
print("Optimal number of features : %d" % rfecv.n_features_)
features=list(X.columns[rfecv.support_])
我还执行GridSearchCV
以下操作,以调整以下超参数RandomForestClassifier
。
X = df[[my_features]] #all my features
y = df['gold_standard'] #labels
x_train, x_test, y_train, y_test = train_test_split(X, y, random_state=0)
rfc = RandomForestClassifier(random_state=42, class_weight = 'balanced')
param_grid = {
'n_estimators': [200, 500],
'max_features': ['auto', 'sqrt', 'log2'],
'max_depth' : [4,5,6,7,8],
'criterion' :['gini', 'entropy']
}
k_fold = StratifiedKFold(n_splits=10, shuffle=True, random_state=0)
CV_rfc = GridSearchCV(estimator=rfc, param_grid=param_grid, cv= k_fold, scoring = 'roc_auc')
CV_rfc.fit(x_train, y_train)
print(CV_rfc.best_params_)
print(CV_rfc.best_score_)
print(CV_rfc.best_estimator_)
pred = CV_rfc.predict_proba(x_test)[:,1]
print(roc_auc_score(y_test, pred))
但是,我不清楚如何将特征选择(rfecv
)与合并GridSearchCV
。
编辑:
当我运行@Gambit建议的答案时,出现以下错误:
ValueError: Invalid parameter criterion for estimator RFECV(cv=StratifiedKFold(n_splits=10, random_state=None, shuffle=False),
estimator=RandomForestClassifier(bootstrap=True, class_weight='balanced',
criterion='gini', max_depth=None, max_features='auto',
max_leaf_nodes=None, min_impurity_decrease=0.0,
min_impurity_split=None, min_samples_leaf=1,
min_samples_split=2, min_weight_fraction_leaf=0.0,
n_estimators='warn', n_jobs=None, oob_score=False,
random_state=42, verbose=0, warm_start=False),
min_features_to_select=1, n_jobs=None, scoring='roc_auc', step=1,
verbose=0). Check the list of available parameters with `estimator.get_params().keys()`.
我可以通过estimator__
在param_grid
参数列表中使用来解决上述问题。
我现在的问题是 如何使用所选的特征和参数x_test
来验证模型是否可以很好地处理看不见的数据。如何获得best features
并使用进行训练optimal hyperparameters
?
如果需要,我很乐意提供更多详细信息。
基本上,您希望在选择特征后使用递归特征消除(使用交叉验证)微调分类器的超级参数(使用交叉验证)。
管道对象正是用于组装数据转换和应用估计器的目的。
可能是您可以使用其他模型(GradientBoostingClassifier
等)进行最终分类。使用以下方法将是可能的:
from sklearn.datasets import load_breast_cancer
from sklearn.feature_selection import RFECV
from sklearn.model_selection import GridSearchCV
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier
X, y = load_breast_cancer(return_X_y=True)
X_train, X_test, y_train, y_test = train_test_split(X, y,
test_size=0.33,
random_state=42)
from sklearn.pipeline import Pipeline
#this is the classifier used for feature selection
clf_featr_sele = RandomForestClassifier(n_estimators=30,
random_state=42,
class_weight="balanced")
rfecv = RFECV(estimator=clf_featr_sele,
step=1,
cv=5,
scoring = 'roc_auc')
#you can have different classifier for your final classifier
clf = RandomForestClassifier(n_estimators=10,
random_state=42,
class_weight="balanced")
CV_rfc = GridSearchCV(clf,
param_grid={'max_depth':[2,3]},
cv= 5, scoring = 'roc_auc')
pipeline = Pipeline([('feature_sele',rfecv),
('clf_cv',CV_rfc)])
pipeline.fit(X_train, y_train)
pipeline.predict(X_test)
现在,您可以将此管道(包括功能选择)应用于测试数据。
本文向大家介绍如何进行特征选择?相关面试题,主要包含被问及如何进行特征选择?时的应答技巧和注意事项,需要的朋友参考一下 去除方差较小的特征
问题内容: 我在src / test / resources / feature /中有以下功能文件(单独的功能文件),我想并行运行它们。就像:一个功能文件必须在chrome中执行,而另一个功能文件必须在firefox中执行,如@Tags名称所述。 有人可以帮助我实现这一点吗?我使用的是cumul-java 1.2.2版本,并且使用AbstractTestNGCucumberTests作为运行程序
问题内容: 我知道可以通过使用:获得多项式特征作为数字。根据手册,在以下两个方面,这些功能是:。但是,如何获得高阶功能的描述?不显示任何功能列表。 问题答案: 顺便说一下,现在有更合适的功能: PolynomialFeatures.get_feature_names。 输出结果如下: 注意由于某种原因,您必须先适合PolynomialFeatures对象,然后才能使用get_feature_nam
特征选择在于选取对训练集有分类能力的特征,这样可以提高决策树学习的效率。 通常特征选择的准则是信息增益或信息增益比。 信息增益 信息增益(information gain)表示得知特征$$X$$的信息而使得类$$Y$$的信息不确定性减少称。 特征$$A$$对训练数据集$$D$$的信息增益$$g(D,A)$$,定义为集合$$D$$的经验熵$$H(D)$$与特征$$A$$在给定条件下$$D$$的经验条
问题内容: 我正在尝试从使用scikit-learn完成的PCA中恢复, 这些 功能被选择为 相关 。 IRIS数据集的经典示例。 这返回 如何恢复数据集中哪两个特征允许这两个已解释的方差? 换句话说,我如何在iris.feature_names中获取此功能的索引? 在此先感谢您的帮助。 问题答案: 此信息包含在属性中:。如文档中所述,输出一个数组,因此要了解组件如何与不同功能线性相关,您必须:
RFormula通过一个R model formula选择一个特定的列。 目前我们支持R算子的一个受限的子集,包括~,.,:,+,-。这些基本的算子是: ~ 分开target和terms + 连接term,+ 0表示删除截距(intercept) - 删除term,- 1表示删除截距 : 交集 . 除了target之外的所有列 假设a和b是double列,我们用下面简单的例子来证明RFor