4.1. Pipeline(管道)和 FeatureUnion(特征联合): 合并的评估器

优质
小牛编辑
128浏览
2023-12-01

校验者: @程威 翻译者: @Sehriff

4.1.1. Pipeline: 链式评估器

 可以把多个评估器链接成一个。这个是很有用的,因为处理数据的步骤一般都是固定的,例如特征选择、标准化和分类。

Pipeline 主要有两个目的:

便捷性和封装性

你只要对数据调用 [](#id2)fit和 [](#id4)predict一次来适配所有的一系列评估器。

联合的参数选择

你可以一次 :ref:[](#id6)grid search <grid_search>管道中所有评估器的参数。

安全性

训练转换器和预测器使用的是相同样本,管道有助于防止来自测试数据的统计数据泄露到交叉验证的训练模型中。

管道中的所有评估器,除了最后一个评估器,管道的所有评估器必须是转换器。 (例如,必须有 transform 方法). 最后一个评估器的类型不限(转换器、分类器等等)

4.1.1.1. 用法

Pipeline 使用一系列 (key, value) 键值对来构建,其中 key 是你给这个步骤起的名字, value 是一个评估器对象:

>>> from sklearn.pipeline import Pipeline
>>> from sklearn.svm import SVC
>>> from sklearn.decomposition import PCA
>>> estimators = [('reduce_dim', PCA()), ('clf', SVC())]
>>> pipe = Pipeline(estimators)
>>> pipe 
Pipeline(memory=None,
 steps=[('reduce_dim', PCA(copy=True,...)),
 ('clf', SVC(C=1.0,...))])

功能函数 make_pipeline 是构建管道的缩写; 它接收多个评估器并返回一个管道,自动填充评估器名:

>>> from sklearn.pipeline import make_pipeline
>>> from sklearn.naive_bayes import MultinomialNB
>>> from sklearn.preprocessing import Binarizer
>>> make_pipeline(Binarizer(), MultinomialNB()) 
Pipeline(memory=None,
 steps=[('binarizer', Binarizer(copy=True, threshold=0.0)),
 ('multinomialnb', MultinomialNB(alpha=1.0,
 class_prior=None,
 fit_prior=True))])

管道中的评估器作为一个列表保存在 steps 属性内:

>>> pipe.steps[0]
('reduce_dim', PCA(copy=True, iterated_power='auto', n_components=None, random_state=None,
 svd_solver='auto', tol=0.0, whiten=False))

并作为 dict 保存在 named_steps:

>>> pipe.named_steps['reduce_dim']
PCA(copy=True, iterated_power='auto', n_components=None, random_state=None,
 svd_solver='auto', tol=0.0, whiten=False)

管道中的评估器参数可以通过 <estimator>__<parameter> 语义来访问:

>>> pipe.set_params(clf__C=10) 
Pipeline(memory=None,
 steps=[('reduce_dim', PCA(copy=True, iterated_power='auto',...)),
 ('clf', SVC(C=10, cache_size=200, class_weight=None,...))])

named_steps 的属性映射到多个值,在交互环境支持 tab 补全:

>>> pipe.named_steps.reduce_dim is pipe.named_steps['reduce_dim']
True

这对网格搜索尤其重要:

>>> from sklearn.model_selection import GridSearchCV
>>> param_grid = dict(reduce_dim__n_components=[2, 5, 10],
...                   clf__C=[0.1, 10, 100])
>>> grid_search = GridSearchCV(pipe, param_grid=param_grid)

单独的步骤可以用多个参数替换,除了最后步骤,其他步骤都可以设置为 None 来跳过

>>> from sklearn.linear_model import LogisticRegression
>>> param_grid = dict(reduce_dim=[None, PCA(5), PCA(10)],
...                   clf=[SVC(), LogisticRegression()],
...                   clf__C=[0.1, 10, 100])
>>> grid_search = GridSearchCV(pipe, param_grid=param_grid)

例子:

  • Pipeline Anova SVM
  • Sample pipeline for text feature extraction and evaluation
  • Pipelining: chaining a PCA and a logistic regression
  • Explicit feature map approximation for RBF kernels
  • SVM-Anova: SVM with univariate feature selection
  • Selecting dimensionality reduction with Pipeline and GridSearchCV

也可以参阅:

  • 调整估计器的超参数

4.1.1.2. 注意点

对管道调用 fit 方法的效果跟依次对每个评估器调用 fit 方法一样, 都是transform 输入并传递给下个步骤。 管道中最后一个评估器的所有方法,管道都有,例如,如果最后的评估器是一个分类器, Pipeline 可以当做分类器来用。如果最后一个评估器是转换器,管道也一样可以。

4.1.1.3. 缓存转换器:避免重复计算

适配转换器是很耗费计算资源的。设置了memory 参数, Pipeline 将会在调用fit方法后缓存每个转换器。 如果参数和输入数据相同,这个特征用于避免重复计算适配的转换器。典型的例子是网格搜索转换器,该转化器只要适配一次就可以多次使用。

memory 参数用于缓存转换器。

memory 可以是包含要缓存的转换器的目录的字符串或一个 joblib.Memory 对象:

>>> from tempfile import mkdtemp
>>> from shutil import rmtree
>>> from sklearn.decomposition import PCA
>>> from sklearn.svm import SVC
>>> from sklearn.pipeline import Pipeline
>>> estimators = [('reduce_dim', PCA()), ('clf', SVC())]
>>> cachedir = mkdtemp()
>>> pipe = Pipeline(estimators, memory=cachedir)
>>> pipe 
Pipeline(...,
 steps=[('reduce_dim', PCA(copy=True,...)),
 ('clf', SVC(C=1.0,...))])
>>> # Clear the cache directory when you don't need it anymore
>>> rmtree(cachedir)

Warning

Side effect of caching transfomers

使用 Pipeline 而不开启缓存功能,还是可以通过查看原始实例的,例如:

>>> from sklearn.datasets import load_digits
>>> digits = load_digits()
>>> pca1 = PCA()
>>> svm1 = SVC()
>>> pipe = Pipeline([('reduce_dim', pca1), ('clf', svm1)])
>>> pipe.fit(digits.data, digits.target)
... 
Pipeline(memory=None,
 steps=[('reduce_dim', PCA(...)), ('clf', SVC(...))])
>>> # The pca instance can be inspected directly
>>> print(pca1.components_) 
 [[ -1.77484909e-19  ... 4.07058917e-18]]

开启缓存会在适配前触发转换器的克隆。因此,管道的转换器实例不能被直接查看。 在下面例子中, 访问 PCA 实例 pca2 将会引发 AttributeError 因为 pca2 是一个未适配的转换器。 这时应该使用属性 named_steps 来检查管道的评估器:

>>> cachedir = mkdtemp()
>>> pca2 = PCA()
>>> svm2 = SVC()
>>> cached_pipe = Pipeline([('reduce_dim', pca2), ('clf', svm2)],
...                        memory=cachedir)
>>> cached_pipe.fit(digits.data, digits.target)
... 
 Pipeline(memory=...,
 steps=[('reduce_dim', PCA(...)), ('clf', SVC(...))])
>>> print(cached_pipe.named_steps['reduce_dim'].components_)
... 
 [[ -1.77484909e-19  ... 4.07058917e-18]]
>>> # Remove the cache directory
>>> rmtree(cachedir)

例子:

  • Selecting dimensionality reduction with Pipeline and GridSearchCV

4.1.2. FeatureUnion(特征联合): 个特征层面

FeatureUnion 合并了多个转换器对象形成一个新的转换器,该转换器合并了他们的输出。一个 FeatureUnion 可以接收多个转换器对象。在适配期间,每个转换器都单独的和数据适配。 对于转换数据,转换器可以并发使用,且输出的样本向量被连接成更大的向量。

FeatureUnion 功能与 Pipeline 一样- 便捷性和联合参数的估计和验证。

可以结合:class:<cite>FeatureUnion</cite> 和 Pipeline 来创造出复杂模型。

(一个 FeatureUnion 没办法检查两个转换器是否会产出相同的特征。它仅仅在特征集合不相关时产生联合并确认是调用者的职责。)

4.1.2.1. 用法

一个 FeatureUnion 是通过一系列 (key, value) 键值对来构建的,其中的 key 给转换器指定的名字 (一个绝对的字符串; 他只是一个代号), value 是一个评估器对象:

>>> from sklearn.pipeline import FeatureUnion
>>> from sklearn.decomposition import PCA
>>> from sklearn.decomposition import KernelPCA
>>> estimators = [('linear_pca', PCA()), ('kernel_pca', KernelPCA())]
>>> combined = FeatureUnion(estimators)
>>> combined 
FeatureUnion(n_jobs=1,
 transformer_list=[('linear_pca', PCA(copy=True,...)),
 ('kernel_pca', KernelPCA(alpha=1.0,...))],
 transformer_weights=None)

跟管道一样,特征联合有一个精简版的构造器叫做:func:<cite>make_union</cite> ,该构造器不需要显式给每个组价起名字。

正如 Pipeline, 单独的步骤可能用set_params替换 ,并设置为 [](#id12)None来跳过:

>>> combined.set_params(kernel_pca=None)
... 
FeatureUnion(n_jobs=1,
 transformer_list=[('linear_pca', PCA(copy=True,...)),
 ('kernel_pca', None)],
 transformer_weights=None)

例子:

  • Concatenating multiple feature extraction methods
  • Feature Union with Heterogeneous Data Sources