
本文深入探讨scikit-learn集成模型中超参数调优的两种主要策略:为每个基学习器独立进行参数搜索,以及对整个集成模型进行联合参数优化。文章将详细阐述votingregressor和stackingregressor在独立调优情境下的内部机制,特别是stackingregressor涉及的嵌套交叉验证。同时,对比分析两种策略在性能、计算成本和过拟合风险上的差异,旨在帮助读者根据实际需求选择最合适的调优方法。
在构建基于Scikit-learn的集成模型时,对基学习器(base estimators)的超参数进行调优是提升模型性能的关键步骤。根据调优的范围和策略,我们可以将其分为独立超参数调优和联合超参数调优两种主要方法。
独立超参数调优是指为集成模型中的每个基学习器单独进行参数搜索。在这种模式下,每个基学习器(例如RandomForestRegressor或DecisionTreeRegressor)都会被封装在一个独立的超参数搜索器(如RandomizedSearchCV或GridSearchCV)中。当这些包含自身搜索逻辑的基学习器被传入VotingRegressor或StackingRegressor等集成器时,它们会独立地执行各自的参数优化过程。
这种方法的特点是,每个基学习器在调优时并不知道其他基学习器的存在或其参数状态,它们的目标是找到自身在给定数据集上的最优超参数组合。
对于VotingRegressor,独立调优的机制相对直接。每个基学习器会根据其自身的交叉验证策略找到最佳参数,然后使用这些最佳参数训练最终模型。这些独立训练好的模型随后被组合成VotingRegressor进行预测。在这个过程中,基学习器的调优与集成过程是串行的,即先完成基学习器的调优,再将它们集成。
StackingRegressor在处理包含独立搜索器的基学习器时,其内部机制更为精妙,涉及到嵌套的交叉验证。具体流程如下:
以下代码展示了如何将包含独立RandomizedSearchCV的基学习器传入StackingRegressor和VotingRegressor:
from sklearn.ensemble import VotingRegressor, StackingRegressor, RandomForestRegressor
from sklearn.tree import DecisionTreeRegressor
from sklearn.datasets import make_regression
from sklearn.model_selection import RandomizedSearchCV
import numpy as np
# 生成示例数据
X, y = make_regression(n_samples=100, n_features=10, random_state=42)
# 定义随机森林的参数搜索空间
rf_param_dist = {'n_estimators': [10, 20, 30, 40, 50],
'max_features': [0.6, 0.8, 1.0],
'max_depth': [None, 5, 10]}
rf_searcher = RandomizedSearchCV(RandomForestRegressor(random_state=42),
rf_param_dist, n_iter=5, cv=3, random_state=42, verbose=0)
# 定义决策树的参数搜索空间
dt_param_dist = {'max_depth': [4, 5, 6, 7, 8, 9, 10],
'min_samples_split': [2, 5, 10]}
dt_searcher = RandomizedSearchCV(DecisionTreeRegressor(random_state=42),
dt_param_dist, n_iter=5, cv=3, random_state=42, verbose=0)
# 将独立调优的基学习器集成到StackingRegressor中
# StackingRegressor需要一个final_estimator (元学习器)
ensemble_stacking_independent = StackingRegressor(
[ ('rf', rf_searcher), ('dt', dt_searcher) ],
final_estimator=RandomForestRegressor(random_state=42)
)
print("开始独立调优的StackingRegressor拟合...")
ensemble_stacking_independent.fit(X, y)
print("独立调优的StackingRegressor拟合完成。")
# 将独立调优的基学习器集成到VotingRegressor中
# VotingRegressor内部也会触发基学习器的fit过程
ensemble_voting_independent = VotingRegressor(
[ ('rf', rf_searcher), ('dt', dt_searcher) ]
)
print("开始独立调优的VotingRegressor拟合...")
ensemble_voting_independent.fit(X, y)
print("独立调优的VotingRegressor拟合完成。")
# 打印最佳参数(以StackingRegressor为例,这里显示的是最终模型在整个数据集上调优的结果)
print("\nStackingRegressor中随机森林的最佳参数:", ensemble_stacking_independent.named_estimators_['rf'].best_params_)
print("StackingRegressor中决策树的最佳参数:", ensemble_stacking_independent.named_estimators_['dt'].best_params_)与独立调优不同,联合超参数调优旨在寻找一个参数组合,使得整个集成模型的性能达到最优。在这种策略下,集成模型被视为一个整体,其所有基学习器和元学习器(如果存在)的超参数都在一个统一的搜索空间中进行优化。这种方法能够探索基学习器之间参数相互作用的影响,可能发现独立调优无法达到的全局最优解。
在sklearn中,可以通过对整个集成模型(如VotingRegressor或StackingRegressor实例)应用一个RandomizedSearchCV或GridSearchCV来实现联合调优。超参数名称遵循estimator_name__parameter_name的命名约定,其中estimator_name是集成模型中基学习器的名称(在定义集成器时指定),parameter_name是该基学习器的超参数。如果存在元学习器,其参数命名遵循final_estimator__parameter_name。
以下代码演示了如何对整个集成模型进行联合超参数搜索:
# 定义一个未调优的VotingRegressor作为基模型
ensemble_voting_base = VotingRegressor(
[ ('rf', RandomForestRegressor(random_state=42)),
('dt', DecisionTreeRegressor(random_state=42)) ]
)
# 定义联合搜索的参数空间
jointsearch_param_dist = {
'rf__n_estimators': [10, 20, 3以上就是Scikit-learn集成模型超参数调优:理解独立与联合搜索机制的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号