0

0

Databricks AutoML与特征工程:高效管理特征选择的实践指南

霞舞

霞舞

发布时间:2025-08-26 19:12:01

|

913人浏览过

|

来源于php中文网

原创

Databricks AutoML与特征工程:高效管理特征选择的实践指南

本教程详细阐述了在Databricks AutoML中集成特征存储时,如何精确控制特征选择。针对直接使用feature_store_lookups的局限性,我们推荐通过databricks.feature_store.create_training_set预先构建训练数据集,从而确保只有所需特征被纳入模型训练,有效避免因额外列导致AutoML任务失败。

挑战:Databricks AutoML与特征选择的困境

在databricks环境中,结合使用automl与特征存储(feature store)能够显著提升机器学习工作流的效率。然而,当尝试直接将特征存储查找(feature_store_lookups)传递给databricks.automl.regress或databricks.automl.classify函数时,可能会遇到特征选择上的挑战。

通常,用户希望从特征表中选择特定的特征列。在使用feature_store_lookups字典列表时,虽然可以在每个查找字典中包含feature_names字段来指定所需特征,但Databricks AutoML API在处理此参数时存在限制。具体而言,feature_names并非databricks.automl函数内部feature_store_lookups参数的有效选项。这意味着即使指定了feature_names,AutoML也可能默认包含特征表中的所有列,导致模型训练过程中引入不必要的特征,甚至因数据格式或类型不兼容而导致AutoML运行失败。

此外,当尝试使用exclude_cols参数来排除从特征存储中引入的额外列时,AutoML会报错,指出这些列不在数据集的初始Schema中,从而无法有效排除。这进一步限制了在直接AutoML调用中进行精细特征控制的能力。

以下是一个尝试直接使用feature_store_lookups并遇到问题的典型示例:

import databricks.automl

automl_feature_lookups = [
    {
      "table_name":"lakehouse_in_action.favorita_forecasting.oil_10d_lag_ft",
      "lookup_key":"date",
      "feature_names":"lag10_oil_price" # 此处 feature_names 在 AutoML API 中无效
    },
    {
      "table_name":"lakehouse_in_action.favorita_forecasting.store_holidays_ft",
      "lookup_key":["date","store_nbr"]
    },
    {
      "table_name":"lakehouse_in_action.favorita_forecasting.stores_ft",
      "lookup_key":"store_nbr",
      "feature_names":["cluster","store_type"] # 此处 feature_names 在 AutoML API 中无效
    }
]

# 假设 raw_data 是包含基础数据(如日期、商店编号、标签)的DataFrame
automl_data = raw_data.filter("date > '2016-12-31'")

# 这种直接调用方式可能导致所有特征表列被包含,并引发错误
summary = databricks.automl.regress(automl_data,
                                    target_col=label_name,
                                    time_col="date",
                                    timeout_minutes=60,
                                    feature_store_lookups=automl_feature_lookups)

当尝试添加exclude_cols=['city','state']等参数时,如果这些列来源于特征查找表,则会收到类似InvalidArgumentError: Dataset schema does not contain column with name 'city'.的错误。

解决方案:利用Feature Store构建训练数据集

解决上述问题的最佳实践是,在调用Databricks AutoML之前,显式地利用databricks.feature_store模块来构建一个训练数据集(TrainingSet)。这种方法允许在特征存储层面精确指定要包含的特征,并将所有查找操作预先合并到一个统一的DataFrame中,然后将这个预处理好的DataFrame传递给AutoML。

1. 导入必要的库

首先,确保导入FeatureLookup类和databricks.feature_store模块。

from databricks.feature_store import FeatureLookup
import databricks.feature_store as fe
import databricks.automl

2. 定义特征查找规则

使用FeatureLookup对象来定义每个特征表的查找规则,并在其中明确指定feature_names。这是与直接在AutoML中传递字典列表的关键区别,FeatureLookup对象支持feature_names参数,允许精确选择特征。

GentleAI
GentleAI

GentleAI是一个高效的AI工作平台,为普通人提供智能计算、简单易用的界面和专业技术支持。让人工智能服务每一个人。

下载
model_feature_lookups = [
    FeatureLookup(
      table_name="lakehouse_in_action.favorita_forecasting.oil_10d_lag_ft",
      lookup_key="date",
      feature_names="lag10_oil_price" # 在 FeatureLookup 中有效
    ),
    FeatureLookup(
      table_name="lakehouse_in_action.favorita_forecasting.store_holidays_ft",
      lookup_key=["date","store_nbr"]
      # 如果不指定 feature_names,则默认包含所有非 lookup_key 列
    ),
    FeatureLookup(
      table_name="lakehouse_in_action.favorita_forecasting.stores_ft",
      lookup_key="store_nbr",
      feature_names=["cluster","store_type"] # 在 FeatureLookup 中有效
    ),
]

3. 创建训练数据集

使用fe.create_training_set函数将基础DataFrame(df)、特征查找规则(feature_lookups)和目标列(label)结合起来,创建一个TrainingSet对象。这个过程会根据lookup_key自动将特征表中的指定特征合并到基础DataFrame中。

# 假设 raw_data 是包含基础数据(如日期、商店编号、标签)的DataFrame
# label_name 是目标列的名称
training_set = fe.create_training_set(
    df=raw_data,
    feature_lookups=model_feature_lookups,
    label=label_name,
)

4. 加载合并后的DataFrame

通过调用training_set.load_df()方法,将TrainingSet转换为一个包含所有基础数据和合并后特征的Spark DataFrame。此时,这个DataFrame已经包含了所有经过精确选择的特征,并且不再有额外的、不期望的列。

training_df = training_set.load_df()

5. 准备数据并执行AutoML

现在,可以将这个预处理好的training_df传递给databricks.automl.regress函数。此时,feature_store_lookups参数不再需要,因为特征已经合并。如果需要排除原始raw_data中非特征存储来源的列(例如,一个不用于训练的id列),可以使用exclude_cols参数。

# 可选:对数据进行进一步过滤,例如按日期过滤
automl_data = training_df.filter("date > '2016-12-31'") # 此过滤仅为缩小数据量,非必需步骤

summary = databricks.automl.regress(automl_data,
                                    target_col=label_name,
                                    time_col="date",
                                    timeout_minutes=6,
                                    exclude_cols=['id'] # 此时 exclude_cols 可用于排除非特征存储来源的列
                                    )

完整代码示例

from databricks.feature_store import FeatureLookup
import databricks.feature_store as fe
import databricks.automl
from pyspark.sql import SparkSession
from pyspark.sql.functions import lit, current_date

# 模拟 SparkSession 和 raw_data
spark = SparkSession.builder.appName("AutoMLFeatureStoreTutorial").getOrCreate()
# 假设 raw_data 包含 'date', 'store_nbr', 'id', 'label_name' 等列
# 实际应用中 raw_data 会从数据源加载
raw_data = spark.createDataFrame([
    ("2017-01-01", 1, 1001, 5.5),
    ("2017-01-01", 2, 1002, 6.2),
    ("2017-01-02", 1, 1003, 5.8),
    ("2017-01-02", 2, 1004, 6.0),
    ("2016-12-31", 1, 1000, 5.0) # 模拟旧数据
], ["date", "store_nbr", "id", "sales"])

label_name = "sales"

# 定义 FeatureLookup 对象,精确指定所需特征
model_feature_lookups = [
    FeatureLookup(
      table_name="lakehouse_in_action.favorita_forecasting.oil_10d_lag_ft",
      lookup_key="date",
      feature_names="lag10_oil_price"
    ),
    FeatureLookup(
      table_name="lakehouse_in_action.favorita_forecasting.store_holidays_ft",
      lookup_key=["date","store_nbr"]
    ),
    FeatureLookup(
      table_name="lakehouse_in_action.favorita_forecasting.stores_ft",
      lookup_key="store_nbr",
      feature_names=["cluster","store_type"]
    ),
]

# 使用 Feature Store 创建训练数据集
training_set = fe.create_training_set(
    df=raw_data,
    feature_lookups=model_feature_lookups,
    label=label_name,
)

# 加载合并后的 DataFrame
training_df = training_set.load_df()

# 可选:进一步过滤数据
automl_data = training_df.filter("date > '2016-12-31'")

# 执行 Databricks AutoML
# 注意:此处的 AutoML 调用是模拟的,实际运行需要Databricks环境和配置
# summary = databricks.automl.regress(automl_data,
#                                     target_col=label_name,
#                                     time_col="date",
#                                     timeout_minutes=6,
#                                     exclude_cols=['id']
#                                     )

print("训练数据集Schema:")
automl_data.printSchema()
print("\n前5行数据:")
automl_data.show(5)

# 假设 AutoML 运行成功
print("\nDatabricks AutoML 实验已成功配置并执行。")

注意事项:

  • 上述代码中的lakehouse_in_action.favorita_forecasting.oil_10d_lag_ft等表名是示例,实际使用时需替换为您的特征表路径。
  • databricks.automl.regress的timeout_minutes参数应根据实际需求设置,示例中为6分钟。
  • exclude_cols参数在create_training_set之后,load_df所生成的DataFrame上是有效的,可以用于排除那些非特征存储来源的、不用于模型训练的列(如示例中的id)。
  • 对automl_data进行日期过滤(filter("date > '2016-12-31'"))仅用于缩小示例数据量,在实际应用中并非强制要求。

总结

通过在Databricks AutoML工作流中引入databricks.feature_store.create_training_set这一中间步骤,我们能够有效地解决特征选择的难题。这种方法允许开发者利用FeatureLookup对象的feature_names参数精确控制从特征存储中引入哪些特征,从而构建一个干净、目标明确的训练数据集。随后,将这个预处理好的DataFrame传递给AutoML,不仅能够避免因额外列导致的失败,还能提高模型训练的效率和准确性。这体现了Databricks Feature Store在MLOps流程中提供强大特征管理能力的价值。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
常用的数据库软件
常用的数据库软件

常用的数据库软件有MySQL、Oracle、SQL Server、PostgreSQL、MongoDB、Redis、Cassandra、Hadoop、Spark和Amazon DynamoDB。更多关于数据库软件的内容详情请看本专题下面的文章。php中文网欢迎大家前来学习。

1007

2023.11.02

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

25

2026.03.13

Python异步编程与Asyncio高并发应用实践
Python异步编程与Asyncio高并发应用实践

本专题围绕 Python 异步编程模型展开,深入讲解 Asyncio 框架的核心原理与应用实践。内容包括事件循环机制、协程任务调度、异步 IO 处理以及并发任务管理策略。通过构建高并发网络请求与异步数据处理案例,帮助开发者掌握 Python 在高并发场景中的高效开发方法,并提升系统资源利用率与整体运行性能。

44

2026.03.12

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

177

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

50

2026.03.10

Kotlin Android模块化架构与组件化开发实践
Kotlin Android模块化架构与组件化开发实践

本专题围绕 Kotlin 在 Android 应用开发中的架构实践展开,重点讲解模块化设计与组件化开发的实现思路。内容包括项目模块拆分策略、公共组件封装、依赖管理优化、路由通信机制以及大型项目的工程化管理方法。通过真实项目案例分析,帮助开发者构建结构清晰、易扩展且维护成本低的 Android 应用架构体系,提升团队协作效率与项目迭代速度。

92

2026.03.09

JavaScript浏览器渲染机制与前端性能优化实践
JavaScript浏览器渲染机制与前端性能优化实践

本专题围绕 JavaScript 在浏览器中的执行与渲染机制展开,系统讲解 DOM 构建、CSSOM 解析、重排与重绘原理,以及关键渲染路径优化方法。内容涵盖事件循环机制、异步任务调度、资源加载优化、代码拆分与懒加载等性能优化策略。通过真实前端项目案例,帮助开发者理解浏览器底层工作原理,并掌握提升网页加载速度与交互体验的实用技巧。

102

2026.03.06

Rust内存安全机制与所有权模型深度实践
Rust内存安全机制与所有权模型深度实践

本专题围绕 Rust 语言核心特性展开,深入讲解所有权机制、借用规则、生命周期管理以及智能指针等关键概念。通过系统级开发案例,分析内存安全保障原理与零成本抽象优势,并结合并发场景讲解 Send 与 Sync 特性实现机制。帮助开发者真正理解 Rust 的设计哲学,掌握在高性能与安全性并重场景中的工程实践能力。

227

2026.03.05

PHP高性能API设计与Laravel服务架构实践
PHP高性能API设计与Laravel服务架构实践

本专题围绕 PHP 在现代 Web 后端开发中的高性能实践展开,重点讲解基于 Laravel 框架构建可扩展 API 服务的核心方法。内容涵盖路由与中间件机制、服务容器与依赖注入、接口版本管理、缓存策略设计以及队列异步处理方案。同时结合高并发场景,深入分析性能瓶颈定位与优化思路,帮助开发者构建稳定、高效、易维护的 PHP 后端服务体系。

530

2026.03.04

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
10分钟--Midjourney创作自己的漫画
10分钟--Midjourney创作自己的漫画

共1课时 | 0.1万人学习

Midjourney 关键词系列整合
Midjourney 关键词系列整合

共13课时 | 0.9万人学习

AI绘画教程
AI绘画教程

共2课时 | 0.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号