0

0

解决Snowflake中保存的Encoder无法用于推理新数据的问题

聖光之護

聖光之護

发布时间:2025-11-01 12:21:01

|

328人浏览过

|

来源于php中文网

原创

解决snowflake中保存的encoder无法用于推理新数据的问题

本文旨在解决在Snowflake中使用保存的Encoder进行新数据推理时遇到的“ufunc 'isnan' not supported”错误。通过详细的代码示例和解释,本文将指导你如何在Snowflake中正确地存储和加载Encoder,并使用它们进行数据转换,最终实现模型推理。同时,还将介绍如何优化UDF的性能,使用向量化特性和缓存机制来提高推理速度。

在使用Snowflake进行机器学习模型部署时,一个常见的挑战是如何在用户自定义函数(UDF)中加载和使用预先训练好的Encoder和模型。本文将深入探讨如何解决在Snowflake中保存的Encoder(例如OneHotEncoder和OrdinalEncoder)在用于新数据推理时出现的“ufunc 'isnan' not supported”错误。我们将提供详细的步骤和代码示例,以确保你能够成功地在Snowflake环境中进行模型推理。

问题分析

该问题的核心在于,当从Snowflake加载Encoder并尝试使用它们转换新的数据时,由于数据类型或数据格式不匹配,导致numpy的isnan函数无法处理输入数据。这通常发生在以下情况下:

  1. 数据类型不一致: 训练数据和推理数据的数据类型不一致,例如,训练时是数值型,推理时变成了字符串型。
  2. 缺失值处理不当: Encoder在训练时没有正确处理缺失值,导致在推理时遇到未知的缺失值。
  3. API调用错误: 混淆了Snowpark API和scikit-learn API,导致数据转换失败。

解决方案

以下步骤将指导你如何正确地在Snowflake中存储、加载和使用Encoder进行模型推理。

1. 数据准备和Encoder训练

首先,我们需要准备数据并训练Encoder。以下代码演示了如何使用Snowpark和scikit-learn的OneHotEncoder和OrdinalEncoder。

Magic AI Avatars
Magic AI Avatars

神奇的AI头像,获得200多个由AI制作的自定义头像。

下载
from snowflake.snowpark.session import Session
import snowflake.snowpark.functions as F
import numpy as np
from snowflake.ml.modeling.preprocessing import OneHotEncoder,OrdinalEncoder
from snowflake.ml.modeling.xgboost import XGBRegressor
import json

# 创建Snowflake会话
connection_parameters = json.load(open('connection.json'))
session = Session.builder.configs(connection_parameters).create()

# 创建模拟数据
mock_df = session.create_dataframe(
    [[979152,"A","XX","SUN","2023-11-24 08:30:00","2023-11-24 12:25:00",189,0.62],
     [987073,"A","ZZ","SUN","2023-12-13 16:15:00","2023-12-13 11:25:00",189,0.75],
     [951384,"C","YY","FAR_SUN","2023-12-05 09:40:00","2023-12-05 13:35:00",189,0.88],
     [952380,"B","WW","FAR_SUN","2023-11-22 19:45:00","2023-11-22 14:30:00",235,0.86],
     [963602,"B","ZZ","FAR_SUN","2023-12-29 10:30:00","2023-12-29 15:05:00",235,0.66]],
    schema=[
        "ID","AIRPORT","A_AIRPORT",
        "CATEGORY","D_DATETIME","A_DATETIME","CAPACITY","TARGET"
    ]
)

mock_df = mock_df.select_expr("*","TO_TIMESTAMP(D_DATETIME) AS D_DATETIME_T","TO_TIMESTAMP(A_DATETIME) AS A_DATETIME_T")

# 训练OneHotEncoder
ohe = OneHotEncoder(handle_unknown='ignore',input_cols='CATEGORY',output_cols='ROUTE_OHE')
ohe.fit(mock_df)

# 训练OrdinalEncoder
categories = {
    "AIRPORT": np.array(['A', 'B', 'C'])
}
oe = OrdinalEncoder(
    handle_unknown='use_encoded_value',unknown_value=-1,
    encoded_missing_value=-1,input_cols='AIRPORT',
    output_cols='AIRPORT_ENCODE',
    categories=categories
)
oe.fit(mock_df)

# 训练XGBoost模型
xgb = XGBRegressor(
    n_estimators = 100,
    max_depth = 3,
    input_cols=[
        "AIRPORT_ENCODE","ROUTE_OHE_FAR_SUN","ROUTE_OHE_SUN",
        "CAPACITY"
    ],
    label_cols="TARGET",output_cols="xgb_prediction"
)

xgb.fit(mock_df)

2. 保存Encoder和模型到Snowflake

接下来,我们将Encoder和模型保存到Snowflake的stage中。使用joblib库将对象序列化,然后使用Snowflake的PUT命令将文件上传到stage。

from joblib import dump

def save_object(object_,filename,stagename,auto_compress=True):
    dump(object_, filename)
    session.file.put(filename, stagename, overwrite=True,auto_compress=auto_compress)
    return

# 提取模型对象
xgb_model = xgb.to_xgboost()
ohe_obj = ohe.to_sklearn()
oe_obj = oe.to_sklearn()

# 保存对象到stage
save_object(xgb_model,'xgb_model.joblib','@AM_TEST_MODELS')
save_object(ohe_obj,'one_hot_encode.joblib','@AM_TEST_MODELS',auto_compress=False)
save_object(oe_obj,'ordinal_encode.joblib','@AM_TEST_MODELS',auto_compress=False)

3. 创建UDF进行推理

创建一个UDF,用于加载Encoder和模型,并对新数据进行推理。以下代码演示了如何使用joblib加载Encoder和模型,并使用它们进行数据转换。

session.add_import("@AM_TEST_MODELS/xgb_model.joblib.gz")
session.add_import("@AM_TEST_MODELS/one_hot_encode.joblib")
session.add_import("@AM_TEST_MODELS/ordinal_encode.joblib")
session.add_packages("pandas==1.5.3","joblib==1.2.0","xgboost==1.7.3","scikit-learn==1.2.2")

import cachetools

@cachetools.cached(cache={})
def read_file(filename):
    import sys
    import os
    import joblib
    # Get the "path" of where files added through iport are avalible
    import_dir = sys._xoptions.get("snowflake_import_directory")
    if import_dir:
        with open(os.path.join(import_dir, filename), 'rb') as file:
            m = joblib.load(file)
            return m

from snowflake.snowpark.types import PandasDataFrameType,PandasSeriesType,IntegerType,StringType,FloatType,PandasDataFrame,PandasSeries
import pandas as pd

@F.udf(
    name='predict_target',session=session,replace=True,
    is_permanent=True,stage_location='@AM_TEST_UDFS',
    input_types=[PandasDataFrameType([
        IntegerType(), StringType(), StringType(),
        StringType(), StringType(), StringType(), IntegerType()
    ])],
    return_type=PandasSeriesType(FloatType())
)
def predict_target(
    df: pd.DataFrame
) -> pd.Series:
    import sys
    import pandas as pd
    from joblib import load
    import sklearn
    import xgboost as xgb

    IMPORT_DIRECTORY_NAME = "snowflake_import_directory"
    import_dir = sys._xoptions[IMPORT_DIRECTORY_NAME]

    # 加载Encoder和模型
    ohe = read_file('one_hot_encode.joblib')
    oe = read_file('ordinal_encode.joblib')
    model = read_file('xgb_model.joblib.gz')

    features = [
        "ID","AIRPORT","A_AIRPORT",
        "CATEGORY","D_DATETIME","A_DATETIME","CAPACITY"
    ]

    df.columns = features

    # 使用Encoder转换数据
    df_ohe = ohe.transform(df[['CATEGORY']])
    encoded_df = pd.DataFrame(df_ohe, columns=ohe.categories_)
    encoded_df.columns = encoded_df.columns.get_level_values(0)
    encoded_df = encoded_df.add_prefix('ROUTE_NAME_OHE_')
    df = pd.concat([df, encoded_df], axis=1)
    df['AIRPORT_ENCODE'] = oe.transform(df[['AIRPORT']])

    # 转换日期格式
    df.loc[:,'D_DATETIME'] = pd.to_datetime(
        df.loc[:,'D_DATETIME'],format='%Y-%m-%d %H:%M:%S',yearfirst=True
    )
    df['A_DATETIME'] = pd.to_datetime(
        df['A_DATETIME'],format='%Y-%m-%d %H:%M:%S',yearfirst=True
    )

    # 创建特征
    df['depart_hour'] = df['D_DATETIME'].dt.hour
    df['depart_weekday'] = df['D_DATETIME'].dt.day_of_week + 1
    df['depart_monthday'] = df['D_DATETIME'].dt.day
    df['depart_yearday'] = df['D_DATETIME'].dt.day_of_year
    df['depart_month'] = df['D_DATETIME'].dt.month
    df['depart_year'] = df['D_DATETIME'].dt.year
    df['arrive_hour'] = df['A_DATETIME'].dt.hour

    # 进行推理
    pm = pd.Series(model.predict(df[[
        "AIRPORT_ENCODE","ROUTE_NAME_OHE_FAR_SUN","ROUTE_NAME_OHE_SUN",
        "CAPACITY","depart_hour",
        "depart_weekday","depart_monthday","depart_yearday",
        "depart_month","depart_year","arrive_hour"
    ]]))
    return pm

4. 使用UDF进行推理

最后,使用创建的UDF对新数据进行推理。

from snowflake.snowpark.functions import col

# 创建推理数据
inference_df = session.create_dataframe(
    [[979152,"C","ZZ","SUN","2023-11-01 16:30:00","2023-11-01 20:25:00",189],
     [987073,"C","ZZ","SUN","2023-12-18 19:15:00","2023-12-18 22:25:00",189],
     [951384,"A","YY","FAR_SUN","2023-12-06 15:40:00","2023-12-06 17:35:00",189],
     [952380,"A","WW","FAR_SUN","2023-11-22 10:45:00","2023-11-22 14:30:00",235],
     [963602,"B","WW","FAR_SUN","2023-11-30 13:30:00","2023-12-29 15:05:00",235]],
    schema=[
        "ID","AIRPORT","A_AIRPORT",
        "CATEGORY","D_DATETIME","A_DATETIME","CAPACITY"
    ]
)

# 调用UDF进行推理
inference_df.withColumn(
    'PREDICTED_TARGET', 
    predict_target(inference_df)
).show()

注意事项

  1. 数据类型一致性: 确保训练数据和推理数据的数据类型一致。
  2. 缺失值处理: 在训练Encoder时,正确处理缺失值,例如使用handle_unknown='ignore'。
  3. API调用: 在UDF中使用scikit-learn API进行数据转换,而不是Snowpark API。
  4. 列名大小写: Snowflake在存储表时会将列名转换为大写,确保在UDF中正确引用列名。
  5. 向量化: 尽量使用向量化的UDF,以提高推理性能。
  6. 缓存: 使用@cachetools.cached装饰器缓存加载的Encoder和模型,以避免重复加载。
  7. 包依赖: 确保在Snowflake中添加了所有需要的Python包,例如pandas、joblib、xgboost和scikit-learn。

总结

通过本文,你学习了如何在Snowflake中正确地存储、加载和使用Encoder进行模型推理。遵循这些步骤和注意事项,可以避免“ufunc 'isnan' not supported”错误,并成功地在Snowflake环境中部署机器学习模型。同时,使用向量化特性和缓存机制可以显著提高UDF的性能,从而实现更快的推理速度。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python 时间序列分析与预测
Python 时间序列分析与预测

本专题专注讲解 Python 在时间序列数据处理与预测建模中的实战技巧,涵盖时间索引处理、周期性与趋势分解、平稳性检测、ARIMA/SARIMA 模型构建、预测误差评估,以及基于实际业务场景的时间序列项目实操,帮助学习者掌握从数据预处理到模型预测的完整时序分析能力。

79

2025.12.04

Python 数据清洗与预处理实战
Python 数据清洗与预处理实战

本专题系统讲解 Python 在数据清洗与预处理中的核心技术,包括使用 Pandas 进行缺失值处理、异常值检测、数据格式化、特征工程与数据转换,结合 NumPy 高效处理大规模数据。通过实战案例,帮助学习者掌握 如何处理混乱、不完整数据,为后续数据分析与机器学习模型训练打下坚实基础。

32

2026.01.31

数据类型有哪几种
数据类型有哪几种

数据类型有整型、浮点型、字符型、字符串型、布尔型、数组、结构体和枚举等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

338

2023.10.31

php数据类型
php数据类型

本专题整合了php数据类型相关内容,阅读专题下面的文章了解更多详细内容。

225

2025.10.31

c语言 数据类型
c语言 数据类型

本专题整合了c语言数据类型相关内容,阅读专题下面的文章了解更多详细内容。

138

2026.02.12

js 字符串转数组
js 字符串转数组

js字符串转数组的方法:1、使用“split()”方法;2、使用“Array.from()”方法;3、使用for循环遍历;4、使用“Array.split()”方法。本专题为大家提供js字符串转数组的相关的文章、下载、课程内容,供大家免费下载体验。

760

2023.08.03

js截取字符串的方法
js截取字符串的方法

js截取字符串的方法有substring()方法、substr()方法、slice()方法、split()方法和slice()方法。本专题为大家提供字符串相关的文章、下载、课程内容,供大家免费下载体验。

221

2023.09.04

java基础知识汇总
java基础知识汇总

java基础知识有Java的历史和特点、Java的开发环境、Java的基本数据类型、变量和常量、运算符和表达式、控制语句、数组和字符串等等知识点。想要知道更多关于java基础知识的朋友,请阅读本专题下面的的有关文章,欢迎大家来php中文网学习。

1567

2023.10.24

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

76

2026.03.11

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 5万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号