0

0

Flink中字符串到JSONObject转换的正确实践与性能考量

DDD

DDD

发布时间:2025-09-25 13:21:01

|

546人浏览过

|

来源于php中文网

原创

Flink中字符串到JSONObject转换的正确实践与性能考量

本文探讨了在Apache Flink中将JSON字符串转换为JSONObject时遇到的常见问题及其解决方案。核心问题在于错误的JSON解析方法导致NullPointerException,通过切换到org.json库并使用new JSONObject(String)构造函数可有效解决。同时,文章强调了直接使用JSONObject的性能开销,并建议采用POJO进行更高效和类型安全的JSON数据处理。

Flink中JSON字符串到JSONObject转换的挑战

apache flink流处理应用中,我们经常需要将从数据源(如kafka、文件)接收到的json格式字符串转换为结构化的json对象以便进一步处理。然而,在尝试将字符串直接映射到jsonobject时,开发者可能会遇到java.lang.nullpointerexception: assigned key must not be null!这样的运行时错误,即使调试显示字符串已被成功解析为jsonobject实例,但在通过collector发出时却失败。

问题示例代码:

以下是一个在Flink中尝试将JSON字符串转换为JSONObject的典型失败案例:

import com.alibaba.fastjson.JSONObject; // 假设使用了FastJSON或其他类似库
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.ProcessFunction;
import org.apache.flink.util.Collector;

public class FlinkJsonProcessingIssue {
    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);

        DataStreamSource inputDS = env.fromElements(
            "{\"bill_info\":{\"ADD_TIME\":\"2022-11-12 16:05:28:418\",\"ORDER_ID\":\"f3e60c5f-78f6-4ec6-bab6-98b177f7cb67\",\"ADDER_NO\":\"0706\",\"UPDATER_NO\":\"0706\",\"S_USER_ID\":\"s68\",\"B_USER_ID\":\"b77\",\"BILL_ID\":\"8687b584-038c-498c-8f97-ec1ca197da96\",\"ADDER_NAME\":\"sss\",\"UPDATE_TIME\":\"2022-11-12 16:05:28:418\",\"UPDATER_NAME\":\"ssss\"}}"
        );

        SingleOutputStreamOperator jsonObjDS = inputDS.process(new ProcessFunction() {
            @Override
            public void processElement(String value, ProcessFunction.Context ctx, Collector out) throws Exception {
                // 常见的错误做法:使用静态解析方法,可能与Flink的序列化机制冲突或与所用JSON库版本不兼容
                JSONObject jsonObject = JSONObject.parseObject(value); // 假设这里使用了com.alibaba.fastjson.JSONObject
                out.collect(jsonObject);
            }
        });
        jsonObjDS.print();

        env.execute();
    }
}

上述代码在执行时可能会抛出java.lang.NullPointerException: Assigned key must not be null!,这表明问题不在于字符串解析本身,而是在于JSONObject对象被Collector收集并尝试序列化/反序列化时出现了问题,可能是由于不同JSON库的实现细节或其与Flink内部序列化器的兼容性问题。

解决方案:使用org.json库和构造函数实例化

解决此问题的关键在于选择一个与Flink兼容性良好的JSON库,并采用正确的对象实例化方式。推荐使用org.json库,并通过其构造函数直接从字符串创建JSONObject。

Maven依赖:

首先,确保你的项目中引入了org.json库的依赖。


    org.json
    json
    20180130 

修正后的代码:

将ProcessFunction中的JSON解析逻辑修改为使用org.json.JSONObject的构造函数:

import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.functions.ProcessFunction;
import org.apache.flink.util.Collector;
import org.json.JSONObject; // 注意这里是org.json.JSONObject

public class FlinkJsonProcessingSolution {
    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.setParallelism(1);

        DataStreamSource inputDS = env.fromElements(
            "{\"bill_info\":{\"ADD_TIME\":\"2022-11-12 16:05:28:418\",\"ORDER_ID\":\"f3e60c5f-78f6-4ec6-bab6-98b177f7cb67\",\"ADDER_NO\":\"0706\",\"UPDATER_NO\":\"0706\",\"S_USER_ID\":\"s68\",\"B_USER_ID\":\"b77\",\"BILL_ID\":\"8687b584-038c-498c-8f97-ec1ca197da96\",\"ADDER_NAME\":\"sss\",\"UPDATE_TIME\":\"2022-11-12 16:05:28:418\",\"UPDATER_NAME\":\"ssss\"}}"
        );

        SingleOutputStreamOperator jsonObjDS = inputDS.process(new ProcessFunction() {
            @Override
            public void processElement(String value, ProcessFunction.Context ctx, Collector out) throws Exception {
                // 正确的做法:使用org.json.JSONObject的构造函数
                JSONObject jsonObject = new JSONObject(value);
                out.collect(jsonObject);
            }
        });
        jsonObjDS.print();

        env.execute();
    }
}

通过上述修改,程序将能够正常运行并打印出解析后的JSONObject内容:

LOVO AI
LOVO AI

AI人声和文本转语音生成工具

下载
{"bill_info":{"ADDER_NAME":"sss","ADDER_NO":"0706","UPDATER_NAME":"ssss","UPDATER_NO":"0706","BILL_ID":"8687b584-038c-498c-8f97-ec1ca197da96","ADD_TIME":"2022-11-12 16:05:28:418","ORDER_ID":"f3e60c5f-78f6-4ec6-bab6-98b177f7cb67","S_USER_ID":"s68","B_USER_ID":"b77","UPDATE_TIME":"2022-11-12 16:05:28:418"}}

性能考量与最佳实践

尽管直接将JSON字符串转换为JSONObject可以解决当前的解析问题,但在生产环境中,尤其是在处理高吞吐量数据流时,直接在Flink流中传递JSONObject实例通常不是最佳实践。

原因分析:

  • 序列化/反序列化开销: JSONObject本质上是一个Map的实现,包含了键值对及其内部数据结构。在Flink的分布式环境中,数据需要在不同的算子之间进行传输,这就涉及到对象的序列化和反序列化。JSONObject的序列化和反序列化过程通常比POJO(Plain Old Java Object)更昂贵,因为它需要动态处理其内部结构,而不是固定类型的字段。
  • 类型安全和可读性: 使用JSONObject意味着你需要在运行时通过键名字符串来访问数据,这缺乏编译时类型检查,容易出错,并且代码可读性相对较差。

推荐做法:POJO反序列化

为了提高性能、增强类型安全和代码可读性,强烈建议将JSON字符串反序列化为POJO。POJO是简单的Java对象,其字段与JSON结构中的键一一对应。Flink能够高效地序列化和反序列化POJO,因为其结构是固定的,并且可以通过Kryo等高效序列化器进行优化。

POJO反序列化示例思路:

  1. 定义POJO类: 根据JSON数据的结构定义对应的Java类,并确保所有字段都有getter/setter方法(或使用Lombok)。例如,对于上述JSON,可能需要定义BillInfo和BillDetails等嵌套POJO。
  2. 选择JSON库进行POJO反序列化: 使用如Jackson、Gson或FastJSON等库,将JSON字符串反序列化为POJO实例。
  3. 在Flink中使用: 在ProcessFunction或MapFunction中,将接收到的JSON字符串反序列化为POJO,并将其作为下游算子的输入。

例如,如果有一个BillInfo的POJO类,你的ProcessFunction可能看起来像这样:

// 假设已定义好BillInfo POJO类
// public class BillInfo { ... }

// 在ProcessFunction中
@Override
public void processElement(String value, ProcessFunction.Context ctx, Collector out) throws Exception {
    // 使用Jackson ObjectMapper将JSON字符串反序列化为POJO
    // ObjectMapper mapper = new ObjectMapper(); // 需要在类级别或静态初始化
    // BillInfo billInfo = mapper.readValue(value, BillInfo.class);
    // out.collect(billInfo);
}

关于如何将JSON从Kafka反序列化到Apache Flink POJO的详细指南,可以参考相关官方文档或社区教程,例如Immerok提供的相关指南

总结

在Flink中处理JSON数据时,正确的JSON库选择和对象实例化方法至关重要。当遇到NullPointerException等问题时,尝试使用org.json库并通过其构造函数new JSONObject(String)来创建JSONObject是一个有效的解决方案。然而,从长远来看,为了获得更好的性能、类型安全和代码可维护性,强烈建议将JSON字符串反序列化为POJO进行处理。这将使得Flink应用更加健壮和高效。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
什么是分布式
什么是分布式

分布式是一种计算和数据处理的方式,将计算任务或数据分散到多个计算机或节点中进行处理。本专题为大家提供分布式相关的文章、下载、课程内容,供大家免费下载体验。

328

2023.08.11

分布式和微服务的区别
分布式和微服务的区别

分布式和微服务的区别在定义和概念、设计思想、粒度和复杂性、服务边界和自治性、技术栈和部署方式等。本专题为大家提供分布式和微服务相关的文章、下载、课程内容,供大家免费下载体验。

235

2023.10.07

json数据格式
json数据格式

JSON是一种轻量级的数据交换格式。本专题为大家带来json数据格式相关文章,帮助大家解决问题。

418

2023.08.07

json是什么
json是什么

JSON是一种轻量级的数据交换格式,具有简洁、易读、跨平台和语言的特点,JSON数据是通过键值对的方式进行组织,其中键是字符串,值可以是字符串、数值、布尔值、数组、对象或者null,在Web开发、数据交换和配置文件等方面得到广泛应用。本专题为大家提供json相关的文章、下载、课程内容,供大家免费下载体验。

535

2023.08.23

jquery怎么操作json
jquery怎么操作json

操作的方法有:1、“$.parseJSON(jsonString)”2、“$.getJSON(url, data, success)”;3、“$.each(obj, callback)”;4、“$.ajax()”。更多jquery怎么操作json的详细内容,可以访问本专题下面的文章。

311

2023.10.13

go语言处理json数据方法
go语言处理json数据方法

本专题整合了go语言中处理json数据方法,阅读专题下面的文章了解更多详细内容。

77

2025.09.10

Java Maven专题
Java Maven专题

本专题聚焦 Java 主流构建工具 Maven 的学习与应用,系统讲解项目结构、依赖管理、插件使用、生命周期与多模块项目配置。通过企业管理系统、Web 应用与微服务项目实战,帮助学员全面掌握 Maven 在 Java 项目构建与团队协作中的核心技能。

0

2025.09.15

kafka消费者组有什么作用
kafka消费者组有什么作用

kafka消费者组的作用:1、负载均衡;2、容错性;3、广播模式;4、灵活性;5、自动故障转移和领导者选举;6、动态扩展性;7、顺序保证;8、数据压缩;9、事务性支持。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

168

2024.01.12

俄罗斯Yandex引擎入口
俄罗斯Yandex引擎入口

2026年俄罗斯Yandex搜索引擎最新入口汇总,涵盖免登录、多语言支持、无广告视频播放及本地化服务等核心功能。阅读专题下面的文章了解更多详细内容。

158

2026.01.28

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Kotlin 教程
Kotlin 教程

共23课时 | 3万人学习

C# 教程
C# 教程

共94课时 | 7.8万人学习

Java 教程
Java 教程

共578课时 | 52.4万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号