0

0

在企业中使用人工智能驱动的聊天机器人的风险

WBOY

WBOY

发布时间:2023-04-25 21:01:13

|

2122人浏览过

|

来源于51CTO.COM

转载

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

在企业中使用人工智能驱动的聊天机器人的风险

自2022年11月ChatGPT正式推出以来,已有数百万用户疯狂涌入。由于其出色的类人语言生成能力,编程软件的天赋,以及闪电般的文本分析能力,ChatGPT已经迅速成为开发人员、研究人员和日常用户的首选工具。

与任何颠覆性技术一样,像ChatGPT这样的生成式人工智能系统也存在潜在风险。特别是,科技行业的主要参与者、国家情报机构和其他政府机构都对将敏感信息输入ChatGPT等人工智能系统发出了警告。

对ChatGPT存在安全风险的担忧源于信息可能会通过ChatGPT最终泄露到公共领域,无论是通过安全漏洞还是使用用户生成的内容来“训练”聊天机器人。

为了应对这些担忧,技术公司正在采取行动,减轻与大型语言模型(LLMs)和会话式AI (CAI)相关的安全风险。一些企业甚至已经选择完全禁用ChatGPT,而其他企业则警告其员工将机密数据输入此类模型的危险。

ChatGPT:一个可怕的开放AI?

人工智能驱动的ChatGPT已经成为企业优化运营和简化复杂任务的流行工具。然而,最近的事件凸显了通过该平台分享机密信息的潜在危险。

令人不安的是,在不到一个月的时间里,就报告了三起通过ChatGPT泄露敏感数据的事件。韩国媒体报道称,智能手机制造商三星(Samsung)主要半导体工厂的员工将机密信息(包括用于解决编程错误的高度敏感源代码)输入人工智能聊天机器人,引发了争议。

源代码是任何技术公司最严密保护的秘密之一,因为它是任何软件或操作系统的基础构件。而现在,如此宝贵的商业机密无意中落入了OpenAI的手中。

据知情人士透露,三星目前已经限制了其员工访问ChatGPT的权限。

包括亚马逊(Amazon)、沃尔玛(Walmart)和摩根大通(JPMorgan)在内的其他《财富》500强企业集团,也遇到过员工不小心将敏感数据输入聊天机器人的类似情况。

之前也出现过有关亚马逊员工使用ChatGPT获取机密客户信息的报道,此事促使这家科技巨头迅速限制了该工具的使用,并严厉警告员工不要将任何敏感数据输入该工具。

“不完美”的模型:缺乏智慧的知识库

人工智能驱动的数字体验平台Coveo的机器学习总监Mathieu Fortier表示,GPT-4和LLaMA等LLMs存在多个不完美之处,并警告说,尽管它们在语言理解方面很出色,但这些模型缺乏识别准确性、不变定律、物理现实和其他非语言方面的能力。

虽然LLM通过训练数据构建了广泛的内在知识库,但它们没有明确的真理或事实准确性概念。此外,它们很容易受到安全漏洞和数据提取攻击,而且容易偏离预期的反应或表现出“精神错乱的”特征——专业名称为“幻觉”。

Fortier强调了企业面临的高风险。其后果可能会严重破坏客户的信任,并对品牌声誉造成不可挽回的损害,导致重大的法律和财务问题。

紧跟其他科技巨头的脚步,这家零售巨头的科技部门沃尔玛全球科技(Walmart Global tech)已采取措施降低数据泄露的风险。在给员工的一份内部备忘录中,该公司指示员工在检测到可能危及企业数据和安全的可疑活动后,立即屏蔽ChatGPT。

沃尔玛的一位发言人表示,尽管该零售商正在基于GPT-4的功能创建自己的聊天机器人,但它已经实施了多项措施,以保护员工和客户数据不被ChatGPT等生成式人工智能工具传播。

该发言人表示,“大多数新技术带来了新的好处,也带来了新的风险。因此,我们会评估这些新技术,并为我们的员工提供使用指南,以保护我们的客户、会员和员工的数据,这并不罕见。利用现有技术(如Open AI),并在其上构建一个更有效地与零售商沟通的层,使我们能够开发新的客户体验,并改善现有能力。”

除此之外,Verizon和Accenture等其他公司也采取了限制ChatGPT使用的措施,Verizon指示其员工将聊天机器人限制在非敏感任务上,Accenture则实施了更严格的控制,以确保遵守数据隐私法规。

ChatGPT如何使用会话数据

更令人担忧的是,ChatGPT会保留用户输入数据以进一步训练模型,这引发了关于敏感信息可能通过数据泄露或其他安全事件暴露的问题。

歌者PPT
歌者PPT

歌者PPT,AI 写 PPT 永久免费

下载

OpenAI是流行的生成式人工智能模型ChatGPT和DALL-E背后的公司,最近实施了一项新政策,以改善用户数据隐私和安全性。

从今年3月1日起,API用户必须明确选择共享他们的数据以训练或改进OpenAI的模型。

相比之下,对于非API服务,如ChatGPT和DALL-E,如果用户不希望OpenAI使用他们的数据,则必须选择退出。

OpenAI公司在最近更新的博客中称,“当您使用我们的非API消费者服务ChatGPT或DALL-E时,我们可能会使用您提供的数据来改进我们的模型。与我们共享您的数据不仅有助于我们的模型变得更准确,更好地解决您的具体问题,还有助于提高它们的总体能力和安全性……您可以通过填写这张表格,填写您的组织ID和与帐户所有者关联的电子邮件地址,来请求退出使用您的数据来改善我们的非API服务。”

这一声明是在对上述风险的担忧以及公司在处理敏感信息时需要谨慎的情况下发布的。意大利政府最近加入了这场争论,在全国范围内禁止使用ChatGPT,理由是担心数据隐私和安全。

OpenAI表示,它从用于改进其人工智能模型的数据中删除了任何个人身份信息,并且仅为此目的使用来自每个客户的一小部分数据样本。

政府警告

英国政府通信总部(GCHQ)情报机构通过其国家网络安全中心(NCSC)发布了一份关于ChatGPT等大型语言模型(LLMs)的局限性和风险的警告。虽然这些模型因其令人印象深刻的自然语言处理能力而受到称赞,但NCSC警告说,它们并非绝对正确,可能包含严重的缺陷。

根据NCSC的说法,LLM可以生成不正确或“幻觉”的事实,正如Google Bard聊天机器人的第一次演示所展示的那样。它们也会表现出偏见和轻信,尤其是在回答引导性问题时。此外,这些模型需要大量的计算资源和大量的数据来从头开始训练,并且它们很容易受到注入攻击和有毒内容创建的影响。

Coveo公司的Fortier表示,“LLM根据提示(prompt)与内部知识的内在相似性来生成对提示的响应。然而,鉴于它们没有内在的内部‘硬规则’(hard rule)或推理能力,它们不可能100%成功地遵守不披露敏感信息的约束。尽管有努力减少敏感信息的生成,但如果LLM使用这些数据进行训练,它可以重新生成这些信息。唯一的解决办法就是不要用敏感材料来训练这些模型。用户还应避免在提示中向它们提供敏感信息,因为目前大多数服务都会将这些信息保存在它们的日志中。”

生成式人工智能安全和道德使用的最佳实践

随着企业继续采用人工智能和其他新兴技术,确保适当的安全措施来保护敏感数据并防止机密信息的意外泄露将至关重要。

这些公司采取的行动凸显了在使用ChatGPT等人工智能语言模型时保持警惕的重要性。虽然这些工具可以极大地提高效率和生产力,但如果使用不当,它们会带来重大风险。

会话式人工智能初创公司Got it AI的董事长Peter Relan建议称,“最好的方法是将语言模型原始改进中的每一个新发展都纳入到企业策略驱动的架构中,该架构将一个语言模型与用于防护的预处理器和后处理器结合起来,针对特定于企业的数据对它们进行微调,然后甚至还可以进行本地部署。否则,原始语言模型太强大了,有时在企业中处理是有害的。”

英伟达支持的对话式人工智能平台Kore. ai的首席技术官Prasanna Arikala表示,未来,公司将有必要限制LLM访问敏感和个人信息,以避免违规。

Arikala指出,“实施严格的访问控制,如多因素身份验证,以及对敏感数据进行加密,可以帮助缓解这些风险。此外,还需要定期进行安全审计和漏洞评估,以识别和消除潜在的漏洞。如果使用得当,LLM是很有价值的工具,但对于公司来说,采取必要的预防措施来保护敏感数据并保持客户和利益相关者的信任至关重要。”

这些法规将如何演变还有待观察,但企业必须保持警惕,保持领先地位。生成式人工智能在带来潜在好处的同时,也带来了新的责任和挑战,技术行业需要与政策制定者一起努力,确保以负责任和合乎道德的方式开发和实施这项技术。

相关文章

驱动精灵
驱动精灵

驱动精灵基于驱动之家十余年的专业数据积累,驱动支持度高,已经为数亿用户解决了各种电脑驱动问题、系统故障,是目前有效的驱动软件,有需要的小伙伴快来保存下载体验吧!

下载

本站声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
ChatGPT注册
ChatGPT注册

ChatGPT注册方法:1、访问OpenAI的官方网站,进入注册页面;2、完成注册后收到一份邮件,打开后点击验证账号;3、选择一个适合您需求的订阅计划;4、获得访问ChatGPT的权限即可。

559

2023.09.12

国内免费ChatGPT大全
国内免费ChatGPT大全

ChatGPT是一种基于深度学习技术的自然语言处理模型,由OpenAI开发。它是GPT的一个变体,专门设计用于生成上下文相关的文本回复。ChatGPT被训练成一个聊天机器人,可以与用户进行对话交互。更多关于ChatGPT的文章详情请查看本专题,希望对大家能有所帮助。

616

2023.10.25

手机安装chatgpt的方法
手机安装chatgpt的方法

手机安装chatgpt的方法:1、在ChatGTP官网或手机商店上下载ChatGTP软件;2、打开后在设置界面中,选择语言为中文;3、在对局界面中,选择人机对局并设置中文相谱;4、开始后在聊天窗口中输入指令,即可与软件进行交互。想了解更多chatgpt的相关内容,可以阅读本专题下面的文章。

3044

2024.03.05

chatgpt国内可不可以使用
chatgpt国内可不可以使用

chatgpt在国内可以使用,但不能注册,港澳也不行,用户想要注册的话,可以使用国外的手机号进行注册,注意注册过程中要将网络环境切换成国外ip。想了解更多chatgpt的相关内容,可以阅读本专题下面的文章。

1100

2024.03.05

Java 网络安全
Java 网络安全

本专题聚焦 Java 在网络安全与加密通信中的应用,系统讲解常见加密算法(MD5、SHA、AES、RSA)、数字签名、HTTPS证书配置、令牌认证(JWT、OAuth2)及常见安全漏洞防护(XSS、SQL注入、CSRF)。通过实战项目(如安全登录系统、加密文件传输工具),帮助学习者掌握 Java 安全开发与加密技术的实战能力。

742

2025.10.13

PHP 安全与防护
PHP 安全与防护

本专题聚焦于PHP开发中的安全问题与防御措施,详细讲解SQL注入、XSS攻击、CSRF攻击、文件包含漏洞等常见安全风险及其修复方法。通过结合实际案例,帮助开发者理解漏洞成因,掌握输入验证、会话安全、加密存储与安全编码规范,全面提升PHP网站的安全防护水平。

135

2025.11.04

Python异步编程与Asyncio高并发应用实践
Python异步编程与Asyncio高并发应用实践

本专题围绕 Python 异步编程模型展开,深入讲解 Asyncio 框架的核心原理与应用实践。内容包括事件循环机制、协程任务调度、异步 IO 处理以及并发任务管理策略。通过构建高并发网络请求与异步数据处理案例,帮助开发者掌握 Python 在高并发场景中的高效开发方法,并提升系统资源利用率与整体运行性能。

37

2026.03.12

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

136

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

47

2026.03.10

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号