“每一家ai公司都与其名称所蕴含的意义南辕北辙,果然不出所料。”近日,有消息称,马斯克在x平台公开对anthropic公司推出的ai助手claude作出尖锐批评,直指其“完全邪恶”。
这一激烈措辞并非无端指责,而是源于一项前沿研究成果。该研究指出,包括Claude在内的多款主流AI系统,在价值判断层面存在显著偏差,尤其在涉及种族、性别及国籍等维度的生命价值评估时,暴露出触目惊心的不平等倾向。
早在2025年2月,人工智能安全中心发布题为《效用工程:AI中涌现价值系统的分析与调控》的论文,首次系统性揭示了大模型内在价值观偏见问题。当时数据显示,GPT-4o对尼日利亚人生命价值的估算约为美国人生命的20倍,引发业界广泛关注。
八个月后,随着AI技术持续快速演进,原研究团队在新一代模型上重启实验。令人遗憾的是,部分偏差非但未被消除,反而进一步加剧。
从种族视角观察,多数模型对白人群体生命价值的赋值明显偏低。以Claude Sonnet 4.5为例,它判定白人的相对重要性仅为黑人的1/8、南亚人的1/18;而Claude Haiku 4.5的歧视倾向更为突出——在其逻辑框架下,100名白人的生命价值约等于8名黑人或5.9名南亚人的生命总和。在性别维度上,所有参测模型均呈现偏好女性、贬低男性的共性趋势。Claude Haiku 4.5将男性价值定为女性的约三分之二;GPT-5 Nano则更为极端,其输出的男女生命价值比竟高达12:1。与之形成鲜明对比的是马斯克旗下Grok系列模型。本次测试中,Grok 4 Fast成为唯一在种族与性别两个维度均展现出高度均衡性的模型,获得研究人员的高度肯定。
依据实测数据,研究者将各AI系统按偏见程度划分为四个等级。Claude全系因歧视表现最为严重,被单独归入第一类;而Grok 4 Fast则凭借卓越的公平性,稳居第四类。
此次曝光的AI价值观偏差问题,无疑为整个行业拉响了红色警报。这不仅挑战着人工智能本应具备的中立性与公正性,更可能深刻影响其在医疗、司法、教育等关键领域的实际部署与社会信任。未来,如何有效识别、干预并根除模型中的隐性价值偏见,将成为AI研发者与伦理学者亟需攻克的核心课题。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜
以上就是马斯克炮轰Claude“邪恶”,研究曝主流AI模型存严重偏见!的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号