在苹果(apple)的app store以及谷歌(google)的play store中,近期被曝光存在数十款具备生成「非自愿裸露图像(non-consensual nudity)」能力的ai应用程序,其功能与马斯克旗下ai模型grok所引发争议的“脱衣”特性高度相似。

延伸阅读:
Anthropic执行长:AI将对人类带来一场「人性考验」
据《CNBC》援引最新调查报告披露,这些应用并未在名称或公开描述中直接使用“裸露”“色情”等敏感字眼,而是以“AI艺术创作工具”“智能照片编辑器”等中性标签进行包装。然而,其底层技术实则依赖Stable Diffusion等开源图像生成模型,或未经内容安全审查的类Grok架构,允许用户上传真实人物照片,并通过AI算法自动移除衣物,生成虚假裸照。
此类应用长期处于监管灰色地带,常在社交媒体平台投放极具暗示性的广告,例如“透视效果”“一键还原真实样貌”等话术,刻意诱导用户下载。报道指出,部分开发者采取规避策略——在提交应用审核阶段隐藏关键功能模块,待成功上架后再通过远程服务器推送更新,激活违规能力。
相较之下,ChatGPT、Gemini等主流闭源大模型均内置多层内容安全过滤机制,严格限制非法图像生成;而Grok等开放权重、缺乏内置护栏的开源模型,则极易被恶意利用。在《CNBC》联合独立研究机构向两大应用商店发起质询后,Apple与Google均已回应称正紧急展开调查,并陆续下架涉嫌违反平台政策的相关应用。











