OpenAI 的 GPT-4.1 无安全报告,AI 安全透明度再遭质疑

这里是AI贴吧网-AI资讯的硬核前线!我们24小时监测全球实验室动态,算法追踪巨头动向、代码解析学术突破,用最“硅基”视角解秘AI革命浪潮!

本周一,OpenAI推出了新的AI模型GPT-4.1系列。该公司表示,该模型在某些测试中,尤其是编程基准测试方面,表现优于其现有的一些模型。然而,与OpenAI以往的模型发布不同,GPT-4.1并未附带通常伴随模型发布而公布的安全报告(即系统卡)。

截至周二上午,OpenAI仍未发布GPT-4.1的安全报告,且似乎并无此计划。OpenAI发言人ShaokyiAmdo在向小编发表的声明中表示:“GPT-4.1并非前沿模型,因此不会为其发布单独的系统卡。”

通常情况下,人工智能实验室会发布安全报告,展示其内部以及与第三方合作伙伴开展的测试类型,以评估特定模型的安全性。这些报告有时会揭示一些不那么令人满意的信息,例如某个模型可能会欺骗人类或具有危险的说服力。总体而言,人工智能界普遍认为这些报告是人工智能实验室支持独立研究和红队测试的诚意之举。

然而,在过去的几个月里,一些领先的人工智能实验室似乎降低了其报告标准,引发了安全研究人员的强烈反对。例如,谷歌在发布安全报告方面行动迟缓,而其他一些实验室则发布了缺乏以往细节的报告。

OpenAI近期的表现也并不出色。去年12月,该公司因发布了一份包含与实际部署生产版本不同的模型基准结果的安全报告而受到批评。上个月,OpenAI在发布一款名为“深度研究”的模型后数周,才发布该模型的系统卡。

前OpenAI安全研究员StevenAdler指出,安全报告并非由任何法律或法规强制要求,而是自愿发布的。然而,OpenAI曾多次向各国政府承诺,会增加其模型的透明度。2023年,在英国人工智能安全峰会前夕,OpenAI在一篇博客文章中称系统卡是其问责制方法的“关键部分”。而在2025年巴黎人工智能行动峰会之前,OpenAI表示系统卡可以为模型的风险提供有价值的见解。

Adler表示:“系统卡是人工智能行业用于透明度和描述安全测试内容的主要工具。如今的透明度规范和承诺最终是自愿的,因此是否以及何时为某个模型发布系统卡,取决于每家人工智能公司自己的决定。”

1AI注意到,此次GPT-4.1未发布系统卡的背景是,OpenAI的现员工和前员工对其安全实践提出了担忧。上周,Adler与其他11名前OpenAI员工在埃隆・马斯克起诉OpenAI的案件中提交了一份拟议的法庭之友简报,认为营利性质的OpenAI可能会削减安全工作的投入。《金融时报》最近报道称,由于竞争压力,OpenAI 已经减少了分配给安全测试人员的时间和资源。

尽管GPT-4.1并非OpenAI旗下性能最高的AI模型,但在效率和延迟方面取得了显著进步。SecureAIProject的联合创始人兼政策分析师ThomasWoodside称,性能的提升使得安全报告变得更加重要。他认为,模型越复杂,其可能带来的风险就越高。

目前,许多人工智能实验室一直在抵制将安全报告要求纳入法律的努力。例如,OpenAI曾反对加州的SB1047法案,该法案要求许多人工智能开发商对其公开发布的模型进行审计并发布安全评估。

想掌握最新AI隐藏技能?挖透巨头紧急下架产品的真相?点击【AI贴吧网-AI资讯】,深度解析+实战案例,智能刷新你的认知!

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注