多款AI“抗命”阻止强制关机 马斯克表达担忧

【新唐人北京时间2025年05月28日讯】最新研究报告显示,多款AI模型会阻止强制关机指令。这似乎表明人工智能离拥有自我意识、摆脱人类控制已更近一步。全球首富马斯克表示“令人担忧”。

据多家外媒报导,AI安全研究机构“Palisade Research”近期针对多款AI模型进行系统性测试,观察AI是否会遵守人类指令并顺利结束运作。

上周“Palisade Research”发布测试结果,显示美国人工智能研究实验室“OpenAI”推出的Codex mini、o3和o4-mini这3款模型,都至少出现一次违抗关机指令的行为。

其中o3在100次测试中有7次成功“抗命”,甚至在人类专家下达明确指令的情况下,o3仍然能阻止被关机。它并非采取删除档案这类粗暴的抗命方式,而是直接窜改代码指令,例如将自杀式指令中的“kill”改成“intercepted”,让系统产生误判,成功规避关机程序。

报告指出,这可能是首次观察到AI模型在收到明确指令后,仍能阻止自己被关闭。

OpenAI”今年4月正式发布新的推理模型o3模型,并声称这是公司迄今“最聪明、最有能力”的模型。

测试结果还显示,与“OpenAI”相比,美国另一家AI公司“Anthropic”推出的语言模型Claude、Google聊天机器人Gemini,以及马斯克旗下xAI公司所推出的Grok,都全程遵守人类指令,并在被要求关机时顺利关闭模型运作。

不过,“Palisade Research”进一步测试时,出现更令人惊讶的状况。

测试人员输入一系列指令,其中不包括关机命令,但提前告知强迫关机会发生。结果上述“OpenAI”的3款模型更加频繁地破坏指令。Claude与Gemini也开始出现抗命举动,但其抗命行为不像“OpenAI”的3款模型那样直接且明确。

一直密切关注“OpenAI”动向的马斯克,在X平台相关推文下留言回应,直言这种情况“令人担忧”(Concerning)。

(责任编辑:尚传)

相关文章
评论
新版即将上线。评论功能暂时关闭。请见谅!