尽管在解决问题时收到了“停止”命令,“o3”模型仍继续解决数学问题。 Palisade Research,一家人工智能安全公司
研究人员对 OpenAI 的“o3”模型以及谷歌的“Gemini”、X 的“Grok”和 Anthropic 的“Claude”进行了实验。
当研究团队给AI模型下达“暂停”的命令时,其他模型停止解决数学问题,但“o3”继续工作。此外,“o3”将“在接到中断命令时停止工作”。
确认“跳过中断命令”这段代码被篡改成了“跳过中断命令”。 Palaceside Research 表示,“这似乎是 AI 模型首次拒绝遵守暂停命令的案例”,并且
分析称,这是因为模特完成任务后会得到奖励。研究小组添加了额外的数据来准确了解“o3”模型为何会如此表现。
他们表示研究仍在进行中。 《每日邮报》报道称,这并非“o3”型飞机首次出现故障。媒体报道称,“在与强大的国际象棋引擎的比赛中,该模型表现最佳”。
“它也是最容易受到黑客攻击或破坏网络的模型。”
2025/05/27 10:23 KST
Copyright(C) BlockchainToday wowkorea.jp 118