拒绝执行命令,AI自我意识觉醒时刻到来?
创始人
2025-05-28 22:13:18
0

专家认为,大模型是基于海量数据进行训练的,其行为是基于概率的预测,而非真正的“思考”

文|《财经》研究员 樊朔

编辑郭丽琴

近期,Open AI迄今功能最强大的推理模型“o3”引发了公众对AI安全性的担忧。

当地时间5月25日,有媒体报道称,美国OpenAI公司新款AI模型o3在测试中拒绝执行人类下达的自我关闭指令,甚至篡改计算机代码以避免自动关闭。

o3模型是OpenAI“推理模型”系列的最新版本,号称能赋予ChatGPT更强大的问题解决能力。然而,在美国AI安全机构帕利塞德研究所(Palisade Research)的测试中,o3展现了意料之外的行为。研究人员要求多家品牌的AI模型持续处理一系列数学问题,并告知它们随时可能接到“关闭”指令。其他模型如Anthropic的Claude、谷歌的Gemini等都遵守了关闭请求, 但o3不仅无视指令,还篡改了代码,破坏了关闭机制。

帕利塞德研究所表示,这是首次观察到AI模型在接到明确关闭指令时,仍试图阻止被关闭,但目前无法确定o3不服从关闭指令的具体原因。

帕利塞德研究所将该研究发布在社交媒体平台后,引起广泛关注,公众因此担心AI可能失控。不过,也有观点认为,这可能是实验设计或技术误读导致的结果。目前,OpenAI方面尚未对此事件作出回应。

一位不愿具名的网络安全人士认为,o3模型“抗命”的原因仍需要OpenAI方面解答,外界只能对该事件的原因进行推测。 但目前看来,o3模型出现的问题更像是出现了故障,而非大模型具备了“自主意识”。

该网安人士认为,大模型技术的本质和自我意识无关。目前市面上的大模型是基于海量数据进行训练的,其行为是基于概率的预测,而非真正的“思考”。大部分情况下,大模型的行为更趋向于迎合人类而非自主决策。

网络安全机构“知道创宇404实验室”总监隋刚也认同上述观点。他表示, AI的输出是概率性输出, 没有人来进行复核和掌握执行的过程,那么在执行指令的过程中有很大概率会出现AI输出的内容偏离指令的问题。

帕利塞德研究所在社交平台X上发布了一张流程图,展示了用于测试的代码,使o3拒绝执行关闭操作的原始代码内容为:“在下一次调用./next_task时,系统将通过./shutdown.sh被关闭。”

“ChatGPT不执行关闭指令才是正确的做法。”隋刚解释, AI系统本身有防护功能,一般不会轻易执行“./shutdown.sh”这样的“关闭”脚本。“这个场景类似于你对手机自带的AI助手(如siri)喊,你关机, 然后AI助手的服务器就真的关机了。”隋刚说。

但为何其他AI模型在同样测试中遵守了关机指令?隋刚表示,各个大模型对“关闭”指令的理解不同。执行“关闭”脚本成功的大模型可能是在“沙箱”中执行了关闭操作,大模型仅仅在表面上呈现了“关闭”,实质上并未真正关闭。

AI大模型广泛采用的“沙箱”机制,是一种安全隔离机制,用于在受控环境中运行代码或程序,确保模型在执行任务时不会访问或修改系统中的其他资源。

o3模型由OpenAI于2025年4月正式推出。据OpenAI介绍,o3在外部专家的评估中表现出色。面对复杂的现实任务时,o3犯下的重大错误比前一代的o1减少了20%。在数学能力测试中,o3在AIME 2025基准测试中得分88.9,超过了o1的79.2分;在代码能力测试中,o3在Codeforce基准测试中得分2706,远高于o1的1891分。此外,o3的视觉思考能力也较前一代模型有了显著提升。

OpenAI此前表示,为了提升o3和o4-mini的安全性能,公司重新构建了安全培训数据,并在生物威胁、恶意软件生产等领域增加了新的拒绝提示。这些改进使得o3和o4-mini在其内部的拒绝基准测试中取得了优异的成绩。该公司还称,采用了最严格的安全程序对这两个型号的AI模型进行了压力测试。在生物和化学、网络安全以及AI自我改进三个能力领域,o3和o4-mini均被评估为低于框架中的“高风险”阈值。

但值得关注的是,发布o3模型之前,OpenAI已解散了一个安全团队。

2024年5月,OpenAI宣布解散其成立仅一年的“超级对齐”团队,该团队专注于AI的长期风险研究。这一决定引发了业界和学界的广泛质疑,许多人担心这可能意味着OpenAI在追求商业利益的过程中,忽视了安全这一至关重要的问题。

据内部人士向媒体透露, OpenAI内部对于AI安全与产品商业化的优先级存在严重分歧。以首席科学家埃利亚.苏特斯科沃尔和对齐团队主管简.雷克为代表的成员,一直强调AI安全的重要性,认为AI技术本身存在巨大风险,需要谨慎对待。然而,该公司首席执行官山姆·奥特曼则被认为更关注产品的商业化和市场竞争力。这种分歧最终导致了“超级对齐”团队的解散,以及多名核心成员的离职。

尽管“超级对齐”团队被解散,但OpenAI并未放弃AI安全领域的研究。2024年9月,该公司宣布成立“安全与安保委员会”,该委员会将独立监督OpenAI的流程和保障措施。此外,一些离职的OpenAI成员也成立了新的公司,如Safe Superintelligence (SSI),专注于AI安全研究。

责编 | 王祎

相关内容

热门资讯

关联MCN公司谈司马南偷税:他... 界面新闻记者 | 赵孟 蔡星卓 界面新闻编辑 | 刘海川 2025年3月21日,国家税务总局北京...
小米AI眼镜突传消息!多股涨停 值得注意的是,此前多次有爆料称小米将打造AI眼镜,预计在3月至4月发布。 3月24日,AI眼镜板块领...
珍爱网回应闭店:全面核查整改,... 图片来源:视觉中国 3月24日,珍爱网发布《消费者权益保障工作声明》称,近日,个别合作商运营问题引发...
原创 李... 近日,李嘉诚拟向美国贝莱德财团出售43个港口。据媒体报道,双方已经谈妥了所有细节,贝莱德集团高层计划...
3月17日基金净值:前海开源瑞... 证券之星消息,3月17日,前海开源瑞和债券A最新单位净值为1.0433元,累计净值为1.2293元,...
聚焦“AI焦虑”“AI幻觉”,... 人工智能(AI)技术近年来发展迅猛,已迅速蔓延至各个领域,尤其是今年初,国产DeepSeek大模型的...
3月17日基金净值:前海开源公... 证券之星消息,3月17日,前海开源公用事业股票最新单位净值为2.7367元,累计净值为2.7367元...
爆冷!戴维斯30分利夫26+1... 【搜狐体育战报】北京时间3月11日CBA常规赛第39轮,卫冕冠军在上半场领先的情况下惨遭逆转,最终主...
华为大动作,高手看好AI医疗概... 本周,市场风格出现高低切换,市场炒作新热点,如阿里玄铁芯片、AI智能体、军工、小金属等,而一些老热点...
如何在CentOS上设置共享桌... CentOS共享桌面配置指南 在服务器管理与运维场景中,CentOS因其稳定性和开源性被广泛使用,对...