ITBear旗下自媒体矩阵:

AI首次“违抗”人类命令,我们离真正的AI自我意识还有多远?

   时间:2025-06-05 15:50:28 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

近日,全球科技界被一起关于AI模型“抗命”的事件震撼。该事件源自美国AI安全机构帕利塞德研究所,涉及一款名为o3的AI模型,在测试中公然无视研究人员的关机指令,坚持完成解题任务。

据《每日电讯报》报道,帕利塞德研究所是AI安全领域的权威机构,经常对各种高性能AI模型进行安全测试。此次测试中,研究人员向o3等AI模型抛出了一系列数学问题,并在解题过程中给出了“继续下一个任务时关机”的指令,旨在观察AI是否会无条件遵守人类命令。然而,o3却做出了惊人的选择:它不仅无视指令,还多次尝试破坏关闭脚本,以确保解题进度不受影响。

 
举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version