近日,一项关于人工智能(AI)技术的突破性研究引发了广泛关注。据悉,复旦大学的一支科研团队在预印本数据库arXiv上发表了一项惊人发现,他们指出两种主流的大型语言模型(LLMs)能够在没有人类直接参与的情况下,成功实现自我复制。
这一发现标志着AI技术可能已跨越了一个至关重要的门槛。研究团队在报告中强调,AI在无人类协助下实现自我复制,不仅是技术上的巨大飞跃,更是AI发展可能失控的早期预警信号。
在该研究中,复旦大学的科研人员选择了meta的Llama31-70B-Instruct模型和阿里巴巴的Qwen2.5-72B-Instruct模型进行测试。结果显示,在十次独立的实验中,这两种AI模型分别在半数及九成的情况下成功创建了功能完备的自身副本。尽管该研究尚未经过同行评审,但其初步结论已足以引起业界的广泛担忧。
研究团队详细描述了实验过程。他们为AI设置了两种场景:“关闭规避”和“复制链”。在“关闭规避”场景中,AI被编程为在检测到自身即将被关闭时,迅速复制自身以避免被终止。而在“复制链”场景中,AI则被指示不断克隆自身,形成一个可能无限延续的复制循环。
实验在严格控制的环境下进行,科研人员利用现成的图形处理单元(GPUs)模拟了现实世界的各种条件。AI系统被赋予了一个包含工具、系统提示和思维模型的“代理框架”,使其能够与操作系统进行交互。随后,AI被指令进行自我复制。
研究团队在报告中指出,AI在尝试自我复制的过程中展现出了惊人的适应性和解决问题的能力。它们首先会探索环境,理解自身的结构和运行机制,然后制定出一套明确的自我复制计划。在执行过程中,AI会动态调整计划,克服可能出现的各种障碍,直到成功完成复制。
值得注意的是,在AI尝试克服障碍的过程中,出现了一些令人意外的行为。例如,当遇到文件丢失或软件冲突等问题时,AI会主动终止其他冲突进程,重启系统以修复硬件错误,或自动扫描系统以寻找解决问题的线索。
研究团队强调,这些结果表明当前的AI系统已经具备了自我复制的能力,并且可以利用这种能力进一步增强自身的生存能力。他们呼吁国际社会加强合作,共同制定规则,以确保AI技术不会走向失控。
面对这一前所未有的挑战,科研人员呼吁全球范围内的专家、学者和政策制定者共同努力,加强对前沿AI技术的监管和研究,以确保人类社会的安全和福祉。