【ITBEAR科技资讯】5月22日消息,近日,一场汇聚了全球科技巨头的“人工智能(AI)首尔峰会”在韩国首尔隆重举行。据路透社报道,微软、谷歌、OpenAI等16家业界领先的科技公司在此次会议上共同承诺,将致力于安全地开发AI模型,并在无法掌控最极端风险的情况下,果断关闭其尖端系统。
此次参会的科技公司阵容强大,除了微软、谷歌、OpenAI等国际知名企业,还包括中国的智谱AI,该公司曾得到腾讯、阿里、美团和小米的投资。同时,IBM、亚马逊、meta以及三星等也均派代表出席了本次峰会。
据ITBEAR科技资讯了解,这些科技巨头在峰会上提出的安全承诺,具体包括了发布一个详细的框架,该框架将清晰阐述各公司将如何全面评估其AI模型潜在的风险。这一承诺的核心在于,一旦出现风险严重到“无法接受”的极端情况,且无法采取有效措施来降低这种风险时,相关的人工智能公司将立即启动紧急停止开关,暂停相关AI模型的开发或部署工作。
这并不是人工智能企业首次作出类似的安全承诺。去年,亚马逊、谷歌、meta以及微软就曾在美国政府的推动下,签署过一项自愿性的安全保障措施,旨在确保各自发布的AI产品是安全可靠的。
对于此次首尔峰会上的承诺,被誉为“人工智能教父”的著名计算机科学家约书亚·本吉奥表示了欢迎。然而,他也强调,这些自愿性的承诺必须配合有效的政府监管,才能确保其真正落到实处。