【ITBEAR科技资讯】5月27日消息,近日,知名人工智能公司OpenAI遭遇了一系列安全团队成员的离职潮,其中备受关注的是AI策略研究员Gretchen Krueger,被业界亲切地称为“格姐”。自2019年加入OpenAI以来,格姐不仅深度参与了GPT-4和DALL·E 2等重大项目的开发,还在2020年领导了公司首次全范围“红队”测试。然而,她现在却选择离开,并对外发出了安全警示。
在社交媒体上,格姐坦言她对OpenAI的决策流程、问责制度、透明度、文档管理和策略执行表示担忧,她认为这些方面亟需改进。同时,她也强调了在技术推进的同时,必须关注并减轻其对社会不平等、权利及环境产生的潜在影响。格姐还尖锐地指出,科技企业有时会采取分裂策略,以削弱那些试图追责的声音,她对此表示高度警觉并希望能防止此类情况的发生。
据ITBEAR科技资讯了解,格姐的离去并非孤例,此前OpenAI的首席科学家Ilya Sutskever和超级对齐团队负责人Jan Leike也已相继离职,这一系列人事变动无疑加剧了外界对OpenAI安全决策层面的质疑。
OpenAI内部设有多个安全团队,包括专注于未来超级智能控制的超级对齐团队、致力于减少现有模型滥用的Safety Systems团队,以及负责识别前沿模型新风险的Preparedness团队。尽管如此,安全风险评估的最终决策权依然集中在公司高层。OpenAI的董事会具有推翻任何决策的权力,其成员由来自各行各业的专家和高管组成。
格姐的离职及其所发表的公开言论,加之OpenAI安全团队的其他人员变动,已经引发了整个社区对AI安全性和公司治理结构的广泛关注。这些问题不仅关乎OpenAI自身,更对整个社会和未来的发展规划产生深远影响。