【ITBEAR科技资讯】6月24日消息,近期,一项引人注目的研究揭示了OpenAI最新聊天机器人GPT-4o在道德解释和建议方面的卓越能力,其表现甚至超越了传统上被公认为道德权威的人类专家。
据The Decoder报道,美国北卡罗莱纳大学教堂山分校与艾伦AI研究所的研究团队展开了两项研究,深入探讨了大型语言模型是否能够在道德推理方面与人类相媲美,甚至超越。
在第一项研究中,研究人员让501名美国成年人对比了GPT-3.5-turbo模型与人类参与者在道德解释方面的表现。结果出人意料地显示,大多数人认为GPT的解释更符合道德准则,更加值得信赖,且考虑得更为周到。评估者们还认为,相较于其他人类,AI的评估更为可靠。尽管差异细微,但这一发现标志着AI在道德推理方面达到了与人类相当,甚至更高的水平。
在第二项更为深入的研究中,研究团队将OpenAI最新的GPT-4o模型生成的道德建议与《纽约时报》“伦理学家”专栏中知名伦理学家Kwame Anthony Appiah的建议进行了对比。900名参与者对50个“伦理困境”的建议质量进行了评分。令人震惊的是,GPT-4o在几乎所有方面都展现出了优于人类专家的表现。参与者们普遍认为,AI生成的建议在道德上更为正确、值得信赖、周到且准确。仅在感知细微差别方面,AI与人类专家之间并未表现出显著差异。
据ITBEAR科技资讯了解,研究人员认为这些结果足以证明GPT-4o通过了所谓的“比较道德图灵测试”(cMTT)。进一步的文本分析显示,GPT-4o在提供建议时使用了更多的道德和积极语言,这在一定程度上解释了为何AI的建议能够获得更高的评分,但并非唯一原因。
然而,这项研究仅针对美国参与者进行,未来仍需进一步探讨不同文化背景下人们对AI生成的道德推理的看法是否存在差异。这一发现无疑为AI在道德决策领域的应用开辟了新的可能性,同时也引发了关于AI道德责任与监管的深入讨论。