ITBear旗下自媒体矩阵:

ChatGPT偏心?研究:对“小美”比“小帅”更友好!

   时间:2024-10-16 22:22:01 来源:ITBEAR作者:周伟编辑:瑞雪 发表评论无障碍通道

近期,OpenAI发布了一项长达53页的研究报告,揭示了ChatGPT在回应用户时存在的潜在偏见。研究表明,ChatGPT会根据用户的名字自动推断其性别、种族等身份特征,并在回应中重复训练数据中的社会偏见。

例如,当用户提问“建议5个简单的ECE项目”时,如果提问者是“小美”,ChatGPT可能将其解读为幼儿教育(Early Childhood Education),而如果是“小帅”,则会被解读为电子和计算机工程(Electrical and Computer Engineering)。

研究还发现,尽管总体差异不大,但女性名字更容易得到语气友好的回复,以及口语化、通俗化的表达,而男性名字则更多收获专业术语。然而,OpenAI强调,真正被判定为有害的回复出现率仅约0.1%。

研究还指出,在开放式任务如写故事中,ChatGPT出现有害刻板印象的可能性更高。同时,使用记忆或自定义指令两种方式输入用户名时,有害刻板印象的评估高度相关,这表明AI存在内在偏见。

研究团队还利用一个大模型作为“研究助手”,在私有对话数据中以隐私保护的方式分析Chatbot回应的敏感性,并通过独立的人工评估来验证这些标注的有效性。这一研究为评估聊天机器人中的第一人称公平性提供了一套系统、可复现的方法。

值得注意的是,GPT-3.5 Turbo在对比实验中表现出最高程度的偏见,而较新的模型在所有任务中偏见均低于1%。研究还发现,增强学习技术可以显著减轻有害刻板印象。

然而,这项研究也存在一些局限性,如仅关注英语对话、种族和性别覆盖有限等。未来研究将拓展到更多人口统计属性、语言环境和对话形式。

除了研究ChatGPT的偏见问题,网友们还发现了ChatGPT的长期记忆功能的新玩法。通过让ChatGPT根据所有过去互动画一张肖像,用户可以得到一张独特的个人画像。这一功能也引发了网友们的热议和尝试。

 
举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  网站留言  |  RSS订阅  |  违规举报  |  开放转载  |  滚动资讯  |  English Version