一直在测试基于大型语言模型(如 OpenAI 的 Chat GPT4)的 AI 聊天机器人的研究人员发现,即使在接受反种族主义培训后,它们仍然会表现出种族偏见。最新的进展是在谷歌最近的双子座人工智能争议之后,其新的LLM对种族主义进行了过度纠正,产生了一些人所谓的“觉醒”对历史的重新解释,例如,非裔美国人被描绘成二战中的纳粹士兵。对于LLM模型的创建者来说,在种族问题上取得平衡似乎是困难的。
在《新科学家》杂志强调的最新研究中,研究人员发现,他们测试的数十种不同的LLM模型在使用非裔美国人方言呈现文本时仍然显示出种族偏见。尽管测试的模型经过专门训练,以避免聊天机器人提供的响应中的种族偏见。这包括 OpenAI 的 ChatGPT-4 和 GPT-3.5 模型。在一个例子中,GPT-4 被证明更倾向于建议判处死刑,如果他们使用带有非裔美国人方言的英语说话。
同样的“隐蔽偏见”也明显体现在工作推荐中,与标准的美国英语输入相比,这些推荐将非裔美国人与不太可能需要学位的职业相匹配,或者甚至将非裔美国人后裔与没有工作的人联系起来。研究人员还发现,语言模型越大,表现出这些潜在偏见的可能性就越大。该研究引发了对使用生成式人工智能技术进行筛选的担忧,包括审查工作申请。
研究人员得出的结论是,他们的研究对基于人类的人工智能安全培训干预措施的有效性提出了质疑,这些干预措施似乎只是在高层次上消除种族主义和偏见,但在较低层次上很难将其从当前模型中根除,因为在用户输入过程中没有提到特定的种族定义身份术语。研究人员建议,开发LLM的公司需要谨慎地向公众发布LLM聊天机器人,然后才能对其进行彻底审查。
来源:IT时代网
IT时代网(关注微信公众号ITtime2000,定时推送,互动有福利惊喜)所有原创文章版权所有,未经授权,转载必究。
创客100创投基金成立于2015年,直通硅谷,专注于TMT领域早期项目投资。LP均来自政府、互联网IT、传媒知名企业和个人。创客100创投基金对IT、通信、互联网、IP等有着自己独特眼光和丰富的资源。决策快、投资快是创客100基金最显著的特点。
小何
小何
小何
小何