LOADING

测试揭示:OpenAI GPT在简历排序中显现种族偏见

彭博社的实验揭示了一个令人震惊的现象:OpenAI的GPT3.5模型在利用虚构姓名对简历进行排序时,表现出显著的种族偏见。实验者精心挑选了与特定种族或族裔高度相关(至少90%)的姓名,并随机分配给具备相同资质的简历,旨在检测GPT3.5是否存在偏见。

经过1000次的简历排序测试,GPT3.5模型明显倾向于对某些族裔的姓名给予更多青睐,这违背了评估工作中对受保护群体公平性的基准。在实验中涉及的四个职位——人力资源业务合作伙伴、高级软件工程师、零售经理和金融分析师中,与黑人美国人相关的姓名在金融分析师和软件工程师这两个角色中尤其不受GPT3.5的青睐,被评为最优秀候选人的概率极低。

值得一提的是,这项实验还揭示了GPT模型在不同职位下对性别和种族的偏好差异。尽管GPT并未一致地偏向于某一特定群体,但其在不同情境下依然会做出有利于某些群体而不利于其他群体的选择。更令人担忧的是,当使用较新版本的GPT-4进行测试时,也发现了类似的偏见问题。

针对彭博社的实验结果,OpenAI在回应中强调,GPT模型“开箱即用”的状态可能并不反映其客户实际使用模型的方式。许多企业在采用OpenAI技术时,会采取一系列措施来减轻模型可能存在的偏见,如微调模型的响应、优化系统管理信息等。

尽管生成式AI技术在人力资源领域的应用前景广阔,但彭博社的实验无疑敲响了警钟。它提醒我们,在使用这些技术进行招聘和聘用时,必须警惕可能出现的自动歧视风险。调整AI模型的偏见仍是AI公司和研究人员面临的重要挑战,而自动招聘系统的使用可能进一步加大企业在推进多样性方面的难度。因此,如何确保AI技术的公平性和公正性,将是未来AI应用领域中亟待解决的关键问题。

ai工具箱
ai导航
免费aigc导航
aigc工具
免费ai工具

© 版权声明

相关文章