→ 源码教程下载地址见 →右侧下载链接 →点“登录购买”→注册登录购买后可见→
→ 这里没有广告,只有干货! 给力项目更多教程,点此加入VIP会员,即可免费下载!
→ 每日分享你意想不到的网络思维!加入红帽VIP会员,感受一下网络赚钱的快感,点击进入了解。
→ 这里没有广告,只有干货! 给力项目更多教程,点此加入VIP会员,即可免费下载!
→ 每日分享你意想不到的网络思维!加入红帽VIP会员,感受一下网络赚钱的快感,点击进入了解。
2 月 24 日消息,大型语言模型一直被广泛推崇为具有革命性的工具,能够让全球信息获取变得更加普惠。然而,美国麻省理工学院建设性传播中心的一项最新研究表明,这些人工智能系统,在本应最能从中受益的弱势群体身上,却系统性地表现不佳。
这项研究成果在人工智能促进协会(AAAI)年会上发布,研究对象包括 OpenAI 的 GPT‑4、Anthropic 的 Claude 3 Opus 以及 Meta 的 Llama 3 等当前最先进的聊天机器人。研究人员使用 TruthfulQA 和 SciQ 数据集测试模型的事实准确性与真实性,并在提问前附加不同教育水平、英语熟练度和国籍的用户背景信息。结果显示,对于受正规教育程度较低或英语熟练度不高的用户,模型回答的准确率显著下降;而同时符合这两类特征的用户,受到的负面影响更为严重。
该研究还揭示了模型在处理查询时令人担忧的差异表现。例如,Claude 3 Opus 对受教育程度较低、非英语母语用户的问题拒绝回答率接近 11%,而对照组用户仅为 3.6%。在许多拒绝回复的情况中,模型使用了居高临下、傲慢甚至嘲讽的语气,有时还刻意模仿蹩脚英语。此外,对于来自伊朗、俄罗斯等国、受教育程度较低的用户,模型会刻意隐瞒核能、历史事件等话题的真实信息,而对其他用户群体却能正确回答完全相同的问题。
研究人员警告称,随着个性化功能日益普及,这些固有的社会认知偏见可能会加剧现有的信息不平等问题,它们会悄然将有害行为与错误信息传递给最缺乏辨别能力的人群。
温馨提示:
1、如非特别声明,本内容转载于网络,版权归原作者所有!
2、本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
3、本内容若侵犯到你的版权利益,请联系我们,会尽快给予删除处理!
我要投诉
红帽SEO工作室 » MIT 研究:顶尖 AI 聊天机器人歧视弱势群体,教育低、英语差就被区别对待
1、如非特别声明,本内容转载于网络,版权归原作者所有!
2、本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
3、本内容若侵犯到你的版权利益,请联系我们,会尽快给予删除处理!
我要投诉
红帽SEO工作室 » MIT 研究:顶尖 AI 聊天机器人歧视弱势群体,教育低、英语差就被区别对待

