据站长之家 8 月 15 日报道,最近一项来自华盛顿大学、卡内基梅隆大学和西安交通大学的研究发现,AI 语言模型存在政治偏见。研究人员测试了 14 个模型,并使用政治指南针测试来确定模型的政治倾向。结果显示,OpenAI 的 ChatGPT 和 GPT-4 被认为是最左翼自由主义的模型,而 Meta 的 LLaMA 被认为是最右翼独裁主义的模型。 研究人员指出,尽管政治指南针测试不是一个完美的方法,但它有助于揭示模型的偏见。他们敦促企业意识到这些偏见,并努力使其产品更加公平。这项研究的结果提醒大家,在开发和使用 AI 语言模型时要警惕政治偏见的存在,并确保公正和多样化的表达。 原文链接 —- 编译者/作者:东寻 玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。 |
研究发现 AI 语言模型存在政治偏见
2023-08-15 东寻 来源:区块链网络
LOADING...
相关阅读:
- 亚马逊用 AI 生成产品评论摘要2023-08-15
- 迪拜拟颁发 AI 和 Web3 商业许可执照2023-08-14
- 小米发布第二代仿生四足机器人 CyberDog2,拥有 AI 多模态融合感知决策系2023-08-14
- IBM 研究人员推出用于深度学习推理的模拟 AI 芯片2023-08-14
- 美国投行 Wedbush:AI 将继续领涨科技股,任何回调都是短暂的2023-08-14