据 IT 之家 8 月 27 日报道,一项新的研究发现,自动驾驶汽车中的行人检测软件可能对不同肤色、性别和年龄的行人有不同的识别效果,导致有色人种和儿童面临更高的安全风险。这项研究由英国和中国的研究团队共同完成,他们测试了八种流行的行人检测软件在不同情况下的准确性。结果显示,性别对识别效果的影响较小,但肤色和年龄则有明显的差异。相比于浅肤色和成年人,深肤色和儿童被检测到的概率分别低了 7.52% 和 19.67%。 研究团队认为,这种偏见是由于许多公司使用的开源 AI 系统中存在的偏见造成的。这些开源 AI 系统是基于大量数据训练出来的,但这些数据并不一定能代表真实世界中的多样性。因此,当这些 AI 系统被用于自动驾驶汽车时,就可能出现对某些群体不公平或歧视的情况。 原文链接 —- 编译者/作者:东寻 玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。 |
研究显示部分开源 AI 系统存在“偏见”,导致有色人种和儿童面临更高的安全
2023-08-27 东寻 来源:区块链网络
相关阅读:
- 昆仑万维半年报显示:预计下半年将有AI动漫、AI社交、AI游戏产品落地2023-08-27
- 复旦大学 MOSS 负责人:大模型同质化严重,面临十大科学挑战2023-08-26
- 科大讯飞刘庆峰:明年上半年对标 GPT42023-08-26
- 李彦宏:垂类模型不是基础模型的竞品,应该建立在最强大的基础模型2023-08-26
- 姚洋:中国在 AI、新能源汽车等领域,都处于世界领先地位2023-08-26