Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了309,721,090字

该文章投稿至Nemo社区   资讯  板块 复制链接


研究显示自动驾驶软件存“偏见”,有色人种和儿童面临更高碰撞风险

发布于 2023/08/27 08:39 236浏览 0回复 526

IT之家 8 月 27 日消息,人工智能(AI)的发展给人类带来了许多便利,但也引发了一些严重的问题。据 Businessinsider 报道,最近,一项新的研究发现,自动驾驶汽车中的行人检测软件可能对不同肤色、性别和年龄的行人有不同的识别效果,导致有色人种和儿童面临更高的安全风险。

这项研究由英国和中国的研究团队共同完成,他们测试了八种流行的行人检测软件在不同情况下的准确性。结果显示,性别对识别效果的影响较小,但肤色和年龄则有明显的差异。相比于浅肤色和成年人,深肤色和儿童被检测到的概率分别低了 7.52% 和 19.67%。

研究团队认为,这种偏见是由于许多公司使用的开源 AI 系统中存在的偏见造成的。这些开源 AI 系统是基于大量数据训练出来的,但这些数据并不一定能代表真实世界中的多样性。因此,当这些 AI 系统被用于自动驾驶汽车时,就可能出现对某些群体不公平或歧视的情况。

研究团队呼吁立法者对自动驾驶汽车软件进行监管,以防止其检测系统出现偏见。

IT之家附研究论文地址:点此直达

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/715/060.htm]

本文标签
 {{tag}}
点了个评