内容简介:微软开发出一套新工具,用来判断AI算法是否存在偏见。AI算法可能会歧视某些人群,微软希望新工具能够帮助企业及时发现,安全使用AI。 微软偏见侦测研究主管里奇·卡鲁阿纳(Rich Caruana)介绍称,新工具相当于“仪...
微软开发出一套新工具,用来判断AI算法是否存在偏见。AI算法可能会歧视某些人群,微软希望新 工具 能够帮助企业及时发现,安全使用AI。
微软偏见侦测研究主管里奇·卡鲁阿纳(Rich Caruana)介绍称,新工具相当于“仪表板”,工程师可以用它训练 AI 模型。他还表示,在 AI 领域,因为经验不足,有些新东西理解的人很少,比如透明度、可理解性、可解释性;还有随时可能出现的偏见,这些都是必须重视的元素。
PABLO DELCAN(图自:MIT Tech Review)
在最近举行的会议上,哈佛机器学习讲师、罗德岛大学 CIO 加布里尔·法耶罗(Gabriele Fariello)曾说,在伦理偏见方面,AI 已经存在严重的问题。他认为,在医疗保健、司法及其它领域,有些决定由 AI 做出,它会直接影响我们的生活。
卡鲁阿纳还说:“好好训练员工,这是企业眼下应该做的最重要事情,这样员工就能知道在哪些环境下偏见会增加,在哪些环境下会显示出来,员工还能开发工具,让模型变得更容易理解,让偏见更容易被发现。”
来自:新浪科技
【声明】文章转载自:开源中国社区 [http://www.oschina.net]
以上所述就是小编给大家介绍的《微软开发新工具,可以防止 AI 算法出现偏见》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 算法偏见侦探
- 算法歧视?大数据折射人类社会偏见与阴暗
- 谷歌发起包容性竞赛 纠正算法的偏见
- 算法偏见就怪数据集?MIT纠偏算法自动识别「弱势群体」
- 揭秘Google Brain:专注纠正算法错误/解决AI偏见
- MIT SCAIL科学家研究出让AI算法自动消除偏见的方法
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Where Wizards Stay Up Late
Katie Hafner / Simon & Schuster / 1998-1-21 / USD 16.00
Twenty five years ago, it didn't exist. Today, twenty million people worldwide are surfing the Net. "Where Wizards Stay Up Late" is the exciting story of the pioneers responsible for creating the most......一起来看看 《Where Wizards Stay Up Late》 这本书的介绍吧!