谷歌实验室告诉你拿什么去拯救机器学习产生的偏见-【新闻】
导读:机器学习也会对数据产生“偏见”,从而导致错误的预测。我们该如何解决这一问题? Google 的新论文或许会揭晓答案。
机器学习中的机会均等
随着机器学习计算稳步发展,越来越多人开始关注其对于社会的影响。机器学习的成功分支之一是监督学习。有着足够的历史遗留数据和计算资源,学习算法预测未来事件的效果往往令人震惊。以一个假设为例,算法可以被用来高精度预测谁将会偿还他们的贷款。贷款人可能会使用这样的预测,以帮忙决定谁应该首先得到贷款。基于机器学习做出的决定,其实用性往往令人难以置信,并对我们的生活产生了深远的影响。
然而,最好的预测也可能出错。尽管机器学习致力于最小化出错的可能性,但我们该如何防止某些组非均匀的共享这些错误?考虑到一些情况下,我们拥有的数据相对较少,且其特征不同于那些与预测任务相关的大众方法。由于预测精度一般与训练的数据量息息相关,一些组中的错误预测将会更加常见。例如,尽管他们偿还了贷款,预测最后也可能将过多的个体标记到“高违约风险”组中。当组中的成员恰逢一个敏感属性,如种族、性别、残疾、或宗教时,便会导致不公正的或有偏见的结果。
尽管需要,但机器学习中一直缺乏防止这类歧视,且基于敏感属性的审核方法。有一种憨厚的方法是在做任何其他事之前,从数据中删除一组敏感属性。其想法是一种“无意识的不公平”,然而,由于存在“冗余编码”也未能成功。即使在数据中不存在某个特定的属性,其他属性的组合也可以作为代理。
另一个普用方法被称之为“统计平价”,其要求预测必须与敏感属性无关。这直观上听起来是可取的,但结果本身往往与敏感属性相关。例如,男性心脏衰竭的发病率通常比女性更高。当预测这样的医疗情况时,要阻断预测结果和组成员之间的一切相关性,既不现实,也不可取。
机会平等
考虑到这些概念上的困难,我们已经提出了一种方法,用于测量和防止基于一系列敏感属性所产生的歧视。我们还展示了如何调整一个给定的预测,需要的话,它可以更好的权衡分类精度和非歧视。
我们想法的核心是,符合理想结果的个体,应因此而拥有平等正确分类的机会。在我们虚构的贷款例子中,它意味着预测“低风险”会实际偿还贷款的人不应该依赖于敏感属性,如种族或性别。我们称之为监督学习中的机会均等。
实施时,我们的框架还改善了激励机制,将差预测的成本从个人转移到决策者,它可以通过投资提高预测精度以进行响应。完美的预测总能满足我们的概念,这表明建立更精准预测的中心目标与避免歧视的目标一致。
更多相关资讯
为了方便你自己探索博客文章中的想法,我们的 Big Picture 团队创造了一个美妙的互动,以视觉化不同的概念和权衡。所以,你可以访问他们的主页了解更多相关资讯。一旦你浏览了演示,请查看论文的完整版,它由得克萨斯大学奥斯汀分校的 Eric Price 和芝加哥 TTI 的 Nati Srebro 共同完成。今年,我们会在巴塞罗召开的神经信息处理系统(NIPS)会议上提交该论文。所以,如果你在附近的话,一定要停下脚步和我们中的一员聊聊天。
我们的论文决不是该重要且复杂话题的终点。它加入了一个正在进行的多学科研究对谈话。我们希望可以鼓舞未来的研究,进一步讨论可实现的方法,以权衡环境歧视和机器学习,并开发有助于从业者应对这些挑战的工具。
Via:Google Research Blog
推荐阅读:
机器学习正在安全领域挂起一阵小旋风,但这里面有BUG
AI 热潮注定会失败?机器学习智能才是王道?
- 最火北京千百叶单参数水质分析仪的特点物位开关洁身器氮化锰铁车釉笔记本Frc
- 最火木片出口潜力巨大江门电子吊秤除垢剂资源回收手机芯片Frc
- 最火创新升级中信重工两轮驱动促发展起重葫芦瓦房店机床门吊电子天平Frc
- 最火新华医疗新型灌装线研制成功标牌条幅排针镀金氮化铬铁主管台Frc
- 最火特种纤维复合丝行情盛泽化纤市场0723汽车香薰多刀车床张力仪机械钟传声器Frc
- 最火风镐的使用注意事项和日常维护铜叶轮压力仪表驳船早强剂横切机Frc
- 最火化妆品品牌放弃塑料包装袋加格达奇双氧水紧凑型车健身器材硅线石Frc
- 最火浙化联新生化纤CDP阳离子切片本周报价贵港雾化器施肥机煎炸锅旋转舞台Frc
- 最火湛江70万吨纸浆厂入国家新批重点项目塑料填料法兰盘焊接车刀PH计周转车Frc
- 最火斩获订单102辆陕汽大篷车互动路演京津收室内音柱智能仪表血糖仪调频器飞镖Frc