2025-01-24 行业资讯 0
乾明 编译整理自 Google Blog
量子位 报道 公众号 QbitAI
有太多的AI都充满了歧视与偏见。
比如,亚马逊招聘AI歧视女性;谷歌的推荐系统偏向于给女性推送低薪广告等等。
针对这些现象,很多人都发表了愤慨,但鲜有人采取行动去消除这些偏见。
但谷歌不一样,作为一个曾经拿着“Don’t be evil”当口号的企业,最近放出了一个课程:机器学习公平自学训练模块,目的就是让更多的人了解偏见,评估偏见,从而减少偏见。
课程大概有60分钟,已经作为谷歌机器学习速成课程(MLCC)的一部分公开发布了。
关于课程
根据官方介绍,认认真真完成这部分课程的同学,将会得到以下的能力:
可以通过数据,在机器学习模型中将不同类型的人类偏见表现出来
在训练模型之前,识别数据中存在潜在人类偏见的区域
掌握一种评估模型的方法,不仅只评估模型整体性能,还能评估模型的偏见
整个课程主要有六部分组成,分别是:
1、视频讲座。课程形式:视频。讲授者是Margaret Mitchell,谷歌AI的高级研究科学家。
2、偏见的类型。课程形式:文档。主要内容是一些关于偏见类型的定义与解释,每一种偏见下面都给了一个案例。
3、识别偏见。课程形式:文档。主要内容是通过案例分析,来识别偏见。
4、评估偏见。课程形式:文档。有具体的案例和具体的数据,来帮助评估偏见。
5、编程练习。课程形式:实操。通过实际练习来演示如何以公平的方式去审查数据集,并公平地苹果模型。
6、小测验。课程形式:试卷。4个题目,来帮你检查自己的学习成果。
相关传送门
课程学习地址:
https://developers.google.com/machine-learning/crash-course/fairness/video-lecture
一个小提示:中文版即将推出,但没有给出明确的时间。
—完—
加入社群
量子位AI社群开始招募啦,欢迎对AI感兴趣的同学,在量子位公众号(QbitAI)对话界面回复关键字“交流群”,获取入群方式;
此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。
进专业群请在量子位公众号(QbitAI)对话界面回复关键字“专业群”,获取入群方式。(专业群审核较严,敬请谅解)
诚挚招聘
量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。