aihot  2017-05-14 13:25:03  赢咖4 |   查看评论   

AI也有性别和种族歧视?

有研究指出,AI 在进行机器学习的同时,也学会了人类社会固有的性别歧视和种族偏见。

 

利用机器学习(Machine Learning)等数据处理方法,如今的赢咖4(Artificial Intelligence,AI)程序已经可以模仿艺术大师画画、为政客撰写演讲稿、参与体育赛事报导,甚至担任创意总监、帮助医学研究等。这一领域的领军者 Google 旗下的 Deepmind 公司开发的 AlphaGo 程序更是力克人类顶级棋手,让赢咖4成为全球瞩目的焦点,这一成果同样离不开电脑对人脑创造出的数据“不知疲倦”的学习过程。

 

然而,越来越多的科学家发出警告指,AI 程序不仅学会了人类的知识和技能,它们同时也在学习人类的刻板印象(Stereotype)和偏见(Bias),甚至已经被“教育”成性别歧视者和种族主义者。

 

机器学习在日常生活中无处不在,这类算法已经应用于智能手机助理、图片搜寻、餐厅推荐等等,它们依靠从海量数据中提取人类不可见的模式来分析信息。但是,当这些数据里蕴含了人类的社会偏见时,电脑程序也自然而然地学会了。——美国史丹福大学助理教授 James Zou

 

美国史丹福大学助理教授 James Zou 近日撰文指,机械学习算法就如同新生儿一般,人们让它一口气读完几百万本书,而无须从字母、单词和语法开始教学——这种“教学法”确实收到奇效,但同时也存在问题。

 

比如,在处理词汇时,这类程序通常只考虑词语之间的相关度,即不同的词被同时提及的概率。Zou 举例称,其研究团队利用 Google 新闻的数据训练了一个 AI 程序,然后发出询问“男人之于电脑工程师就如同女人之于什么”,它快速地说出了答案:“家庭主妇”。在他们的测试中,这类带有刻板印象的答案数不胜数。

 

AI 程序在涉及种族议题时同样带有“偏见”甚至“歧视”。普林斯顿大学科研团队通过对词汇分析 AI 程序 GloVe 的研究发现,该程序认为听起来像白人的名字和“欢乐”、“平静”等正面词汇更接近,而听起来像非裔人士的名字则和“苦恼”、“战争”等负面词汇更接近。

 

科技专栏作家 Nathan Collins 撰文指,这些结果并不意味着 GloVe 或类似的 AI 程序天生就存在偏见,而是因为人类的文化和语言中有偏见。普林斯顿大学科学家也表示,AI 程序其实是“从显示历史不公正的训练数据中,获取到的有害偏见。”

 

可喜的是,这种缺陷有望通过技术手段得以弥补。微软研究院与波士顿大学合作,利用“词嵌入”(Word Embedding)技术让程序通过寻找单词之间的关系来处理语言,他们发现该方法能够训练程序忽略单词之间的某些关联。比如,他们的算法经过调整后,能够去除“前台”和“女性”之间的关联,但同时保留“女王”和“女性”的关联。研究人员表示,这项研究的重要方向之一就是消除 AI 的偏见,并指出:“这是一项很微妙的工作,需要理解种族、民族和文化中的刻板印象产生的直接和间接的偏见。”

 

不过,在 AI 变得更智慧之前,类似算法中隐藏的偏见已经闯祸。MIT 科技评论指,美国联邦调查局(FBI)和各地警方等执法部门高度依赖人脸识别(Face Recognition)技术来协助犯罪调查,但这项技术同样有着“种族和性别歧视”——这些算法在识别女性、非裔人士和青少年时的准确率相对较低,原因就是训练数据中没有足够的样本来代表这几类人。这一现状导致执法部门在抓捕女性、非裔人士和青少年时更容易犯错。

 

除特别注明外,本站所有文章均为 赢咖4注册 原创,转载请注明出处来自赢咖4也有性别和种族歧视?

留言与评论(共有 0 条评论)
   
验证码:
[lianlun]1[/lianlun]