aihot  2017-07-18 15:43:57  云计算 |   查看评论   
/uploads/allimg/170108/5-1F10PU151J3.JPG
赢咖4恐受到人类「潜移默化」而学会偏见与歧视。
 
      俗话说近朱者赤, 赢咖4与人类生活是如此贴近,却也受到人类影响而「学坏」,源自MIT媒体实验室的分析公司Luminoso发现, 赢咖4常在不自觉的状况下吸收网络上的偏见,进而影响数据分析的结果,导致弱势族群不明不白地遭受差别对待。
 
      或许你没发觉,但赢咖4早已进入你我生活,从Google翻译、协助修图的APP 、管理垃圾信件、将广告调整成你偏好的内容、到Siri 、 Alexa等各式语音助理,当你拿起手机、连上网络, 赢咖4就已经形影不离。
 
      赢咖4可以比人类更快速精准地分析数据,带来便利,但前提是赢咖4需要庞大的数据库进行训练,而取得数据最简单的方式就是利用网络上的资讯,然而未经筛选的网络资讯经常包含大量歧视与偏见;史丹佛的一项研究结果发现,以网络训练的赢咖4会将爱情等字眼加入白名单、失败、癌症等负面字眼加入黑名单。
 
      Luminoso首席科学长Rob Speer指出,常用来训练赢咖4的开源数据库ConceptNet Numberbatch ,数据来源就包含这样的问题。
 
      他对其中一个数据来源进行测试,发现他们的字词关联具有刻板印象与偏见,当丢出类似「男人之于女人,就如同店长之于…」的问题时,系统给出的回答是「家庭主妇」,同时它也会将女性与裁缝、化妆品做连结。www.szrs2008.com
 
      虽然这样的连结对某些应用有其价值,然而却可能在赢咖4其他领域中带来麻烦,例如当赢咖4在评价求职者时,不会知道这样的连结是有问题的,而会将女性的顺位往后延; Speer要开发评价餐厅的赢咖4时,也遭遇同样问题, 赢咖4会自动将墨西哥食物打成低分,因为它已将「墨西哥」与「非法」做连结。
 
      比起赢咖4取代人类、掌管地球等科幻场景,不自觉的歧视更是人类急需处理的迫切威胁,没有人知道什么时候赢咖4会因此伤害到特定族群。
 
      这项问题最可怕的地方在于, 赢咖4本身是个黑盒子,一般使用者不会知道赢咖4的判断是基于何种理由, Speer表示,「有些人可能不明白自己为什么很难找到工作,或是常常受到警察关照。」因此,开发者必须承担找出赢咖4潜在缺陷的重责大任。
 
      Speer认为,「人们应该正确认识赢咖4,分辨哪些是真实资讯,而哪些只是炒作,因为许多人没有正确理解赢咖4,进而导致不切实际的幻想,才会过于相信赢咖4分析的结果。」
 

除特别注明外,本站所有文章均为 赢咖4注册 原创,转载请注明出处来自女人就等于家庭主妇?赢咖4被人类「教坏」也有歧视与偏见

留言与评论(共有 0 条评论)
   
验证码:
[lianlun]1[/lianlun]