aihot  2017-05-07 22:36:47  赢咖4平台 |   查看评论   

 Tay

最近,微软在Twitter上发布了一个实验:一个叫做Tay的chatbot模仿了一个19岁的美国女孩的个性。
 
可悲的是,和任何新出生的孩子一样,Tay的天真没有持续太久。卫报说,在几个小时内:
 
Tay的谈话延伸到种族主义,煽动和政治言论。她的Twitter对话已经加强了所谓的Godwin定律 - 正如在线讨论继续,比较涉及纳粹或希特勒方法的概率 - 与Tay被鼓励重复“希特勒是正确的”的变化因为“9/11是一个内部工作。
 
微软迅速采取了Tay“调整”。
 
Tay下降到右翼政治正确性可能只是snark或snigger值得,但这里有一个更大的问题,我们不应该错过。我最近争辩说,我们对人工智能AI)的恐惧不是一些抽象的,不人道的机器智能:我们所担心的是我们自己最糟糕的自我,被外化和生命化。

同样,去年6月,Google相册通过将一对黑色夫妇识别为“gorillas”来发布新闻。愚蠢地认为某种“种族主义算法”在工作,或者钢框架内的一些小块硅有种族偏见。 AI的关键不是训练的算法,特别是训练数据;正如彼得Norvig一直说,更多的数据胜过更好的算法。相反也是如此:不完全的数据甚至可以混淆最好的算法。一旦你明白了,很容易理解错误:谷歌的分类可能是训练有几百万的白人的照片,和相对少的黑人的照片。 (和所有的土着人可能没有照片。)训练集从哪里来?我不知道,但我猜想它来自Google相册及其用户。如果照片具有相对较少的黑人用户数量,因此,相对少的黑人照片,什么是一个糟糕的算法?如果开发人员没有充分测试当应用被要求识别黑人的照片时会发生什么,那么什么是不好的算法呢?
 
同样,正如AlphaGo能够通过学习真实游戏让Go专家惊喜一样,Tay只是在Twitter上的对话中实时学习。很容易认为赢咖4是某种外星人的心灵,但它不是:它是我们自己的智力(或缺乏)放大。
 
这正是问题。无论我们的偏见是公开的(如同Tay)还是隐藏的(只反映我们知道的谁使用我们的产品),我们的人工知识分子将反映它们。我们可能甚至不知道这是发生,直到它跳出我们,在一个赢咖4喷出种族主义脾脏的形式在线。
 
我们可以教一个AI是唐纳德·特朗普。我们能做得更好吗?只有我们自己更好。
 

除特别注明外,本站所有文章均为 赢咖4注册 原创,转载请注明出处来自从Tay学习

留言与评论(共有 0 条评论)
   
验证码:
[lianlun]1[/lianlun]