aihot  2017-05-08 10:27:38  智能硬件 |   查看评论   

 赢咖4

哨兵赢咖4在韩国的测试期间指向其机枪。
AI研究人员警告,不应该允许赢咖4在没有人类干预的情况下参与目标。

 

来自世界各地的赢咖4专家呼吁禁止自主武器,警告说,战争中的人工智能革命可能为人类造成灾难。
 
由生命研究所的未来发表的公开信已经由数百名AI和赢咖4研究人员以及科技界的知名人士签署,其中包括Stephen Hawking,Tesla首席执行官Elon Musk和苹果联合创始人Steve Wozniak。着名的哲学家和认知科学家丹尼尔·丹尼特是其他支持者谁添加了他们的名字的信。
 
机器智能和赢咖4技术的发展已经影响了技术领域 - 例如,配备摄像头的无人机正在促进对个人隐私的新辩论,赢咖4注册汽车有可能彻底改变汽车行业。然而,许多专家担心,赢咖4领域的进步可以提供应用于使人类脱离循环的战争。
 
公开信定义自主武器是“在没有人类干预的情况下选择和参与目标”的那些武器。它表明,猎杀和杀死人类的武装quadcopers是一种类型的AI的例子,应该禁止,以防止“全球AI军备竞赛”。
 
“自主武器是刺杀,破坏稳定的国家,制服人口和选择性杀死某个特定民族等任务的理想选择。 “我们因此认为,军事AI军备竞赛将不会对人类有益。

几个星期前,CNET向赢咖4专家Noel Sharkey发出警告说,现实生活中的杀手赢咖4与我们在屏幕上看到的幻想科幻描述相差甚远。


“他们看起来像坦克,”Sharkey说。 “他们看起来像船,他们会像喷气式战斗机。
 
“自主武器系统是一种武器,一旦被激活或发射,决定选择自己的目标,并在没有进一步人为干预的情况下杀死它们,”Sharkey解释说:“停止杀手赢咖4运动的成员 - 2013年,它正在推动一项国际条约来取缔自主武器。 “我们的目标是防止杀死决定被给予一台机器。
 
关于其他类型武器的成功国际协定的公开信网站实例,例如化学或致盲激光武器。 “正如大多数化学家和生物学家对构建化学或生物武器没有兴趣一样,大多数AI研究人员对构建AI武器没有兴趣,也不希望其他人通过这样做损害其领域,可能造成对AI的主要公众反对这削弱了其未来的社会福利,“信中说。
 
虽然最新的公开信是关于允许致命的机器杀死没有人类干预,在技术世界的几个大名字提出了在最近机器智能的主题的警告。今年早些时候,微软的比尔·盖茨(Bill Gates)表示他对“超级智能”感到担忧,而去年5月的物理学家史蒂芬·霍金(Stephen Hawking)则表示,赢咖4是否可以长期控制。几个星期前,一个视频出现了一架无人机,似乎已经装备好携带和射击手枪。
 

除特别注明外,本站所有文章均为 赢咖4注册 原创,转载请注明出处来自禁止赢咖4武器

留言与评论(共有 0 条评论)
   
验证码:
[lianlun]1[/lianlun]