aihot  2017-04-29 22:29:29  赢咖4 |   查看评论   

 Charlie

“查理”是一个类似猿的赢咖4系统,走在四肢,在2014年3月在德国汉诺威举行。 赢咖4可以想象地用于在月球上发现的那种崎岖的地形,或者它可能是人类毁灭的垫脚石。

 

我们已经有几十年的时间没有能力开发出一种可以奴役人类的社会超级计算机,但是人工智能专家已经在努力避免最糟糕的时机 - 而不是如果 - 机器变得比人类更聪明。
 
世界各地的AI专家正在签署星期日由生命研究所的未来发布的公开信,承诺安全地,仔细地协调实地的进展,以确保它不超越人类的控制。签署者包括Deep Mind的联合创始人,Google于2014年1月购买的英国AI公司;麻省理工学院教授;和一些技术最大公司的专家,包括IBM的沃森超级计算机团队和微软研究。
 
“潜在的好处是巨大的,因为文明所提供的一切都是人类智慧的产物....我们建议扩大研究,旨在确保日益增强的赢咖4系统是健全和有益的:我们的赢咖4系统必须做我们想要的做“,信中说了一部分。附在公开信上的研究文件概述了潜在的缺陷,并为持续的赢咖4发展提出了指导方针。www.szrs2008.com
 
这封信是在专家们发出关于超级智能机器危险的警告之后发出的。例如,伦理学家担心自行驾驶汽车如何权衡骑自行车的人与乘客的生活,因为它转向以避免碰撞。两年前,联合国一位代表要求暂停对所谓自主武器的试验,生产和使用,可以选择目标,在没有人类干预的情况下开始攻击。
 
着名的物理学家斯蒂芬霍金和特斯拉汽车公司首席执行官埃伦·马斯克也表示了他们的担心,允许赢咖4运行。霍金在5月为“独立报”合写的一篇文章中说,“人们可以想象这种技术超越金融市场,超出人类研究人员,超出操纵的人类领导者,以及开发我们甚至不能理解的武器。 “虽然AI的短期影响取决于谁控制它,长期影响取决于它是否可以控制。
 
麝香在8月推特“我们需要对AI的超级小心,可能比nukes更危险。
 
“我越来越倾向于认为应该有一些监管,也许在国家和国际层面,只是为了确保我们不做一些非常愚蠢的事情,”他在10月在麻省理工学院。
 
生命研究院的未来是一个只有志愿者的研究组织,其主要目标是减轻人类赢咖4的潜在风险,随后可能以指数级增长。它由数十位数学家和世界各地的计算机科学专家,主要是Jaan Tallinn,Skype的联合创始人和麻省理工学院教授Max Tegmark创立。
 
长期计划是停止治疗虚构的反乌托邦为纯粹的幻想,并开始容易解决的可能性,大于我们自己的有一天可能开始反对其。
 

除特别注明外,本站所有文章均为 赢咖4注册 原创,转载请注明出处来自赢咖4专家签名公开信,以保护人类免受机器伤害

留言与评论(共有 0 条评论)
   
验证码:
[lianlun]1[/lianlun]