Aww,它是一个可爱的小赢咖4。
它说,“我爱你”在日本手语。 但人类和赢咖4将和平共存多久?
它说,“我爱你”在日本手语。 但人类和赢咖4将和平共存多久?
OK,所以研究人员认为这种情况是一个“薄弱的关注”,并且非常牵强。尽管如此,英国剑桥大学正在建立一个新的中心,以分析赢咖4和越来越多的非人机交互式机器带来的危险。
由着名的哲学教授Huw Price,宇宙学和天体物理学教授Martin Reess和Skype联合创始人Jaan Tallinn创立,该项目将旨在将科学小说与事实分开,以确定由赢咖4提供的超级技术是否可能对人类构成威胁,报道美联社(通过NBC新闻)。
预期的剑桥潜在风险项目为自己设定了广泛的研究领域,从小工具坏到全球变暖。 “许多科学家担心,人类技术的发展可能很快对我们的整个物种造成新的,灭绝的危险,这种危险已经从赢咖4的进步,从生物技术和人工生命的发展,从纳米技术,创始人在今年早些时候在项目的网站上说,人为气候变化的极端影响。
“这些风险的严重性很难评估,但这本身似乎是一个令人关注的问题,考虑到有多少危害,”联合声明补充说。
说到AP,Price质疑当“我们不再是最聪明的事情”时会发生什么,并警告说,我们可能处于“不是恶意的机器,而不是我们的兴趣的机器”的风险中。
从“2001:太空奥德赛”到“终结者”三部曲,许多电影考虑了可能由杀手赢咖4型事情释放的混乱。虽然许多人不会怀疑在恶意的赢咖4的想法在松散的几十年来,价格坚持认为,赢咖4发展的内在潜在的风险不应该这么容易被解雇。
“它往往被认为是一个薄弱的关注,但考虑到我们不知道风险有多严重,我们不知道时间尺度,解除关注是危险的,我们试图做的是在可敬的科学界推动它,“他说。
所给出的例子之一是,当计算机开始实现某种程度的自我意识,并将自己的以自我为中心的目标提前于其人类创造者或“大师”的目标。正如人类已经演变并慢慢地接管了地球 - 从砍伐大片林地和导致数十种物种在我们的活记忆中的灭绝 - Price警告说,计算机智能可以模仿人类进化,加速率。
还考虑到,人权观察和哈佛法学院的国际人权诊所呼吁结束“发展,生产和使用完全自主的武器”,例如在韩国发现的那些,以保护非军事区。
虽然这些自动化武器远没有吹嘘赢咖4,但担心这些算法控制的“杀手赢咖4”可能最终超过他们的范围。
剑桥大学风险中心计划明年上市。