你在这里

谷歌研发红色大按钮,防止人工智能造成伤害

(博谈网记者赵青编译报道)据《商业内幕》(Business Insider)2016年6月3日(周五)报导:Google has developed a 'big red button'that can be used to interrupt artificial intelligence and stop it from causing harm

由于谷歌、脸书、微软等许多科技公司的进步,现代机器越来越智能。

人工智能,正如最近获悉的消息,机器人在复杂的围棋比赛大败人类,可想在其他领域也是越发智慧。

在伦敦,谷歌旗下有一间人工智能研究实验室,其正在研究随时停止自学机器运作。

谷歌在2014年斥资400万英镑(折合美金580万元)购入DeepMind,并与牛津大学科学家连手研发确保人工智能不会习得或寻得如何免于受人类控制的可行性。

谷歌DeepMind的实验科学家Laurent Orseau、牛津大学人类未来研究所的Stuart Armstrong以及其他人所共同编撰了一篇刊登在‌‌“机器智能研究机构‌‌”网站名为‌‌“安全中断代理‌‌”的报导。

这些研究员在该文摘要指出,人工智能是‌‌“不可能永远保持最佳状态‌‌”

 ‌‌“如果真有此机器在人类控制下实时运作,人们偶尔有需要去按下红色大按钮来避免机器做出可能危害到机器本身或环境的危险动作,此举才让机器处于较安全的环境。‌‌”

部分未能实时采访的研究员声称,他们已创造一个构想,让人类操作员可以重复且安全的阻止人工智能,同时也保证人工智能不会学会如何防备或促使这些中断动作。

文章写到:‌‌“安全中断有利于掌控一台失控且将导致不堪后果的机器人、也可以让机器人处于微妙的局面,甚至可以短暂利用安全中断来使机器人做出平时没学过的任务或一般不会获得回馈的事。‌‌”

研究人员发现一些‌‌“Q学习‌‌”等算法的机器人已经可以安全中断,然而其他像‌‌“Sarsa‌‌”推出时则没有,但是他们可以被调整成相较于以往的简单。

作者也坦承:‌‌“我们没有办法肯定所有算法都可以轻易被安全中断。‌‌”

DeepMind与人类未来研究所合作的相当有趣,DeepMind想要解决智能并创造通用目的的人工智能,然而,尼克‧博斯特罗姆所率领的人类未来研究所反而研究人类生存的潜在威胁,他认为未来100年内机器人将比人类聪明,并且可能控制我们人类。

在去(2015)年5月举办于牛津大学的一年一度‌‌“硅谷来了‌‌”博斯特罗姆谈到:

‌‌“我个人深信,一旦机器人与人类能互相抗衡,不久机器人就会变得超级智慧,虽然要到达人类智慧还有一段时间,但是我认为变化速度会很快。我认为这些超级智慧机器人会非常厉害,如同我们相较于其他地球上的动物也很强大,其原因不是我们有强壮的肌肉或是锐利的牙齿,而是我们有较好的大脑思考能力。‌‌”

DeepMind其实知道他们所创造的科技可能造成危害,DeepMind的创办人Demis Hassabis,Mustafa Suleyman,and Shane Legg同意搜寻巨头-谷歌并购的条件是谷歌要创建人工智能伦理委员会,以监测进展。到底谁来主导和他们在做什么,说实在,我们并不清楚。

他们也去参加许多关于人工智能伦理的演讲,强调他们想确保我们正在发展的科技是正面用途,而非邪恶之用。可能他们将纳入‌‌“安全中断机器‌‌”类文章的发现,并使其进步。

 

栏目: 
首页重点发表: 

Theme by Danetsoft and Danang Probo Sayekti inspired by Maksimer