你在这里

谁将灭绝人类 牛津学者指点迷津

人工智能、生物工程和机械工程的结合,将带来人类或许无法掌控的结果

有关物种灭绝的研究报告汗牛充栋,但研究人类会如何走向绝种末路的却不多见。

牛津大学一个国际学者团队的研究目标,就是人类在哪些情况下可能遭遇无法战胜的劲敌而整体灭绝,而能给人类带来灭顶之灾的最大危险有哪些。

牛津大学“人类未来研究所”(Future of Humanity Institute)的这个国际团队包括来自不同国家的科学家、数学家和哲学家。

他们呼吁国际决策层重视这些足以灭绝人类的危险,不要把这当成戏言一笑了之。

研究所所长尼克·博斯特罗姆(Nick Bostrom)说,这件事至关重要,如果决策失误,那21世纪可能就是人类在地球上存在的最后一个世纪。

那么,人类面临的最大风险有哪些呢?

人类末日?

首先可以排除瘟疫流行、饥荒、洪涝、地震和环境变化等,因为人类已经能够控制这些病毒的肆虐;在本世纪这个时间段里,因为超级火山爆发或行星撞地球而导致人类绝种的可能性也不大。

即使爆发核战争,也会有足够多的幸存者延续人类物种。

但是,博斯特罗姆指出,人类已经进入一个科技高度发达的时代,这个时代具备了毁灭人类未来的无比能力。

这是因为科技发展速度之快,超过了人类对新科技带来的后果的控制能力;这就像孩童手里的致命武器。

具体来说,在生物工程、人工智能等领域的实验已经进入预料之外且后果难测的疆域。

科技本身就是一柄双刃剑;人工智能技术既可以成为工业、医药、农业甚至经济管理中的重要工具,但它对可能造成的破坏的广度和深度并不在意。

这个独特的研究团队坚称,他们并不是在危言耸听。

超级电脑可以带来威力一代胜一代的电脑,最后可能出现“智能爆炸”现象,即电脑威力的加速变得无法预计、难以控制,而其后果却可能影响到地球上每一个人。

英国皇家天文学会会长里斯勋爵(Lord Rees)说,人类成为自己最危险的敌人,始于21世纪。

他说,这一威胁体现在科技前沿;每一项科技突破都有正负两面,如果对负面影响控制失当,最坏的结果就是人类自我毁灭。

栏目: 
首页重点发表: 

Theme by Danetsoft and Danang Probo Sayekti inspired by Maksimer