人工智能、生物工程和機械工程的結合,將帶來人類或許無法掌控的結果。
有關物種滅絕的研究報告汗牛充棟,但研究人類會如何走向絕種末路的卻不多見。
牛津大學一個國際學者團隊的研究目標,就是人類在哪些情況下可能遭遇無法戰勝的勁敵而整體滅絕,而能給人類帶來滅頂之災的最大危險有哪些。
牛津大學“人類未來研究所”(Future of HumanityInstitute)的這個國際團隊包括來自不同國家的科學家、數學家和哲學家。
他們呼吁國際決策層重視這些足以滅絕人類的危險,不要把這當成戲言一笑了之。
研究所所長尼克·博斯特羅姆(NickBostrom)說,這件事至關重要,如果決策失誤,那21世紀可能就是人類在地球上存在的最后一個世紀。
那么,人類面臨的最大風險有哪些呢?
人類末日?
首先可以排除瘟疫流行、饑荒、洪澇、地震和環境變化等,因為人類已經能夠控制這些病毒的肆虐;在本世紀這個時間段里,因為超級火山爆發或行星撞地球而導致人類絕種的可能性也不大。
即使爆發核戰爭,也會有足夠多的幸存者延續人類物種。
但是,博斯特羅姆指出,人類已經進入一個科技高度發達的時代,這個時代具備了毀滅人類未來的無比能力。
這是因為科技發展速度之快,超過了人類對新科技帶來的后果的控制能力;這就像孩童手里的致命武器。
具體來說,在生物工程、人工智能等領域的實驗已經進入預料之外且后果難測的疆域。
科技本身就是一柄雙刃劍;人工智能技術既可以成為工業、醫藥、農業甚至經濟管理中的重要工具,但它對可能造成的破壞的廣度和深度并不在意。
這個獨特的研究團隊堅稱,他們并不是在危言聳聽。
超級電腦可以帶來威力一代勝一代的電腦,最后可能出現“智能爆炸”現象,即電腦威力的加速變得無法預計、難以控制,而其后果卻可能影響到地球上每一個人。
英國皇家天文學會會長里斯勛爵(Lord Rees)說,人類成為自己最危險的敵人,始于21世紀。
他說,這一威脅體現在科技前沿;每一項科技突破都有正負兩面,如果對負面影響控制失當,最壞的結果就是人類自我毀滅。
|