華發網繁體版

霍金的遺願清單:離開地球和警惕人工智能

輪椅上的斯蒂芬·霍金終於離開了地球,可以和愛因斯坦、牛頓他們起打打牌了。

在過去的二十年,霍金是明星,除了繼續探索宇宙理論,他也出現在各種場合,為所有關切人類命運的主題發聲。而在他去世前的這幾年中,霍金最關註的話題就是:離開地球和警惕人工智能。

現在我們就梳理下霍金通過各種渠道談論這兩個話題的言論。

 霍金的遺願清單:離開地球和警惕人工智能

關於離開地球,早在2011年霍金在接受美國視頻共享網站BigThink訪談時就稱地球將在兩百年內毀滅,人類要想活命只能移民外星球。

2017年11月5日,霍金通過視頻指出了人類移民太空的原因所在:個原因是,對我們來說,地球變得太小了。在過去二百年中,人口增長率是指數級的,即每年人口以相同比例增長。目前這數值約為1.9%。 這聽起來可能不是很多,但它意味著,每四十年世界人口就會翻番。 2022年,我將慶祝自己80歲的生日,而在我人生的這段歷程中,世界人口比我出生時膨脹了四倍。這樣的指數增長不能持續到下個千年。 到2600年,世界將擁擠得 “摩肩擦踵”,電力消耗將讓地球變成“熾熱”的火球。這是岌岌可危的。然而我是個樂觀主義者,我相信我們可以避免這樣的世界末日,而最好的方法就是移民到太空,探索人類在其他星球上生活的可能。

而在2017年7月,霍金就痛批美國總統特朗普退出氣候問題《巴黎協定》的決定,可能將導致不可逆轉的氣候變化,警告稱此舉或將讓地球變成個金星樣的溫室星球。霍金在接受BBC專訪時表示,我們正在接近全球變暖不可逆轉的臨界點,特朗普的決定可能將地球推過這個臨界點,變成像金星樣的星球,溫度高達250度,並且下著硫酸雨。

也是在2017年6月播放的紀錄片《遠征新地球》(Expedition New Earth)中,霍金說,在未來百年內,人類為生存必須離開地球,在太空尋求新家。

離開地球,霍金也不是光嘴皮子嚇唬嚇唬大家,2016年4月12日在紐約宣啟動“突破射星”計劃,將同俄羅斯商人尤·米爾納(Yuri Milner),以及美國社交網站面簿創始人兼總裁紮克伯格(Mark Zuckerberg)合作建造能以五分之光速飛往比鄰星的微型星際飛船。

除了地球即將面臨的各種風險,霍金更關切人類正在創造個毀滅自己的怪物:人工智能(AI)。

2017年3月,霍金在接受英國《泰晤士報》訪時再次發出警告,“人類需要控制以人工智能為代表的新興科技,以防止它們在未來可能對人類生存帶來的毀滅性威脅。”他還說,“自從人類文明開始以來,侵略便直存在,往往出現在相對具有生存能力優勢的不同群體之間,而未來人工智能進步發展便可能具備這種‘優勢’”,霍金解釋自己的警告時說道,“他們本身也是生根於達爾文的進化論之中。因此人類需要利用邏輯和理性去控制未來可能發生的威脅。”

2016年10月19日,劍橋大學“萊弗休姆的未來智能中心(LCFI)”正式投入使用。霍金在慶祝典禮上發表了演講。霍金在演講中批評了人工智能的無節制發展,他認為,人工智能技術的確有希望帶來巨大的福利,比如根除疾病和貧困,但是它同樣也可能帶來危險,比如強大的自主式武器,或者幫助少數人壓迫多數人。“我們花了大量的時間來學習歷史。”霍金說,“讓我們面對現實,大部分的歷史是愚蠢的。所以對於那些學習未來智能的人應該表示歡迎。” “我們生活的每個方面都會改變。總之,創造AI的成功可能是我們文明歷史上最大的事件。”霍金說。

 霍金的遺願清單:離開地球和警惕人工智能

2016年1月26日和2月2日在BBC電臺第四頻道播出霍金瑞思系列演講(Reith Lectures),在演講中他直言,科學技術的進步發展會惹出更多的新麻煩。同樣在這個演講中,霍金依舊認為科技進步是人類的新威脅。他甚至提及若人類最終得以在其他星球建立家園,或許還能幸存下來。

“盡管地球在某年遭受滅頂之災的可能性很低,但隨著時間的推移,在未來幾千或幾萬年,這會是可以預見的事情。那時,我們應該已經進入太空、住到其他星球上。所以地球上的毀滅並不意味著人類的終結。”“然而,至少在未來數百年我們還無法在太空世界建起人類的地盤。所以我們現在必須非常小心。”

2015年,霍金曾聯合思想家喬姆斯基馬斯克等數千名知識分子發表聯名公開信中警告:必須取締“機器人殺手”的研發和應用,人工智能方面的軍備競賽可能是人類的災難,它將助長戰爭和恐怖主義,加劇世界動蕩局勢。

這封公開信由未來生活研究所(Future of Life Institute)發起,這個團體致力於緩解“人類面臨的生存風險”,警告人們啟動“人工智能軍備競賽”的危險。公開信中談到“人工智能技術已經達到了這樣個地步:如果沒有法律限制,那麽這種系統的部署在未來幾年中就可以實現,並不需要等待幾十年。”

而早在2014年12月,霍金接受英國廣播公司(BBC)訪時就明確表示:“制造能夠思考的機器無疑是對人類自身存在的巨大威脅。當人工智能發展完全,就將是人類的末日。”

霍金也許對人類和科技的未來是悲觀的,他並不信任人類真的能控制科技這個怪物,但令人諷刺的是,旦人類用科技毀掉了這個星球,他所能仰賴的也只有科技能幫這個種族在外星球繼續繁衍。

來源:網易新聞

 


此文由華發網繁體版編輯,未經允許不得轉載: 華發網繁體版 » 名人 » 霍金的遺願清單:離開地球和警惕人工智能

讃 (0)
分享至:

評論 0

暫無評論...
驗證碼
取 消
請選擇理由
取消
私信記錄 »

請填寫私信內容。
取消
載入中,請稍侯......
請填寫標題
取消