close

有沒有人想過,如果有一天人類滅亡,會是用什麼樣的方式呢?機器人大戰、外星生物入侵?其實人類最有可能毀在自己的手上。偉大的物理學家,史蒂芬·霍金也曾探討過人類的滅亡的多種可能性,其認為「人工智能」和「人類衝突」最有可能發生。


  


ㄧ、人類最糟的發明?

霍金在201711月受訪時就曾說過「人工智能」的崛起可能是人類文明史上最糟事件,若人類社會沒有找到控制AI發展的方法,後果將會不堪設想。


霍金的理由並非人工智能不好,問題出在設計的人,AI機器人本身並沒有惡意,但AI完成事情的能力超過我們想像,要知道我們人,遇到困難會想放棄,遇到挑戰會想退縮,但是一個貫徹指令的超智能人工智慧,他會用盡方法達成目的。有人設計了病毒,就會有人不斷的去改善,直到超越了現有的人工智慧,到那個時候,說不定出現的會是一個全新的生命形態。


你們知道嗎?

2017年五月,AI人工智會AlphaGo與圍牆世界冠軍柯潔在中國烏鎮對弈,以壓到性3:0勝出,證明了人工智能很可能超越人類的跡象,或許我們都該仔細,認真的思考,AI管理方法,特別是那些埋頭苦幹的科學家們。

  

 


二、人類衝突:

 最嚴重也最貼近現實的可能。


同樣是一把槍,警察用來救人,但恐怖份子可能是用來開啟武力衝突,工具本身沒有對錯,使用的人就是最關鍵的一環。人類自私、人類貪婪和無節制的擴張,甚至運用科技創造出毀滅人類的武器(例如化學武器或是核武。)這些事件越來越平凡的在地球村上演。不管是AI,還是什麼科技,最重要的是使用的人,是否運用在正確的地方,以防止我們逐漸走在滅亡的路上。

  


三、建立全球治理的政府

其實霍金在探討這些問題的同時,也提出了他認為可行的方案「全球治理政府」;各國不在以追求最強盛國家的頭銜為目標,願意在核武、在人工智能的開發上有一樣的規範,少一點掌管全局的野心,以全人類發展為目標。讓國與國之間不單是競爭,更多是共享、共榮的光景。


  


但若是看到現在的國家情勢,就會覺得上述根本天方夜譚。也或許地球存亡看似跟科學家比較有關,但霍金提出來的並非是探討物理、科學領域而已,他指出人類若是沒有一個比自己更高層級的規範,就會不斷的讓慾望控制自己,就會在權利、經濟、武力等各方面角力,迫使我們走向滅亡。霍金生前時常強調,「如果宇宙不是你所愛之人的家園,那這個宇宙也沒什麼值得探求的。」他把人性溫度注入在冰冷的科學當中,或許就是在告訴每一個人,學習反思自己所擁有的,我們出發點究竟是正面的,還是我們常常被利益、權利牽著走?

arrow
arrow
    全站熱搜

    Jesus Design 發表在 痞客邦 留言(0) 人氣()