三個月前霍金剛去世時,有大量文章緬懷他偉大的一生。其中有提到他二○○二年第二次訪問中國時,曾到長城遊覽,並且命所有隨同人員離開,讓他孤身一人留在長城上思索了好長的一段時間。究竟他當時在想甚麼,恐怕已無人知曉了,但霍金是《時間簡史》的作者,其厚重的歷史感直追至宇宙的起源,而長城本身便是人類歷史的一個符號,想來他所思所想,也許與宇宙及人類歷史有關。
霍金並不是對人類很樂觀的人,他曾斷言,地球暖化,不到一千年地球已不適合人類生存。對於人工智能(AI),他認為雖可對人類有益,但也可能控制甚至摧毀人類。
這倒是個有趣的問題。若問人工智能或機械人的專家,他們大多會指出發展人工智能的困難及科技的局限,電腦與機械人終究與人類不同。雖則如此,會否機械人將在多種思維能力上超越人類,甚至奴役人類,科幻小說中的情景會變成現實?若然如此,拔掉電腦的插蘇,令其失去動力,豈非便可使人類不戰而勝?將來的機械人若是如此蠢笨,當然不會對人類有甚麼威脅,但現時的人工智能已可做到自我學習,連圍棋這門人類最複雜的智力遊戲也可大敗最頂尖的高手,機械人的智慧豈容低估。
若「拔不掉插蘇」,還有兩個問題:一是人類有無足夠的能力造得出比人類聰明的機器?二是就算人類有此能耐,為何會肯造出可能奴役或催毀自己的機械人?
第一個問題容易答,機械人能夠互相學習,其進步速度可以比人類互相學習更快。圍棋棋局變化之多,遠遠超越了全宇宙原子的總數量(圍棋棋局共有三百六十一階乘(factorial)個變化,比宇宙中原子總量多出多少倍?是十以後多加四百四十個零),能駕馭到圍棋的機器,若要自行設計出更卓越的機器人,並且一代比一代進步,有何不可?
第二個問題倒是與經濟學及人性都有關係。經濟學中有「二囚困局」的命題,兩名囚犯被隔離審問,任何一人若肯提供證據檢控另一人便可獲減刑。雖然大家都明白,雙方若爭相爆料,最終結果會對二人都不利,但博弈論的分析卻是二人都大有誘因選擇爆料之路。
同樣道理,我們可設身處地考量一個機械人設計者的利益,假設他知道自己能夠造得出一個比自己更聰明的機械人,而對手一樣有此能耐,他會自己搶先造出來,還是讓對手先造,還是與對手協議大家都不造?發生機會最低的,恐怕是任由競爭對手先造,讓其奪取到榮譽與商業回報,自己則斯人獨憔悴,默默無聞。大家溝通互不先造,也並不可靠,誰能保證對手或新加入的另一些對手不會視協議如無物,先拔頭籌?
我們大可據此推測,機器人統治世界的機會的確存在,除非國際上開始設立嚴格的監察制度防止此事,監察範圍應包括導入機械人腦中的倫理觀念。
霍金並不是對人類很樂觀的人,他曾斷言,地球暖化,不到一千年地球已不適合人類生存。對於人工智能(AI),他認為雖可對人類有益,但也可能控制甚至摧毀人類。
這倒是個有趣的問題。若問人工智能或機械人的專家,他們大多會指出發展人工智能的困難及科技的局限,電腦與機械人終究與人類不同。雖則如此,會否機械人將在多種思維能力上超越人類,甚至奴役人類,科幻小說中的情景會變成現實?若然如此,拔掉電腦的插蘇,令其失去動力,豈非便可使人類不戰而勝?將來的機械人若是如此蠢笨,當然不會對人類有甚麼威脅,但現時的人工智能已可做到自我學習,連圍棋這門人類最複雜的智力遊戲也可大敗最頂尖的高手,機械人的智慧豈容低估。
若「拔不掉插蘇」,還有兩個問題:一是人類有無足夠的能力造得出比人類聰明的機器?二是就算人類有此能耐,為何會肯造出可能奴役或催毀自己的機械人?
第一個問題容易答,機械人能夠互相學習,其進步速度可以比人類互相學習更快。圍棋棋局變化之多,遠遠超越了全宇宙原子的總數量(圍棋棋局共有三百六十一階乘(factorial)個變化,比宇宙中原子總量多出多少倍?是十以後多加四百四十個零),能駕馭到圍棋的機器,若要自行設計出更卓越的機器人,並且一代比一代進步,有何不可?
第二個問題倒是與經濟學及人性都有關係。經濟學中有「二囚困局」的命題,兩名囚犯被隔離審問,任何一人若肯提供證據檢控另一人便可獲減刑。雖然大家都明白,雙方若爭相爆料,最終結果會對二人都不利,但博弈論的分析卻是二人都大有誘因選擇爆料之路。
同樣道理,我們可設身處地考量一個機械人設計者的利益,假設他知道自己能夠造得出一個比自己更聰明的機械人,而對手一樣有此能耐,他會自己搶先造出來,還是讓對手先造,還是與對手協議大家都不造?發生機會最低的,恐怕是任由競爭對手先造,讓其奪取到榮譽與商業回報,自己則斯人獨憔悴,默默無聞。大家溝通互不先造,也並不可靠,誰能保證對手或新加入的另一些對手不會視協議如無物,先拔頭籌?
我們大可據此推測,機器人統治世界的機會的確存在,除非國際上開始設立嚴格的監察制度防止此事,監察範圍應包括導入機械人腦中的倫理觀念。
(Headline
Daily 2018-6-8)