前往主要內容
工商時報LOGO

全腦仿真研究該推動嗎?是否比人工智慧安全?

全腦仿真會不會比由安全意識充足的程式設計者所設計的人工智慧更好預測?目前難以判斷。圖/freepik
全腦仿真會不會比由安全意識充足的程式設計者所設計的人工智慧更好預測?目前難以判斷。圖/freepik

已將目前網頁的網址複製到您的剪貼簿!

人工智慧的控制難題愈是難以解決,似乎就愈應該推動全腦仿真途徑,做為一種低風險的選擇。不過,在我們充分考量之前,有幾個問題應該要先分析。

首先,之前我們已經討論過技術連接的問題。當時我們指出,開發全腦仿真的努力,反而有可能產生神經形態的人工智慧這種相當不安全的機器智慧。

但現在為了論證,我們暫且假定我們實際上達成了全腦仿真。這樣會不會比人工智慧安全呢?—這是個複雜的問題。全腦仿真至少假定三個優勢:(一)全腦仿真的表現特性會比人工智慧更好理解;(二)能繼承人類動機;(三)會導致較慢的起飛。現在我們來分別簡單思考這三個優勢。

1.「 模擬智慧的表現特性,應該會比人工智慧的智慧表現特性來得容易理解」,這聽起來很合理。我們對人類智慧的強弱項有充分的經驗,但對於人類水準的人工智慧卻相當缺乏。不過,約略了解一個數位化的人類智慧可否做到什麼,不等於了解這個智慧會怎麼回應針對其表現進行的強化修改。相對來說,人工智慧經過精心設計,可讓人同時理解其靜態和動態的特性。所以,雖然在可相比的開發階段內,全腦仿真在智慧表現上會比尋常的人工智慧更好預測,但就動態特性而言,全腦仿真會不會比一個由安全意識充足的程式設計者所設計的人工智慧更好預測,恐怕還不清楚。

2. 至於「仿真能繼承其人類模版的動機」這一點,從來都沒辦法保證。捕捉人類評價特性可能需要一個極高度保真的仿真。就算某個個體的動機被完美捕捉下來,我們也不知道能換得多少安全。人也可以是不值得信任、自私而殘酷的。雖然我們可以滿懷希望按照與上述相反的美德來選出樣版,我們還是很難預言,一個被移植到全然迥異的環境中、智慧上超級強化、還有機會統治世界的人會怎麼行動。的確,仿真至少(相較於只在乎迴紋針或計算圓周率的位數)比較有可能得到像人類的動機。這個特性到底會不會比較令人放心,取決於我們對人類本質的看法。

3. 全腦仿真為何會導致比人工智慧更慢的起飛,恐怕還不清楚。我們或許能藉由全腦仿真期待較低的硬體突出點,畢竟全腦仿真在運算上沒有人工智慧那麼有效率。此外,或許人工智慧可以更輕易吸收所有的運算能力,化為一個巨大的整合智慧;而全腦仿真會摒棄品質超智慧,而只在速度上和人口上超越人類。如果全腦仿真確實能導致較慢的起飛,那它在緩和控制難題上是有好處的。一個較慢的起飛會讓多極結果較有可能出現。但多極結果是不是我們所要的,卻非常值得懷疑。

「先做全腦仿真比較安全」這個概略想法還有另外一個重要難題:應付第二次轉型的需求。就算人類水準機器智慧的第一個形式是基於仿真,它還是有可能發展成人工智慧。相對於全腦仿真,成熟形式的人工智慧具有重大優勢,使人工智慧終究成為更強大的技術。成熟的人工智慧可以讓全腦仿真這個技術報廢(除非有保存人類個別心智的特殊目的),但反過來就不行。

這代表的是,如果人工智慧先行發展,智慧爆發潮可能就只有一波。但如果先開發的是全腦仿真,可能會出現兩波:第一波是全腦仿真的到來,第二波則是人工智慧的到來。全腦仿真先行途徑的生存風險總量,是第一次轉型和第二次轉型的風險總和(得要先能撐過第一波),如圖十三所示。

在全腦仿真世界中的人工智慧轉型會安全多少?我們要考量到,如果人工智慧轉型是在某種形式的機器智慧早已實現後才發生,那麼這個轉型就沒那麼具爆發性。以數位速度和遠超過生物人類人口的數量來運行的仿真,會降低認知差異,讓仿真能更輕易控制人工智慧。這個考量不會太重大,畢竟人工智慧和全腦仿真的差距還是很大。不過,如果仿真不只是更快或是數量更多,而是在某種品質上比人腦更聰明(或至少取自人類分布的尖端),那麼全腦仿真先行情境的優勢,就能和前面討論過的人類認知強化相比擬。

另一個考量是,轉型全腦仿真會擴大領頭者的領先。不妨想像一個情況:領頭者在開發全腦仿真技術上,領先最靠近的追趕者有六個月的差距。假設第一個進行的仿真物很合作、注重安全且充滿耐心。如果這個仿真物在高速硬體上運行,它會花上無數的(主觀)時間,來仔細思考如何創造安全的人工智慧。舉例來說,如果這些仿真物以十萬倍速運行,且能不受干擾地花六個月的恆星時(sidereal time)來處理控制難題,那麼它們在面對其他仿真物的競爭之前,可以花上五萬年的時間來詳細思考控制難題。若有足夠的硬體,它們可以藉由展開無數個複製品來獨立處理子問題,好加速進展。如果領頭者用這六個月的領先時間來形成單極,那麼它就可以為它的仿真物人工智慧開發團隊提供無限量的時間,來處理控制難題。

整體來說,如果全腦仿真在人工智慧之前發生,人工智慧轉型的風險似乎就會降低。不過,如果我們把人工智慧轉型裡殘留的風險和前述全腦仿真轉型的風險合併,我們就很難知道全腦仿真先行途徑的總生存風險,該怎麼跟人工智慧先行途徑的風險相較量。除非我們對於生物人類完成人工智慧轉型的能力真的非常悲觀(把「人性或文明到了我們面對這挑戰時可能已經進步」這點算進去之後),那麼全腦仿真先行途徑才會看起來有吸引力。

要弄清楚全腦仿真技術該不該推行,還有一些更進一步的重要論點必須衡量。最重要的是前面提過的技術連接:推動全腦仿真反而會產生神經形態的人工智慧。這是個不應推動全腦仿真的理由。毫無疑問,有些人造人工智慧的設計,比某些神經形態的設計還不安全。然而,在我們的預期中,神經形態學的設計似乎比較不安全。這個論點的基礎在於:模仿可以替代理解。要從頭打造一個東西,我們通常必須相當理解系統該怎麼運作。但僅僅複製一個既有系統的特色,就不必具備這種程度的理解了。全腦仿真仰賴的是生物學的全面複製,不需要對認知有「綜合運算系統等級」的理解(當然,還是要有「構成成分等級」的大量理解)。從這方面來說,神經形態的人工智慧可能像是全腦仿真:它光是憑著拼湊從生物體抄來的片段就可以達成,工程師不必對系統如何運作有深刻的數學理解。但另一方面,神經形態的人工智慧似乎也不像全腦仿真:它並不預存人類動機。這個考量反對把全腦仿真法的探索,進行到可能產生神經形態人工智慧的程度。

第二個要拿出來衡量的論點是,全腦仿真更有可能進一步告知我們它的到來。至於人工智慧,總是可能會有人達到意料之外的概念突破。相形之下,全腦仿真需要許多辛苦的事先步驟—高效能掃描設備、影像處理軟體,以及詳細的神經建模工作。因此,我們可以很有自信地說,全腦仿真的出現,真的不是迫在眉睫(至少不會少於十五或二十年)。這代表了對於加速全腦仿真所投注的心力,多半會在機器智慧的發展相對遲緩的情況下,才會造成差異。如此一來,對於那些想要用智慧爆發先壓制住其他生存風險、但又出於謹慎不敢支持人工智慧、以免在控制難題解決前貿然觸發智慧爆發的人來說,投資全腦仿真是個非常具有吸引力的選擇。不過相關時間尺度的不確定性目前恐怕還太大,而無法讓這種考量產生影響力。

因此,推動全腦仿真的策略,會在下列情況中最具吸引力:(一)對「人類可解決人工智慧控制難題」十分悲觀;(二)不用太擔心神經形態的人工智慧、多極結果或是第二次轉型的風險;(三)預計全腦仿真和人工智慧出現的時間很接近;(四)不想讓超智慧太晚或太快開發出來。

(本文摘自尼克.伯斯特隆姆著《超智慧:AI風險的最佳解答》,感電出版提供)

您可能感興趣的話題

返回頁首
LOADING

本網頁已閒置超過3分鐘。請點撃框外背景,或右側關閉按鈕(X),即可回到網頁。