徐英瑾

對話的緣起

最近,某高校人文學院大二的學生阿璟一直無精打采的,上課老開小差。原來,她在一周前讀到了以色列學者赫拉里寫的《未來簡史——從智人到智神》,被里面的觀點“顛覆了三觀”。根據赫拉里的論點,人工智能系統會在不遠的未來搶走人類的所有飯碗,并由此將整個人類變成“無用階層”。被赫拉里徹底說服的阿璟不由得開始懷疑刻苦讀書的意義,并下決心提前將自己放逐為“無用階級”的一員,開始了飽食終日、無所用心的日子。班上的輔導員阿華對阿璟做了好幾次談話,但都被她“懟”了回去。無奈中阿華找到了班上的學術導師阿瑾幫忙。阿瑾速讀了一下《未來簡史》這本書,覺得有把握在學理上澄清這本書帶來的種種迷思,便找機會找阿璟進行了對談。

下面就是談話內容的摘要。

師:聽說你相信了赫拉里的學說,認為人工智能會在不久的將來使得人類成為“無用階層”。你能夠根據你對于其著作的理解,具體談談你對于這個論點的論證嗎?

生:很簡單啊,老師您看,現在的軍隊作戰,越來越依賴無人機與其他無人作戰平臺,這樣呢,人類士兵就不需要了;工業機器人在生產線上越來越多,這樣呢,藍領工人就不需要了;機器人快遞員現在已經在日本北海道的某些地方已經投入使用了,而在不久的未來呢,人類快遞員恐怕就不需要了;此外,隨著自動駕駛技術的普及,人類駕駛員就不需要了;隨著超級自動醫學診斷軟件的出現,人類大夫就不需要了;等等。綜上所述,各行各業的職業訓練與教育規程都不需要存在了,因為這些體制性安排本是針對人類的特點才被設計出來的,而當人類勞動力不必大量存在的時候,這些制度本身也就該壽終正寢了。所以,老師,我看不到繼續學習的意義。遲早一天,大學也會關門的,老師您也會失業的。

師:那么,人工智能系統的設計、更新、維護難道不需要人嗎?他們的知識難道不是通過傳統的學院學習獲得的嗎?

生:您說得不對。首先,對于人工智能系統的設計、更新與維護所需要的人力資源是非常少的,區區這幾個飯碗是不夠全社會的人類分的。其次,更加“進化”的人工智能系統會自主更新自己的程序,使得編程人員的工作也被邊緣化。所以,我的結論還是對的:現有規模的人類教育結構與職業培訓體制,即將被掃進故紙堆。

師:那我先來問你一個問題:在你設想的社會里,廚師是不是都是機器人了?

生:對啊。

師:那么機器人廚師是為了機器人自己做“沙縣小吃”,還是為了人類客戶做“沙縣小吃”呢?

生:當然是為了人類啊。

師:那你已經承認了,在你構想的未來社會中,由智能機器人所組成的勞動力大軍所生產的產品,還是針對由人類所構成的消費市場的。

生:嗯??

師:好吧,世界上沒有免費的午餐。人類消費者在吃了機器人廚師提供的食品之后,是不是還要買單呢?但這是不是預設了他們有買單的能力呢?而這又是不是預設了他們有經濟收入呢?可是按照你的說法,作為“無用階層”的人類既然無用,是不該有經濟收入的??可這樣一來,無用的人又如何有經濟收入來買沙縣小吃與意大利通心粉呢?既然這些產品沒人能夠買得起,機器人廚師的生產的“目的因”又體現在何處呢?生產一堆食品,然后倒掉嗎?可這除了污染環境,還有其他積極的意義嗎?再說,機器人廚師的生產活動自身所導致的物質消耗——譬如原材料、電力等方面的消耗——又由誰來買單呢?

生:靠別的機器人,如發電機器人,維修機器人??

師:那么它們自己的運作所需要的消耗又由誰來補充呢?顯然這會導致邏輯上的無窮后退。而為了防止這種無窮后退,唯一的辦法就是承認:使得“智能機器人經濟”得以循環的整個“目的因”在于人類,而不在于機器人自身。但這個結論顯然立即會推倒“人類將成為無用階層”這一結論。

生:我不是很同意您的這個推理。實際上也可能出現這樣的一種情況:未來的社會是超級福利社會,因此,我們都可以免費獲得大量比特幣去購買披薩或沙縣小吃。機器人經濟的高度發達能夠保證產品的大量供應,而這一點又使得人類各種物質需要的滿足變得輕而易舉??

師:但是,你說的超級福利社會是怎么產生的呢?難道智能機器人的大量出現,就能夠自動導致你說的理想社會的出現嗎?

生:為何不能呢?

師:因為你還沒有排除這樣一種可能性:對于智能機器人的技術的控制與壟斷方,會使得這樣的技術首先滿足于本階層的利益,并將對于人類社會中大多數人的福利壓低到最低水準。這樣一來,整個社會的有效消費人口就會銳減,導致產品過剩,并由此導致良性經濟循環的乏力??

生:這個問題不難解決,我們可以強化那些占人類人口中大多數的平民對于機器生產分配機制的監督體系??

師:好吧,你的論證出現漏洞了。你剛才已經承認了,使得由智能機器人主導的經濟結構得以健康存在的重要邏輯前提之一,便是人類對于相關生產-分配機制的監督。然而,這種監督本身就是人類智力的體現。換言之,你已經承認了:人類智力的某種廣泛參與,乃是由智能機器人主導的經濟結構得以健康存在的重要邏輯前提之一。由此我們立即可推出:即使在這樣的結構中,人類也肯定不是“無用階層”??

生:但是監督分配這種活,比起生產來說,工作量小多了,不足掛齒??

師:那是因為你是不知道分配工作的難。就拿上次你們班評獎學金的事情來說吧,我和你們的輔導員阿華商量了半天,才確定了一個比較合理的分配方案。我們要考慮到學習成績、對于班級集體活動的貢獻、同學們的風評,以及各自的家境情況等各種因素??苦活啊??

生:這種事情交給機器去做才合理。

師:怎么做?

生:各項打分,加權求和??

師:好吧,你在這里又預設了人類的勞動的存在。第一,機器打分的對象是人類的勞動或學習成績;第二,每一項各自的權重制又體現了相關人類共同體的價值標準,而此類標準的量化表達,可能本身就是人類成員彼此協商的結果。很顯然,協商也是一種集體智力投入??

生:我已經說了,在我設想的理想社會中,大多數人不勞動了??

師:那么你說的那種機器評分標準就會失去依據。失去依據的評分系統就會隨之失去起碼的公正性——然后,機器人所產生的財富就會迅速向少數資本與技術的控制者聚集。但這樣一來,前面說的老問題又出現了:有效進行消費的人口基數會銳減,這樣經濟泡沫就會越來越大,導致循環失敗??

生:那么就采取最簡單粗暴的分配辦法:按照人頭進行物質分配,而對于這樣的分配機制的監督的實現,在技術上也是最容易的??

師:在人口基數非常大,而涉及人員又分布在很大空間內的前提下,即使搞平均分配也是一件難事。由于分配方與被分配方的信息不對等,弱勢一方未必能夠確定:自己得到的分配結果有沒有被人動了手腳。比如,分配方亦可以在物質生產總量的數據上造假,并在造假的前提下進行“平均分配”??另外,關于人口總數的數字,分配方也可以造假。過去舊軍隊編造假的“花名冊”吃空餉的故事,你肯定聽說過吧??

生:我們要弄出一個超級算法,來蕩滌這些腐敗現象??

師:你說的此類“反腐超級算法”的設計與后臺管理,都體現了人的智慧,同時,它也體現了特定集團的人的利益。因此,你對于超級算法的無條件崇拜是沒有根據的,因為它們畢竟是人類的工具而已。

生:那我們就無法對付腐敗了嗎??

師:當然要反腐啦,問題是在反腐過程中人的作用不能被消除,不能將一切交給機器。說得具體一點,如果在這一過程中“算法證據”能夠起到一定作用的話,這類證據也必須被鑲嵌到傳統意義上的人類論證結構之中去,而無法單獨構成某種證據力。這就好比說,現代法醫學對于人類體液的遺傳特征的鑒定成果,只有被合理地鑲嵌到特定的論證結構之中后,才能夠起到“為某人定罪”這樣的效果。孤零零的法醫本身是取代不了合議庭、陪審團或律師的。

生:那您的意思是:現有的人工智能與人類智慧之間的關系,就好比是毛與皮之間的關系:皮之不存,毛將焉附?

師:嗯,大致可以這么說。說得更清楚一點,我的觀點可以被總結為這樣一個樣子:人工智能經濟的存在,在“目的因”的層面上就有賴于人類的消費能力與消費習慣的存在,否則這種經濟就無法完成健康的循環并由此穩定地存在下去。而人類的消費能力與消費習慣的保存又有賴于人類智力勞動的存在,否則社會經濟運作的“能量守恒”就無法被保證了。所以,人類的智力勞動——當然不僅僅是指設計機器人的那種狹隘意義上的智力勞動——始終是人工智能經濟存在的邏輯前提。

生:這里有一個問題需要請教:為何智能機器人一定要以滿足人類的生理、心理與文化需要為自己的“工作目的”?具有自我意識的超級機器人難道不能夠“完全做自己”嗎?在這樣的情況下,我們憑什么認為機器人經濟的運作是以人類智慧勞動的普遍存在為邏輯前提的?舉個例子說,機器人自己是不要吃披薩的,而且如果它們對這一點有了自我意識了,它們就可以自行去追求自己的生活目標了——這樣一來,它們的活動,不也因此可以與人類的物質需要相互分離了嗎?

師:假設具有你所說的這種自我意識的機器人可以出現,那么,這倒反而證明了人類不會成為“無用階層”。

生:怎么說?

師:因為人類自己還是要吃披薩的啊!機器人罷工了,人類廚師正好上場。

生:??

師:所以你現在陷入了一個兩難推理。選項甲如下:如果未來的機器人還沒有聰明到意識到自己與人類的需求不同的話,它們就會乖乖做人類的奴隸,按照人類口味的變化來制作各種披薩。在這種情況下,人類的生存方式就依然是智能經濟存在的前提,人類不會成為“無用階層”。選項乙如下:如果未來的機器人已經聰明到“意識到自己有獨立的需求”的地步的話,那么人類就有兩個更具體的選擇:繼續去使用那些不那么聰明的“機器人奴隸”為自己服務;或者自己親自上陣。但無論怎么選,人類都不會成為“無用階層”。

生:現在我想來具體談談“選項乙”。現在假設機器人已經“進化”到了具有自我意識的地步,那么,它們會不會將人類統統消滅?如果人類被消滅的話,那么人類的所有消費習慣也就被消滅了——這樣一來,“人類成為無用階層”的條件就被自動滿足了。被消滅的階層當然就是無用階層。

師:我不能在邏輯上完全排除這種可能性,但這種可能性微乎其微。

生:怎么說?

師:最容易想到的理由是:機器人的需求和我們不同。機器人是硅基存在者,而不是碳基存在者。你說它們為何要滅我們人類?爭氧氣?爭面包?爭住房?爭大城市戶口?它們會在乎這些嗎?

生:它們去消滅人類,可能純粹是為了好玩吧。電影《侏羅紀世界》里,經過基因改良的超級霸王龍第一次沖出圍欄后,就開始大肆獵殺其他品種的恐龍。這并不是因為它餓了,而是因為它想檢測一下自己在食物鏈中的位置。同樣的道理,我們也可以設想超級智能機器人純粹為了檢驗自己的力量而獵殺人類,并以此取樂。這和我小時候純粹因為取樂而踩死螞蟻,沒有啥兩樣。

師:你說的超級霸王龍之所以能夠比別的恐龍厲害,歸根結蒂還是因為它的身體比較巨大,而不是因為它的智商高。你看,電影里的這種恐龍雖然被設定為具有一定智能的,但肯定不會比電影里的人類聰明吧——但很多人類都慘死在這種怪獸的巨爪之下。可見,超級智能本身并不足以殺死人類,只有智能加上強大硬件才可能對人類構成威脅。而智能與硬件的結合方式本身則取決于人類的意愿。只要人類始終阻止強大的智能計算能力與強大硬件的結合,人類從總體上說就是安全的??

生:足夠聰明的人工智能可以自己搞到硬件,改裝自己的身體??

師:比如怎么做?

生:通過“黑”入人類的賬戶或者數據庫,偽裝成具有特定權限的人類,在線購買硬件設備,然后升級自己的身體??

師:但這種可能性既然能夠被當下的你所想到,也肯定會被未來的設備監管專家所想到。它們肯定會利用別的人工智能程序,去阻止你說的這些事情的發生。假設阻止人工智能做壞事的“預防型”人工智能,也將和其預防對象一樣聰明,甚至更聰明——在這種情況下,超級人工智能與超級硬件的結合就會成為一個小概率事件了??

生:假若所有的人工智能體都聯合在一起反對人類呢??

師:不同公司設計的人工智能體背后的運作機理將非常不同,其差別將遠遠大于人類不同民族之間的差別。既然就連人類的不同民族與階層之間都存在著這么多的矛盾,我個人是很難設想所有的機器人會湊在一起高唱“歡樂頌”的。總之,你說的這種可能性微乎其微。

生:好吧,我總算想到了機器人要滅亡——至少奴役——我們的一個理由。

師:比如?

生:比如,它們和我們都需要電能。如果它們消滅或至少奴役了我們的話,它們就能獨占這些電力了。

師:你的這個論證預設了未來的能源危機會導致人與機器之間的緊張關系,卻沒有意識到能源危機本身的存在會隨著技術進步——甚至包括人工智能技術自身的進步——而得到緩解。

生:怎么說?

師:你也不想想,人類發展人工智能技術——以及廣義上的信息技術——的目的之一 ——就是為了減少不必要的能量浪費。能夠通過遠程網絡會議解決的問題,就不必邀請與會人全部趕到一個特定的會場了,這樣我們就節約了多少航空燃油!同樣的道理,智能化的信息處理設備能夠減少對于紙張、油墨的浪費,使得由此得出的問題解決路徑更為科學合理,并因此而避免更多的浪費。比起運作這些智能設備所造成的電能消耗來說,人類對于無效位移的避免所節約的能量,恐怕要多得多。

生:但問題解決效率的提高,在客觀上會增加人類社會運作的速率,并導致更多的需要的產生。由此導致的能量消耗,您并沒有計算在內??

師:嗯??不過,你別忘記了,核聚變技術的運用,可能會一勞永逸地解決人類的能源問題。

生:還是靠核??老師你忘記了福島的事故了嗎??

師:福島核電站使用的是核裂變原理,實質上是指這樣一種核反應形式:鈾核或钚核,分裂成兩個或多個質量較小的原子,并在這個過程中放出巨大的能量。由于鈾、钚都是對人體很有害的放射性物質,此類反應模式的環保風險當然是不容忽視的。但核聚變就不一樣了。這指的是兩個氘原子在巨大能量作用下發生原子核的聚合作用的過程(這個過程還會產生更大的能量),而這實質上就是太陽發散能量的那種物理過程。這里所說的“氘”是氫元素的同位素,比什么鈾啊钚啊要安全多了,而且在取材的量的方面還有保證。等到核聚變站投入應用了,誰還會去在乎驅動人工智能設備運作的那點能量呢?

生:老師,您這是遠水不解近渴,簡直是畫餅充饑。核聚變站建設的最大技術難點是:如何人為地控制使得核聚變得以產生的那種巨大的溫度與壓力呢?而在這個問題解決之前,超級人工智能體恐怕就已經出現,并開始試圖“清洗”人類了吧!

師:哈哈,如果真有這樣的超級人工智能體的話,我最想讓他回答的問題就是:請閣下利用您的超級智能,給出一條可行的技術路線,以便造出一個可用的核聚變電站。

生:人家為何要理你??

師:因為它有超級智能啊!你看,假設你說的“機器與人爭奪能源”的問題是存在的,超級智能機器就只有三個選項了:第一,消滅人類,獨享現有能源;第二,開發超級能源,與人類分享能源;第三,開發超級能源,同時消滅人類,以便獨享超級能源??

生:我覺得超級智能體會選“三”。總之,我們死定了??

師:錯!如果它足夠聰明的話,它會選“二”,與我們共生。

生:選“三”難道不會對它更有利嗎?

師:非也!選“三”會帶來風險!因為人類的智慧也是不容小覷的,一旦人類發現超級智能體對其有敵意,會奮起反抗的!盡管這種反抗未必一定會成功,但是卻有一定的成功概率。如果超級智能體能夠預見到這一點,為了消除這種風險,那么,“和人類一起從事新能源的開發”便是其最好的選項。另外,在新能源本身的量非常巨大的前提下,比起“分享能源”這一選項來說,超級智能體獨占這些能源所帶來的額外好處是微乎其微的。因為這里有個“邊際效應”問題——譬如,假設你能夠得到的披薩的量是接近無窮多的話,獨占這些披薩,真的比與鄰居分享它們,能夠帶給你更多的快感嗎?

生:老師,剛才您的這段話預設了兩點。第一,超級智能機器會對人類的可能的反叛產生一定的畏懼。第二,超級智能的機器人的心理架構會接近人,因此也會產生“邊際效應”這樣的問題。但我對這兩點都比較狐疑。對于第一點,我的疑惑是:既然超級人工智能已經是“超級”存在者了,為何還要擔心人類?其二,為何超級智能體的信息處理架構依然要在某種意義上接近人?

師:先來回答你的第一點疑惑。“超級人工智能”是一個在目下的媒體中很流行的術語,我個人也是順著大家的口使用了這個術語,盡管我本人是很不喜歡這個說法的。之所以不喜歡,是因為我根本不相信有什么與人類的智能形式完全不同的超級智能形式??

生:目下的IBM公司造的“華生”系統在百科知識搶答方面已經超過了大多數人類,而谷歌公司造的“阿爾法狗”則已經橫掃一切人類棋手??“超級人工智能”的說法有啥不妥的?

師:那都是專用系統。“阿爾法狗”只能用來下棋,不能用來辨識人臉,而任何一個智商正常的棋手都可以辨識人臉??

生:辨識人臉的深度學習技術,在本質上是與用來下棋的深度學習技術一樣的??

師:你在偷換概念。打個比方,說“運用在軍艦上的柴油發動機與運用在坦克上的柴油發動機原理一致”,不等于說我們就可以將坦克發動機直接拆下來用到軍艦上,因而二者的具體技術參數相差太多。同樣的道理,專門用來進行下棋的深度學習機制,在參數配置上與用來進行人臉識別的深度學習機制非常不同。因此,它們都是專用機而不是通用機,盡管指導其運作的基本原理可能并非局限于一個特定領域。

生:您的論證似乎有個預設:盡管您不知道“超級人工智能”是什么,但您肯定:它肯定不是僅僅在某方面超過人類的專用智能設備。為何我要接受這個預設呢?

師:你的確必須接受這個預設,否則你推不出“超級人工智能體會欲圖消滅人類”這個結論。因為任何一個產生“必須消滅人類”之類的想法的智能體,都必須知道:(甲)人類與機器的分別;(乙)消滅人類對于機器而言所可能帶來的好處。而這兩點都不可能是專業領域內的知識,相反,這些信念都具有“全局性信念”的特征——換言之,這樣的信念是不會出現在專用智能系統的“腦海”里的。比如,你不能指望“阿爾法狗”能夠進行這樣的高階反思:嗯,“既然連柯潔都不是我的對手,我明天就可以嘗試去顛覆谷歌公司了”——不,“阿爾法狗”不認識誰是柯潔,它也不知道谷歌與百度的區別,因此,它永遠不會產生顛覆任何一家公司的念頭。

生:好吧,我就姑且接受您的看法:超級智能機器肯定是通用人工智能系統,而不是專用的。但從這一點出發,我們分明可以得出這樣的結論啊:這樣的超強的人工智能系統肯定是不會懼怕人類的,因為就連專用的機器都那么強了,通用的機器難道還不會強悍到極點嗎?

師:你對“智慧”有一個誤解,好像智慧的生物或人造智能體就一定要滅了誰才行。實際上兵法家們常有這樣的評論:真正的兵家智慧不在于知道自己何時可以打贏,更需要知道何時他是打不贏的。同理,如果“阿爾法狗”有反思能力的話,那么它就會想到:使得它成為它的“深度學習”技術正在被全球不知道多少個科研團隊跟風研究,而這些團隊又各自處于不同的政經利益格局之中。它如果要對人類宣戰的話,那么就首先會遭遇到和其處于幾乎同樣一個技術等級的其他超級人工智能系統——而在這樣的情況下,其獲勝的概率并不高。

生:您上面的話,還是預設了人類團隊能夠操控相當一部分超級人工智能體——如果不是全部的話。但如果全部的人工智能體都反叛了呢?

師:你硬是要這么想的話,那么,你還是會迎面遭遇到我前面提到的那類問題上去:超級智能的機器人如何獲取相關的硬件設備來武裝其“身體”?——請別忘記了,再邪惡的主觀意圖若不與客觀的物質力量相結合,都無法在物理世界中制造出哪怕半點真正的邪惡。而也正如我前面提到的,我們很難設想人類會失去對于各類敏感外圍設備的監管,而任憑具有邪惡意圖的人工智能程序調用這些外圍設備——除非全體人類都瘋了。

生:我有點明白您說的“即使是超級人工智能體也會對人類的反治手段有所畏懼”是什么意思了??

師:嗯,我想說的是:首先,人類可以通過外圍硬件設備的物流控制來防止對自己不利的“軟件-硬件”組合方式的出現;第二,人類可以用大量的依然忠誠于自己的人工智能體來對沖某些人工智能體失控的風險??

生:那么為何你說超級智能的機器人也會有“邊際效應”呢?

師:智能機器人的心智結構,如果要承載我們前面所說的“通用智能”的話,就必須至少在某個抽象的層面上與人類類似,甚至與某些動物類似。因此,它也必須有某種“邊際效應”??

生:但機器可以比人腦算得更快,處理更多數據??

師:這又如何呢?就算其處理的數據再多,它也是有限存在者,而不是無限存在者。因此,它也必須在某個尺度上體現出思維的經濟性與節儉性,即用相對小的計算量來解決問題。在這種情況下,“邊際效應”恐怕是不可避免的??

生:計算的經濟性與“邊際效應”之間有啥關系?

師:“邊際效應”其實是與心理學家所說的“韋伯-費希納定律”有關的??

生:您說的這個知識點我大概是了解的。“心理學導論”課程上的老師說過這例子:商店同時調整了兩項商品的價格:商品甲是從15元調整到10元,商品乙是從200元調整到195元,二者的打折量都是5元,但前者的促銷效果會遠遠好于后者——因為消費者更為關心的乃是折扣占據原價的百分比,而不是實際的打折絕對量??在這個問題上,邊際效應的確與“韋伯-費希納定律”有關,只是實現細節不同罷了。具體而言,在典型的邊際效應案例中,新增加的收益因為超出了預期收益的閾值而在一定程度上被忽略;而在典型的“韋伯-費希納定律”案例中,新增加的收益則因為占據預期支出的百分比太小(并因此沒有達到閾值)而在一定程度上被忽略。但這兩類案例毫無例外地體現了人類的愚蠢:明明是同樣量的收益,卻非要僅僅因為參考系的不同而厚此薄彼。未來的人工智能管家肯定不會那么蠢??

師:我有兩點不同意你。第一,我不同意你說的:在“韋伯-費希納定律”支配下你的人類購買行為是人類愚蠢的標志;第二,我不同意說,一種真正意義上的人造通用智能體需要完全擺脫“韋伯-費希納定律”的支配。

生:您的這個觀點有點顛覆我??5元就是5元,你總得說出個理由喜好這項打折,而不是那項啊??

師:就是百分比。百分比的好處是直觀,可以將兩個不同項目的打折選項放在一個平面上被相互比較。

生:“可直觀”也算得上是一條理由?

師:是啊,因為“直觀”就意味著被關注到的對象可以進入人類心算的快車道,可以幫助人類快速得出結果。在面對大量的被選擇對象時,對象的可直觀性就顯得非常重要??

生:您的論證預設了人類心智在特定時間內的工作記憶容量??但超級機器就不應當受到此類限制了??

師:我當然可以設想某種超級智能機器的巨大工作記憶容量,但這樣的機器依然會在一個更高的數量級上體現出人類思維的某些特點。要注意的是,所謂的“百分比計數”,實際上是一種當下差價與歷史報價之間的對比值,或者說,是對于“歷史-過去”關系的一種濃縮。所有的智能體都必須具有一定的時間意識,并根據歷史資料來判斷當下的選項是不是合算。對于某大富翁來說,賺一億元可能是一個“小目標”;對某白領來說,賺個十萬的外快恐怕也不是那么容易——那么,這兩人對于“大”、“小”的判斷,哪個是對頭的呢?其實都對,因為富翁與白領各自的歷史路徑不同,其對于“大”與“小”的直覺感受也自然不一樣。這一點也適用于智能機器的運作。智能機器的數據處理能力強,但這并不意味著其不是根據其自身的運行歷史來對未來進行尺度衡量的,而要進行這種尺度衡量,“百分比計數”就是一種非常自然的衡量方法了。不過,這樣一來,其運作也就難以擺脫“韋伯-費希納定律”的影響了??

生:倘若智能機器不根據自己的運行歷史來進行運行,而每次都重新歸零歷史,對當下情況進行新的計算呢??

師:那它就不算是“有智能”的。根據歷史進行運作,就是為了能夠由此避免歷史上的運行錯誤,提高未來的運行效率——若每次都重新來,就真成了“西西弗斯”了:將石頭推上山頂又讓其滾下,然后再推上去,循環往復,永遠沒有進步??

生:我有點聽明白您的論證了。您的意思是:既然智能機器是需要依據自身的運行歷史行動的,那么它就得受到與歷史評估相關的心理規律的約束,因此,它也就會在特定條件下產生“邊際效應”——特別是在新得到的獲益量超過其基于歷史經驗而獲得的預期值的時候。在這樣的情況下??讓我回憶一下您前面說的??如果未來的核聚變電站能夠產生足夠的能源,使得超級智能機器的能量收益能夠超過其基于歷史經驗而獲得的閾值的話,那么,超級智能機器就會產生“邊際效應”,而不在乎因為與人類分享剩余能源而實際產生的損失了??這樣,人-機之間的戰爭就不會發生了??

師:很好,看來我已經說服你了。

生:好吧,我再理理思路。您已經說服我的地方有:第一,超級智能的存在以人類智能的存在為前提,因為智能經濟的存在必須預設人類消費者社會的存在,否則就會導致經濟循環失敗;第二,即使人工智能體產生了與人類無關的機器社會內部的經濟循環,人類社會的基于人類生物-心理-文化需求的經濟循環還會繼續下去,除非機器試圖消滅我們;第三,但真正的超級人工智能體是不會消滅我們的,因為它們的智能水平將幫助它們預測到:(甲)消滅人類的企圖所必然導致的人-機戰爭未必會以機器的勝利而告終;(乙)對于超級能源的人-機共享會使得人-機戰爭失去理由,而這一點背后的論證則與“邊際效應”相關,因為正是這種效應才使得超級智能機器不在乎過剩能源的獲取所帶來的額外收益??

師:嗯,很好,綜上所述,人類成為無用階層的那一天是不會到來的。、

生:但我還是有疑慮??

師:但說無妨。

生:如果我們現在討論的那種超級智能機器沒有問世的話,那么,即使是大量專用機器的問世,都會使得很多人失業,而新技術產生的新崗位將不足以導致失業人口數量的減少??

師:你說的這種情況的確很可能發生。但這其實是任何技術升級都會帶來的社會波動,而并不特別與人工智能相關。另外,更重要的是,由于完整意義上的人造智能體并沒有在你描述的這種情況中出現,對于全面的人類智能的全面替換也不會在你說的這種條件下發生??

生:但失業人口的大量增加足以導致有效消費人口的減少,并導致您前面所說的經濟循環的可持續問題了??

師:這一點你說得可能有道理,我對這一點的思考還不夠深入,抱歉。不過,在這種情況下,對于一個良好的分配體制的追求就會成為題中應有之義了。考慮到這個問題的難度,目下我們恐怕還得用人類自己的智慧來解決這個問題。而這不正好說明人類智慧的重要性了嗎?

生:那我現在該怎么辦?

師:很簡單,首先不要被“無用階層”論的叫囂弄得神經兮兮。你讀的是人文學科,琢磨的是人性的堂奧與歷史的奧秘,這是最難被機器模擬的那部分高級人類智慧。按理說,這個行當的人應當在面對機器大潮的到來時,保持最大程度的“淡定”。然后呢,建議你好好研究人類歷史上面對分配難題時所給出的各種決策,評估各種方案的利弊,以便為未來人機共治時代的社會財富分配方案進行思想預熱??

生:“人機共治時代的社會財富分配方案”!這個話題很有趣。我想把該話題作為我學士畢業論文的選題??

師:真的打起了精神,愿意好好學習了?

生:嗯!!

師:好的!我可以做你論文的指導教師!

于是,師生在愉快的氣氛中結束了這場關于人工智能與人類未來的對談。

(作者單位:復旦大學哲學學院)