【白彤東】從中國哲學角度反思人工智能發展

欄目:學術研究
發布時間:2019-11-09 23:18:25
標簽:人工智能、儒家、創造性教育、強人工智能、經濟不平等
白彤東

作者簡介:白彤東(dong) ,男,西曆一九七〇年生於(yu) 北京。北京大學核物理專(zhuan) 業(ye) 學士(1989-1994),北京大學科學哲學專(zhuan) 業(ye) 碩士(1994-1996),波士頓大學哲學博士(1996-2004),現任職複旦大學哲學學院教授。主要研究與(yu) 教學興(xing) 趣為(wei) 中國傳(chuan) 統政治哲學、政治哲學,著有《舊邦新命——古今中西參照下的古典儒家政治哲學》《實在的張力——EPR論爭(zheng) 中的愛因斯坦、玻爾和泡利》等。

從(cong) 中國哲學角度反思人工智能發展[1]

作者:白彤東(dong)

來源:作者授權 伟德线上平台 發布

             原載於(yu) 《中州學刊》2019年第9期

時間:孔子二五七零年歲次己亥十月十三日庚戌

             耶穌2019年11月9日

 

摘要

 

雖然阿爾法狗等代表的人工智能的進展遠遠超出了自動化時代我們(men) 對機器所能完成的任務的想象,但是當今的人工智能還沒有任何智能,對強人工智能的擔憂是杞人憂天。不過,對強人工智能的反思,仍然可以促進我們(men) 對一些人類根本問題——比如何為(wei) 智能、何為(wei) 人——的探討。從(cong) 中國哲學的角度看,現在對強人工智能是否會(hui) 替代和毀滅人類的擔心,可能帶有西方文化的偏見。但是以孟子對人之為(wei) 人的理解來養(yang) 育類人之存在,也有其問題。在應對現有的人工智能的挑戰上,我們(men) 應該加強的,恰恰不是創造性教育,而是以死記硬背、以習(xi) 題和考試為(wei) 訓練方式的基礎和高等教育。人工智能的發展可能會(hui) 強化經濟不平等,對此的解決(jue) ,可能也要通過加強精英的責任和賢能在政治中的決(jue) 策角色來解決(jue) ,而這恰恰是儒家政治哲學的一個(ge) 可能貢獻。

 

關(guan) 鍵詞

 

人工智能      強人工智能            儒家      創造性教育            經濟不平等

 

1.人工智能還沒有智能

 

在最近大數據和人工智能(Artificial Intelligence)技術的令人目眩的發展下,尤其是阿爾法狗(AlphaGo)讓人難以置信的成功,讓人類是否會(hui) 被人工智能控製、替代、甚至殺掉這樣的話題成為(wei) 了熱門話題。雖然有這樣驚人的技術發展,但是,我想說的第一點是人工智能還不很智能,甚至是一點智能都沒有。雖然阿爾法狗擊敗了世界上最好的圍棋選手,但是隨便一個(ge) 人都可以贏了它——隻要我們(men) 選擇和它玩兒(er) 中國象棋就可以。當然,如果它開始學中國象棋,它可以很快擊敗我們(men) ,但是我們(men) 可以再一次擊敗它——隻要我們(men) 選擇跟它比踢毽子。一般來講,人類智能的一個(ge) 核心特點是它可以做那些不是事先設計好的任務,而阿爾法狗和其他現有的人工智能產(chan) 品還隻能做它們(men) 被事先設計好的工作(雖然它們(men) 可以做得很好,甚至超過人類)。因此,我們(men) 可以說,現有的人工智能還一點智能都沒有。

 

在美國加州伯克利分校執教的哲學家Alva Noë對此有很好的說法(2014)。鍾表並不真的知道時間,而是我們(men) 人類用它來辨別時間。與(yu) 此類似,迄今為(wei) 止的人工智能隻是被我們(men) 人類用來幹那些(要用到)智能的事情。Noë指出:“即使最簡單的生命形式,比如阿米巴蟲,也展示了某種智能、自主性(autonomy)、創造性,這甚至超越了最強大的電腦。”根據Noë的說法,阿米巴蟲之所以更智能,是它可以為(wei) 自己改變和創造它的生存環境。也許有人會(hui) 說,當今的人工智能也可以做到這一點。我想,更準確的說法是,阿米巴蟲的獨特之處,在於(yu) 它並沒有一個(ge) 人格意義(yi) 上的設計者,或者即使它有,這個(ge) 設計者也沒有給它一個(ge) 具體(ti) 的任務,而僅(jin) 僅(jin) 是“尋求生存”這樣一個(ge) 模糊的指令。人類沿著這種獨特性走得更遠。可以說,如果我們(men) 是被設計出來的,我們(men) 是被設計成要超越任何(固定或特定的)設計。

 

我這裏無意否認阿爾法狗和其他人工智能進步之神奇。很多人本來以為(wei) 機器(包括人工智能)隻是擅長機械性的事情,即那些有著清楚規則和特定的程序的工作,也就是所謂的自動化。而比如圍棋這樣隻能通過經驗、天分、不可言說的知識(tacit knowledge)等才能掌握的任務,機器是無法去做的。阿爾法狗證明,我們(men) 這個(ge) 信念是錯的。但是,圍棋畢竟還是一個(ge) 特定的任務,有清晰的規則和一些基本的策略,並且最重要的是,它的輸贏是明確定義(yi) 了的,不需要人類的外來判斷和幹預(這樣機器可以快速和高效地自我學習(xi) )。因此,阿爾法狗的成功讓我們(men) 不得不承認,機器(包括人工智能)可能可以做任何特定的、結果明確的工作,哪怕是沒有機械性的步驟可以遵循來完成這項工作。但是,阿爾法狗還沒有人類意義(yi) 上的智能:它沒有選擇掌握圍棋,是我們(men) 人類替它選定的。

 

當然,有人會(hui) 說,我們(men) 還是應該為(wei) 人工智能真的獲得智能——即人工智能(AI)變成了所謂強人工智能(Artificial General Intelligence/AGI)——的那天做好準備。誠然,人類在預測未來上表現很糟糕。在二十世紀五十年代,人工智能就已經開始發展,但突破性的進展最近才發生。十年前,多數人認為(wei) 納米和生物科技才是將來科技發展的方向,很少有人意識到人工智能的巨大進展。但不幸的是,我們(men) 人類隻能利用我們(men) (經常具有誤導性的)過往經驗和非常有限的智能去幫助我們(men) 為(wei) 未來做準備。現在看起來,對人類更清晰和緊迫的挑戰來自基因編輯、氣候暖化這樣的問題,而不是強人工智能。與(yu) 前者明顯的迫切性相比,反思強人工智能對人類挑戰簡直就是杞人憂天。

 

但是,這不等於(yu) 說,反思強人工智能的問題,沒有任何意義(yi) 。在英美哲學界兩(liang) 個(ge) (曾經?)很熱門的話題是關(guan) 於(yu) 僵屍和時間旅行的。如果我們(men) 知道,僵屍電影和比《回歸未來》(Back to the Future)係列電影在八十年代很流行的話,我們(men) 可以嘲笑說,這些哲學家似乎是從(cong) 流行電影中找到他們(men) 的研究話題。精神正常的人不會(hui) 覺得真的會(hui) 遇到僵屍,而時間旅行隻存在於(yu) 科幻電影之中,隻是一個(ge) 數學上的可能性,幾乎沒有物理學家認為(wei) 在較近的甚至是很遠的未來裏麵,時間旅行有任何成為(wei) 現實的可能性。但是,同情地講,反思這些看起來是閑極無聊、甚至是荒誕的話題,可能還是有哲學意義(yi) 的,因為(wei) 它可以展現一些本來是隱藏起來的問題。類似地,即使真正有智能的強人工智能還遠在天外,我們(men) 還是可以問問,對它的思考是否可以讓我們(men) 發現一些重要和有趣的話題。實際上,我們(men) 前麵“當今的人工智能還沒有任何智能”的說法,就可能是這樣一種反思的結果,即對(其實還很遙遠的)強人工智能的憧憬或者恐懼,讓我們(men) 不得不回應人類的智能為(wei) 何的問題。

 

2.強人工智能與(yu) 中國哲學:製造超級人類?

 

對強人工智能與(yu) 人工智能的各種挑戰的哲學反思,已經有很多。在這篇文章中,我會(hui) 集中於(yu) 從(cong) 中國哲學與(yu) 思想相關(guan) 的角度出發,來反思其挑戰。首先,在對強人工智能的態度上,在美國,公眾(zhong) 對強人工智能和其他科技進步常常是充滿恐懼,但在東(dong) 亞(ya) ,公眾(zhong) 對科技發展似乎更是一種歡迎態度。如果我的觀察確實是事實,那麽(me) 一個(ge) 可能的解釋是現代科學首先在西方得以發展,而在追趕過程中,東(dong) 亞(ya) 就很可能產(chan) 生對科學的(非科學、非理性的)崇拜。在東(dong) 亞(ya) ,“科學”和“好的”成為(wei) 同義(yi) 語。另一個(ge) 可能的原因,是基督教有創生的神話(creation myth),根據這一神話,隻有上帝才能造人。但在東(dong) 亞(ya) 傳(chuan) 統裏麵,並沒有這樣的創生神話,不同的神、甚至是人都可以參與(yu) 到創造和成就人類的過程中。人類會(hui) 創造類人的存在,東(dong) 亞(ya) 人比對西方人更好接受這種可能性,因為(wei) 哪怕是世俗的西方人總還是在成長中可能受到基督教的潛移默化的影響。同時,伴隨著這種創生神話,還有世界大毀滅的神話,[2]為(wei) 西方人對科技進步帶來世界毀滅提供了思想上的“藍圖。”這又與(yu) 東(dong) 亞(ya) 的文化傳(chuan) 統不同,也因此對東(dong) (亞(ya) )西對人工智能的心理反應做出了貢獻。

 

這裏的另一個(ge) 問題是,在什麽(me) 意義(yi) 上我們(men) 就造就了一種類似甚至超越人的存在?前麵的關(guan) 注,集中的人的智能上。但是,按照孟子對人之為(wei) 人的理解,我們(men) 會(hui) 說,在這個(ge) 問題上,隻關(guan) 注於(yu) 智能,是錯誤的。這是因為(wei) ,對孟子來講,人之為(wei) 人,或者人與(yu) 禽獸(shou) 的根本區別,不是智能,而是惻隱之心及建立於(yu) 其上的仁。作為(wei) 德性之一的智(能)是為(wei) 仁服務的,即幫助我們(men) 實踐我們(men) 的惻隱之心,幫助他人。對惻隱之心(compassion)這種情感(passion)的首要性的強調在西方哲學裏麵,是非常罕見的。正如哲學界休謨(David Hume)指出的:

 

談論情感(passion)和理性(reason)之爭(zheng) 、給與(yu) 理性以優(you) 先地位、並斷言人有多少道德隻與(yu) 在多大程度上遵從(cong) 理性之命令(dictates)相關(guan) ,在【西方】哲學乃至日常生活裏麵,沒有比這些說法再通常的了。(Hume 1888,413頁(Section III,Part III,Book II))[3]

 

與(yu) 之相對,休謨幾乎是獨樹一幟地論述說,就產(chan) 生行動或者促使我們(men) 行動而言,“理性是並且應該隻是情感的奴隸”(同上,415頁)。當代神經科學家Antonio Damasio引用了休謨的後一種說法,並且也為(wei) 情感在人類行動中的首要性做出論證(Gardels 2018)。但是,如上所述,休謨關(guan) 心的是人類行動的驅動因素,Damasio更是主要在經驗層麵關(guan) 心這個(ge) 問題,並訴諸於(yu) 進化論。用進化論的語言來講,我們(men) 可以說,休謨和Damasio實際是在論述,由於(yu) 其更長的演化曆史,人類中動物性的因素比我們(men) 的理性要強大得多。如Damasio指出的:

 

神經係統隻是在5億(yi) 年前進入了生命的舞台。比起演化的時間尺度,比起地球上生命的40億(yi) 年的曆史來講,這實在微不足道。(同上)

 

他這裏說的是神經係統,而人類乃至人類智能這種依賴於(yu) 極其複雜的神經係統的演變,當然就更短了。

 

因此,雖然在西方傳(chuan) 統裏麵,休謨和Damasio已經是少有的例外了,但是他們(men) 的立場還是與(yu) 孟子有著根本不同。孟子所關(guan) 注的是惻隱之心,而非任一情感,並且他對惻隱之心這種情感的強調不是出於(yu) 它是與(yu) 動物相通並且有著長久的演化積累,而是因為(wei) 它以及建於(yu) 它之上的仁是人獸(shou) 之別的根本。在《孟子·離婁下》(4B19)中,孟子指出,“人之所以異於(yu) 禽獸(shou) 者幾希。”[4]他這裏雖然沒有明確指出區分人類與(yu) 禽獸(shou) 的這一點點東(dong) 西(“幾”)是什麽(me) ,但是從(cong) 其他地方看,這種區分應該是從(cong) 惻隱之心之上發展出來的仁。在《孟子·公孫醜(chou) 上》(2A6)中,孟子指出“不忍人之心”(惻隱之心或者同情心)是人類所共同的(“皆有”)。人類需要培養(yang) 人皆有之的惻隱之心,這樣才能配得上人的名聲。因此,孟子並不認可情感是人類行動之主宰這一立場(休謨和Damasio的立場),而是要求人類的理智和其他自然情感都要被惻隱之心所規管。也就是說,孟子以及追隨孟子的儒家的立場與(yu) 休謨和Damasio西方思想家中這樣強調情感重要的少數派仍然有著根本不同,其對惻隱之心的強調有其獨特性。

 

當然,西方道德學說的主流學說之一的功利主義(yi) 的核心,在於(yu) 根據是否提高最大多數人的最大幸福的理性計算,而另一主流學說的義(yi) 務論,也強調對理性的道德原則的服從(cong) 。與(yu) 此相對,休謨一支的思想家更是強調情感的指導。孟子式的儒家強調對惻隱之心這種道德情感的培養(yang) ,讓其成為(wei) 我們(men) 行動的推動者。在情感的指導功能上,孟子式的儒家與(yu) 休謨式的思想家有相通之處,可以互相借鑒。

 

從(cong) 孟子的立場出發去回答我們(men) 是否在創造類人的存在,我們(men) 要關(guan) 注的是否我們(men) 創造了“人工道德情感,”而不是“人工智能。”對強人工智能的擔心,從(cong) 孟子的角度看,不是對類人、但強於(yu) 人的存在的擔心,而是對(具有超人智能的)禽獸(shou) 的擔心。著名的圖靈測試,在對機器與(yu) 人的區別上,關(guan) 注的是語言和理性。但按照孟子對人的理解,我們(men) 應該關(guan) 注的是被試是否展示出惻隱之心。並且,即使我們(men) 創造了具有內(nei) 在的善的存在,即使這個(ge) 存在通過了孟子式的圖靈機測試,這並不意味著我們(men) 製造類人存在的使命就完成了。雖然根據孟子,惻隱之心是人獸(shou) 之別的關(guan) 鍵,但是成人是一個(ge) 過程,不是一個(ge) 固定的點。生物意義(yi) 上的人仍然需要學習(xi) 成為(wei) 孟子的道德與(yu) 規範意義(yi) 上的人。正如惻隱之心可以變得越來越強,我們(men) 也可以成長得越來越是人,或者越來越大的人(道德意義(yi) 上的大小)。如果一個(ge) 生物意義(yi) 上的人不好好撫育人的天生的善性,他/她可能會(hui) 退化得近於(yu) 禽獸(shou) 。這對孟子來言,這沒什麽(me) 好奇怪的。比如,他指出:“飽食、暖衣、逸居而無教,則近於(yu) 禽獸(shou) ”(《孟子·滕文公上》3A4)。既然生物意義(yi) 上的人可以退化成禽獸(shou) ,那麽(me) ,一個(ge) 被製造出來的存在可以通過培養(yang) 其道德情感而變成人,也沒有什麽(me) 好奇怪的了。

 

孟子對道德培養(yang) 對我們(men) 成人之關(guan) 鍵性的觀點也可能會(hui) 幫助回應另一個(ge) 對強人工智能的擔憂。強人工智能可以在智能和體(ti) 格上強於(yu) 人,如果它們(men) 被設計成或者自己選擇(強人工智能的重要特征就是可以自主決(jue) 定)去消滅人類,誰也攔不住它們(men) 。因此,讓它們(men) 的行為(wei) 得以規管就變得很重要了。但是如果我們(men) 希望通過編碼或者律令來規管其行動,比如阿西莫夫的機器人三定律(Issac Asimov’s Three Laws of Robotics),它們(men) 很可能最終無法處理複雜的生活所帶來的挑戰。其實我們(men) 隻要看看揭示倫(lun) 理兩(liang) 難的電車問題可以膨脹成一個(ge) 研究領域,甚至有了所謂“電車學”(trolleyology)這樣的事實,我們(men) 就不難想象任何一套原則都會(hui) 導致各種難題——當然,這會(hui) 是那些需要發文章的哲學教授和博士生所喜聞樂(le) 見的。Peter Eckersley(2019)論證,將效用函數(utility functions)或者與(yu) 其等價(jia) 的函數應用到任一的機器學習(xi) 裏麵,都不可能在不違背人類的很強的倫(lun) 理直覺的情況下,保證其結果對一個(ge) 人群是好的。[5]中國的人工智能專(zhuan) 家曾毅則斷言:“把人類社會(hui) 的一些規則灌輸給人工智能係統,但這絕對不是一個(ge) 好的解決(jue) 的方法”(2019)。

 

與(yu) 此相對,儒家的道德養(yang) 成不是簡單的一套原則、一本行動手冊(ce) ,我們(men) 不是通過摩西十誡或者理性的絕對命令來愛我們(men) 的家人,而是強調在不同處境下的具體(ti) 應對。在前麵引用的對曾毅博士的采訪中,他進一步指出:

 

隻有人工智能係統,與(yu) 人類交互的過程當中自主地去獲取人類價(jia) 值觀、做事的規則和準則,以一種基於(yu) 自我模型的自主學習(xi) 的方式,它才真正地實現可理解,才真正能達到人工智能模型和人類社會(hui) 價(jia) 值觀校準(alignment)的這樣一個(ge) 過程。(曾毅2019)

 

在阮凱的一篇文章裏麵,他指出,“通過以滿意和道德捷思法為(wei) 關(guan) 鍵詞的有限理性觀對功利主義(yi) 的改良,一種以功利主義(yi) 為(wei) 內(nei) 核的機器倫(lun) 理模型可以被構想和實現”(阮凱2018,80)。這裏的有限理性,如果是可行的,應該也是上麵曾毅指出的自主學習(xi) 的過程。

 

但是,從(cong) 儒家的角度,這種情境中的學習(xi) ,仍然不夠。在具體(ti) 情境中,我們(men) 不但是要獲取應對各種倫(lun) 理困境的方法,更是通過與(yu) 家人、外人在一起、理解他們(men) 的特點和需要、在交往中發育我們(men) 相互的關(guan) 切來學會(hui) 愛我們(men) 的家人,然後推己及人的。在這一過程中,我們(men) 會(hui) 遇到不同道德責任之間的矛盾(比如忠與(yu) 孝),而我們(men) 通過生活本身來學會(hui) 麵對它們(men) 。我們(men) 要做到的,是仁愛與(yu) 理智——這裏理智應該理解為(wei) 亞(ya) 裏士多德意義(yi) 上的實踐智慧(phronesis)——的結合。前麵提到的曾毅和阮凱的說法,依然是過多地強調理智方麵的解決(jue) 。與(yu) 功利主義(yi) 或者康德式的義(yi) 務論相比,這種人工智能中的亞(ya) 裏士多德主義(yi) 可能更優(you) 越。但是,從(cong) 儒家的觀點看,它缺乏對情感培養(yang) 的強調。博古睿研究所(Berggruen Institute)的主席博古睿(Nicolas Berggruen)在最近的一篇文章中指出,[6]我們(men) 應該把人工智能——“這個(ge) 文明的最終之子”——當成我們(men) 的孩子,並如儒家所言,我們(men) 在家庭的環境中,對它進行道德培養(yang) ,特別是培養(yang) 它對其他人的關(guan) 愛(Berggruen 2018)。這一說法確實很好地展示了儒家對道德培養(yang) 的理解。

 

但是,儒家的道德養(yang) 成是否就能保證強人工智能的關(guan) 愛與(yu) 審慎權衡嗎?糟糕的家庭環境,會(hui) 對孩子有壞的影響。甚至是好的家庭,也不能保證培養(yang) 出來的孩子有多好。韓非子很早就批評過儒家的道德培養(yang) 。他認為(wei) ,通過家庭中道德培養(yang) 來規範人類行為(wei) 不如建立在賞罰之上的法律製度有效。比如,他很直觀地指出,“夫嚴(yan) 家無悍虜,而慈母有敗子”(《韓非子·顯學》。[7]並且,我們(men) 也要問,為(wei) 什麽(me) 我們(men) 需要人造人呢?與(yu) 其製造“文明之子,”我們(men) 直接生孩子就好。博古睿指出,這裏的問題不應該是人工智能還是人類才是主宰,而是我們(men) 如何製造人與(yu) 人工智能的混合。但就這些混合體(ti) 而言,我們(men) 其實並不需要真正有智能或者真正有惻隱之心的人工體(ti) 。現在人工智能的成就已經可以為(wei) 這種混合體(ti) 奠定基礎了。因此,我們(men) 又被帶回了現有的(弱)人工智能對人類構成何種挑戰這個(ge) 問題。這是一個(ge) 更迫切的問題。

 

3.回應(弱)人工智能的挑戰:“東(dong) 亞(ya) 式”教育與(yu) 儒家混合政體(ti)

 

(弱)人工智能對人類帶來了很多挑戰。但是,有時候我們(men) 對人工智能的擔憂,可能有偏激的危險。比如,一個(ge) 常見的抱怨是科技(包括人工智能)的發展讓我們(men) 的孩子遠離同伴、遠離自然。但是離開自然是人類一直致力的事情。我們(men) 甚至可以說,離開自然的過程是人類成為(wei) 人類的過程。難道我們(men) 應該重回叢(cong) 林,撿草木之實,徒手殺死禽獸(shou) 並生吃其肉嗎(不要忘了,用火也是人類技術進步的結果)?並且,電視、網絡、以及其他技術發展也把我們(men) 很難接觸到的自然帶到了我們(men) 和我們(men) 的孩子們(men) 的眼前;也就是說,技術對人類與(yu) 自然接觸的影響並不僅(jin) 僅(jin) 是負麵的。因此,我們(men) 需要問的問題是與(yu) 自然的哪一方麵保持接觸對人類的幸福生活是有益的?抱怨科技發展讓我們(men) 遠離自然的人需要回答這個(ge) 問題;否則,他們(men) 的抱怨可能隻不過是把他們(men) 與(yu) 自然的那些接觸或者他們(men) 想象的與(yu) 自然的那些接觸當成不同群體(ti) 、不同時代、不同地點都必須要有的,也就是說,他們(men) 的抱怨無非是出自個(ge) 人偏見、把個(ge) 人的偶然經曆當成人類的普遍必然而已。就與(yu) 其他同伴的接觸來說,兒(er) 童和青少年也通過電腦遊戲的群體(ti) 接觸到了並不是他們(men) 日常生活圈子裏的人。也就是說,他們(men) 接觸的圈子還擴大了,雖然可能在這個(ge) 過程中,他們(men) 會(hui) 失去那些上一代人會(hui) 接觸的周邊的一些同齡人。這就又引到了什麽(me) 樣的人際交流才是根本的這個(ge) 問題,在回答這個(ge) 問題時,我們(men) 也要注意避免對將我們(men) 自己成長經曆構成的偏見當成普世真理。當然,我不是對進步充滿樂(le) 觀的人,也並不相信進步帶來的惡果都會(hui) 被平衡掉。我這裏隻是想說,我們(men) 很多對新變化的擔心可能是出自我們(men) 舊有之偏見的、單方麵的、被誇大的。

 

那麽(me) ,讓我們(men) 來以一種全麵與(yu) 平和的態度,從(cong) 廣義(yi) 的中國傳(chuan) 統與(yu) 中國哲學的視角,來處理人工智能已經構成的挑戰中的兩(liang) 種。第一是對教育的挑戰。自動化已經搶走了很多藍領工人的工作,而類似阿爾法狗的人工智能的發展意味著,比如醫生、股票交易人、律師等白領工作也有被機器替代的危險。如我在第一節裏論述的,當今的人工智能還不具有人類的智能,因為(wei) 人類智能的關(guan) 鍵特點在於(yu) 它的創造性。由此我們(men) 得出的結論似乎是:為(wei) 了回應(並不真的有人類智能的)人工智能的挑戰,我們(men) 應該重視人類智能獨有的創造性。在教育上,這意味著我們(men) 要重視創造性教育,而不是死記硬背和應試教育。前者常被歸於(yu) 西式或美式教育,而後者常被歸於(yu) 儒家、中式、或者東(dong) 亞(ya) 式的教育,雖然至少後麵這一說法是有很大問題的。[8]但是,就我看來,人工智能的發展可能恰恰支持了死記硬背乃至廣義(yi) 上非創造性教育的重要。死記硬背的對象是基本技能的培訓,比如寫(xie) 作與(yu) 算術。並且,哪怕是基礎科學,如科學哲學家庫恩(Thomas Kuhn)指出的,在常規科學(normal science)時代,對科學的學習(xi) 是通過以共通的教科書(shu) (textbook)為(wei) 基礎的嚴(yan) 格訓練實現的。其目的,是讓學生掌握一套共用的科學範式(paradigm),其所訓練的,是這種匯聚的(convergent)思維模式,而非發散的(divergent)或是強調創造性的思維模式(Kuhn 1959)。在這種訓練中,不斷通過習(xi) 題和考試來讓學生掌握既有範式是至關(guan) 重要的。人工智能的發展讓我們(men) 看到,可能任何一種具有確定性的工作(有清晰的規則和一些基本的策略,任務成功與(yu) 否有相對明確的判斷,並且最好不依賴人類的外來判斷和幹預),人工智能可能都可以最終掌握,並比人類做得更好,或者至少可以替代人類。這意味著我們(men) 需要不斷重新創造自我以適應不斷變化的就業(ye) 市場。我們(men) 掌握的那些“先進的”的技能可能最終都被證明是可替代的和沒有用的,而我們(men) 必須回到我們(men) 擁有的基本技能(比如在中小學學的識字和算術、在大學裏學的現代物理科學)來再造自我。既然這些基本技能變得至關(guan) 重要,那麽(me) 我們(men) 就應該保證這種教育的成功,而如前麵提到的庫恩的論點所指出的,後者恰恰是依賴於(yu) 死記硬背和應試教育等非創造性的教育模式。現實的挑戰將承擔創造性教育的任務:我們(men) 要相信人類(中的一些)在現實挑戰下自發的創造力。

 

不幸的是,不是每一個(ge) 人都可以再造自我。自動化對發達國家工資上漲的停滯和不斷上漲的經濟不平等做出了重大貢獻,而人工智能的發展很可能將這種情形惡化。越來越多的人會(hui) 被落在後麵。對此,一個(ge) 國家可以為(wei) 其所有國民提供基本工資(universal basic salaries),但是,即使少數發達國家可以做到這一點,有工資但沒有工作不能給人以生命的目的和價(jia) 值,這就意味著這些被拋在後麵的國民仍然會(hui) 生活在無聊、抑鬱、甚至悲苦之中。美國的類鴉片藥物危機(the opioid crisis)佐證了這一點。[9]馬克思主義(yi) 者可能會(hui) 說,既然這些人沒有工作、但有基本生活保障,他們(men) 就可以真正的擁有閑暇,做自己願意做的事情。但是,很不巧的是,這些被落下的人恰恰是那些缺乏自覺和自主的人。而那些善於(yu) 利用自主機會(hui) 的人恰恰是那些不太可能被社會(hui) 拋下的人。在西方,這些被技術進步丟(diu) 下的人已經成為(wei) 了民粹主義(yi) 崛起的重要動力來源,而多數政治學者任務,民粹主義(yi) 並不能真正地解決(jue) 其支持者所麵對的問題。因此,寄希望於(yu) 那些被落在後麵的人可以自覺地享受其自由,或者在不滿現狀的情況下通過選票來尋求政治改變,都是不現實的。我們(men) 應該做的,是創造政治與(yu) 社會(hui) 機製,讓那些能夠不斷創新自我引領潮流的精英負有責任,為(wei) 那些落在潮流後麵的人謀福利。近幾年來,依據先秦儒家(特別是孟子)的思想,筆者提出了結合了民眾(zhong) 的聲音和賢能之士的決(jue) 策權的混合政體(ti) (白彤東(dong) 2013)。在這種混合政體(ti) 中,一方麵我們(men) 承認民主政治中的民有與(yu) 民享的原則——這與(yu) 儒家的民本觀念是一致的,並且我們(men) 接受通過一人一票讓民眾(zhong) 表達是否自己享有自己所期望的意見。但另一方麵,先秦儒家對大眾(zhong) 的政治決(jue) 策能力是有保留的,因此他們(men) 部分拒絕民主政治中的民治的觀點,希望將一定的選賢舉(ju) 能的辦法引入各種政治與(yu) 社會(hui) 機製,培養(yang) 精英的責任意識,並把有道德與(yu) 理性能力的精英選拔出來,讓他們(men) 為(wei) 大眾(zhong) 謀福利。這樣一種混合政體(ti) ,比最終隻依賴於(yu) 一人一票的民主政體(ti) ,可能可以更好地回應人工智能的發展所加劇的經濟不平等之問題。

 

參考文獻

 

白彤東(dong) (2011),“Against Democratic Education”, Journal of Curriculum Studies, 43:5, 615-622.

 

--- (2012),“反對民主式教育”,蘇曉冰譯,《思想與(yu) 文化》第12輯,327-335。

 

--- (2013),“主權在民,治權在賢:儒家之混合政體(ti) 及其優(you) 越性”,《文史哲》2013年第三期,12-23。

 

Berggruen, Nicolas (2018), “How Do You Plan to Raise Your Super-Intelligent Child?” The Washington Post, Feb. 28, 2018

https://www.washingtonpost.com/news/theworldpost/wp/2018/02/27/ai/

 

陳奇猷(2000),《韓非子新校注》。上海:上海古籍出版社。

 

Eberstadt, Nicholas (2017), “Our Miserable 21st Century,” The Commentary.  February 15, 2017.  

https://www.commentarymagazine.com/articles/saving-conservative-judaism/

 

Eckersley, Peter (2019), “Impossibility and Uncertainty Theorems in AI Value Alignment (or why your AGI should not have a utility function),”

https://arxiv.org/pdf/1901.00064.pdf

 

Gardels, Nathan (2018), “The Biological Origins of Culture,” The Washington Post, Feb. 28, 2018

https://www.washingtonpost.com/news/theworldpost/wp/2018/02/28/culture/

 

Hume, David (1888), A Treatise of Human Nature.  Edited by L. A. Selby-Bigge.  Oxford: Oxford University Press.

 

Kuhn, Thomas (1959), “The Essential Tension”, from The Third (1959) University of Utah Research Conference on the Identification of Scientific Talent, ed. C. W.

 

Taylor (Salt Lake City: University of Utah Press, 1959), 162-174.Noë, Alva (2014), “Artificial Intelligence, Really, Is Pseudo-Intelligence,”

https://www.npr.org/sections/13.7/2014/11/21/365753466/artificial-intelligence-really-is-pseudo-intelligence

 

阮凱(2018),“機器倫(lun) 理何以可能: 現有方案及其改良”,《自然辯證法研究》第34卷第11期(201911月),78-83

 

楊伯峻(1960),《孟子譯注》。北京:中華書(shu) 局。

 

曾毅(2019),“規則灌輸絕對不是使人工智能獲得人類價(jia) 值觀與(yu) 社會(hui) 規則的正確途徑”,https://mp.weixin.qq.com/s/3Qq2jNtvGy6jKd8dhrl1BQ

 

注釋:

 

[1]本文的研究得到了上海高校特聘教授(東(dong) 方學者)崗位計劃(跟蹤計劃)的支持,特此感謝。

 

[2]感謝貝淡寧(Daniel Bell)向筆者指出這一點的相關(guan) 性。

 

[3]本文所有翻譯均為(wei) 作者本人的翻譯。

 

[4]本文分段和文本所根據的是楊伯峻1960。

 

[5]筆者感謝Brian Green讓我注意到了這篇文章。

 

[6]博古睿研究所是一個(ge) 支持對大問題的跨文化研究的一個(ge) 機構,其關(guan) 心的一個(ge) 大問題就是人工智能。

 

[7]本文引用的《韓非子》根據的是陳奇猷2000。不過,這裏需要指出的是,韓非子的辦法好像也不管用。韓非子認為(wei) 隻有賞罰二柄是最有效的控製工具,任何原則、法律、機構都要建築在其上。但是,這樣的一個(ge) 架構會(hui) 遇到我們(men) 前麵提到用原則來規管機器人所麵對的問題。一般來講,強人工智能的強就在於(yu) 它可以超越任何給定的規則。也就是說,強人工智能注定會(hui) 讓建立在規則上的規管失敗。

 

[8]當然,所謂西式的“創造性”教育,確實與(yu) 民主思想發展有關(guan) 係。下麵我們(men) 會(hui) 看到,儒家對民主政治有所保留。因此,在批評創造性教育上,儒家也是有潛在的角色的。對此的詳細討論,見白彤東(dong) 2011(中文翻譯版見白彤東(dong) 2012)。

 

[9]Eberstadt 2017對這一危機有深入細致的討論。

 

 

責任編輯:近複