![]() |
白彤東作者簡介:白彤東(dong) ,男,西曆一九七〇年生於(yu) 北京。北京大學核物理專(zhuan) 業(ye) 學士(1989-1994),北京大學科學哲學專(zhuan) 業(ye) 碩士(1994-1996),波士頓大學哲學博士(1996-2004),現任職複旦大學哲學學院教授。主要研究與(yu) 教學興(xing) 趣為(wei) 中國傳(chuan) 統政治哲學、政治哲學,著有《舊邦新命——古今中西參照下的古典儒家政治哲學》《實在的張力——EPR論爭(zheng) 中的愛因斯坦、玻爾和泡利》等。 |
原標題:白彤東(dong) 講座“從(cong) 中國哲學角度反思人工智能發展”回顧
來源:複旦哲學青年
時間:西元2023年4月18日
2023年4月7日,複旦大學哲學學院第24屆Sophia人文節第二場講座順利舉(ju) 行,本次講座是由白彤東(dong) 教授帶來的“從(cong) 中國哲學角度反思人工智能發展”。下麵就讓我們(men) 共同回顧講座:
講座簡介
雖然阿爾法狗和ChatGPT等代表的人工智能的進展遠遠超出了自動化時代我們(men) 對機器所能完成的任務的想象,但是當今的人工智能還沒有任何智能,對強人工智能的擔憂是杞人憂天。不過,對強人工智能的反思,仍然可以促進我們(men) 對一些人類根本問題——比如何為(wei) 智能、何為(wei) 語言、何為(wei) 人——的探討。
從(cong) 中國哲學的角度看,現在對強人工智能是否會(hui) 替代和毀滅人類的擔心,可能帶有西方文化的偏見。但是以孟子對人之為(wei) 人的理解來養(yang) 育類人之存在,也有其問題。在應對現有的人工智能的挑戰上,我們(men) 應該加強的,恰恰不是創造性教育,而是死記硬背和應試教育。人工智能的發展可能會(hui) 強化經濟不平等,對此,可能也要通過加強精英的責任和賢能在政治中的決(jue) 策角色來解決(jue) ,而這恰恰是儒家政治哲學的一個(ge) 可能貢獻。
講座前半部分,白彤東(dong) 教授基於(yu) 他的《從(cong) 中國哲學角度反思人工智能發展》論文分享自己對人工智能的觀點。白彤東(dong) 教授指出,這篇論文是19年針對AlphaGo引發的討論和擔憂所撰寫(xie) ,是中國哲學視角下對人工智能的觀點看法。他認為(wei) ,對於(yu) AlphaGo的一般性反思多數同樣適用於(yu) Chat GPT。
01 人工智能還沒有智能
無論是AlphaGo還是Chat GPT的麵世,都掀起了對人工智能擔憂的浪潮,人們(men) 會(hui) 擔心人工智能是否會(hui) 替代人類。然而,白彤東(dong) 教授指出,人工智能迄今為(wei) 止都沒有真正的智能,它們(men) 還隻能做被人類預先設計好的任務,AlphaGo和Chat GPT同樣如此。
以AlphaGo為(wei) 例,AlphaGo可以在圍棋中擊敗世界上最好的圍棋選手,但是如果我們(men) 選擇和它玩中國象棋就可以贏過它,在它學習(xi) 中國象棋後,我們(men) 可以選擇跟它比跳棋、跳繩而擊敗它。
那麽(me) 人類的智能是什麽(me) 呢?人類智能中一個(ge) 很重要的關(guan) 鍵是可以根據環境、外在變化不斷調整自己的目標,接著根據這一目標設計出理性的、智能的達成路線。“By nature ,human beings are not natural!”人類的本性就是可以違背任何被規定的本性,人的自然恰恰是不自然。
人的智能的表現在於(yu) 永遠可以做出一個(ge) 新的選擇,而智能並非正確,人的自我選擇可能導致一個(ge) 愚蠢錯誤的後果,這是人工智能無法做到的。
美國加州伯克利分校執教的哲學家阿瓦·諾伊(Alva Noë)對此有很好的說法:鍾表並不真的知道時間,而是我們(men) 人類用它來辨別時間。與(yu) 此類似,AlphaGo不知道自己在下圍棋,它隻是在完成預設的任務,隻是我們(men) 把它的操作稱為(wei) “下圍棋”,人工智能本身沒有智能。阿瓦·諾伊指出:“即使最簡單的生命形式,比如阿米巴蟲,也展示了某種智能、自主性(autonomy)、創造性,這甚至超越了最強大的電腦。”根據他的說法,阿米巴蟲之所以更智能,是因為(wei) 它可以為(wei) 自己改變和創造自己的生存環境。
當然,也可以說阿米巴蟲有確定的目標——求生,但“求生”是一個(ge) 很模糊的目標,而AlphaGo的目標“下圍棋”更為(wei) 明確:具有清晰的規則、基本的策略,不需要人為(wei) 參與(yu) 判斷的輸贏標準使AlphaGo可以進行自主大量演算,在積累的過程中自我學習(xi) 。我們(men) 肯定人工智能超越了以前機器隻能做自動化(機械性工作)或者計算的局限,然而也要清楚認識到AlphaGo、Chat GPT等看似創造性的成果實際也是由已設計好的工作組成。
現在的人工智能都還屬於(yu) 弱人工智能,強人工智能還沒有蹤影。對人類更清晰和緊迫的挑戰來自基因編輯、氣候暖化這樣的問題,而不是無跡可尋的強人工智能。在此背景下,我們(men) 現在所擔憂的人工智能獲得智能後替代人類的觀點實屬杞人憂天。
02 強人工智能與(yu) 中國哲學:製造超級人類?
但是,哲學這一學科的特點之一就是探討一些看似無意義(yi) 的問題,如英美哲學界的兩(liang) 個(ge) 熱門話題——僵屍和時間旅行。對這看似無意義(yi) 的種問題的反思可能激發我們(men) 對人類基礎的哲學問題的思考。從(cong) 這一思考角度來看,杞人憂天也是有其意義(yi) 的。
白彤東(dong) 教授根據個(ge) 人經驗觀察,東(dong) 西方在這種“憂”的方麵具有很明顯的差別。好萊塢電影中幾乎所有關(guan) 於(yu) 未來的描述都是人類因科技進步毀滅了自己,隻有一小部分人幸存或人類與(yu) 自己發明的機器進行殊死搏鬥;而中國的科幻電影小說中這一主題並沒有那麽(me) 明顯,科技不是黑暗的、毀滅世界的。
由此可以看出,東(dong) 方對科技進步的看法至少不太壞,公眾(zhong) 對科技發展似乎更持一種歡迎態度,為(wei) 何東(dong) 西方對科技、未來世界的態度不同?白彤東(dong) 教授猜測,這可能與(yu) 曆史上近現代科學的發展有關(guan) ,近現代科學首先在西方得以發展,而在接受、追趕過程中,東(dong) 亞(ya) 就很可能產(chan) 生對科學的非理性的崇拜。“科學”在東(dong) 亞(ya) 被認為(wei) 是“進步的”“好的”。
另一點,在四大古代文明中,中國古代文化是唯一沒有世界毀滅元素存在的,這是由於(yu) 中國古代文化中沒有純善或純惡的神,也沒有創世的傳(chuan) 說——能被神所創造的世界就能被神毀滅。而西方基督教有創生的神話,伴隨著這種創生神話,還有世界大毀滅的神話“諾亞(ya) 方舟”,為(wei) 西方人對科技進步帶來世界毀滅提供了思想上的“藍圖”。
那是究竟什麽(me) 造就了人,或者說人的根本性特征是什麽(me) ?
近現代西方哲學奠基人笛卡爾在其《方法論》第五部分中提出人與(yu) 禽獸(shou) 的區別在於(yu) 人有語言和理性,語言指可以通過不同的詞語排列去回應不同場景的不同情況,這一點正是Chat GPT使很多人關(guan) 注擔憂所在;理性則是一種在不同情況下幫助我們(men) 適應、產(chan) 生目標的工具,AlphaGo似乎做到了隻有人類理性才能做到的事情。
但是並不是所有思想家都認為(wei) 人的本質在於(yu) 語言和理性。回到白彤東(dong) 教授研究的中國哲學領域,先秦儒學思想家孟子對“人之為(wei) 人”有不同的理解——對孟子來講,人之為(wei) 人、人與(yu) 禽獸(shou) 的根本區別,不是智能,而是惻隱之心及建立於(yu) 其上的仁。
“所以謂人皆有不忍人之心者,今人乍見孺子將入於(yu) 井,皆有怵惕惻隱之心。非所以內(nei) 交於(yu) 孺子之父母也,非所以要譽於(yu) 鄉(xiang) 黨(dang) 朋友也,非惡其聲而然也。由是觀之,無惻隱之心,非人也;無羞惡之心,非人也;無辭讓之心,非人也;無是非之心,非人也。惻隱之心,仁之端也;羞惡之心,義(yi) 之端也;辭讓之心,禮之端也;是非之心,智之端也。”(《公孫醜(chou) 上》)
以孟子為(wei) 首的中國古代儒家思想與(yu) 西方哲學中的主流思想對人的根本特征的觀點截然不同,但西方哲學不是隻有一種觀點。例如西方思想家休謨(David Hume)在其《人性論》中指出的:“談論情感(passion)和理性(reason)之爭(zheng) 、給予理性以優(you) 先地位,並斷言人有多少道德隻與(yu) 在多大程度上遵從(cong) 理性之命令(dictates)相關(guan) ,在(西方)哲學乃至日常生活裏麵,沒有比這些說法再通常的了。” 西方道德學說的主流學說之一的功利主義(yi) 的核心,在於(yu) 根據是否提高最大多數人的最大幸福的理性計算,另一主流學說即康德的義(yi) 務論,也強調對理性的道德原則的服從(cong) 。但與(yu) 之相對,休謨幾乎是獨樹一幟地論述:“理性是並且應該隻是情感的奴隸”。當代神經科學家安東(dong) 尼奧·達馬西奧(Antonio Damasio)引用了休謨的後一種說法,並且也為(wei) 情感在人類行動中的首要性做出論證:“神經係統隻是在5億(yi) 年前進入了生命的舞台。比起演化的時間尺度,比起地球上生命的40億(yi) 年的曆史來講,這實在微不足道。”——越被認為(wei) 是人類智能精華的東(dong) 西越能被人工智能複刻,反而是走路下台階、以合適力度拿東(dong) 西這些行為(wei) 是人工智能特別難做到的。
雖然二人的思想研究是西方思想中少有的例外,但他們(men) 的立場還是與(yu) 孟子有著根本不同。孟子所關(guan) 注的是惻隱之心,而非任意一種情感,並且他對惻隱之心這種情感的強調,不是出於(yu) 它是與(yu) 動物相通並且有著長久的演化積累,而是因為(wei) 它以及建於(yu) 它之上的仁是人獸(shou) 之別的根本。孟子並不認可情感是人類行動之主宰這一休謨和達馬西奧的立場,而是要求人類的理智和其他自然情感都要被惻隱之心所規管。孟子以及追隨孟子的儒家對惻隱之心的強調有其獨特性。
從(cong) 孟子的立場出發去回答我們(men) 是否在創造類人的存在,我們(men) 要關(guan) 注的是我們(men) 是否創造了“人工道德情感”,而不是“人工智能”。著名的圖靈測試,在對機器與(yu) 人的區別上,關(guan) 注的是語言和理性。但如果按照孟子對人的理解,我們(men) 應該關(guan) 注的是被試者是否展示出惻隱之心。
而孟子認為(wei) ,雖然惻隱之心是人獸(shou) 之別的關(guan) 鍵,但是成人是一個(ge) 過程。生物意義(yi) 上的人仍然需要學習(xi) 成為(wei) 孟子的道德與(yu) 規範意義(yi) 上的人。惻隱之心可以變得越來越強,我們(men) 可以成長為(wei) 道德意義(yi) 越來越大的人。如果一個(ge) 生物意義(yi) 上的人不好好撫育人的天生的善性,他可能會(hui) 退化得近於(yu) 禽獸(shou) 。這對孟子而言沒什麽(me) 好奇怪的。既然生物意義(yi) 上的人可以退化成禽獸(shou) ,那麽(me) ,一個(ge) 被製造出來的存在可以通過培養(yang) 道德情感而變成人,也沒有什麽(me) 好奇怪的了。
孟子的道德培養(yang) 是我們(men) 成人之關(guan) 鍵性的觀點也可能會(hui) 幫助回應另一個(ge) 對強人工智能的擔憂。強人工智能在智能和體(ti) 格上強於(yu) 人,規管它們(men) 的行為(wei) 式十分重要的,但是如果我們(men) 希望通過編碼或者律令來規管其行動,比如阿西莫夫的機器人三定律(Issac Asimov’s Three Laws of Robotics),它們(men) 很可能最終無法處理複雜的生活所帶來的挑戰,規則永遠無法達到人類道德的要求。例如“電車難題”甚至衍化出所謂“電車學”(trolleyology),任何一套原則都會(hui) 導致各種難題。
而儒家的道德養(yang) 成不是簡單的一套原則、一本行動手冊(ce) ,我們(men) 不是通過摩西十誡或者理性的絕對命令來愛我們(men) 的家人,而是強調在不同處境下的具體(ti) 應對。中國的人工智能專(zhuan) 家曾毅則斷言:“把人類社會(hui) 的一些規則灌輸給人工智能係統,但這絕對不是一個(ge) 好的解決(jue) 的方法。隻有人工智能係統,與(yu) 人類交互的過程當中自主地去獲取人類價(jia) 值觀、做事的規則和準則,以一種基於(yu) 自我模型的自主學習(xi) 的方式,它才真正地實現可理解,才真正能達到人工智能模型和人類社會(hui) 價(jia) 值觀校準的這樣一個(ge) 過程。”
但是,從(cong) 儒家的角度,這種情境中的學習(xi) ,仍然不夠。在具體(ti) 情境中,我們(men) 不但要獲取應對各種倫(lun) 理困境的方法,更要通過與(yu) 家人、外人在一起,理解他們(men) 的特點和需要,在交往中發育我們(men) 相互的關(guan) 切來學會(hui) 愛我們(men) 的家人,然後推己及人。在這一過程中,我們(men) 會(hui) 遇到不同道德責任之間的矛盾(比如忠與(yu) 孝),而我們(men) 通過生活本身來學會(hui) 麵對它們(men) 。我們(men) 要做到的,是仁愛與(yu) 理智(亞(ya) 裏士多德意義(yi) 上的實踐智慧)的結合。博古睿研究所的主席博古睿(Nicolas Berggruen)在最近的一篇文章中指出,我們(men) 應該把人工智能 “這個(ge) 文明的最終之子”當成我們(men) 的孩子,並如儒家所言,我們(men) 在家庭的環境中,對它進行道德培養(yang) ,特別是培養(yang) 它對其他人的關(guan) 愛。這一說法確實很好地展示了儒家對道德培養(yang) 的理解。
儒家的道德養(yang) 成是否就能保證強人工智能對關(guan) 愛與(yu) 審慎權衡?韓非子很早就批評過儒家的道德培養(yang) 。他認為(wei) ,通過家庭中的道德培養(yang) 來規範人類行為(wei) ,不如通過建立在賞罰之上的法律製度來得有效。如《韓非子》中很直觀地指出:“夫嚴(yan) 家無悍虜,而慈母有敗子”。
並且,我們(men) 也應思考,是應該製造“文明之子”人工智能還是繁衍人類自己的孩子。博古睿指出,這裏的問題不應該是人工智能還是人類才是主宰,而是我們(men) 如何製造人與(yu) 人工智能的混合體(ti) 。就這些混合體(ti) 而言,並不需要真正有智能或者真正有惻隱之心的人工智能,現在人工智能已經可以為(wei) 這種混合體(ti) 奠定基礎。
因此,我們(men) 又被帶回到現有的弱人工智能對人類構成何種挑戰這個(ge) 問題,這是一個(ge) 更迫切的問題。
03 回應(弱)人工智能的挑戰:“東(dong) 亞(ya) 式”教育與(yu) 儒家混合政體(ti)
弱人工智能給人類帶來了很多挑戰。但是,有時候我們(men) 對人工智能的擔憂,可能有偏激的風險。
白彤東(dong) 教授以羅大佑《未來的主人公》中的歌詞為(wei) 例,提到一種常見的抱怨是科技的發展讓我們(men) 的孩子遠離同伴、遠離自然。但是離開自然是人類一直致力的事情。我們(men) 甚至可以說,離開自然的過程是人類成為(wei) 人類的過程。並且,電視、網絡以及其他技術發展也把我們(men) 很難接觸到的自然帶到了我們(men) 和我們(men) 的孩子們(men) 眼前。技術對人類與(yu) 自然接觸的影響並不僅(jin) 僅(jin) 是負麵的。我們(men) 需要問的問題是,與(yu) 自然的哪一方麵保持接觸對人類的幸福生活是有益的?接近自然和接近他人何以對人重要?這類抱怨常常是出於(yu) 抱怨者是出自個(ge) 人偏見,把個(ge) 人的偶然經曆當成人類的普遍必然。
當然,弱人工智能對人類確實存在真正的挑戰,白彤東(dong) 教授在這裏提到了兩(liang) 個(ge) 挑戰,一是對教育的挑戰,二是對工資停滯、貧富差距擴大的挑戰。
自動化已經搶走了很多藍領工人的工作,而類似AlphaGo、Chat GPT的人工智能的發展則意味著,如醫生、律師等白領工作也有被機器替代的危險。由於(yu) 人類智能的關(guan) 鍵特點在於(yu) 創造性,由此得出的結論似乎是:為(wei) 了回應弱人工智能的挑戰,我們(men) 應該重視人類智能獨有的創造性,在教育上要重視創造性教育,而不是死記硬背和應試教育。前者常被歸於(yu) 西式或美式教育,而後者常被歸於(yu) 儒家、中式或者東(dong) 亞(ya) 式的教育。但是,白彤東(dong) 教授認為(wei) ,人工智能的發展可能恰恰支持了死記硬背乃至廣義(yi) 上非創造性教育的重要。人工智能的發展讓我們(men) 看到,可能任何一種具有確定性——有清晰的規則和一些基本的策略,任務成功與(yu) 否有相對明確的判斷,並且最好不依賴人類的外來判斷和幹預——的工作,人工智能可能都可以最終掌握,並比人類做得更好,或者至少可以替代人類。這意味著我們(men) 需要不斷重新創造自我以適應不斷變化的就業(ye) 市場。我們(men) 掌握的那些“先進的”的技能可能最終都被證明是可替代的和沒有用的,而我們(men) 必須回到我們(men) 通過“死記硬背”而擁有的基本技能(語文和數理化)來再造自我。
自動化對發達國家工資上漲的停滯和不斷上漲的經濟不平等起到了重大作用,而人工智能的發展很可能將這種情形惡化,多數勞動人民將麵臨(lin) 缺乏工作或工資水平停滯的困境。即使少數發達國家可以為(wei) 其所有國民提供基本工資,但有工資但沒有工作不能給人以生命的目的和價(jia) 值,例如美國的類鴉片藥物危機。而白彤東(dong) 教授提出了另一種解決(jue) 之道——先秦儒家(特別是孟子)結合民眾(zhong) 聲音和賢能之士決(jue) 策權的混合政體(ti) 。在這種混合政體(ti) 中,一方麵,承認民主政治中的民有與(yu) 民享的原則——這與(yu) 儒家的民本觀念一致,並且接受通過一人一票讓民眾(zhong) 表達是否自己享有自己所期望的意見;但另一方麵,儒家對大眾(zhong) 的政治決(jue) 策能力有所保留,他們(men) 部分拒絕民主政治中的民治的觀點,將一定的選賢舉(ju) 能的辦法引入各種政治與(yu) 社會(hui) 機製,培養(yang) 精英的責任意識,並把有道德有理性能力的精英選拔出來,讓他們(men) 為(wei) 大眾(zhong) 謀福利。這樣一種混合政體(ti) ,比最終隻依賴於(yu) 一人一票的民主政體(ti) ,可能可以更好地回應人工智能的發展所加劇的經濟不平等問題。
04 Chat GPT:一些初步的哲學思考
從(cong) 理性到語言——Chat GPT挑戰了笛卡爾認為(wei) 的人類兩(liang) 大特征,是對人類更深的挑戰。中國科學技術大學教授陳小平認為(wei) ,Chat GPT不僅(jin) 是大數據,更是大計算。Chat GPT並不是真正在說話,而是通過對海量數據的概率計算,顯得它像是在自主選擇。
由此可知,雖然Chat GPT在“說話”,但它並不理解它所“說”的話的意思,它隻是在相應情景下計算出概率較大的詞與(yu) 詞之間的連結而回答,不是真的在像人一樣說話。
但是上述的說法也存在很多問題——我們(men) 認為(wei) 自己在說話,那我們(men) 真的在說話嗎、在表達自己的想法嗎?我們(men) 的想法又是什麽(me) 呢?人類真的理解語言是什麽(me) 嗎?我們(men) 解釋一段語言需要用到另一段語言,那麽(me) 我們(men) 的解釋是否還是有效的呢?
白彤東(dong) 教授認為(wei) , Chat GPT和心理學認知哲學中的行為(wei) 主義(yi) 是一樣的,二者的共同特點是不關(guan) 注內(nei) 在的想法而隻關(guan) 注外在行為(wei) 是否符合。從(cong) 內(nei) 在看,人類語言背後有精神支撐,有個(ge) 人私密的精神活動,這是人類語言與(yu) Chat GPT語言的不同,但是在講述時很難講清楚它們(men) 的不同之處。
05 問答環節
1.人工智能是不是應該換一個(ge) 說法,它們(men) 的“智能”和人的智能不同,但也是一種另外的智能(跳出人的智能的形式去思考)?
答:可以這樣理解,目前的人工智能和人類的智能不一樣,與(yu) 其去擔心人工智能對人類的威脅,不如擔心某些居心叵測的人。
2.Chat GPT會(hui) 輸出一些不太符合人類主流價(jia) 值觀的答案?(e.g. 種族歧視、殺人、毀滅世界)
答:Chat GPT沒有自己的思想,依靠大數據計算得出回答,而且它自身也沒有智能決(jue) 定能力,即Chat GPT所說的話到具體(ti) 行動需要人的參與(yu) 。Chat GPT的這種回答其實是人類自身的問題。
圖片
3. AI和人的關(guan) 係是否像人和自然界之間的關(guan) 係?(自然界創造、決(jue) 定了人)人真的有自由意誌嗎?
答:對於(yu) 日常生活來說,我們(men) 可以明確感受到我們(men) 可以擁有情感性的決(jue) 定,即可以選擇與(yu) 衍化傾(qing) 向相違背的決(jue) 定,我做的決(jue) 定並不是別人的強迫。這個(ge) 世界上多數人可能也沒有比機器活得好到哪裏去,但是總有可能性。
自由意誌問題其實是有亞(ya) 伯拉罕宗教的背景,從(cong) 全知全能的上帝創造人類到自然界創造人類,存在人類被創造的預設。
當然,這個(ge) 問題也是學界一直以來探討的問題,目前無法得出確切的答案。
4.Chat GPT語言和人類語言的區別?
答:即使我們(men) 能夠感受到兩(liang) 者的不同,也很難說明人類語言的特征,甚至但很難說明Chat GPT有沒有語言,這個(ge) 問題更大的意義(yi) 在於(yu) 促進我們(men) 去思考,這也是哲學繼續發展的原因。
5.人工智能的發展導致人類的優(you) 越性受到威脅,如何看待就業(ye) 問題?
答:提高自身本領水平,做隻有人能做的事情。
最後,哲學學院分團委學生會(hui) 為(wei) 白彤東(dong) 老師送上了哲學學院文創禮品,白老師與(yu) 參加講座的全體(ti) 同學合影留念。
伟德线上平台
青春儒學
民間儒行
伟德线上平台
青春儒學
民間儒行