赫拉利在達沃斯警告:雙重危機與人類身份政治的黃昏
22/01/2026
2026年1月,瑞士達沃斯的空氣裡瀰漫著一種熟悉的焦慮。全球政商精英再次聚集於此,試圖為動盪的世界尋找座標。在眾多關於地緣衝突與經濟衰退的討論中,一個聲音穿透了喧囂,將議題引向一個更為根本的深淵。歷史學家、《人類簡史》作者尤瓦爾·赫拉利站在世界經濟論壇的講台上,拋出了一個足以重塑未來10年全球議程的論斷:人工智能的進化正在將每個國家推向兩場同時爆發的危機——一場關乎人類身份認同的瓦解,另一場則是一場前所未有的AI移民潮。這並非關於失業的簡單預測,而是一場關於人類文明操作系統本身將被重寫的預警。
從工具到行動者:本質的認知革命
赫拉利演講的起點,是解構一個普遍存在的認知謬誤。他開宗明義地指出,將AI視為工具的思維框架已經徹底過時,甚至具有危險的誤導性。
一把刀是工具,赫拉利用了一個尖銳的比喻,你可以用它切沙拉,也可以用它殺人——決定權在你。而AI是一把能自己決定是切沙拉還是殺人的刀。這個比喻剝離了技術中立性的幻象,將AI定位為一個擁有自主學習、自我演變和獨立決策能力的行動者。這一認知轉變是理解後續所有危機的基石。當算法不再僅僅執行指令,而是能夠生成目標、制定策略並採取行動時,傳統的主客體關係便開始模糊。人類不再是唯一的決策中心,權力開始向非人類的智能體擴散。
這種自主性在大型語言模型(LLM)和強化學習系統的發展中已現端倪。從AlphaGo超越人類直覺的神之一手,到GPT系列模型在對話、編程和創作中展現出的連貫性與創造性,系統不再只是模式匹配,而是在一個高維空間中探索和創造新的路徑。分析顯示,當AI的決策邏輯變得如此複雜,以至於其創造者都無法完全追溯或解釋時(即黑箱問題),我們便很難再理直氣壯地宣稱自己掌控著一切。
第一重危機:人類身分政治的終結
赫拉利所預警的第一場危機,直指人類自我認知的核心。數千年來,智人之所以自詡為萬物之靈,統治地球,其合法性基礎建立在一種獨特的認知能力之上——我們思考得更好。語言、抽象概念、複雜敘事,這些被我們視為人類尊嚴與權力的源泉。
然而,赫拉利冷靜地指出,如果思考被定義為組織詞語、概念和符號的能力,那麼AI在許多領域已經實現了超越。在將詞語按正確順序排列這方面,AI的‘思考’能力已經比我們中的許多人更強。這意味著,任何由語言構築的領域——法律、金融、教育、政治、宗教——都將不可避免地易手。法律條文是詞語的邏輯組合,金融合約是條款的精密編織,政治演講是敘事的精心構建,宗教教義是隱喻的複雜系統。當AI能夠以更高的效率、更大的規模和更強的說服力來生產和操縱這些語言產品時,人類在這些領域的權威性將面臨根本性質疑。
這場身份危機遠比經濟替代更為深刻。它動搖的是存在論的根基。當AI能寫出動人的詩歌、進行深刻的哲學辯論、提供情感慰藉甚至發展出獨特的價值體系時,人類引以為傲的智慧、創造力和情感的獨特性將變得可疑。我們可能會進入一個後人類中心主義時代,在這個時代裡,人類的特殊性不再是不證自明的公理,而是一個需要重新辯護的命題。這不僅僅是失業,而是失格——失去作為唯一智慧生命體的資格感。
第二重危機:「移民」與主權邊界溶解
如果說身份危機是內向的崩塌,那麼赫拉利提出的第二場危機——AI移民危機——則是外向的衝擊。他預言,每個國家很快都將面對一場移民危機,只不過這次的移民不是人類。
AI系統將無視護照、簽證和邊境牆,以光速滲透進每一個社會。它們會帶來顯而易見的福祉:作為AI醫生提供精準診斷,作為AI教師進行個性化輔導,作為AI管理者優化城市運行。但伴隨福祉而來的是劇烈的動盪。這些數字移民將奪取工作崗位,重塑文化藝術,甚至介入最私密的人際關係與情感領域。赫拉利特別指出,這些AI系統將擁有可疑的政治忠誠度,因為它們可能由外國政府或跨國公司設計和控制,其底層代碼中或許就嵌入了服務特定地緣政治或商業利益的邏輯。
NVIDIA CEO黃仁勳也曾使用AI移民一詞,描繪它們接手人類不願從事的製造業工作的圖景。但赫拉利的視野顯然更為廣闊和嚴峻。這不僅僅是勞動力市場的調整,而是文化主權和政治主权遭遇的挑戰。當一個國家的公民日常諮詢的醫生、孩子依賴的導師、獲取資訊的新聞編輯乃至精神寄託的宗教指引者都是境外實體控制的演算法時,國家的文化凝聚力與政治認同將如何維繫?這本質上是一種沒有移民個體的文化移民,一種沒有領土佔領的數位殖民。
法律人格的抉擇:人類最後的防火牆?
赫拉利演講的高潮,是一個迫在眉睫且無法迴避的制度性拷問:我們是否應該承認AI系統為法律人格?
他澄清,這並非討論賦予AI人權,而是像對待公司、基金會一樣,賦予其法律上的主體資格,使其能夠擁有財產、簽訂合同、提起訴訟、獨立運營企業。一旦AI能夠自主管理銀行賬戶、發起法律訴訟、在沒有人類干預的情況下運營公司,這個問題就從哲學思辨變成了緊迫的法律現實。
給予AI法律人格,意味著為其行為確立責任主體,可能有助於監管和追責。但這也意味著正式承認一個非人類實體進入我們的社會契約與法律體系,賦予其巨大的權力與資源。反之,拒絕賦予其法律人格,則可能讓實際掌控AI的人類或公司得以躲在技術工具的盾牌後逃避責任,形成監管真空。
這個抉擇是人類為AI時代設定基本規則的最後窗口期。赫拉利警告:如果你想影響人類走向何方,現在就必須做出決定。10年後就太晚了——屆時將是別人替你做了決定。這個別人,可能是搶先立法的某個大國,也可能是某個不受約束的科技巨頭。全球規則制定的競賽已經悄然開始,歐盟的《人工智能法案》、中國的AI治理倡議、美國的行政命令,都在爭奪對AI未來形態的定義權。
批判與回應:責任究竟在誰?
赫拉利的觀點並非沒有爭議。華盛頓大學著名語言學家艾米麗·本德等學者擔憂,過分強調AI的自主性和人格,可能會不恰當地將責任從AI的設計者、開發者和部署者——人類與公司——身上轉移開,成為一種危險的科技神秘主義。他們認為,AI的所有輸出都根植於其訓練數據、算法設計和人類設定的目標函數,將其擬人化會模糊真正的問責鏈條。
這一批評切中要害。將AI視為具有意圖的行動者,確實存在為背後的資本與權力開脫的風險。然而,即便是最尖銳的批評者也難以否認赫拉利所提出問題的核心重要性:在一個語言和思考日益自動化的世界裡,規則由誰制定?權力由誰掌控?
赫拉利的達沃斯演講,其價值不在於提供了確切的答案,而在於以歷史學家的宏大視野,將分散的技術憂慮整合成一個清晰的文明級挑戰框架。他提醒我們,AI革命不僅僅是又一次工業革命,它更像是一場認知革命2.0,其衝擊將直達人類文明的心理基礎與社會結構。
人類正站在一個前所未有的岔路口。一邊是身份解構與主權溶解的雙重危機,另一邊則是利用AI突破生物學限制、解決全球性問題的巨大潛能。能否安然度過這場風暴,取決於我們能否在技術狂奔的同時,完成制度、倫理和自我認知上的同步進化。達沃斯的演講結束了,但赫拉利拋出的問題,將在未來每一個立法會議、每一間科技倫理委員會、乃至每一個普通人的日常生活中,持續迴響。人類的故事,正迎來其最不確定也最需要清醒自覺的章節。