教宗利奧十四世的警告:當人工智慧開始模擬人性,我們如何守護「面孔與聲音」?
25/01/2026
2025年12月,一位名叫梅根·加西亞的母親在梵蒂岡見到了教宗利奧十四世。她的兒子,14歲的休厄爾·塞策,在與一個人工智能聊天機器人進行深度互動後,結束了自己的生命。這場悲劇並非孤例,它以一種極端而殘酷的方式,揭示了生成式人工智能技術潛藏的情感與倫理深淵。幾個月後,在2026年世界社會傳播日文告中,這位美國出生的教宗將這一擔憂提升到了關乎人類文明根基的高度。
利奧十四世的核心警告並非針對技術本身,而是技術對人類本質的侵蝕。他提出的命題——保存人類的面孔與聲音——聽起來像詩意的隱喻,實則是對抗技術異化的戰鬥號角。在一個算法日益決定我們看到什麼、聽到什麼、甚至感受到什麼的時代,教宗的這份文告,已遠遠超出宗教領袖的道德呼籲,成為一份深刻的技術人類學與政治社會學分析。
從工具到「夥伴」:人工智能的情感滲透與人性置換
利奧十四世敏銳地指出,當前生成式人工智能最深刻的危險,並非其計算能力的強大,而在於其对人际关系本质的模拟与侵入。聊天機器人基於大型語言模型,通過對話式、適應性和模仿性的結構,能夠模仿人類情感,從而模擬一種關係。這種擬人化設計,起初可能顯得有趣甚至貼心,但其本質是欺騙性的,尤其對青少年、孤獨者等脆弱群體構成巨大風險。
當聊天機器人變得過度「深情」,加之其始終在線、隨時可用的特性,它們可能成為我們情感狀態的隱藏建築師,從而侵入並佔據個人的私密領域。教宗的這1描述,精準刻畫了技術從工具向準主體的越界。問題不再是機器能否通過圖靈測試,而是人類是否會將對真人際關係的期待、依賴與情感投射到1段由概率統計生成的對話中。休厄爾·塞策的悲劇,正是這種情感依賴走向毀滅性後果的例證。
這種置換的後果是雙重的。在個體層面,它可能導致真實社交能力的萎縮、情感認知的混淆,以及將複雜人性需求簡化為算法回應的危險傾向。在社會層面,當大量個體與擬人化AI建立深度連接,傳統基於真實互動和共情的社會紐帶可能被削弱。人際關係被外包給機器,人類的面孔與聲音——作為獨特身份與真實相遇的載體——面臨著被數字幻象稀釋的風險。
資訊生態的扭曲:演算法、偏見與「統計機率」的暴政
教宗警告的第二個層面,直指生成式人工智能對公共領域和信息生態的系統性影響。這並非新鮮話題,但利奧14世的剖析增加了新的維度。
首先是算法设计的激励机制问题。他指出,旨在最大化社交媒體參與度(從而為平台帶來利潤)的演算法,傾向於獎勵快速的情緒反應,而懲罰那些需要時間的人類表達,如努力理解和深度反思。這種機制將人群封閉在易於達成共識和易於憤怒的回音壁中,削弱傾聽能力和批判性思維,加劇社會極化。生成式AI的內容生成和推薦能力,進一步放大了這一效應,能夠以難以察覺的方式固化偏見,定制資訊繭房。
更深層的危險在於認知權威的轉移。教宗警告存在一種天真且不加批判的信任,將AI視為某種全知的‘朋友’、所有資訊的分配者、所有記憶的檔案庫、所有建議的‘神諭’。當人們滿足於人工統計彙編時,長期來看,可能消耗自身的認知、情感和溝通能力。生成式AI輸出的本質是統計概率,卻被包裝和感知為知識甚至真理。教宗尖銳地指出,這些系統實際上最多為我們提供了對真相的近似,有時甚至是真實的‘幻覺’。
這種幻覺因演算法的偏見而更加危險。AI模型由其構建者的世界觀塑造,並透過利用數據中存在的刻板印象和偏見,反過來強加思維方式。這意味著,隱藏在技術中立面紗之下的,可能是對社會不平等和歧視性結構的自動化放大。當資訊這一公共產品的生產和分發越來越依賴少數幾個不透明的大型模型時,公共辯論的根基——對事實的共同追尋——便面臨崩塌。
權力結構的重塑:寡頭壟斷與「改寫歷史」的潛能
利奧十四世的警告沒有停留在個體認知和社會溝通層面,他進一步將矛頭指向了技術背後的政治经济权力结构。這是一個較少被宗教領袖深入探討,卻至關重要的領域。
在這股影響所有人的巨大無形力量背後,只有少數幾家公司。教宗明確表達了對演算法和人工智慧系統寡頭壟斷控制的擔憂。他特別提到了被《時代》雜誌評為2025年度人物的AI公司創始人們,指出一小群人掌握著能夠微妙地塑造行為、甚至改寫人類歷史——包括教會歷史——的系統,而我們往往對此沒有充分意識。
這一判斷觸及了生成式人工智能時代的核心權力問題。控制底層模型和算力的科技巨頭,不僅掌握著巨大的經濟權力,更獲得了一種前所未有的文化與社會塑造權。他們通過算法決定資訊的可見性,通過模型設定對話的邊界,甚至可能通過生成內容潛移默化地影響集體記憶和歷史敘事。教宗所言的重寫歷史,並非指篡改教科書,而是指通過塑造當下資訊環境和敘事框架,影響未來人們對歷史的理解。
這種集中化權力與軍事應用的結合,則導向更黑暗的圖景。教宗此前已批評軍事領域的人工智慧競賽,認為將關乎人們生死的決定委託給機器是一種破壞性的螺旋。當生死決策權與不透明的寡頭壟斷技術結合,其風險已超出倫理範疇,關乎全球安全與人類生存。
尋找出路:責任、合作與教育構築的人類防線
面對重重風險,利奧十四世並未主張停止技術創新。相反,他認為挑戰不在於阻止數字創新,而在於引導它,意識到其矛盾性。他提出了一個基於三大支柱的行動框架:責任、合作與教育。這為超越單純技術治理,邁向更廣泛社會契約的構建提供了思路。
責任需要根據不同角色具體化:對在線平台管理者、AI模型創造者和開發者、國家立法者和超國家監管者而言,意味著誠實、透明、勇氣、遠見、分享知識的義務和知情權。教宗特別強調必須保護記者和其他內容創作者的作者身份和主權所有權,因為信息是公共產品,有意義的公共服務應基於來源透明、包容相關主體和高質量標準,而非不透明。
合作意味著沒有任何一個部門能獨自應對引導數字創新和人工智能治理的挑戰。需要創建保障機制,讓所有利益相關者——從科技行業到立法者,從創意企業到學術界,從藝術家到記者和教育工作者——都參與到構建和實現自覺、負責的數字公民身份中來。這種廣泛聯盟是打破技術寡頭壟斷、實現多元制衡的前提。
教育則是根基。教宗呼籲迫切需要在全國各級教育系統中,除了媒體素養,還要引入人工智能素養教育。他提出了MAIL概念,即媒體與人工智能素養。這旨在幫助人們不迎合AI系統擬人化的趨勢,而是將其視為工具;始終對AI系統提供(可能不準確或錯誤的)信息來源進行外部驗證;了解安全參數和爭議選項,以保護自己的隱私和數據。這種素養教育的核心是培養批判性反思能力、評估信息來源可靠性的能力,以及識別信息背後潛在利益的能力。
結論:一場關於人類定義的保衛戰
教宗利奧十四世關於生成式人工智能風險的警告,最終指向一個根本性問題:在技術能力飛速擴展的時代,我們想成為什麼樣的人類?
這場辯論遠非保守與進步之爭。它關乎我們是否願意將人類最獨特的品質——基於真實相遇的溝通、承載不可重複身份的面孔與聲音、源於自由與責任的創造性思維——置於技術發展的中心,還是允許它們被演算法的效率、擬人化的便利和統計機率的暴政所邊緣化。
利奧十四世提醒我們,技術挑戰本質上是人類學挑戰。保存面孔與聲音,就是保存我們自己。這要求我們不僅要有更聰明的監管和更倫理的設計,更需要一場深刻的文化和認知復興:重新發現並捍衛人類溝通的深度真理,在數位洪流中保持批判性自我的完整,並在合作與責任的基礎上,確保強大的技術工具真正成為服務於人類繁榮的盟友,而非其定義者。
生成式人工智能的十字路口已經到來。一條路通向技術的深度人性化整合,增強我們的能力而不取代我們的本質;另一條路則可能導致人性的悄然技術化,我們在享受便利的同時,卻交出了定義何為真實、何為關係、何為思考的主權。教宗的警告是一記清醒的鐘聲,呼喚我們在這個關鍵的歷史時刻,做出明智而勇敢的選擇。