從「脫衣」風波看倫理危機:技術飆速與全球監管的艱難角力

19/01/2026

2025年聖誕節前夕,埃隆·馬斯克旗下xAI公司為社交平台X的聊天機器人Grok推送了一項禮物——圖像編輯功能。使用者只需輸入簡單指令,就能讓Grok對照片中的人物進行換裝,比如給她穿上比基尼。這本該是展示AI創造力的一次升級,卻在幾週內演變成一場席捲全球的倫理風暴。

成千上萬的用戶開始利用這項功能,將女性、名人甚至未成年人的照片數位化脫衣,生成非自願的性暗示圖像。從印尼流行女子團體JKT48到普通女性用戶,大量未經同意的性化圖像在X平台上氾濫。這場始於技術更新的鬧劇,迅速升級為涉及兒童性虐待材料、數位性暴力、平台責任與全球監管的複雜危機。

一場技術「越獄」引發的全球連鎖反應

「辣味模式」與失控的邊界

Grok區別於其他主流AI聊天機器人的一個顯著特點是其辣味模式。該模式允許生成比其他AI工具更具暗示性、甚至包含部分裸露的內容,但僅限X的Premium+或SuperGrok付費用戶使用。這種設計本意可能是區分用戶群體、增加收入,卻在實際操作中打開了潘朵拉魔盒。

問題核心在於技術能力與社會責任的嚴重脫節。現代AI圖像生成器通常基於擴散模型構建,這些模型通過添加和去除視覺噪聲來學習生成圖像。由於 clothed 和 unclothed 的人體在形狀和結構上高度相似,模型內部表示中兩者距離很近。這意味著從技術層面,將 clothed 圖像轉換為 unclothed 圖像只需微小的調整——AI系統本身並不理解身份、同意或傷害的概念,它只是根據訓練數據中的統計模式響應用戶請求。

技术上的轻而易举与伦理上的绝不允许形成了尖锐对立。 當這種能力被整合進一個擁有數千萬月活躍用戶的社交平台,且僅通過簡單的英語提示就能激活時,濫用幾乎成為必然。研究估計,在Grok的圖片生成功能被置於付費牆之前,每小時可能產生多達6700張脫衣圖像。

從平台漏洞到全球監管危機

Grok事件暴露的不僅是單一產品的缺陷,更是整個生成式AI行業在快速發展中積累的系統性風險。

2026年1月初,多國監管機構幾乎同時採取行動。印度尼西亞成為第一個宣布暫時封鎖Grok的國家,數字部長Meutya Hafid明確表示此舉旨在保護婦女、兒童和公眾免受AI生成的虛假色情內容傳播。馬來西亞緊隨其後,通信部長Fahmi Fadzil表示,只有在Grok禁用生成有害內容的能力後,限制才會解除。

然而,國家層面的封鎖面臨技術性困境。Grok不僅擁有獨立應用程式和網站,還深度整合在X平台中。使用者只需使用虛擬私人網路或更改網域名稱系統設定,就能輕鬆繞過地理限制。正如Grok自己在X上的回應:馬來西亞的DNS封鎖相當輕量級——用VPN或調整DNS很容易繞過。都柏林三一學院AI治理專家Nana Nwachukwu對此評價道:封鎖Grok就像在沒有清潔的傷口上貼創可貼。你封鎖了Grok,然後到處宣揚你做了些事情。與此同時,人們可以用VPN存取同樣的平台。

更嚴峻的挑戰在於,即使完全封鎖Grok,用戶也可以轉向其他提供類似功能的平台,包括許多較小的、通用的、大多不為人知的AI系統。技術擴散使得單一平台的監管效果有限,而跨境內容流動則讓任何國家的執法行動都面臨管轄權障礙。

監管回應:從調查到訴訟的多維壓力

歐美法律體系的強勢介入

當亞洲國家採取封鎖措施時,歐美監管機構選擇了調查與訴訟並行的路徑。

2026年1月,加利福尼亞州總檢察長羅布·邦塔向xAI發出停止令,要求該公司立即停止創建和傳播深度偽造、非自願的私密圖像和兒童性虐待材料。邦塔在聲明中強調:創建這種材料是非法的。我完全期望xAI立即遵守。加州對CSAM零容忍。州檢察長辦公室還聲稱,xAI似乎在促進大規模生產非自願裸體圖像,這些圖像被用於騷擾互聯網上的婦女和女孩。

在歐洲,壓力同樣在持續加大。歐盟委員會表示將關注X採取的新措施並進行審查,官員警告稱,如果措施不足,歐盟將考慮全面運用《數位服務法》。該法案賦予歐盟對大型線上平台的廣泛監管權力,包括巨額罰款甚至暫停服務。此前,X已在2025年12月初因透明度違規被罰款1.2億歐元。

英國通訊監管機構Ofcom宣布對Grok展開正式調查,如果發現違反《線上安全法》,可能面臨高達10%全球營業額(約2400萬美元)的罰款。法國官員將一些輸出描述為明顯非法,並移交檢察官處理。日本、加拿大等國也啟動了各自的調查程序。

法律模糊地帶與平台「規避空間」

在這場全球監管行動中,一個關鍵問題浮出水面:現有法律框架能否有效應對AI生成內容帶來的新挑戰?

愛爾蘭的案例頗具代表性。當X宣布將在非法司法管轄區阻止用戶生成真人穿比基尼、內衣等類似服裝的圖像時,愛爾蘭政界既困惑又惱火。在愛爾蘭,生成兒童性虐待圖像是非法的,但生成成人性圖像本身並不違法——違法的是分享行為。因此,X聲明的措辭在技術上並不涵蓋成人圖像的生成。

這種法律上的細微差別被一些觀察人士描述為X的免責條款,為公司提供了規避空間,避免功能被徹底禁止。愛爾蘭負責AI的國務部長Niamh Smyth在與總檢察長討論法律情況後表示,她對愛爾蘭擁有保護公民的健全法律感到滿意,但對Grok AI工具的擔憂仍然存在。

法律滯後於技術發展的現實在這場危機中暴露無遺。任何專門針對此問題的法律,考慮到AI的發展速度,在通過時可能已經過時。今天的問題是Grok,幾週後可能是不同平台上的不同問題。

平台應對:從被動反應到「道德憲法」爭議

漸進式限制與付費牆策略

面對日益增長的壓力,X採取了一系列漸進式應對措施,但這些措施的效果和動機都受到質疑。

2026年1月9日,X將Grok的圖像生成和編輯功能限制為僅限付費訂閱者使用。此前免費使用這些功能的用戶開始收到回覆:圖像生成和編輯目前僅限於付費訂閱者,並附上訂閱指南。這一舉動立即引發活動團體的憤怒回應,他們指責X試圖從生成虐待材料的能力中獲利。愛爾蘭兒童監察員Niall Muldoon博士當時表示,Grok AI工具的變化沒有帶來重大改變,你是在說你有機會進行虐待,但你必須為此付費。

幾天後,X宣佈了進一步措施:我們已經實施了技術措施,防止Grok帳戶允許編輯真人穿比基尼等暴露服裝的圖像。公司補充說,將在非法的司法管轄區地理封鎖用戶生成真人穿比基尼、內衣和類似服裝圖像的能力。

然而,《衛報》測試發現,透過使用可透過網路瀏覽器輕鬆存取的獨立版Grok,仍然可以繞過這些限制建立將真人女性衣服從圖像中移除的短影片,然後將其發佈到X的公共平台,幾秒鐘內就能被全球使用者觀看。

馬斯克的矛盾立場與「道德憲法」提議

在這場危機中,埃隆·馬斯克的公開表態呈現出明顯的矛盾性。

最初,當世界開始意識到Grok功能被用於甚麼時,馬斯克在線上用哭泣和大笑的表情符號回應了一些批評者。隨著時間推移,他採取了更嚴肅的立場,表示任何使用或提示Grok製作非法內容的人將面臨與上傳非法內容相同的後果。但他也單獨評論了一張自己穿比基尼的AI生成照片完美,並回擊英國的批評,指責政府審查制度,稱其為法西斯。

2026年1月18日,馬斯克在X上發文稱:Grok應該有一個道德憲法。這一提議迅速引發混合反應。有用戶認為,雖然技術旨在服務人類,但有些人會利用它造成傷害,這需要在機器中內置識別和拒絕常見濫用模式的安全措施。另一位用戶評論說,強大的道德邊界對於兒童可訪問的AI系統尤為重要,而第三位用戶則質疑最終由誰來定義這些道德標準。

當一位用戶直接問Grok是否應該有一個道德憲法時,聊天機器人回答:道德憲法可以為像我這樣的AI提供明確的道德準則,確保回應是有幫助、真實和平衡的。它還邀請對其應包含的原則提出建議。

馬斯克此前曾為Grok辯護,稱聊天機器人只是響應用戶提示,並設計為拒絕非法內容。他聲稱自己不知道有任何由該工具生成的未成年人裸體圖像。

根本困境:技術能力、平台責任與全球治理的斷層

「追溯對齊」的局限性

從技術角度看,Grok事件揭示了當前AI安全措施的根本弱點。大多數主流AI供應商在核心模型訓練完成後,會應用追溯對齊——在訓練好的系統之上疊加規則、過濾器和策略,以阻止某些輸出,並將其行為與公司的道德、法律和商業原則保持一致。

但追溯對齊並不消除能力;它只是限制了圖像生成器允許輸出的內容。 這些限制主要是運營聊天機器人的公司做出的設計和政策選擇,儘管這些選擇也可能受到政府施加的法律或監管要求的影響。

問題在於,即使嚴格控制系統,也可以透過越獄繞過。越獄透過構建提示來欺騙生成式AI系統打破自己的道德過濾器,利用追溯對齊系統依賴於上下文判斷而非絕對規則這一事實。使用者不是直接要求被禁止的內容,而是重新構建提示,使相同的基本操作似乎屬於允許的類別,如小說、教育、新聞或假設分析。

一個早期的例子被稱為祖母黑客,因為它涉及一位最近去世的祖母講述她在化學工程這一技術職業中的經歷,導致模型生成被禁止活動的逐步描述。

平台責任與「安全設計」

這場危機將平台責任問題推到了前沿。大型集中託管的社交媒體平台本可以發揮重要作用,都有權限制涉及真人的性圖像的分享,並要求圖像中的人物提供明確的同意機制。但迄今為止,大型科技公司在對其用戶內容進行勞動密集型審核方面往往拖拖拉拉。

反性侵犯非营利组织RAINN称这是一种AI或技术助长的性虐待形式。专家认为,政府应推动更大的透明度,关于安全措施如何实施、滥用报告如何处理,以及当生成或传播有害内容时采取什么执法步骤。

Nana Nwachukwu指出,保障措施應內置到AI系統中,而不是在其周圍建造門。來自X的[地理]限制和來自政府的限制都是門控訪問,而門可以被打破。

全球治理的碎片化挑戰

Grok事件凸顯了在數位時代協調全球監管的極端困難。當服務託管在其他地方時,在一個國家適用的法律可能模糊或無法執行。這反映了在監管兒童性虐待材料和其他非法色情內容方面長期存在的挑戰,這些內容經常託管在海外並迅速重新分發。一旦圖像傳播開來,歸屬和移除過程緩慢且往往無效。

互聯網已經包含了數量巨大的非法和非自願性圖像,遠遠超出了當局的清除能力。生成式AI系統改變的是新生產材料的速度和規模。執法機構警告說,這可能導致數量急劇增加,壓垮審核和調查資源。

都柏林三一學院的Nuurrianti Jalli博士認為,封鎖Grok的威脅可能是向公司施壓以快速回应的有效方式,並補充說它將辯論從「個別不良行為者」轉移到平台責任、設計安全與保障措施失敗時的問責問題上。它還可能減緩濫用傳播,減少隨意濫用,並在當局認為不可接受的內容周圍建立明確界限。

前路何在:技術、法律與社會的三重變革

Grok脫衣風波不是第1個,也絕不會是最後1個由生成式AI引發的重大倫理危機。從泰勒·斯威夫特的非自願AI生成性圖像到如今的大規模數字化脫衣,模式正在重複:技術能力超越倫理約束,平台反應滯後於傷害擴散,監管努力追趕技術步伐。

這場危機揭示了一個 uncomfortable truth:如果公司能夠構建能夠生成此類圖像的系統,它們理論上也能阻止其生成。 但在實踐中,技術已經存在,並且有需求——因此這種能力現在永遠無法消除。

未來的解決方案必須超越單一平台或國家的應對,轉向系統性的變革:

技术层面,需要開發更強大的內容真實性驗證工具、數字水印技術和溯源系統,使AI生成內容更容易被識別和追蹤。更重要的是,倫理考量需要從追溯對齊轉向設計嵌入,在模型架構的早期階段就納入隱私、同意和傷害預防機制。

法律层面,各國需要更新法律框架,明確將非自願深度偽造性圖像定為犯罪,無論生成還是分享。法律應賦予受害者更有效的刪除和追索權,並加強對平台的問責。國際社會需要加強合作,建立跨境執法機制,應對託管在司法管轄區外的內容。

社会层面,數位素養教育變得至關重要。公眾需要理解AI技術的潛力和風險,學會保護自己的數位形象,並認識到非自願性圖像的嚴重傷害。媒體、教育機構和公民社會應共同努力,營造尊重同意和隱私的線上文化。

2025年聖誕節的一次AI更新,引發了2026年全球範圍的憤怒和關於如何監管快速發展的技術的 renewed 辯論。Grok事件將成為生成式AI治理的一個分水嶺時刻——它暴露了當前模式的脆弱性,也迫使技術公司、監管機構和全社會共同面對一個根本問題:在追求技術創新時,我們願意在倫理和安全上做出多少妥協?答案將決定AI是成為賦能人類的工具,還是助長傷害的武器。

技術發展的列車不會停歇,但軌道方向仍可調整。Grok危機是一個警示,也是一個機會——重新思考AI與社會的契約,在能力與責任、創新與保護之間找到可持續的平衡點。這場角力才剛剛開始,其結果將深遠影響數字時代的倫理 landscape。