人工智慧與預防和打擊暴力極端主義實踐指南
本指南由聯合國反恐辦公室與韓國政府合作制定,旨在為政策制定者和實踐者提供負責任地利用人工智能技術應對暴力極端主義挑戰的框架、機遇分析、風險評估及實施路徑。
Detail
Published
07/03/2026
關鍵章節標題列表
- 引言:人工智慧與預防和打擊暴力極端主義項目
- 理解預防和打擊暴力極端主義背景下的人工智慧
- 人工智慧與暴力極端主義的交叉點
- 預防和打擊暴力極端主義中採用人工智慧的現狀
- 在預防和打擊暴力極端主義中採用人工智慧的挑戰與局限
- 機遇與挑戰:人工智慧如何增強預防和打擊暴力極端主義行動
- 預防和打擊暴力極端主義中負責任人工智慧的風險緩解策略
- 在預防和打擊暴力極端主義中應用人工智慧的人權與倫理關切
- 實施與能力建設
- 結論、建議與良好實踐
文件簡介
人工智慧正在以前所未有的方式重塑社會、經濟和安全環境,為預防和打擊助長恐怖主義的暴力極端主義領域帶來了複雜的雙重影響。一方面,人工智慧技術可能被恐怖和暴力極端行為體利用,用於生成大量虛假資訊、操縱輿論並加速暴力進程;另一方面,它也蘊含著巨大的潛力,能夠協助預防和打擊暴力極端主義部門應對這些新興及長期存在的挑戰。本實踐指南正是為了應對這一快速演變的格局而制定,旨在為相關從業者提供負責任地駕馭人工智慧潛力與局限的工具。
本指南基於聯合國反恐辦公室全球預防和打擊暴力極端主義項目對來自45個國家的120名從業者和政策制定者的調查。調查顯示,目前僅有不到25%的受訪者在預防和打擊暴力極端主義干預措施中使用了人工智慧。低採用率歸因於多重風險,包括對技術不可靠性、偏見、隱私、信任缺失和透明度不足的擔憂。其他障礙還包括組織準備不足、資源或能力有限,以及缺乏相關培訓——僅有不到三分之一的受訪者接受過任何人工智慧相關培訓。然而,超過三分之二目前未使用人工智慧的受訪者表示未來會考慮使用,絕大多數受訪者都希望獲得關於緩解人權、倫理和法律問題、使用人工智慧工具以及將人工智慧應用於預防和打擊暴力極端主義方面的培訓。
報告結構性地闡述了人工智慧在預防和打擊暴力極端主義領域的應用前景與風險管控。在機遇方面,指南詳細分析了人工智慧如何增強多個關鍵操作領域,包括監測與評估、培訓與教育優化、研究與分析、線上輿情監控、深度偽造等人工智慧生成媒體的檢測、危機溝通、積極與替代性資訊傳播、用於三級支援的行為模式識別與預測分析,以及與高風險個體的直接接觸。同時,報告也系統性地指出了應用人工智慧所面臨的運營挑戰(如資源限制、技能缺口、組織文化阻力)和技術挑戰(如數據質量、模型偏見、演算法透明度)。
為確保技術應用符合國際人權標準和聯合國不造成傷害等核心價值,指南專章論述了人權與倫理關切。它強調必須採取基於人權的方法,重點保障隱私權、言論自由權以及平等與不受歧視的權利。同時,報告提出了透明度、問責制、可解釋性以及人類監督與控制等關鍵原則,並探討了氣候影響、智慧財產權盜竊、預防和打擊暴力極端主義資訊/信使真實性等具體倫理問題。
為實現負責任的有效應用,指南提供了從組織準備到具體實施的完整框架。這包括構建組織就緒度和機構能力、明確從業人員所需的核心能力、開展人工智慧素養與技術培訓,並規劃了從戰略評估、利益攸關方映射、試點干預到規模化推廣與持續績效監測的完整實施路徑。最後,報告為聯合國及其他國際組織、國家當局、捐助方、科技部門及所有利益攸關方分別提出了具體的結論、建議與良好實踐,並附有包含資源指南、風險評估範本和檢查清單的實用工作手冊,以支援將原則轉化為實際行動。