Files / 新興技術

美國司法部關於刑事司法領域人工智慧的報告:關鍵要點

深度解析年度報告:人工智慧在身份識別、預測警務、風險評估及法證分析中的應用、挑戰與治理框架,為技術部署與權利保障提供平衡路徑。

Detail

Published

22/12/2025

關鍵章節標題列表

  1. 摘要
  2. 關鍵聚焦領域
  3. 身份識別與監控
  4. 法證分析
  5. 預測性警務
  6. 風險評估
  7. 核心建議
  8. 結論

文件簡介

本報告摘要基於美國司法部(DOJ)於2024年12月發佈的《刑事司法領域人工智能》報告,旨在提煉其核心發現與建議。報告發佈之際,正值美國人工智能治理政策經歷重大轉向。2025年1月,行政命令14148撤銷了前期的14110號命令,緊隨其後的14179號命令確立了以移除美國人工智能領導力障礙為核心的新政策重點,強調通過市場驅動方式提升美國在人工智能領域的戰略優勢。這一政策轉變與由軟銀和OpenAI主導、耗資5000億美元的星際之門私營部門項目相呼應,凸顯了人工智能基礎設施建設的規模化投資與國家戰略意圖的融合。在此動態政策背景下,DOJ的這份77頁報告,其針對人工智能技術固有風險與機遇的分析,超越了特定監管框架的時效性,為理解人工智能在刑事司法系統中的根本性挑戰提供了持久價值。

報告系統審視了人工智能在刑事司法領域的四大關鍵應用場景:身份識別與監控、法證分析、預測性警務以及風險評估。在身份識別與監控方面,報告分析了面部識別、自動車牌識別等技術的效率與準確性收益,同時着重指出了其在性能上因種族、性別、年齡等因素存在的差異,以及由此引發的隱私與公民權利保護難題。法證分析部分探討了人工智能如何推動從主觀分析向更客觀、可重複方法的潛在轉變,涵蓋了從DNA概率基因分型到數位取證中AI生成內容檢測等多種應用,並強調了數據質量、驗證要求、可解釋性及人工監督等方面的持續挑戰。

預測性警務和風險評估是報告剖析的另兩個核心領域。報告指出,預測性警務工具雖能優化資源配置,但其依賴的歷史犯罪數據可能固化既有偏見,對脆弱社區造成不成比例的影響,並侵蝕公眾信任。風險評估工具在審前釋放、量刑、監獄分類等方面應用廣泛,可能提升決策的準確性與透明度,但其預測始終存在不確定性,且在不同人口群體中的表現差異可能加劇系統性不公。報告強調,平衡準確性、公平性與透明度是使用這些工具面臨的最大挑戰之一。

為確保負責任地部署人工智能,報告提出了一套全面的治理框架與核心建議。這包括部署前的成本效益評估、明確組織職責、制定詳盡的使用政策、確保數據完整性及進行嚴格測試。部署後,則需實施持續監控、定期審計、評估新用途並保持社區參與。報告特別強調了人工監督的核心地位,指出人工智能應輔助而非取代人類決策,尤其是在高風險案件中。最終,報告結論認為,通過建立穩健的組織結構、確保公眾監督與透明度、培養具備相應技能的 workforce,刑事司法機構能夠努力確保人工智能的部署能增強系統的公平性、有效性和憲法完整性。