前言
作為全球首部全面規范人工智能技術的綜合性立法,歐盟《人工智能法案》(Artificial Intelligence Act)自2024年8月1日起生效并分階段實施。
法案生效一年來,歐盟委員會及相關機構陸續發布了一系列配套文件,包括法案實施時間表、《關于人工智能系統定義的指南》、《關于禁止的人工智能實踐指南》以及《通用目的人工智能模型提供者義務范圍指南》等,以更好推動法案的實施與落地。
本文旨在系統梳理歐盟《人工智能法案》的最新實施動態,并介紹關鍵指南文件的核心內容。通過分析法案的落地進程,我們希望幫助企業更好地把握歐盟人工智能監管方向和實施要求。
一、 歐盟《人工智能法案》實施時間表
| 生效時間 |
條款內容 |
| 2024年7月12日 |
《人工智能法案》發布于《歐盟官方公報》,此為該法案的正式通告 [1] 。 |
| 2024年8月1日 |
《人工智能法案》生效,此階段法案所有具體要求均未適用——相關要求將逐步適用 [2] 。 |
| 2025年2月2日 |
人工智能一般條款和禁止的人工智能實踐規定開始適用(第一章與第二章) [3] 。 |
| 2025年8月2日 |
《人工智能法案》的如下規定開始適用: (1) 通知機構(第三章第四節); (2) 通用目的人工智能模型(第五章); (3) 治理(第七章); (4) 保密(第78條); (5) 處罰(第99和第100條) [4] 。 |
| 2026年8月2日 |
《人工智能法案》剩余條款開始適用,第6條(高風險人工智能系統的分類規則)第1款除外 [5] 。 |
| 《人工智能法案》開始適用于在2026年8月2日前已投放市場或投入服務的高風險人工智能系統(作為大型IT系統組件的人工智能系統除外)的運營者,但前提是相關系統自2026年8月2日起設計發生重大變更 [6] 。 |
|
| 2027年8月2日 |
第6條(高風險人工智能系統的分類規則)第1款及相關義務開始適用 [7] 。 |
| 2025年8月2日前投放市場的通用目的人工智能模型提供者,須在2027年8月2日前采取必要措施以遵守《人工智能法案》的要求 [8] 。 |
|
| 2030年8月2日 |
供公共部門使用的高風險人工智能系統的提供者與部署者,須在2030年8月2日前采取必要措施符合《人工智能法案》的要求 [9] 。 |
| 2030年12月31日 |
作為大型IT系統組件的人工智能系統,若在2027年8月2日前已投放市場或投入服務,須在2030年12月31日前符合《人工智能法案》的要求 [10] 。 |
二、 關于人工智能系統定義的指南
《人工智能法案》適用于人工智能系統,該法案對人工智能系統的定義為:被設計用于以不同程度的自主性運行,并可能在部署后表現出適應性的機器系統,且為了明確或隱含的目標,根據其接收的輸入推斷如何生成可以影響物理或虛擬環境的輸出,如預測、內容、推薦或決策 [11] 。
2025年2月6日,歐盟委員會發布了《關于人工智能系統定義的指南》 [12] (Guidelines on the definition of an artificial intelligence system,以下簡稱“AI System Guidelines”),旨在為《人工智能法案》中人工智能系統的定義提供解釋和指導。該指南由歐盟委員會制定,參考了利益相關者咨詢和歐洲人工智能委員會的反饋意見,但其性質為非約束性文件,對人工智能系統的最終解釋權仍歸歐盟法院(CJEU) [13] 。
AI System Guidelines的主要內容包括人工智能系統的構成要素,以及明確不屬于人工智能系統的情形,以幫助相關方判斷其系統是否屬于《人工智能法案》的監管范圍。鑒于人工智能技術的快速發展,AI System Guidelines強調,無法窮盡列舉所有可能的人工智能系統,在明確定義“人工智能系統”概念的同時,需結合每個系統的具體特性進行分析和判斷,避免機械套用定義 [14] 。
(一) 人工智能系統的要素
AI System Guidelines圍繞《人工智能法案》第3條第1款對“人工智能系統”的定義展開,詳細闡述了人工智能系統定義的以下七個核心要素:
1. 基于機器的系統(Machine-based system)
人工智能系統的第一個要素是其屬于“基于機器的系統”。“基于機器的系統”是指人工智能系統由硬件和軟件組成的機器開發并在機器運行。硬件包括處理器、內存、存儲設備、聯網單元、輸入/輸出接口等機器的物理組件,用于提供計算的基礎設施;軟件則涵蓋計算機代碼、指令、程序、操作系統和應用程序,負責處理硬件如何處理數據并執行任務 [15] 。所有人工智能系統都是基于機器的,因為需要機器來實現其功能,先進人工智能系統的整個生命周期都依賴于機器 [16] 。無論是傳統計算機、量子計算系統,還是具有計算能力的生物或有機系統,只要滿足“基于機器”的條件,均可能屬于人工智能系統 [17] 。
2. 自主性(Autonomy)
人工智能系統的第二個要素是其需被設計為具有不同程度的自主性。《人工智能法案》序言第12段明確“不同程度的自主性”意味著人工智能系統被設計為具有一定程度的行動獨立性,能夠在無需人工干預的情況下運行 [18] 。自主性和推理能力密不可分,人工智能系統的推理能力是實現其自主性的關鍵 [19] 。具備一定程度的自主性是一個系統被認定為人工智能系統的必要條件——完全依賴人工直接或間接手動操作的系統則不屬于人工智能系統 [20] 。所有被設計為操作具有一定程度的行動獨立性的系統都滿足人工智能系統定義中對自主性的要求 [21] 。
3. 適應性(Adaptiveness)
人工智能系統的第三個要素是其在部署后可能具備適應性。《人工智能法案》序言第12段明確,適應性指人工智能系統在部署后可能具備自我學習能力,使其行為能夠根據使用情況發生變化 [22] 。但“可能”一詞說明,適應性并非構成人工智能系統的必要條件,不具備適應性的系統仍可能被認定為人工智能系統 [23] 。
4. 人工智能系統目標(AI system objectives)
人工智能系統的第四個要素是其被設計為根據一個或多個目標來運行。這些目標可分為顯性目標和隱性目標:顯性目標是指開發者直接編碼到系統中的明確目標,如優化成本函數或累積獎勵;隱性目標則是未明確定義但可從系統行為或訓練數據中推導出的目標 [24] 。
AI System Guidelines特別區分了“系統目標”與“預期用途”(intended purpose):前者是系統內部要實現的功能性目標(如高準確率回答問題),后者則是系統在特定場景中的外部應用目的(如輔助某部門完成特定任務) [25] 。
5. 使用人工智能技術推理出如何生成輸出(Inferencing how to generate outputs using AI techniques)
人工智能系統的第五個要素是其必須能夠通過輸入的信息推理出如何生成輸出,這是區分人工智能系統與其他系統的關鍵要素 [26] 。通過輸入的信息推理出如何生成輸出一方面指人工智能系統在“使用階段”基于輸入生成輸出的能力,另一方面指在系統的“構建階段”通過相關人工智能技術實現推理,從而生成輸出結果。
《人工智能法案》序言第12段明確在構建人工智能系統時實現推理的人工智能技術包括機器學習方法,這些方法通過從數據中學習來實現特定目標;以及基于邏輯和知識的方法,這些方法通過對任務的編碼知識或符號表示進行推理來解決問題。
AI System Guidelines進一步明確機器學習方法又分為:(1)監督學習(supervised learning;利用標記過的數據學習;應用包括垃圾郵件過濾系統、圖片分類系統、詐騙監測系統);(2)無監督學習(unsupervised learning;利用無標記數據自我學習,應用包括藥物發現、預測疾病的新型治療方案),其中又包括自監督學習(self-supervised learning;AI在監督下利用無標記數據學習,應用包括語言模型預測);(3)強化學習(reinforced learning;AI通過獎勵機制從自身經驗收集的數據中學習,應用包括機器人控制、搜索引擎個性化推薦、自動駕駛技術);和(4)深度學習(deep learning;采用分層架構(神經網絡)進行學習,能夠從大量原始數據中自動學習特征) [27] 。
6. 系統輸出可影響物理或虛擬環境(Outputs that can influence physical or virtual environments)
人工智能系統的第六個要素是其能夠生成可影響物理或虛擬環境的輸出。這些輸出分為預測、內容、推薦或決策這四大類型,其對人類介入的需求依次遞減,而對于物理或虛擬環境的影響程度依次遞增 [28] :
l 預測:基于輸入數據估算未知量值,如自動駕駛汽車對環境變化的實時預測;
l 內容:文本/圖像/視頻/音樂等創造性輸出;
l 推薦:個性化行動/產品/服務推薦,也可轉化為決策;以及
l 決策:輸出結論或選擇,自動化替代人類判斷(如自動審批系統)。
人工智能系統與非人工智能系統在生成預測、內容、推薦和決策等輸出方面存在差異。由于人工智能系統能夠處理數據中的復雜關系和模式,其通常能夠生成比非人工智能系統更細致的輸出 [29] 。
7. 與環境互動(Interaction with the environment)
人工智能系統的第七個要素是其輸出需能主動影響物理環境或虛擬環境。這一要素強調人工智能系統不是被動的,而是積極地影響其被部署的環境。“物理或虛擬環境”是指人工智能系統的影響既可以是有形的物理對象(例如機器人手臂),也可以是虛擬環境,包括數字空間、數據流和軟件生態系統。 [30]
(二) 不屬于人工智能系統的情形
AI System Guidelines明確以下系統不屬于“人工智能系統”:
1. 改進數學優化的系統(Systems for improving mathematical optimization) [31]
此類系統雖然具備一定推理能力,但未超出基本數據處理的范疇,例如:
l 通過機器學習加速傳統物理模擬的系統(如氣象預測模型);
l 衛星通信中優化帶寬分配的模型。
這些系統僅提升計算效率,不具備自主調整決策模型的智能能力。
2. 基本數據處理(Basic data processing) [32]
此類系統完全依賴預設規則,在整個生命周期無學習或推理能力,也未使用任何人工智能技術,例如:
l 數據庫管理系統(如按條件篩選客戶數據);
l 統計軟件(如銷售數據可視化工具)。
3. 基于經典啟發式算法的系統(Systems based on classical heuristics) [33]
經典的啟發式算法是一種問題解決技術,它依賴于基于經驗的方法來有效地找到近似的解決方案。基于經典啟發式算法的類系統采用預定義的規則系統或試錯策略,依賴模式識別而非數據驅動學習,常適用于因時間或資源受限而無法找到精確解決方案的情形,例如國際象棋程序使用的極大極小(minimax)算法。
4. 簡單預測系統(Simple prediction systems) [34]
此類系統僅通過基礎統計規則(如歷史平均值)生成預測,例如:
l 股票價格基線預測(始終預測歷史平均價);
l 商店日銷量預測(采用過去銷售均值)。
三、 《關于禁止的人工智能實踐指南》
《人工智能法案》采取了風險分級管理的監管思路,將人工智能系統分為禁止的人工智能系統、高風險人工智能系統、有限風險人工智能系統和最小風險人工智能系統四個級別,分別施以不同的監管要求(具體監管要求詳見歐盟《人工智能法案》對中國企業出海的影響一文)。其中,禁止的人工智能系統因對基本權利及歐盟價值觀構成不可接受風險而被禁止 [35] ,相關規定已于2025年2月2日起開始實施 [36] 。
《人工智能法案》規定,歐盟委員會應制定關于禁止的人工智能實踐的實施指南 [37] 。2025年2月4日,歐盟委員會正式發布《關于禁止的人工智能實踐指南》(Guidelines on Prohibited Artificial Intelligence Practices,以下簡稱“Prohibited AI Guidelines”),旨在進一步解釋《人工智能法案》第5條關于禁止的人工智能系統的相關規定 [38] 。該指南不具有法律約束力,對禁止的人工智能實踐的最終解釋權仍歸歐盟法院(CJEU)。指南所載示例僅具指導性,《人工智能法案》第5條的適用需充分考慮具體情形,并遵循個案評估原則 [39] 。
(一) 整體適用
1. 禁止的人工智能系統總覽
《關于禁止的人工智能實踐指南》在《人工智能法案》第5條的基礎上,細化列舉了八類禁止的人工智能系統,包括:(1)有害操縱和欺騙類(Harmful manipulation, and Deception);(2)對脆弱性的有害利用類(Harmful Exploitation of Vulnerabilities);(3)社會評分類(Social Scoring);(4)個人刑事犯罪風險評估和預測類(Individual Criminal Offence Risk Assessment and Prediction);(5)非定向抓取構建人臉數據庫類(Untargeted Scraping to Develop Facial Recognition Databases);(6)情緒識別(Emotion Recognition);(7)生物特征分類(Biometric Categorisation);(8)實時遠程生物識別類(Real-time Remote Biometric Identification) [40] 。我們將在下文展開逐一分析八種禁止的人工智能系統的具體含義,主要構成要件等內容。
2. 排除適用的情形
《人工智能法案》第2條規定了若干排除適用《人工智能法案》的情形。《關于禁止的人工智能實踐指南》對該等排除適用情形進行了細化 [41] ,包括:
(1) 國家安全、國防和軍事目的
《人工智能法案》在任何情況下均不影響成員國在國家安全事務上的權限。如果人工智能系統是專門用于軍事、國防或國家安全目的而投放市場、投入使用的,則其不在《人工智能法案》的適用范圍內 [42] 。
(2) 與第三國進行司法和執法合作
對于第三國的公共機構或國際組織在與歐盟或某個成員國進行執法和司法合作的過程中使用的人工智能系統,若該等人工智能系統能夠為個人基本權利和自由提供足夠保障,則該人工智能系統不屬于《人工智能法案》的適用范圍 [43] 。
(3) 研發活動
《人工智能法案》不適用于人工智能系統或模型在投放市場或投入服務之前的任何研究、測試或開發活動,亦不適用于專為科學研究和發展目的而開發和投入服務的人工智能系統或模型 [44] 。
(4) 個人非專業活動
《人工智能法案》中針對部署者的義務不適用于個人在純粹個人非專業活動中使用人工智能系統的情形。個人定期獲取經濟利益或從事專業、商業、貿易、職業或自由職業的活動,均應視為專業活動,因此不適用該項排除情形。該排除情形亦不適用于犯罪行為,因其不屬于純粹個人活動范疇 [45] 。
(5) 開源許可下發布的人工智能系統
開源許可下的人工智能系統通常不受《人工智能法案》約束,但若該等系統構成禁止的人工智能系統,則不能適用此排除適用條款 [46] 。
(二) 禁止的人工智能系統具體介紹
1. 有害操縱和欺騙類及對脆弱性的有害利用類
(1) 含義及目的
被禁止的有害操縱和欺騙類人工智能系統,是指部署超出個人意識范疇的潛意識技術或故意采用操縱性或欺騙性技術的人工智能系統,其目的或效果在于扭曲行為,導致或可能合理導致重大傷害 [47] ;
對脆弱性的有害利用類系統,是指利用因年齡、殘疾或特定社會經濟處境導致的脆弱性的人工智能系統,其目的或效果在于扭曲行為,導致或可能合理導致重大傷害 [48] ;
禁止上述兩類人工智能系統,目的在于保護個人及弱勢群體免受人工智能的操縱和利用行為所造成的重大傷害(包括但不限于對個人自主權、決策能力和自由選擇權的傷害) [49] 。
(2) 主要構成要件
有害操縱和欺騙類與對脆弱性的有害利用類人工智能系統的構成要件較為類似,兩者的構成要件一與構成要件四一致,僅在構成要件二和構成要件三上有差異 [50] :
構成要件一:人工智能系統被“投放市場”、“投入服務”或“使用”;
l “投放市場”是指首次在歐盟市場提供人工智能系統供使用,提供是指在商業活動中為在歐盟市場銷售或使用而供應系統,無論是否收取費用,也無論通過何種方式供應系統 [51] ;
l “投入服務”指向部署者首次提供人工智能系統供其使用,或在歐盟境內用于自身預定目的,包括向第三方首次提供使用的情形,也涵蓋內部開發及部署行為 [52] ;
l “使用”應做廣義理解,涵蓋系統投放市場或投入服務后生命周期內任何時點的使用或部署行為,也包括將人工智能系統整合至使用者的服務流程中(包括作為更復雜系統、流程及基礎設施組成部分的情形) [53] ;
構成要件二:有害操縱和欺騙類人工智能系統必須使用超出個人意識范疇的潛意識技術或故意采用操縱性或欺騙性技術;對脆弱性的有害利用類系統必須利用因年齡、殘疾或社會經濟狀況產生的脆弱性 [54] ;
構成要件三:人工智能系統所采用的技術應以實質性地扭曲個人或群體行為為目的或產生此類效果。此外,有害操縱和欺騙類系統額外要求這種影響必須顯著削弱個人或群體的知情決策能力,導致其作出原本不會作出的決定,對脆弱性的有害利用類系統則不需包括“顯著削弱知情決策能力”這一要求 [55] ;以及
構成要件四:被扭曲的行為必須導致或可能合理導致對該個人、其他人或群體的重大傷害。同時,所采用的技術對行為的實質性影響與已造成或可能合理造成的重大損害之間需存在合理因果關系 [56] 。
(3) 排除范圍
根據《人工智能法》第5條第(1)款第(a)項和第(b)項的規定,要適用這些禁止性規定,必須滿足相關條款中列出的所有條件,所有不符合這些條件的其他人工智能系統均不在這些禁止性規定的適用范圍之內,以下是一些具體例子 [57] :
a) 采取合法說服技術的人工智能系統
采取合法說服技術的人工智能系統以透明的方式開展并尊重個人的自主權,其涉及以一種既能訴諸理性又能觸動情感的方式呈現論點或信息,同時解釋人工智能系統的目標和運作方式,提供相關且準確的信息以確保決策的明智性,并支持個人對信息進行評估并做出自由且自主的選擇 [58] 。
b) 不太可能造成重大傷害的操縱性、欺騙性及利用性人工智能系統
有害操縱和欺騙類系統以及對脆弱性的有害利用類系統禁止適用的核心前提是:人工智能系統的操縱及脆弱性剝削行為必須導致或可能合理導致重大損害。原則上,所有不具備顯著危害可能性的操縱性、欺騙性及剝削性人工智能應用均不在此禁止范疇內,但不影響其他適用的歐盟法律的效力。
2. 社會評分類
(1) 含義和目標
被禁止的社會評分類人工智能系統是指基于社會行為或個人或個性特征對個人或群體進行評價或分類的人工智能系統,當數據來源于不相關社會情境或該等處理方式與社會行為不相稱或不合理時,該等社會評分將導致對個人或群體的有害或不利待遇 [59] 。
實施社會評分的人工智能系統可能導致對特定個體和群體的歧視性、不公正對待,包括被排斥于社會之外,以及實施有違歐盟價值觀的社會控制與監控行為。禁止社會評分類人工智能系統旨在保護人格尊嚴及其他基本權利(包括但不限于不受歧視的權利、平等權、數據保護權等) [60] 。
(2) 主要構成要件
a) 人工智能系統被“投放市場”、“投入服務”或“使用”;
b) 該人工智能系統必須旨在或用于在一定時期內對個人或群體基于以下要素進行評估或分類:
? 其社會行為;或
? 已知、推斷或預測的個人或個性特征;以及
c) 人工智能系統輔助生成的社會評分必須在以下一種或多種情形中導致或可能導致對個人或群體的有害或不利待遇:
? 在與數據最初生成或收集場景無關的社會情境中;
? 處理方式與其社會行為或其嚴重程度不相稱或不合理,處理方式與社會評分之間需有因果關系 [61] 。
需要注意的是,無論社會評分類人工智能系統由公共機構還是私人實體提供或使用,只要符合以上構成要件,都是被禁止的。 [62]
(3) 排除范圍
以下情形不屬于被禁止的社會評分場景:
a) 針對法律實體的社會評分,該等評分不基于個人的社會行為或個人或個性特征;
b) 用戶對服務質量的個人評分;
c) 根據歐盟和成員國法律,為特定目的對自然人進行的合法評估實踐,例如信用評分、風險評分、保險核保、提升服務質量和效率、優化理賠流程、特定員工評估、欺詐防控和監測、執法,前提是使用該評分導致的任何有害或不利待遇均與社會行為嚴重程度相稱并具有正當理由。 [63]
3. 個人刑事犯罪風險評估和預測類
(1) 含義和目標
被禁止的個人刑事犯罪風險評估和預測類系統是指僅通過個人畫像或性格特征評估或預測個體犯罪風險的人工智能系統,但不包括基于與犯罪活動直接相關的客觀且可驗證的事實對人工評估提供支持的人工智能系統(該等系統屬于高風險人工智能系統) [64] 。
該等禁止的理由是,個人應根據其實際行為受到宣判,而非僅根據基于其個人畫像或性格特征的人工智能預測行為受到宣判 [65] 。
(2) 主要構成要件
a) 人工智能系統被“投放市場”、“投入服務”或“使用”;
b) 人工智能系統必須進行風險評估,評估或預測個人實施刑事犯罪的風險;以及
c) 風險評估或預測必須僅基于以下一項或兩項做出:
? 對個人的畫像;
? 對個人性格特征的評估。 [66]
(3) 排除范圍
以下情形不屬于被禁止的個人刑事犯罪風險評估和預測類人工智能系統 [67] :
a) 基于地理位置、空間或場所的犯罪預測人工智能系統
基于地理位置、空間或場所的犯罪預測,其依據是犯罪發生地點或特定區域內的犯罪可能性。此類警務活動原則上不涉及對特定個體的評估,故不屬于被禁止的范疇 [68] 。
b) 基于與客觀可驗證的犯罪事實對人工評估提供支持的人工智能系統
當人工智能系統用于支持人工評估個人是否參與犯罪活動時(該評估本身已基于與犯罪活動直接相關的客觀可驗證事實而不僅基于對個人的畫像和/或對個人性格特征的評估),該等系統不屬于被禁止的范疇 [69] 。
c) 用于法律實體犯罪預測與評估的人工智能系統
本條禁止僅適用于對于個人的刑事犯罪風險評估和預測,因此通常不適用于對公司、非政府組織等法律實體進行犯罪評估和預測的人工智能系統 [70] 。
d) 用于個體行政違法行為預測的人工智能系統
本條禁止僅針對刑事犯罪預測,原則上不涵蓋對個人基本權利和自由干預較少的行政違法行為的預測。
4. 非定向抓取構建人臉數據庫類
(1) 含義和目標
被禁止的非定向抓取構建人臉數據庫類系統,是指通過互聯網或閉路電視(“CCTV”)錄像非定向抓取人臉圖像來創建或擴展人臉識別數據庫的人工智能系統 [71] 。
從互聯網和CCTV錄像中非定向抓取人臉圖像嚴重侵害個人隱私與數據保護權,并剝奪個人保持匿名的權利。該等行為會造成大規模監控的壓迫感,并導致對隱私權等基本權利的嚴重侵犯,因此需禁止該類人工智能系統 [72] 。
(2) 主要構成要件
a) 人工智能系統被“投放市場”、“投入服務”或“使用”;
b) 人工智能系統的目的在于創建或擴充人臉識別數據庫;
c) 數據庫填充手段是通過人工智能工具進行非定向抓取;以及
d) 圖像來源包括互聯網或CCTV錄像。 [73]
(3) 排除范圍
以下情形不適用于本條禁止:
a) 對非面部圖像的其他生物識別數據(如聲音樣本)的非定向抓取;
b) 未使用人工智能系統的抓取行為;或
c) 人臉數據庫不用于識別個人(如用于人工智能模型訓練或測試且不涉及身份識別的人臉數據庫)。從互聯網采集大量面部圖像以構建生成虛構人物新圖像的人工智能系統也不適用于本條禁止,因為該等系統不涉及識別真實的個人。 [74]
5. 情緒識別類
(1) 含義和目標
被禁止的情緒識別類系統是指,在工作場所或教育機構進行情緒識別的人工智能系統,但出于醫療或安全目的的情況除外 [75] 。
目前情緒識別技術發展迅速,且在商業領域、娛樂產業、公共安全維護等多領域均有應用。但情緒識別技術的有效性與準確性常受質疑。情緒識別可能導致歧視性結果,并侵犯相關人員的權利與自由,特別是隱私權、人格尊嚴與思想自由權。這種風險在權力不對稱的關系中尤為突出,例如職場與教育機構中的勞動者和學生往往處于弱勢地位,因此需要禁止符合如下情形的情緒識別類人工智能系統。 [76]
(2) 主要構成要件
a) 人工智能系統被“投放市場”、“投入服務”或“使用”;
b) 該人工智能系統用于基于生物識別信息推斷(含識別,下同)情緒;
c) 適用于工作場所或教育機構領域;以及
d) 出于醫療或安全目的的人工智能系統不在此禁止之列。 [77]
(3) 排除范圍
以下情形不適用于本條禁止 [78] :
a) 非基于生物識別數據推斷情緒和情感的人工智能系統;
b) 推斷疼痛、疲勞等生理狀態的人工智能系統。
c) 工作場所和教育機構之外其他領域;
d) 為維護公共秩序與活動安全對群體行為進行監控管理的人群管控系統(Crowd Control),常見于大型集會如足球賽事、音樂會等或機場、車站等特定場所,該系統可在不推斷個體情緒的情況下運作,例如分析場所整體聲量或氛圍水平;
e) 用于醫療領域的人工智能系統,如護理機器人、醫務人員在工作場所診療時使用的情緒識別系統、緊急呼叫語音分析監測器等。
6. 生物特征分類
(1) 含義和目標
生物特征分類人工智能系統,是指通過生物識別數據對人進行分類的人工智能系統,以推測或推斷種族、政治觀點、工會成員身份、宗教或哲學信仰、性生活或性取向;但不包括對依法獲取的生物識別數據集進行標記或篩選,包括在執法領域 [79] 。
生物識別數據可能被用于提取、推測或推斷包括敏感信息在內的多種信息(甚至無需當事人知情),這可能導致不公正和歧視性待遇,例如因被判定屬于某一種族而拒絕提供服務。基于人工智能的生物特征分類系統若旨在將個人歸類至涉及性取向、政治傾向或種族等方面的特定群體,不僅侵犯個人的尊嚴,更對隱私權、不受歧視權等基本權利構成重大風險,因此需要禁止該類人工智能系統 [80] 。
(2) 主要構成要件
a) 人工智能系統被“投放市場”、“投入服務”或“使用”;
b) 該系統必須是生物特征分類系統(生物特征分類系統是指基于個人生物識別數據將其劃分至特定類別的人工智能系統,除非該系統附屬于另一項商業服務且因客觀技術原因確屬必要 [81] );
c) 必須對個人進行分類;
d) 分類依據基于生物識別數據;以及
e) 分類目的為推斷種族、政治觀點、工會成員身份、宗教或哲學信仰、性生活或性取向。 [82]
(3) 排除范圍
以下情形不適用于本條禁止 [83] :
a) 對合法獲取的生物識別數據集(如圖像)進行標注或篩選的人工智能系統;
對生物識別數據集進行標注或篩選可能正是為了確保數據均衡代表所有人口群體,避免特定群體被過度代表。因此,基于某些受保護的敏感信息進行標注或篩選,可能是確保數據質量、防止歧視的必要措施;或
b) 在執法領域對合法獲取的數據集進行標注或篩選。
7. 實時遠程生物識別類
(1) 含義和目標
實時遠程生物識別類系統,是指在公共場所為執法目的部署(僅針對部署者)實時遠程生物識別的人工智能系統,除非出于對特定受害者的針對性搜尋、預防特定威脅(包括恐怖襲擊)或搜尋特定犯罪嫌疑人的必要 [84] 。
正如《人工智能法案》序言部分所指出,公共場所實時遠程生物識別系統具有高度侵入性,可能影響大部分人群的私生活、引發持續被監控的感受,并間接阻礙集會自由等基本權利的行使。遠程生物識別人工智能系統的技術缺陷可能導致結果偏差并產生歧視性影響,這種偏差在年齡、民族、種族、性別或殘疾方面尤為顯著。此外,此類實時系統影響的即時性及核查糾錯機會的有限性,進一步放大了執法活動對相關人員的權利和自由的風險,因此需予以禁止。 [85]
(2) 主要構成要件
a) 人工智能系統為遠程生物識別系統(指通過將個人生物識別數據與參考數據庫中的數據進行比對,在無需當事人參與的情況下遠距離完成識別個人的人工智能系統);
b) 相關活動涉及對該系統的“使用”,該禁令僅禁止基于執法目的在公共場所使用實時遠程生物識別系統,此類系統的“投放市場”或“投入服務”不受禁止;
c) 采用“實時”方式,即對生物識別數據進行“即時、近乎即時或在任何情況下無顯著延遲”的采集與處理;
d) 應用于公共場所,公共場所指任何向不特定數量個人開放的公有或私有物理空間,無論是否設置準入條件,亦不受潛在容量限制;以及
e) 服務于執法目的,執法目的包括對刑事犯罪的調查、偵查和起訴,在犯罪實際發生前預防刑事犯罪的活動,以及刑罰的執行。 [86]
(3) 排除范圍
《人工智能法案》為實時遠程生物識別類禁止明確了如下三類例外情形,但需注意的是,只有成員國國內制定相關立法明確允許相關例外情形并滿足《人工智能法案》規定的條件和保障措施(《人工智能法案》第5條第2至7款),該等例外情形才可具體適用 [87] 。
a) 針對三類嚴重犯罪受害者及失蹤人員的搜尋
在符合嚴格必要性標準的情況下,允許為執法目的在公共空間使用實時遠程生物識別系統,以針對性搜尋綁架、人口販賣或性剝削受害者,以及尋找失蹤人員 [88] 。
b) 預防迫在眉睫的生命威脅或恐怖襲擊
為預防對個人生命或人身安全具體、重大且迫近的威脅,或真實存在或可預見的恐怖襲擊威脅,可在符合嚴格必要標準的情況下,為執法目的在公共空間使用實時遠程生物識別系統 [89] 。
c) 特定犯罪嫌疑人的定位與識別
為對《人工智能法案》附件二所列且在涉案成員國至少可判處四年監禁或拘留的罪行進行刑事調查、起訴或執行刑事處罰之目的,對涉嫌實施刑事犯罪的人員進行定位與識別時,允許在公共場所實時使用實時遠程生物識別系統 [90] 。
(三) 處罰
《人工智能法案》根據違反嚴重程度,采用分級方式設定違反不同條款的處罰標準。違反禁止的人工智能系統的相關規定被視為最嚴重違規行為,將面臨最高罰款。從事被禁人工智能實踐的供應商和部署者可能被處以最高3500萬歐元(約兩億九千萬元人民幣)罰款,若違規主體為企業,則最高可處其上一年度全球營業額7%的罰款(以較高者為準)。 [91]
四、 其他立法和實施動態
(一) 關于建立人工智能領域獨立專家科學小組的實施細則
《人工智能法案》規定應設立獨立專家科學小組,為人工智能辦公室及各成員國市場監督機構提供法案實施與執法方面的專業咨詢及協助 [92] 。2025年3月7日,《關于建立人工智能領域獨立專家科學小組的實施細則》正式發布。
人工智能領域獨立專家科學小組將專注于通用人工智能模型及系統,主要職責包括:就系統性風險、模型分類、評估方法及跨境市場監督等事項向歐盟人工智能辦公室及各成員國主管部門提供專業建議,并有權就新興風險向人工智能辦公室發出預警 [93] 。
(二) 通用目的人工智能模型相關規定
1. 《通用目的人工智能模型提供者義務范圍指南》
根據前述《人工智能法案》實施的時間線,《人工智能法案》對通用目的人工智能模型的相關要求于2025年8月2日生效。為進一步解釋通用目的人工智能模型提供者的義務范圍,歐盟委員會于2025年7月18日發布了《通用目的人工智能模型提供者義務范圍指南》(Guidelines on the Scope of the Obligations for General-Purpose AI Models) [94] 。
該指南涵蓋四項主要內容:(1)通用目的人工智能模型定義;(2)通用目的人工智能模型提供者的認定;(3)開源通用目的人工智能模型提供者的義務豁免;(4)對通用目的人工智能模型提供者的合規要求 [95] 。
盡管該指南并不具有法律約束力,但該指南闡明了歐盟委員會對《人工智能法案》的解釋與適用標準,且歐盟委員會將在此基礎上采取執法行動 [96] 。
2. 《通用目的人工智能行為準則》
2025年7月10日,歐洲人工智能辦公室發布了《通用目的人工智能行為準則》(Code of Practice for General-Purpose AI Models),該準則是一項自愿性工具,由獨立專家在利益相關方參與的流程中制定,旨在幫助行業遵守《人工智能法案》中針對通用人工智能模型供應商的義務,確保投放歐洲市場的通用人工智能模型是安全且透明的。
《通用目的人工智能行為準則》包含三個獨立編制的章節:《透明度》(Transparency)、《版權》(Copyright)以及《安全與保障》(Safety and Security)。其中,《透明度》與《版權》針對所有通用人工智能模型供應商;《安全與保障》僅適用于數量有限的最先進模型供應商,這些供應商需遵守《人工智能法案》中對具有系統性風險的通用人工智能模型供應商規定的義務。 [97]
盡管《通用目的人工智能行為準則》不具有法律約束力,通用人工智能模型供應商仍可通過遵循該準則以證明其符合通用人工智能模型供應商的義務 [98] 。
3. 通用目的人工智能模型問答
歐盟人工智能辦公室于2025年7月16日發布了通用目的人工智能模型問答,旨在促進對《人工智能法案》部分條款的理解。該問答主要包括通用目的人工智能模型的概念、通用目的人工智能模型供應商概念及義務、人工智能辦公室執法權等相關內容 [99] 。
結尾
歐盟《人工智能法案》生效后分階段實施,一方面法案下的義務在按照實施時間表逐步適用,另一方面歐盟委員會等機構也在不斷發布配套指南對《人工智能法案》進行解釋和澄清,幫助企業理解和遵守《人工智能法案》。
隨著歐盟《人工智能法案》相關配套指南的陸續發布,法案的監管框架逐漸清晰,監管部門的執法與處罰也可能隨之而來。出海歐盟的中國企業需關注歐盟《人工智能法案》的關鍵實施節點及每個節點對應的實施要求,并關注歐盟委員會等機構發布的配套指南,充分理解歐盟《人工智能法案》的合規要求并提前準備相應的合規方案。
[1] Artificial Intelligence Act, Article 113
[2] Artificial Intelligence Act, Article 113
[3] Artificial Intelligence Act, Article 113 (a) and Recital 179
[4] Artificial Intelligence Act, Article 113 (b)
[5] Artificial Intelligence Act, Article 113
[6] Artificial Intelligence Act, Article 111 (2)
[7] Artificial Intelligence Act, Article 113
[8] Artificial Intelligence Act, Article 111 (3)
[9] Artificial Intelligence Act, Article 111 (2)
[10] Artificial Intelligence Act, Article 111 (1)
[11] Artificial Intelligence Act, Article 3 (1)
[12] Commission Guidelines on the definition of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act); https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application
[13] AI System Guidelines, Sections 5, 7
[14] AI System Guidelines, Section 6
[15] AI System Guidelines, Section 11
[16] AI System Guidelines, Section 12
[17] AI System Guidelines, Section 13
[18] AI System Guidelines, Section 14
[19] AI System Guidelines, Section 15
[20] AI System Guidelines, Section 17
[21] AI System Guidelines, Section 20
[22] AI System Guidelines, Section 22
[23] AI System Guidelines, Section 23
[24] AI System Guidelines, Section 24
[25] AI System Guidelines, Section 25
[26] AI System Guidelines, Section 26
[27] AI System Guidelines, Section 32
[28] AI System Guidelines, Sections 52-58
[29] AI System Guidelines, Section 59
[30] AI System Guidelines, Section 60
[31] AI System Guidelines, Sections 42-45
[32] AI System Guidelines, Sections 46-47
[33] AI System Guidelines, Section 48
[34] AI System Guidelines, Sections 49-51
[35] Artificial Intelligence Act, Article 5
[36] Artificial Intelligence Act, Article 113 (a)
[37] Artificial Intelligence Act, Article 96 (1)(b)
[38] Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act), https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act
[39] Prohibited AI Guidelines, Background and Objectives
[40] Prohibited AI Guidelines, 2.1
[41] Prohibited AI Guidelines, 2.5
[42] Prohibited AI Guidelines, 2.5.1
[43] Prohibited AI Guidelines, 2.5.2
[44] Prohibited AI Guidelines, 2.5.3
[45] Prohibited AI Guidelines, 2.5.4
[46] Prohibited AI Guidelines, 2.5.5
[47] Prohibited AI Guidelines, 2.1
[48] Prohibited AI Guidelines, 2.1
[49] Prohibited AI Guidelines, 3 (58), 3.1
[50] Prohibited AI Guidelines, 3.2, 3.3
[51] Artificial Intelligence Act, Article 3 (9); Prohibited AI Guidelines, 2.3 (12)
[52] Artificial Intelligence Act, Article 3 (11) ; Prohibited AI Guidelines, 2.3 (13)
[53] Prohibited AI Guidelines, 2.3 (14)
[54] Prohibited AI Guidelines, 3.2.1 and 3.3.1
[55] Prohibited AI Guidelines, 3.2.2 and 3.3.2
[56] Prohibited AI Guidelines, 3.2.3 and 3.3.3
[57] Prohibited AI Guidelines, 3.5
[58] Prohibited AI Guidelines, 3.5
[59] Prohibited AI Guidelines, 2.1
[60] Prohibited AI Guidelines, 4.1
[61] Prohibited AI Guidelines, 4.2
[62] Prohibited AI Guidelines, 4.2.3
[63] Prohibited AI Guidelines, 4.3
[64] Prohibited AI Guidelines, 2.1
[65] Prohibited AI Guidelines, 5.1
[66] Prohibited AI Guidelines, 5.2
[67] Prohibited AI Guidelines, 5.3.4
[68] Prohibited AI Guidelines, 5.3.1
[69] Prohibited AI Guidelines, 5.3.2
[70] Prohibited AI Guidelines, 5.3.3
[71] Prohibited AI Guidelines, 2.1
[72] Prohibited AI Guidelines, 6.1
[73] Prohibited AI Guidelines, 6.2
[74] Prohibited AI Guidelines, 6.3
[75] Prohibited AI Guidelines, 2.1
[76] Prohibited AI Guidelines, 7.1
[77] Prohibited AI Guidelines, 7.2
[78] Prohibited AI Guidelines, 7.4
[79] Prohibited AI Guidelines, 2.1
[80] Prohibited AI Guidelines, 8.1
[81] Artificial Intelligence Act, Article 3 (40)
[82] Prohibited AI Guidelines, 8.2
[83] Prohibited AI Guidelines, 8.3
[84] Prohibited AI Guidelines, 2.1
[85] Artificial Intelligence Act, Recital 32; Prohibited AI Guidelines, 9.1
[86] Prohibited AI Guidelines, 9.2
[87] Prohibited AI Guidelines, 9.3
[88] Prohibited AI Guidelines, 9.3.2
[89] Prohibited AI Guidelines, 9.3.3
[90] Prohibited AI Guidelines, 9.3.4
[91] Artificial Intelligence Act, Article 99
[92] Artificial Intelligence Act, Article 68
[93] https://artificialintelligenceact.eu/scientific-panel/
[94] https://digital-strategy.ec.europa.eu/en/library/guidelines-scope-obligations-providers-general-purpose-ai-models-under-ai-act
[95] Guidelines on the scope of the obligations for general-purpose AI models, 1. Background and objectives of the Commission guidelines (8)
[96] Guidelines on the scope of the obligations for general-purpose AI models, 1. Background and objectives of the Commission guidelines (9)
[97] https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai
[98] https://artificialintelligenceact.eu/introduction-to-code-of-practice/; https://digital-strategy.ec.europa.eu/en/library/commission-opinion-assessment-general-purpose-ai-code-practice
[99] https://digital-strategy.ec.europa.eu/en/faqs/general-purpose-ai-models-ai-act-questions-answers





滬公網安備 31010402007129號