AI法案風險類別
歐盟AI法案將AI系統分為四個風險類別,每個類別有不同的監管要求。
不可接受風險
對安全、生計或權利構成明確威脅的AI系統。已禁止。
範例:
- 社會評分
- 即時生物辨識監控
- 操縱性AI
高風險
關鍵領域的AI系統,需要進行符合性評估和註冊。
範例:
- 關鍵基礎設施
- 就業決策
- 教育
- 執法
有限風險
具有透明度義務的AI系統。
範例:
- 聊天機器人
- 情感識別
- 深度偽造
最小風險
根據AI法案沒有特定義務的AI系統。
範例:
- 垃圾郵件過濾器
- 電子遊戲
- 庫存管理
高風險AI的主要要求
風險管理系統
在整個AI生命週期中建立並維護風險管理系統。
技術文件
準備全面的技術文件,證明符合要求。
資料治理
為訓練、驗證和測試資料集實施資料治理實務。
人工監督
設計系統以實現有效的人工監督和干預能力。
違規處罰
禁止的AI實踐最高可達 3500萬歐元或全球營業額的7%
高風險AI系統違規最高可達 3500萬歐元或全球營業額的7%
其他AI法案違規最高可達 1500萬歐元或全球營業額的3%
向監管機構提供虛假資訊最高可達 750萬歐元或全球營業額的1%
處罰金額按固定金額或全球年營業額百分比中的較高者計算。違規行為還可能導致AI系統在歐盟市場被臨時或永久禁止。
實施時間表
2024年8月
AI法案生效(官方公報發布後20天)
2025年2月
禁止AI實踐禁令生效(生效後6個月)
2025年8月
通用AI模型規則和治理結構適用(12個月)
2026年8月
附件III高風險AI系統的完整要求生效(24個月)
2027年8月
所有AI系統(包括附件I高風險系統)需完全合規(36個月)
我們的評估涵蓋內容
- 風險分類分析
- 合規差距分析
- 技術文件指導
- 符合性評估支援