中文名稱:歐盟人工智慧法案 英文名稱:EU AI Act
這是歐盟首個針對人工智慧的法案,也是一個非常快速通過的法案,該法案旨在管控人工智慧可能帶來的風險,同時強化歐洲在全球科技領域的領導地位。
這項法案於2023年5月通過初稿,同年12月9日達成共識。2024年,歐洲議會將此法案正式採納,預計同年正式通過,並計劃於2026年全面生效。
根據法案規定,違反規定的企業可能面臨高達3,500萬歐元或其全球營業額7% 的罰款。
人工智慧的風險被分為四個等級:
| 風險分類 | 規範 | 範圍概述 |
|---|---|---|
| 不可接受風險 | 明令禁止使用 | 《Article 5》 被認為對人們構成威脅的系統,包含: (1) 對人(或群體) 進行思想控制、詐欺、或重大傷害 (2) 利用個人弱點實行操控 (3) 基於敏感生物特徵的分類系統 (備註1) (4) 基於社會行為或個性特徵,進行社會評分 (備註2) (5) 在公共空間使用「即時」生物識別系統 (備註3) |
| 高風險 | 需要接受監管 | 《Annex I》 第一大類:符合歐盟產品安全的人工智慧系統; 包含:玩具、航空、汽車、醫療設備和電梯等。 《Annex III》 第二大類:關鍵應用領域的人工智慧系統; 包含以下類別: (1) 生物識別技術 (2) 關鍵基礎設施 (3) 教育和職業培訓 (4) 就業、工人管理和自主就業機會 (5) 獲取和享受基本私人服務與公共服務與福利 (6) 執法(根據聯盟或國家法律) (7) 移民、庇護和邊境控制管理(根據聯盟或國家法律) (8) 司法行政和民主程序 系統必須符合 資料品質管理 (避免偏見) 透明性、可解釋性、安全性、穩健性 人類監督機制 (Human Oversight) |
| 有限風險 | 有義務進行標註、 並告知使用者 | 《Article 50》 目前沒有明確定義 (直接與人互動的AI,需設計得讓人明白自己正與AI互動) (例如: 聊天機器人、換臉APP) |
| 低風險 極小風險 | 未被規範 可自由使用 | 目前沒有明確定義 (個人非專業活動,使用的AI被排除在法案適用範圍之外) (例如: 遊戲AI、垃圾郵件過濾器) |
針對上述表格中的備註,說明如下:
- 備註1: 禁止使用人工智慧進行生物特徵分類,推斷敏感個人特徵,除非在合法情況下。
- 備註2: 禁止人工智慧系統基於社會行為或個性特徵評估社會分數,導致不利的待遇。
- 備註3: 嚴格限制在公共空間使用「即時」(Real-Time) 生物識別系統,僅限於執法用途;執法用途,需符合嚴格條件,包括司法或行政授權、基本權利評估及遵守國家法律。
根據歐盟的AI法規,AI系統(主要是:高風險)必須從設計初期到部署,乃至於整個運作生命周期中,嚴格遵守合規性規範。這包括了在AI系統部署後,持續地進行監控,一旦發生重大事件,必須立即進行通報和重新評估。
合規的AI系統,可以申請CE標章,做為合規的證明。
資料來源
應用範圍
- 醫療輔助診斷屬高風險,依法強制人類醫師最終裁量。
- 公共場所即時人臉辨識屬不可接受風險。
- 聊天機器人為有限風險,需標示「AI生成」。
- 金融信用評分屬高風險,需建制追溯日誌與問責機制。
- Deepfake媒體影片發布,必須標示AI生成警語。
- 企業導入自動裁員系統需通過嚴格事前審查與監管。