歐盟修訂AI產品損害賠償制度以完善AI治理法規框架
EU proposes the compensation mechanism of AI system to complete AI governance framework
- 2022/11/02
- 1287
- 38
人工智慧的技術應用早已滲透到你我的生活周遭,技術快速迭代加上訓練成本降低,更有利於AI技術發展更多元的應用方案。然而其黑盒子特性長期被認為將帶來過去從未碰到的風險,因此各國政府除了積極投資發展AI技術以外,也提出軟性、硬性或實驗性質的計畫與政策,試圖在創新與管制間尋求平衡點。其中又以歐盟的腳步最為快速,繼2020年的人工智慧白皮書、2021年的人工智慧調和規則後,歐盟已勾勒出其理想的AI治理框架,並透過沙盒測試實際法律效果,以利未來落實。但人工智慧調和規則的目的是避免風險,但風險真正發生時仍需要法律工具進行責任追究與賠償,因此近期歐盟提出兩項AI產品責任指令,分別針對企業與國家在消費者遭受損害時所應擔負的責任進行規則更新與訂定,期望藉此進一步完善其AI治理框架。
【內容大綱】
- 一、人工智慧更容易被應用,唯衍生風險管制亟待處理
-
二、各國政府對於AI管制的作法仍偏向軟性
- (一)提供軟性指導
- (二)進行法規實驗
- (三)硬性法律途徑
- (四)實施禁令
-
三、歐盟AI治理立法動態:從風險分類到損害賠償責任
- (一)AI治理核心定於以人為本,並以風險為基礎設計治理框架
- (二)提出AI法規草案以調和歐盟統一規則
- (三)提出AI責任法令以完善法規結構
- IEKView
- 參考文獻
【圖表大綱】
- 圖1、2013-2021 AI私部門投資概況
- 圖2、各類AI系統的訓練所需時間
- 表1、各國對於AI治理的法規相關作法
- 表2、歐盟AI調和規則的4類AI系統與管制內容