F歐盟「AI技術風險」介紹
- 2022/10/25
- 490
- 31
2020年全球AI道德領域的領導者歐盟頒布「AI白皮書」,提出對AI技術的監管綱領;說明AI須以「人」為中心,同時為建立一個「信任生態系」,必須要有明確標準來區分不同的AI技術,對「高風險的AI」提出一些強制性要求,也對「非高風險AI」鼓勵其進行自發性認證。然而此白皮書內對於何謂「高風險AI」定義及應用領域並不清楚,對管理細則也付之闕如。2021年歐盟又持續跟進推出「AI規則草案」,性質類似承接前一年白皮書的執行細則;第一步便先將AI技術應用區分為「不可接受風險」、「高風險」、「低風險或最小風險」三類,同時明令禁止使用列為「不可接受風險」的AI技術。
本文為免費文章,請您登入後使用。