全面解析:從「可解釋AI」到「可信任AI」
Comprehensive Analysis for eXplainable AI and Trustworthy AI
- 2021/12/03
- 3360
- 49
2018年迄今「可解釋AI」、「可信任AI」等陸續出現在國際組織或重點國家規範之中,原本僅停留於倫理道德層次的討論,但隨著AI應用廣泛,也伴隨AI風險,因此2020年開始朝向工具化、技術化落實,一方面提升AI被導入的意願,將間接加速AI應用市場擴展,另一方面也成為新創商機,發展出各種「可解釋AI」、「可信任AI」的新應用市場。本文從「可解釋AI」的最初源起談起,再步步拆解AI可以被信賴的原則與層面、進而分析目前重要國際規範與標準、以及未來發展的兩大重點,最後提出建議方向。本文內容與方向可提供給企業決策者、產品開發人員、科技法律與政策擬定者、一般AI使用者、企業使用者對於「可解釋AI」、「可信任AI」有較深入及全盤性的了解。
【內容大綱】
- 一、最初源起:為解AI黑盒子之謎
-
二、步步拆解:AI可以被信賴的原則與層面
- (一)社會層次
- (二)技術層次
- (三)管理層次
- 三、國際重要相關規範與標準現況
-
四、未來發展重點:技術化/工具化、需求導向
- (一)技術化/工具化
- (二)企業導入需求
- IEKView
【圖表大綱】
- 圖1、人工智慧發展瓶頸與方向
- 圖2、可解釋AI/可信任AI相關字詞分析
- 表1、對於AI原則重要度排序
- 表2、人工智慧八大原則分析圖
- 圖3、國際機構發布Trustworthy AI的重點原則
- 圖4、ML Commons三個面向與全球會員表
- 圖5、不同產業對AI可信任程度的需求分析圖