可解釋與可視化AI技術發展現況與應用機會分析
The Analysis of Current Status and Application Opportunities of Explainable and Visible AI Technology
- 2019/03/28
- 2872
- 98
本文重點為探討人工智慧在資料取得和模型運作兩方面的黑箱問題,其相關的改善方式發展現況,以及改善後可能衍生出的應用機會。人類經驗的無形性使機器學習發生困難的狀況,也就是隱性資料轉換的黑箱問題,在感測器與穿戴裝置技術進步後,極大程度的克服了關於勞務操作性工作的人類經驗傳承問題。然而機器學習模型的黑箱問題,目前仍沒有最佳解法,僅能確定發展可解釋神經網路運作的工具是最為可行的方向。解釋性人工智慧可消除AI開發者與應用者對分析結果的信任危機,此效益將擴及醫療、金融、公共行政、化工等,需要對判斷結果有清楚解釋力,以及對模擬情境有良好預測力的領域,有助於加速人工智慧的應用推廣。
【內容大綱】
-
一、 黑箱運作模式對AI分析的困擾
- (一) 資料黑箱阻礙機器學習成效
- (二) 模式黑箱導致應用擴散不易
-
二、 可視化技術導入AI發展現況
- (一) 利用感測器使資料可視化
- (二) 模型可視化解決方案已見雛型
- 三、 中國大陸AI新創亦積極研發
-
四、 人工智慧可視化技術應用機會
- (一) 隱性資料可視化技術可用以傳承資深人員經驗
- (二) 模型可視化技術在垂直領域的應用機會
- IEKView
【圖表大綱】
- 圖一、深層神經網路模型架構
- 圖二、人工智慧系統黑箱運作解釋性不足
- 圖三、LIME架構圖像解析示意
- 圖四、神經元刪除法示意
- 圖五、Dcell系統介面示意
- 圖六、RNN結構可視化標記示意