眺望2020產業發展趨勢研討會自22至30日隆重舉行,今年主題圍繞「科技加值 邁向產業新藍海」,會後簡報已全數上線...... (more)

研院研發成果再獲國際肯定,「PECOLA樂齡陪伴機器人」與「iStimUweaR複合式智能穿戴系統」兩項技術獲得美國消費... (more)

字級 

可解釋與可視化AI技術發展現況與應用機會分析

The Analysis of Current Status and Application Opportunities of Explainable and Visible AI Technology

2019/03/28

  • AI新人工智慧關鍵發展與商機
  • 智慧生活科技與應用商機

本文重點為探討人工智慧在資料取得和模型運作兩方面的黑箱問題,其相關的改善方式發展現況,以及改善後可能衍生出的應用機會。人類經驗的無形性使機器學習發生困難的狀況,也就是隱性資料轉換的黑箱問題,在感測器與穿戴裝置技術進步後,極大程度的克服了關於勞務操作性工作的人類經驗傳承問題。然而機器學習模型的黑箱問題,目前仍沒有最佳解法,僅能確定發展可解釋神經網路運作的工具是最為可行的方向。解釋性人工智慧可消除AI開發者與應用者對分析結果的信任危機,此效益將擴及醫療、金融、公共行政、化工等,需要對判斷結果有清楚解釋力,以及對模擬情境有良好預測力的領域,有助於加速人工智慧的應用推廣。

【內容大綱】

  • 一、 黑箱運作模式對AI分析的困擾
    • (一)  資料黑箱阻礙機器學習成效
    • (二)  模式黑箱導致應用擴散不易
  • 二、 可視化技術導入AI發展現況
    • (一)  利用感測器使資料可視化
    • (二)  模型可視化解決方案已見雛型
  • 三、 中國大陸AI新創亦積極研發
  • 四、 人工智慧可視化技術應用機會
    • (一)  隱性資料可視化技術可用以傳承資深人員經驗
    • (二)  模型可視化技術在垂直領域的應用機會
  • IEKView
 

【圖表大綱】

  • 圖一、深層神經網路模型架構
  • 圖二、人工智慧系統黑箱運作解釋性不足
  • 圖三、LIME架構圖像解析示意
  • 圖四、神經元刪除法示意
  • 圖五、Dcell系統介面示意
  • 圖六、RNN結構可視化標記示意

 

本文為K卡會員相關模組訂戶限閱文章,請您登入升級後使用

檔案名稱 檔案下載 下載次數
可解釋與可視化AI技術發展現況與應用機會分析.pdf 下載 75次
回上一頁
加入I卡會員或IEKToday APP會員享有多項免費權益:包含瀏覽部分產業焦點、產業簡報、圖表資料庫、讓您第一時間掌握產業脈動!

推薦閱讀

 
近期活動
 
 
主題文章推薦
熱門主題推薦