• 聯絡我們
  • 登入
  • 註冊
焦點產業

events近期活動

      keyword關鍵議題

      expert熱門專家

        POP REPORT熱門文章

        i卡會員

        歡迎免費加入,享有多項免費權益!

        >

        PRESENTATIONS主題推薦

        可解釋與可視化AI技術發展現況與應用機會分析
        The Analysis of Current Status and Application Opportunities of Explainable and Visible AI Technology
        • 2019/03/28
        • 1426
        • 87

        本文重點為探討人工智慧在資料取得和模型運作兩方面的黑箱問題,其相關的改善方式發展現況,以及改善後可能衍生出的應用機會。人類經驗的無形性使機器學習發生困難的狀況,也就是隱性資料轉換的黑箱問題,在感測器與穿戴裝置技術進步後,極大程度的克服了關於勞務操作性工作的人類經驗傳承問題。然而機器學習模型的黑箱問題,目前仍沒有最佳解法,僅能確定發展可解釋神經網路運作的工具是最為可行的方向。解釋性人工智慧可消除AI開發者與應用者對分析結果的信任危機,此效益將擴及醫療、金融、公共行政、化工等,需要對判斷結果有清楚解釋力,以及對模擬情境有良好預測力的領域,有助於加速人工智慧的應用推廣。

        【內容大綱】

        • 一、 黑箱運作模式對AI分析的困擾
          • (一)  資料黑箱阻礙機器學習成效
          • (二)  模式黑箱導致應用擴散不易
        • 二、 可視化技術導入AI發展現況
          • (一)  利用感測器使資料可視化
          • (二)  模型可視化解決方案已見雛型
        • 三、 中國大陸AI新創亦積極研發
        • 四、 人工智慧可視化技術應用機會
          • (一)  隱性資料可視化技術可用以傳承資深人員經驗
          • (二)  模型可視化技術在垂直領域的應用機會
        • IEKView
         

        【圖表大綱】

        • 圖一、深層神經網路模型架構
        • 圖二、人工智慧系統黑箱運作解釋性不足
        • 圖三、LIME架構圖像解析示意
        • 圖四、神經元刪除法示意
        • 圖五、Dcell系統介面示意
        • 圖六、RNN結構可視化標記示意

         

        推薦閱讀