• 客服專區
  • 登入
  • 註冊
焦點產業

events近期活動

      keyword關鍵議題

      expert熱門專家

        POP REPORT熱門文章

        i卡會員

        歡迎免費加入,享有多項免費權益!

        >

        PRESENTATIONS主題推薦

        POPULAR熱門專區

        全面解析:從「可解釋AI」到「可信任AI」
        Comprehensive Analysis for eXplainable AI and Trustworthy AI
        • 2021/12/03
        • 3079
        • 48

        2018年迄今「可解釋AI」、「可信任AI」等陸續出現在國際組織或重點國家規範之中,原本僅停留於倫理道德層次的討論,但隨著AI應用廣泛,也伴隨AI風險,因此2020年開始朝向工具化、技術化落實,一方面提升AI被導入的意願,將間接加速AI應用市場擴展,另一方面也成為新創商機,發展出各種「可解釋AI」、「可信任AI」的新應用市場。本文從「可解釋AI」的最初源起談起,再步步拆解AI可以被信賴的原則與層面、進而分析目前重要國際規範與標準、以及未來發展的兩大重點,最後提出建議方向。本文內容與方向可提供給企業決策者、產品開發人員、科技法律與政策擬定者、一般AI使用者、企業使用者對於「可解釋AI」、「可信任AI」有較深入及全盤性的了解。

        【內容大綱】

        • 一、最初源起:為解AI黑盒子之謎
        • 二、步步拆解:AI可以被信賴的原則與層面
          • (一)社會層次
          • (二)技術層次
          • (三)管理層次
        • 三、國際重要相關規範與標準現況
        • 四、未來發展重點:技術化/工具化、需求導向
          • (一)技術化/工具化
          • (二)企業導入需求
        • IEKView
         

        【圖表大綱】

        • 圖1、人工智慧發展瓶頸與方向
        • 圖2、可解釋AI/可信任AI相關字詞分析
        • 表1、對於AI原則重要度排序
        • 表2、人工智慧八大原則分析圖
        • 圖3、國際機構發布Trustworthy AI的重點原則
        • 圖4、ML Commons三個面向與全球會員表
        • 圖5、不同產業對AI可信任程度的需求分析圖

        推薦閱讀