• 客服專區
  • 登入
  • 註冊

events近期活動

      keyword關鍵議題

      POP REPORT熱門文章

      i卡會員

      歡迎免費加入,享有多項免費權益!

      >

      PRESENTATIONS主題推薦

      POPULAR熱門專區

      生成式AI崛起 法規應超前部署
      • 工商時報,文/簡立宗
      • 2023/6/9 上午4:40
      • 353

      生成式人工智慧技術的快速發展,全球主要國家開始積極對AI技術發展布局,如歐盟提出著名的人工智慧法草案(AI ACT);美國提出「人工智慧風險管理框架」(AI RMF 1.0)。綜觀全球人工智慧的治理趨勢,在國科會科技辦公室的指導下,資策會科法所於5月29日舉辦「2023科技法制變革論壇」,邀集專家從AI生成時代所帶動的ChatGPT法制與產業新趨勢談起,就AI應用目前所面臨的適法性、透明性、安全性等問題深入討論,為應用上可能產生的法規難題及相關產業發展的需求,從法制面超前部署。

      ChatGPT的應用帶來許多「驚豔」的改變,也伴隨威脅。國科會科技辦公室副執行秘書楊佳玲指出,未來由人類智慧與人工智慧所構築的人機協作世界,雖然為我們帶來無限可能的想像空間,然而人工智慧的治理趨勢、風險管理、倫理道德與監理架構等面向,更是政府在推動科技發展政策時要考量的法律議題。

      國科會非常重視人工智慧法制議題,日後將持續擴大研究動能與掌握AI目前及未來的關鍵趨勢,希望藉由資策會科法所今天所辦理的這場論壇,以及長期對科技法律政策的研析,促成相關政策的推動,帶動法律邁入生成式AI新時代。

      資策會副執行長蕭博仁表示,自ChatGPT推出以來,大家體會到生成式人工智慧發展迅速,人人都渴望用生成式AI技術創造萬能工具。資策會為第三方協力機構,持續關注AI工具的應用,由科法所從科技政策的視角,觀察人工智慧政策進程,掌握國內外法規制定的動態,進而提供台灣科技發展所需的資源與協助,打造可信任AI的數位環境。

      資策會科法所所長蕭宏宜說,台灣應該思索的是產業如何能乘AI浪潮而起,讓經營人才技術落地,具體布局實體數據商機促進企業數位轉型。如何讓台灣更多產業能更積極參與標準的制定,可能是更急迫且務實的問題。把AI做起來串起來的重中之重的核心就是資料,因此如何針對資料數據做一個有效的治理,創造被信任的場域,也將是資策會今年聚焦的重心。

      資策會科法所副所長顧振豪說,從2018年的人工智慧戰略到2022年的人工智慧責任指令草案,歐盟立法框架脈絡完整,是我國值得參考的案例。藉由分級、分類以針對不同風險而為管控,讓不同的創新有一定遵循之規則。

      他建議,實務上可由各行各業的主管機關就目前所職掌之法令先行檢視有無修正之必要;而各目的事業主管機關也可針對其所管產業領域於應用AI時,頒布一些要求或指引文件。除風險管控的措施外,整體政策可考量AI運作帶來的產業效益,透過獎勵補助之方式促進基礎建設之完備,如參照修正後的促參法,將相關的數位建設列為公共建設的範圍,讓生成式AI應用的基礎環境更為完備。

      工研院法務長王鵬瑜表示,綜觀全球各國針對AI所制定的研發指引及倫理規範,都是希望將AI的可追溯性、可解釋性納入規範,但由於演算法的不可測性,要達到這點事實上是有難度的,只能學著接受它,善用它,理解它,進一步加值它。他認為,法制不應全然是風險考量,而是要著重在如何創造出一個好的環境,讓公司、企業、國家在一個很安全的環境下,讓產業沒有顧忌可以往前衝,就像2018年經濟部頒布的無人載具的科技創新實驗條例,就是一個很好的參考範例。

      工研院資通所副所長黃維中說,針對AI,所有國家或國際組織所列之第一要項,共通上最關注的其安全性。技術上及產業面則關注驗測和評估,像美國就有提出NIST的AI風險評估框架,助產業自我檢視其AI產品的準確性、安全性及可靠度。針對AI最重要的資料治理及資料去識別化,資策會在2015年推出資料去識別化的國家標準,目前許多政府單位使用此一框架,進行資料保護。工研院與資策會共同合作,從法制面及制度面,針對國家、企業,甚至個人層級,提出AI使用上的指引,協助各界善用生成式AI,在技術面,也受政府支持,建立AI評測相關的技術規範,完善產業研發環境。

      面對生成式AI,非英語系國家正積極建立模型。台智雲副總經理黃世民說,為什麼台灣也要發展自己的模型,跟演算法偏見有很大的關係,如果自己沒有訓練一個大語言訓練模型,有可能未來用的就是別的國家的模型,如果不小心用了中國大陸的foundation model,問題就不會只是質量跟品質不一樣的問題,而是歷史觀與文化觀都會大不相同,因此台灣也需要發展一個自己的模型,以在地語言鏈結在地知識,貼近台灣市場所需求。企業如果要自建模型藉此建立一個專屬大腦,過程中就是要注意資料品質,另外資料去識別化,這個將考驗企業資安落實程度及技術力。

      萬國法律事務所律師洪志勳表示,目前大部分使用的OpenAI都是弱AI,仰賴的不是大語言模型而是資料庫,其中的資料可能都是從網路上所截取的圖表和文件,其存取及再應用可能衍生出觸犯著作權法問題。這樣的問題在國外己經有很多訴訟,歐美都是透過修法,放寬著作權的合理使用範圍,讓Open AI平台不需要再取得著作權人的同意,進行後續的衍生性應用,這類問題未來可能會愈來愈多,修法將是一個比較好的介接手段,讓廠商與使用者可以得到一個可預期的法律結果,而不是透過頻繁的法律解釋,讓廠商跟使用者無所適從。

      萬國法律事務所資深合夥律師黃帥升表示,面對AI,除了未來有許多工作可能不保之外,也有數位落差加深的可能性,要如何弭平,這將是政府單位該深思之處。此外,演算法的歧視可能在求職或其他的決策過程造成的不公平,這類的問題會更多,還有個資或隱私權、資安或著作權等問題,也都是未來觀察的重點,對於人工智慧立法的原則,可能是以基本法搭配作用法可能會比較完全,未來的法規遵循議題,將是全人類的一大挑戰。(國家科學及技術委員會廣告)

      更多新聞

      推薦閱讀