2024 IEKTopics|強化AI時代的風險管理

人工智慧(Artificial Intelligence, AI)技術蓬勃發展,帶來產業發展機會,成為企業推動數位轉型的重要科技,不過隨之而來也衍生科技應用風險議題,像是不可避免的道德層次、資訊安全、AI技術的可信任性(Trustworthy)等隱患。

顯而易見,近年生成式AI與大型語言模型相關應用大放異彩,然而,AI模型規模與複雜程度也大幅提升,導致AI運作過程與生成結果難以完全掌控,或是被有心人士利用。

世界經濟論壇(World Economic Forum, WEF)的研究報告示警,AI生成誤導資訊與資訊遺漏(Misinformation and Disinformation),將在今、明兩年超越極端氣候,成為全球面臨的最大風險。

從微觀到巨觀層次,意識AI風險無所不在

在工作與日常生活的各個層面,民眾正接受AI帶來的方便,也承受其風險。AI所生成的錯誤資訊,包含虛假訊息、詐騙訊息、假圖片、深度偽造(Deepfake)影片等,在網路發達的今日加速在大眾之間流竄,真假難辨更使民眾容易受騙。

相關案件層出不窮,小至各大社群平臺的假訊息經AI計算後,精準針對目標受眾(Target Audience)混淆視聽;大至2023年美國律師誤信AI生成的判例,被對造律師指出有異,令社會大為震驚竟然司法界也受到AI的負面影響。

在企業界同樣受到衝擊,駭客透過AI生成新型勒索病毒,增加入侵的頻率及受害範圍,導致企業的資料有外洩疑慮;AI系統本身也面臨如資料中毒、惡意竄改、模型竊取、對抗式攻擊(Adversarial Attack)等風險。因此企業須防範內部機敏數據外洩或系統受到破壞,從數據面到模型面都要兼顧AI系統安全。另外的一個議題,內容原創者質疑生成式AI開發公司在未告知的情況下,將他們的創意內容拿來訓練模型並生成新的內容。這個手法可能涉及侵犯智慧財產權,例如:紐約時報曾對OpenAI與Microsoft提起著作權侵權訴訟。

在國家層面,長期若充斥著虛假訊息流竄,猶如心理學提出的「煤氣燈效應」(Gaslighting),人心被操弄、控制,可能影響選舉結果,甚至提高地緣政治風險,造成社會動盪。當數位環境充斥真偽難辨的資訊,將打擊資訊信用,人們不再相信自己辨別真假的能力,朝向消極應對、不再在乎資訊真假,將打擊到資訊的信用價值,與社會對數位的信任程度。

在2024年6月舉行歐盟議會選舉前,歐盟高級委員表示,法國、德國和波蘭已成為俄羅斯虛假訊息的攻擊目標,利用大眾對移民和安全政策的擔憂,散播烏克蘭難民是負擔的說法。於此同時,在議會選舉前,尚未被列入歐盟《數位服務法》(Digital Services Act, DSA)首波管理名單的通訊軟體Telegram,也被用來針對斯洛伐克、保加利亞等國散播類似的謠言。

利用AI犯罪成為新常態,國際科技公司主動「抗詐」

科技的推陳出新,使得網路犯罪方式變化加快,多樣化且複雜化,特別是AI的時代更加速「訊息」方面的犯罪,使得預防攻擊風險變得困難。觀察數篇網路安全趨勢報告可以發現,AI工具成為簡化詐騙流程、過濾目標以及擴大攻擊規模的利器。

例如:網路犯罪集團大量運用AI提高虛擬犯罪效率,或是把生成式AI和模型用來提高釣魚郵件和社交工程(Social Engineering)的精準度,得以快速針對人類不同的情感反應,做出個人化的信任詐騙文本,從各方面滲透不同個性的人心,達成精準的情感操控。

要應對多樣化且複雜性提高的AI風險與資安攻擊時,需要多部門、跨領域的溝通合作,這也拉長應變的時間。對於民眾而言,生成式AI內容真偽難辨,經常面對假消息無法及時辨別,甚至助長散布。也因為從假訊息的產生到消除,這期間的恢復週期過長,導致民眾對假消息的印象難以改變,也對社會造成無法逆轉的損失。

 

至於有些民眾長期受資安攻擊或接受的訊息充斥詐騙內容,會對社會信任度,甚至自己的資訊辨識能力信任度下降。因此,許多組織嘗試以倡議、法規、科技等多面向的方式,試圖提升資訊安全韌性,超前預防AI帶來的資安風險。

為打擊且預防2024全球大選年AI欺騙行為帶來的風險,防止惡意訊息干擾總統大選,許多知名科技公司就加入行動,包含Adobe、Amazon、Google、IBM、Meta、Microsoft、OpenAI和X等,都已有所承諾。

以OpenAI為例,OpenAI是2015年成立的美國人工智慧研究實驗室,由非營利組織OpenAI Inc.和其營利組織子公司OpenAILP所組成。2021年,OpenAI推出AI繪圖模型DALL-E,2022年底推出聊天機器人ChatGPT,2023年營收超過20億美元。為解決虛假訊息影響世界各地大選的問題,OpenAI祭出重要的措施來應對。

首先是「限制規範」的舉措,OpenAI規範不得將其生成式AI工具用於競選或遊說的應用程式,且不得試圖開發能冒充候選人或政府機關的聊天機器人。其次,是透過「紅隊測試」,模擬網路犯罪者的攻擊,取得回饋以建立安全措施,進一步避免針對性、誤導性的深偽影片,或是規模化的影響力操作。

其它措施是針對內容的標示或註解,承諾實施「內容來源和真實性聯盟C2PA」(Coalition for Content Provenance and Authenticity)的數位內容憑證開放式標準,透過加密技術嵌入後設資料(Metadata),得以追蹤圖像來源和修改歷史。另外,OpenAI在ChatGPT生成的文字中,將附上來源和連結,作為判斷的「可信賴註解」;或是用來生成圖像的DALL-E模型,以「來源分類器」(類似浮水印的方式),讓使用者能夠辨識其生成之圖片。

另一個案例是科技公司Microsoft的產品,推出專為開發人員和資料科學家所設計的AI服務組合,以AI解決方案提升商務成果、改善客戶體驗,其核心AI服務產品有AzureAI提供快速部署AI的解決方案;另外也推出具備AI功能的辦公軟體與應用介面Microsoft 365 Copilot與Bing AI。

為強化科技韌性,Microsoft規劃「負責任AI」(Responsible AI)指導原則與相關評量工具,提出「負責任AI」六大準則,從問責制、透明度、公平性、可靠性、隱私安全以及包容性等面向,有明確的目標要求、工具與實踐建議,給予產品開發團隊具體且可操作的指導原則。

此外Microsoft推出Copilotfor Security,提供完整的端到端解決方案。借助支援生成式AI的助理,以自然語言詢問Copilotfor Security,在數秒鐘內就能針對常見的安全性和IT工作,收到可採取動作的回應。同時整合旗下的其他資訊安全產品,例如:Microsoft defender威脅情報、偵測回應等8大類產品,再配合開發平臺與設計相關工具,包含HAX人機互動指南、Responsible AI模型監控平臺、PromptBench模型對抗性基準測試等,協助用戶在開發模型時,減少模型輸出有害或不實內容,緩解虛假訊息與模型安全之風險。

臺灣推出TAIDE計畫,完善在地AI發展環境

政府面對AI對國家安全不可忽視的重要性與影響力,為確保AI技術的可信任性和安全性,我國政府開始投資AI基礎設施,建構所需之算力及服務平臺,並發展驗測規範及評測工具。

備受矚目的是「推動臺灣可信任生成式AI發展計畫」(Trustworthy AI Dialogue Engine, TAIDE),集合國家實驗研究院、數位發展部、中研院、各大學教授及各領域專家,
目標打造臺灣可信任生成式AI對話引擎基礎模型,讓政府或業者可依照需求選擇適用的模型大小及衡量算力,自行訓練模型或建構內部應用之模型。這個模型預計備足不同領域可用文本與訓練素材,以呼應模型所界定之以臺灣文化為基底,提高模型在正體中文回應的能力及特定任務的表現。後續搭配相關法制研析、驗測規範及評測工具之協助,打造健全AI的發展環境,提升民眾的信任度。

新科技、新應用,帶來新形態的資安風險與威脅,民眾面臨不確定性的風險之際,容易造成社會動盪不安。為確保資安韌性,需要事前預防保護資訊資產、事中應變,以及事後恢復正常運作的能力。國際上除了透過法規調適、組織倡議及規範來約束行為,也可以運用科技來解決科技帶來的風險,預防資安風險事件層出不窮。

在規範層次,面對AI時代的風險管理與資安韌性,各國持續公布AI與資安相關規範和標準,監管運用AI技術之相關產品與應用服務,提出具體認證標準與責任歸屬,讓使用者具評判依據。企業可藉由提出負責任AI指南,從使用倫理、資訊隱私到生成資訊應用等方面,為員工與使用者提供指引,配合AI維運管理,降低有害輸出,提升資料安全與隱私。同時,政府發展輔導措施,引領企業將AI產品服務納入「可信任AI」概念與AI風險應對措施,協助企業掌握國際AI發展趨勢、支持AI產品服務開發,並思考科技發展策略納入社會責任。

在科技層次,針對深偽圖片和假訊息偵測、數位身分驗證、惡意郵件處理等應用場景,可透過技術自動偵測和可信來源標註,強化資安風險管理。另外,AI公司發布模型應進行基準測試,從而讓AI社群了解模型的技術性能。同時,評估模型目的不只僅考慮功能性,更須要求負責任表現,發展值得信賴的技術與服務,增加使用者信心。

結語

AI展現令人驚豔的科技能力,也有不可忽視的風險隱患,除了探索AI更多元的應用可能性,從政府、企業到社會都須謹慎評估,透過科技與規範累積足夠能量,積極面對AI時代的機會與挑戰。

本文檔案:2024 IEKTopics|強化AI時代的風險管理下載檔案