工研院「2022可信任AI國際研討會」登場 剖析AI風險管理、AI聯合學習、AI倫理特徵
工研院「2022可信任AI國際研討會」登場 剖析AI風險管理、AI聯合學習、AI倫理特徵。(工研院提供)
從 Google 搜尋引擎、Facebook 貼文推播、Netflix 影片推薦,到自駕車、無人機創新應用,AI演算法無所不在。為了掌握機器學習、深度學習等AI系統,管理AI人工智慧帶來的風險,全球逐漸重視「可信任AI」的議題,各國更開始將AI治理納入法規。工研院在經濟部工業局支持下,今(2)日首度舉辦「2022 可信任AI國際研討會(2022 International Workshop on Trustworthy AI)」,聚集國內外AI領域專家探討AI風險管理、可信任的AI系統等議題,吸引超過500位專家報名共襄盛舉。行政院政務委員唐鳳也讚許表示,可信任AI研討會是很好的開始,將有利推進可信任AI標準化,加速我國AI數位科技的發展。
行政院政務委員唐鳳表示,AI就像是哆啦A夢和大雄的關係,兩者相輔相成。AI其實也可以理解成輔助式的智慧(Assistive Intelligence),而非完全取代人類。就像AI站在輔助的立場,人類才是主體。她指出,在有些地方,AI等科技與民主制度正在發生衝突,台灣則專注於促進多元合作的數位科技,讓科技與民主一起蓬勃發展。希望透過此次研討會交流先進民主國家的AI治理思維,加速AI與可信任AI數位科技發展,實踐2030達到創新、包容、永續的智慧國家目標。
經濟部工業局局長呂正華則指出,隨著AI人工智慧技術與應用的成熟,必須注意如何管理或監督人工智慧所帶來的風險。例如美國政府在2019年推出「美國AI倡議」、 2020年發佈「人工智慧應用監管指南」,都將可信任AI的準則列為其重點。他強調,未來將規劃臺灣與美國的NIST、法國的LNE等國家級實驗室合作,鏈結美國與歐盟相關技術規範與標準,協助臺灣AI產品能符合國際共通的標準與要求,成為國際上受信賴的AI合作夥伴。
工研院副院長張培仁進一步指出,AI應用日益普及,也引發社會開始討論倫理道德的議題,包括資料偏見、隱私保護與安全、系統透明化、可解釋性等問題。例如工研院今年剛獲得愛迪生獎的「眼部醫學影像輔助診斷AI技術」,即是運用AI分析3秒內快速辨識並判讀病變的嚴重程度,而且可以標示不同病癥的位置,輔助醫生可以快速跟病患進行解釋。因此若能將這些資料在隱私保護安全前提下,提供不同醫院資訊交流,透過聯合學習將能推升臺灣AI醫療新境界。
此次研討會更罕見邀請到美國國家標準與技術研究院(National Institute of Standards and Technology;NIST)資訊技術實驗室幕僚長Elham Tabassi,她也分享NIST 的AI風險管理工具,可在值得信賴的AI模型基礎下,讓AI推理儘量符合公平性、安全性,甚至具備可解釋性;美國哥倫比亞大學(Columbia University)副校長Jeannette M. Wing則認為在可信任運算架構擴充下,能增加AI系統的可信任性等。此外,還有臺灣AI實驗室創辦人杜奕瑾、台大資工系教授許永真、鴻海研究院執行長李維斌、神盾公司主任工程師周尚緯、國家度量衡標準實驗室主任暨工研院量測中心執行長林增耀,以及工研院資通所副所長花凱龍等專家,共同分享可信任AI的發展趨勢,並探討國內外經驗,共同研議臺灣接軌全球可信任AI生態系的發展藍圖。
工研院擘畫「2030技術策略與藍圖」,規劃智慧化致能技術的人工智慧技術領域,期望支持智慧生活、健康樂活、永續環境三大應用領域發展出的創新系統及應用服務。今年更將聚焦「可信任AI」相關技術前瞻研發,期望發展值得信賴的AI技術,甚至驅動產業促發更多的應用可能,厚植我國產業實力。