iVOD / 168900

本逐字稿內容由 AI 自動生成,可能包含錯誤、遺漏或誤譯之處。請使用者務必與原始影片音訊內容交叉比對,以確保資訊正確性。另可參考立法院日後釋出的正式公報以取得最終權威版本。

林宜瑾 @ 第11屆第5會期教育及文化委員會第8次全體委員會議

Start Time End Time Text
00:00:07,371 00:00:17,932 謝主席 有請國科會陳副主委 速發部侯次長 中研院彭副院長請三個機關代表上質詢台
00:00:20,618 00:00:42,746 首先我先想請教國科會跟速發部當初我們製定AI基本法的時候曾履歷提及我們速發部要去盤點各部會然後去配合來訂定相關的執法因為有些法律甚至是要配合AI基本法來做出相對應的修正這個可以參照AI基本法的第17條到第19條
00:00:45,127 00:00:49,429 那AI基本法的第16條還有明訂說我們速發部要訂定這個AI的風險分類框架那想請教侯次長跟那個陳副主委我們執法修法的這個盤點進度如何那這個風險分類框架什麼時候公告那相對應的修法有沒有跟其他的部會再進行討論
00:01:12,629 00:01:33,838 跟委員報告目前風險分類框架還有這個法規的盤點現在都是在進行當中那風險分類框架應該已經送到行政院現在正在等待和聽當中那其他的盤點我們應該是一直在進行一直在進行當中
00:01:34,858 00:01:43,747 那可不可以把預計要修法的這些法規清單不管是法律啊 或者是法規命令是不是可以一個禮拜給本席分報告
00:01:47,315 00:02:05,275 跟委員報告我們目前是把AI風險分類框架送到行政院可能也跟委員報告一下目前AI風險框架跟各部會協作的一個機制
00:02:05,916 00:02:28,961 好 那風險分類框架裡面我們風險分為三大類那三大類底下有18個子類那這18個子類我們是參考MIT的這個風險的它有一個叫Risk Repository的一個架構那這個架構其實是收集了全世界各國不同的風險分類去做統整
00:02:29,561 00:02:58,867 那在这一个三大类18个子类之下我们把风险整个分类框架分为四个步骤那第一个步骤是盘点应用场景也就是我们请各机关去盘点他们所属的所管的业务范围内有哪些AI应用的场景那第二个步骤就是在这个应用场景底下依据我们所提供的分类有哪些风险
00:03:00,328 00:03:12,542 第三個步驟就是評估風險就是究竟他們識別出來的這些風險的可能性和發生之後嚴重危害的程度是不是有到所謂高風險的這個等級
00:03:14,244 00:03:35,466 那最後就是請各個部會他們去盤點說在這一個風險識別的和評估的結果底下現有的法律和政策工具是不是足夠因應那如果不夠因應的話呢是不是要去進行修法或是要有新的政策工具來提供
00:03:36,027 00:03:56,406 那這整個措施整個步驟我們現在在國客會的支持底下已經跟各部會開始進行非常積極的協作那我也請委員能夠我相信委員也能夠理解在這各個不同的部會裡面其實AI應用的程度是相當不一樣的
00:03:56,786 00:04:10,691 那他們對AI的這個理解還有風險的這個識別也都不太一樣那目前我們跟勞動部還有這個衛福部幾個比較金管會這些都已經開始進行協作
00:04:12,412 00:04:17,255 那關於修法的部分不好意思 請問一下就相關的執法我們有說什麼時候執法要出來至少你們規劃什麼時候執法的草案出來那相關的盤點的進度我再詢問這個
00:04:30,185 00:04:57,083 那国会会这边其实已经有请各部会去做初步的盘点那但是也请委员能够理解就是因为AI的这个运用还有技术一直在不断的变动当中所以还在盘点当中就是我们可能要持续性的跟您阶段性的报告就是因为他可不可以先给我就是目前盘点到如何给我一份书面报告好不好因为时间的关系好
00:04:58,773 00:05:24,583 接下來來解釋AI各層面的議題因為他很清楚他跨足了科研端 應用端他學科其實也不局限在科技領域他甚至還有法學的問題 侯次長可能最清楚還有社會學的問題所以本席認為說中研院跟國科會在學研的方面我們應該清楚奠基AI跨領域研究的基礎理論
00:05:26,024 00:05:40,604 來引領研究者投入更深的研究想要請教中研院還有國科會我們未來在AI基礎的研究上我們會呈現什麼樣的跨領域的研究會建立什麼樣的學門
00:05:42,042 00:06:08,276 好 謝謝林委員這一點我想我們就是我們要再做訓練剛才在報告裡面我們要跨領域比如說我們的人文的學者過去不懂AI現在我們就要訓練他我們一直也在開很多的課請他們助理們也要去上另外我們也請我們院內資訊人員協助他們在做這些AI方面的訓練從兩方面來做
00:06:10,217 00:06:36,656 好就是有一直在努力就對了那我想我們在這邊看見這個AI的浪潮這個席捲全球這個時刻我們各學科的領域都有人投入深入研究像清大這個林勤副教授他就在中研院的這個法學期刊有撰文分析歐盟的AI基本法那接續我前面提到的法治的問題本席認為國科會跟中研院我們應該真的很努力來
00:06:37,396 00:06:52,313 進行實證的研究具體在AI的議題提供修法跟立法的建議讓懸言跟修法可以持續交流對話那進而可以被司法來作為裁判的依據
00:06:53,254 00:07:17,621 那我們回到這次的主題之一就是學門的建構與應用本席認為在這邊我們相關學門的建構我們最後指向其實是應用那重點就在實際應用所以本席作為一個立法者我們的幕僚常常會在研讀各種法學的這個研究成果也參考這個來作為修法的建議來提出修法
00:07:18,081 00:07:37,123 所以本席要在這裡具體的建議這個AI的法律研究應該要突破單純的分析比較法的視野就如我前面所說的要跟這個立法的實務有更多的對話那簡單來說像中研院跟國科會我們做出的研究就應該要使職能建議
00:07:38,444 00:07:50,572 給AI跟數位的主管機關跟立法院所以在這裡想要了解我們中研院 國科會跟訴發部對於我剛提到這個看法你們有什麼樣的想法
00:07:52,271 00:08:13,801 謝謝林委員的建議我們其實在兩年前就已經成立了這個法律方面的風險小組由我們在座的法律所的陳所長林所長來負責那我們就都會固定去盤點哪些的會碰到的法律問題我希望未來可能有機會會跟國會來做進一步的交流謝謝
00:08:16,396 00:08:28,805 國科會跟委員報告我們其實不只是指法律國科會這邊所支持的一些研究的成果只要跟各部會有關係的有幫助的我們都會轉請各部會做參考
00:08:32,168 00:08:47,362 那在法律這一塊其實我們跟中央院也有很多密切的合作那其實有一些對法規的就像說人工智慧基本法這一塊我們其實已經有很多的研究討論那其實都有提供給抒發部做參考是好
00:08:48,203 00:09:12,989 那最後我再談一個實際應用的問題喔就是我們今天的主題之一就是數位透明度那這個對應到我國AI基本法的這個宣示原則之一就是透明與可解釋性簡單來說就是說當AI做出一個決策那我們必須要能交代它的這個演算過程跟理由那如果任何在我國落地的AI應用沒辦法滿足這樣的需求
00:09:14,789 00:09:32,859 這樣 如果這樣產生爭議的話那怎麼可能會導致要去打官司這會 勢必會引起很大的問題所以談到透明 我覺得我們不只需要這個演算法跟決策過程的透明我覺得也需要資料的透明甚至說是事後的清楚標示
00:09:33,579 00:09:52,402 那前陣子本市有向國安局提出一些書面質詢那詢問國安局是否具備以AI對抗AI的能力那針對這個現在快速傳播這些惡意的這個所謂的身為內容要如何的緊急處分
00:09:52,922 00:10:13,659 那國安局是回復本席說國安局他會研究導入AI代理人的技術來強化偵測、辨識AI生成內容及帳號群控等行為那另外他也或許可以借鑒歐盟的法制強化這個相關的法源
00:10:14,279 00:10:39,468 來促使這個社群平台業者能善盡企業的責任那依法來標註錯假訊息那審查這個這個不實的這個下架不實的影音那本席看來這個重點在於國家安全的守護搭配我國這個AI基本法的透明與可解釋性的這個原則我就應該要有辦法來針對這個令人頭痛的這個AI生成錯假訊息來進行處理比如說這個強制標註
00:10:43,670 00:11:03,179 就是要求他生成這個解釋他的生成過程那後端就當然來審查下架那配合AI基本法第五條政府亦避免人工智慧之應用有破壞國家安全等等的情勢那所以請教侯次長就是說台灣面對這種日益嚴峻的這種資訊戰
00:11:06,701 00:11:28,293 速發部怎麼樣跟國安單位來配合來研擬這個相關的政策來對抗這個不利於我們台灣的這個國家他們的錯假訊息的散佈跟委員報告我們就這個A案生成內容錯假訊息還有標示這個議題目前由部長他
00:11:29,934 00:11:54,427 親自處理那並和各個這個主要的這個大型平台還有生成式AI的主要的提供服務商去做討論那也已經召開會議那我們現在得到的這個反饋就我所知各個平台他們其實都願意往這個主動標示的這個方向去做推進
00:11:57,150 00:12:06,885 国家安全确实是非常重要所以这个部分再请各单位多加努力谢谢主席谢谢林一金委员