iVOD / 160184

張雅琳 @

Start Time End Time Text
00:00:00,169 00:00:22,605 高興就是我們來舉辦這樣子的一個AI座談會來收集大家的意見尤其在此時此刻是我想大家都知道嘛就是AI畢竟大家都是這個領域的專業那就是在這個現在AI快速發展然後技術已經進入到日常生活的各個層面裡面然後現在尤其是國家也喊出了台灣AI國家隊等等的所以我覺得我們勢必要針對於這個發展的AI產業
00:00:31,072 00:00:49,627 所以我想我們還是必須要來回應到就是說目前我們這個法規的重點應該是怎麼樣來支持我們的產業可以發展以及確保我們國民的安全那我之前講的安全其實是一個權利的概念那如果是這樣子的目標的話我自己是有兩個想法啦那我覺得也可以請教大家的意見
00:00:50,848 00:01:19,525 这个基本法里面应该要有主责单位有个主管机关那因为现在的AI的发展它可能很跨在于这个出发部经济部国科会甚至卫福部教育部等等其实是非常各个面向其实都会有受到影响可是我们现在是缺乏一个整体的治理架构可是因为AI的风险跟伦理的问题不止只是产业发展而已它更涉及了人权民主国安甚至是可能影响了我们的司法的判断
00:01:20,205 00:01:48,504 因此我認為我們需要一個能夠統籌各部會的並且具有決策跟執行能力的中央主管機關來專責管理AI的規範制定政策推動風險控管以及讓我們可以跟國際接軌那美國拜登總統在2023年簽署了一個AI的行政命令明確的要求要設立一個AI的安全研究中心交由國家標準與技術研究院和國安部門與國家安全部來主導
00:01:49,664 00:02:00,970 統一的來處理AI的測試標準風險評估以及各部門的應用規範那我想在這邊大家可能也可以一起來集思廣益到底我們台灣比較適合放在哪一個部門呢
00:02:02,608 00:02:22,522 那第二個部分呢我也認為就是說我們在AI基本法裡面應該要明確的界定風險分級與責任分類的制度因為我們AI不是每一個用途都應該有高強度的監管我們應該依據它的實質的一個影響程度來把風險分等級例如就是說可能有最低等級有限風險高風險
00:02:24,764 00:02:45,546 以及不可接受的風險那這部分我們可以參考這個AI的歐盟的AI Act的分級方式但是也要納入美國所強調的用途導向影響導向的原則比方說AI如果只是用來寫文案畫插圖啦或是課堂練習風險當然是相對非常的低但是如果它今天用在於司法判決醫療診斷
00:02:48,068 00:02:59,616 求職審查這些可能就屬於高風險的系統就需要更嚴格的一個審查機制那更重要的是我們應該要明確的界定風險的醫務人到底是開發者使用者
00:03:00,914 00:03:17,680 然後誰負責了系統的安全誰負責資料透明等等不能夠發生問題之後就各部門互踢皮球然後廠商也不用負責等等所以我認為我們在設計AI基本法的時候除了考量到產業跟技術部分也要把人的基本權益一起納入來思考
00:03:18,800 00:03:40,854 那同時我也知道產業也會有點擔心就是說因為AI的變化實在是太快了如果我們把一個相對的法則放進來的時候可能也會限縮了一個AI的發展所以我想這個部分也是大家可能我們未來在制定相關法律的時候也是要一併來考量的那最後呢我要來強調AI基本法並不是要限制創新而是要提供清楚的規則和方向
00:03:41,674 00:03:57,612 讓好的技術能夠安心發展讓人民能夠信任使用那我相信我們現在一起來面對的話我們就更有機會的在兼顧剛剛講的不管是產業或者是我們國際的趨勢或者是我們人權的部分的一個就可以面對這樣子的問題
00:03:59,093 00:04:12,537 所以今天才是再次非常感謝大家一起前來然後我也希望未來我們可以打造出一個更能夠適應各個領域然後也能夠保障我們人權的一個AI基本法謝謝