iVOD / 161330

Field Value
IVOD_ID 161330
IVOD_URL https://ivod.ly.gov.tw/Play/Clip/1M/161330
日期 2025-05-14
會議資料.會議代碼 聯席會議-11-3-22,23-1
會議資料.會議代碼:str 第11屆第3會期教育及文化、交通委員會第1次聯席會議
會議資料.屆 11
會議資料.會期 3
會議資料.會次 1
會議資料.種類 聯席會議
會議資料.委員會代碼[0] 22
會議資料.委員會代碼[1] 23
會議資料.委員會代碼:str[0] 教育及文化委員會
會議資料.委員會代碼:str[1] 交通委員會
會議資料.標題 第11屆第3會期教育及文化、交通委員會第1次聯席會議
影片種類 Clip
開始時間 2025-05-14T10:32:27+08:00
結束時間 2025-05-14T10:41:24+08:00
影片長度 00:08:57
支援功能[0] ai-transcript
video_url https://ivod-lyvod.cdn.hinet.net/vod_1/_definst_/mp4:1MClips/4f2e91488ef6971b1d437332dab76390ebe85dec65e1b6405433fb1cebf983d876d6fe535e5dfa9f5ea18f28b6918d91.mp4/playlist.m3u8
委員名稱 陳素月
委員發言時間 10:32:27 - 10:41:24
會議時間 2025-05-14T09:00:00+08:00
會議名稱 立法院第11屆第3會期教育及文化、交通委員會第1次聯席會議(事由:一、審查委員葛如鈞等37人擬具「人工智慧基本法草案」案。 二、審查委員邱若華等17人擬具「人工智慧基本法草案」案。 三、審查委員羅廷瑋等17人擬具「人工智慧基本法草案」案。 四、審查委員萬美玲等18人擬具「人工智慧基本法草案」案。 五、審查委員許宇甄等20人擬具「人工智慧基本法草案」案。 六、審查委員張嘉郡等21人擬具「人工智慧基本法草案」案。 七、審查委員林倩綺等23人擬具「人工智慧基本法草案」案。 (僅進行詢答))
transcript.pyannote[0].speaker SPEAKER_01
transcript.pyannote[0].start 0.03096875
transcript.pyannote[0].end 2.24159375
transcript.pyannote[1].speaker SPEAKER_01
transcript.pyannote[1].start 11.37096875
transcript.pyannote[1].end 15.20159375
transcript.pyannote[2].speaker SPEAKER_01
transcript.pyannote[2].start 16.29846875
transcript.pyannote[2].end 18.03659375
transcript.pyannote[3].speaker SPEAKER_00
transcript.pyannote[3].start 18.03659375
transcript.pyannote[3].end 18.45846875
transcript.pyannote[4].speaker SPEAKER_00
transcript.pyannote[4].start 23.30159375
transcript.pyannote[4].end 24.24659375
transcript.pyannote[5].speaker SPEAKER_01
transcript.pyannote[5].start 24.24659375
transcript.pyannote[5].end 115.06784375
transcript.pyannote[6].speaker SPEAKER_00
transcript.pyannote[6].start 115.64159375
transcript.pyannote[6].end 145.93221875
transcript.pyannote[7].speaker SPEAKER_01
transcript.pyannote[7].start 140.38034375
transcript.pyannote[7].end 140.63346875
transcript.pyannote[8].speaker SPEAKER_01
transcript.pyannote[8].start 146.30346875
transcript.pyannote[8].end 177.67409375
transcript.pyannote[9].speaker SPEAKER_00
transcript.pyannote[9].start 178.34909375
transcript.pyannote[9].end 196.35471875
transcript.pyannote[10].speaker SPEAKER_00
transcript.pyannote[10].start 196.91159375
transcript.pyannote[10].end 243.13221875
transcript.pyannote[11].speaker SPEAKER_01
transcript.pyannote[11].start 213.75284375
transcript.pyannote[11].end 213.88784375
transcript.pyannote[12].speaker SPEAKER_01
transcript.pyannote[12].start 213.92159375
transcript.pyannote[12].end 214.07346875
transcript.pyannote[13].speaker SPEAKER_01
transcript.pyannote[13].start 215.91284375
transcript.pyannote[13].end 216.33471875
transcript.pyannote[14].speaker SPEAKER_01
transcript.pyannote[14].start 243.48659375
transcript.pyannote[14].end 273.10221875
transcript.pyannote[15].speaker SPEAKER_00
transcript.pyannote[15].start 273.54096875
transcript.pyannote[15].end 273.77721875
transcript.pyannote[16].speaker SPEAKER_00
transcript.pyannote[16].start 273.84471875
transcript.pyannote[16].end 336.70409375
transcript.pyannote[17].speaker SPEAKER_01
transcript.pyannote[17].start 337.07534375
transcript.pyannote[17].end 402.73596875
transcript.pyannote[18].speaker SPEAKER_00
transcript.pyannote[18].start 403.79909375
transcript.pyannote[18].end 419.69534375
transcript.pyannote[19].speaker SPEAKER_01
transcript.pyannote[19].start 419.99909375
transcript.pyannote[19].end 439.32096875
transcript.pyannote[20].speaker SPEAKER_01
transcript.pyannote[20].start 440.26596875
transcript.pyannote[20].end 441.29534375
transcript.pyannote[21].speaker SPEAKER_01
transcript.pyannote[21].start 444.68721875
transcript.pyannote[21].end 483.83721875
transcript.pyannote[22].speaker SPEAKER_00
transcript.pyannote[22].start 484.30971875
transcript.pyannote[22].end 513.84096875
transcript.pyannote[23].speaker SPEAKER_01
transcript.pyannote[23].start 514.21221875
transcript.pyannote[23].end 532.43721875
transcript.pyannote[24].speaker SPEAKER_00
transcript.pyannote[24].start 532.63971875
transcript.pyannote[24].end 533.39909375
transcript.pyannote[25].speaker SPEAKER_00
transcript.pyannote[25].start 535.93034375
transcript.pyannote[25].end 537.71909375
transcript.pyannote[26].speaker SPEAKER_00
transcript.pyannote[26].start 537.95534375
transcript.pyannote[26].end 537.97221875
transcript.whisperx[0].start 0.029
transcript.whisperx[0].end 1.25
transcript.whisperx[0].text 有請陳樹越委員質詢謝謝主席 請主席邀請速發部葉次長有請葉次長備質詢 謝謝
transcript.whisperx[1].start 23.359
transcript.whisperx[1].end 47.105
transcript.whisperx[1].text 委員早安 委員好次長早今天我們是針對這個人工智慧法來進行詢問那我們也知道現在科技的進步發展真的是日新月異所以這個人工智慧的一個發展也跟著蓬勃發展那對於這個人工智慧的這個運用對我們的商業活動跟我們現代人類的生活也是造成很大的衝擊跟影響
transcript.whisperx[2].start 51.108
transcript.whisperx[2].end 71.885
transcript.whisperx[2].text 這個賴總統也宣誓說要打造台灣成為人工智慧之島那主委院長也有強調說要推動台灣進入AI全面的應用時代所以一個完善的人工智慧基本法對於我們就是要這個發展AI的指引絕對是有它的必要性這個也是很多委員會社會各界都在關注的一個議題
transcript.whisperx[3].start 73.166
transcript.whisperx[3].end 87.433
transcript.whisperx[3].text 那我們也知道隨著AI的一個快速發展跟它的運用它所帶來的一個風險真的也是非常的大像這個AI它提供的資訊的偏見或者是不確不準確性或者是錯誤的訊息或者是會是不是侵犯隱私的問題還有這個智慧財產權的問題這剛剛崑澤委員問到還有這個威脅國家安全還有這個AI失控這樣子的一些風險
transcript.whisperx[4].start 100.62
transcript.whisperx[4].end 114.881
transcript.whisperx[4].text 所以这些风险也是成为我们各国在这个AI治理上真的是迫在眉睫必须去面对跟处理的那在这边我请教一下叶司长就是我们对这个AI风险的管理我们的态度是怎么样
transcript.whisperx[5].start 117.044
transcript.whisperx[5].end 144.122
transcript.whisperx[5].text 我們完全同意委員的說法我們同時要在鼓勵創新跟風險管理之間求取的平衡行政院在研擬這個AI基本法的時候大概就會特別的強調說包括人類自主隱私的保護跟安全性透明跟可解釋性公平跟可問責希望我們能夠享受AI所帶來的好處減低AI所帶來的負面的影響所以這個在草案裡面
transcript.whisperx[6].start 146.424
transcript.whisperx[6].end 173.627
transcript.whisperx[6].text 是那我们就是说对未来对于这个AI的一个监理因为我们知道现在就是参考国外的做法目前大概有两种的方式一个就是欧盟的就是制定人工智慧监管的专法那另外一个就是美国的就是不制定专法他是采取比较这个监管的态度是比较自由的就是要避免过度的一个干预所以在这个部分我们是不是也要去思考就是说我们在制定这个专法来监管之后
transcript.whisperx[7].start 174.147
transcript.whisperx[7].end 195.254
transcript.whisperx[7].text 對於這個AI的一個發展是不是會造成限制是謝謝委員的確我們有看到歐盟跟韓國的嚴格比較嚴格的這個監管規範會造成這個AI創新的一些一定的阻礙所以我們採取基本法模式最大的好處它是原則性的規定那它不會這個阻礙這個創新或是彈性的運用那這個
transcript.whisperx[8].start 196.994
transcript.whisperx[8].end 216.808
transcript.whisperx[8].text 只有在各個領域在特別使用到AI的時候各個領域的主管機關可以根據它風險高低訂定規範譬如說自駕車一定會使用到人工智慧交通部就可以訂定無人載具的特別規範或者是在醫學上已經廣泛應用AI的醫療器材
transcript.whisperx[9].start 218.529
transcript.whisperx[9].end 242.902
transcript.whisperx[9].text 其實我們的衛福部也訂定了醫療器材AI的指引這個意思就是說在一般性的規範上面我們採取基本法原則性的就像委員所說的保留一定的彈性但是在各個領域會根據它風險高低來制定比較細膩的規範我們是採取這樣做法可以說是折衷歐盟跟美國採取的一種折衷式的方式
transcript.whisperx[10].start 243.627
transcript.whisperx[10].end 250.813
transcript.whisperx[10].text 是那我們就是參照這個歐盟他是針對這個AI的一個監理他是就是AI的這個風險他是用風險分級的一個方式就是分為不可接受的風險高風險還有有限風險及低或無風險四個等級那我們看到速發部的一個報告還有對外的一個就是說明都是我們要採取這個風險分類那所謂風險分級跟風險分類有什麼差別它差異是在哪裡
transcript.whisperx[11].start 274.541
transcript.whisperx[11].end 299.614
transcript.whisperx[11].text 根本報告風險分級就如委員所提到歐盟其實是把它分成這個不可接受一直到低風險那其實在歐盟因為它是一個框架性的法律到各個會員國它其實還是有彈性的空間那我們採取的是另外一種方式其實比較像是美國NIST所採取的方式我們把風險不管它是影響國家的還是影響社會秩序還是影響人權的把它標示出來
transcript.whisperx[12].start 300.915
transcript.whisperx[12].end 315.167
transcript.whisperx[12].text 而且從這個識別風險到評估風險到這個對應風險我們提供一連串建議讓各個領域的主管單位譬如說智慧醫療也好或智慧金融也好或智慧交通也好可以根據他那個領域
transcript.whisperx[13].start 316.328
transcript.whisperx[13].end 336.257
transcript.whisperx[13].text 所會形成的風險把它識別出來然後採取跟風險高的我們就採取比較高的限制手段那風險低的或許採取透明化的義務甚至如果沒有風險的可以不用監管大概是用這樣的方式來做那相對於這個歐盟的風險分歧它兼顧了層級化規範但是它可能在各個領域有更大彈性適用的空間
transcript.whisperx[14].start 337.19
transcript.whisperx[14].end 343.334
transcript.whisperx[14].text 是好那我們知道就是說現在就是全球AI的競爭可以說是非常的激烈所以AI的技術也是成為各國科技競爭的一個核心所以也看到各國真的都是卯足全力真的是摩拳擦掌那我們看到
transcript.whisperx[15].start 355.243
transcript.whisperx[15].end 358.427
transcript.whisperx[15].text 韓國他也宣示說2030年他要擠升全球AI三強為目標所以我們看到韓國他的做法在今年他們就將這個就是有關科技的這個預算追加
transcript.whisperx[16].start 369.841
transcript.whisperx[16].end 374.204
transcript.whisperx[16].text 增加了25%來到了1.8兆的含元好像這1.8兆的含元換算成台幣是386億這是一個非常龐大的預算我們也看到去年書發部有表示就是要規劃五年期的政府AI發展戰略計畫這個部分好像預計編列190億的經費預計在明年正式啟動
transcript.whisperx[17].start 396.019
transcript.whisperx[17].end 419.313
transcript.whisperx[17].text 那目前這個政府AI發展戰略計劃的計劃內容我們行政院核定了嗎這個我們還在行政院審查當中那我們會盡快的希望這個其實是智慧國家非常重要的一個部分那希望能夠及早的能夠達成共識之後那能夠行政院核定之後我們快盡快來推動
transcript.whisperx[18].start 420.163
transcript.whisperx[18].end 440.811
transcript.whisperx[18].text 是因為總統都宣示說要打造台灣成為人工智慧之島所以我們就是說在各個方面的這個效率啊或者是決心我想也是非常的重要的啦所以有關這樣子一個戰略計劃我想應該也是應該要盡速的來進行那另外我們
transcript.whisperx[19].start 444.724
transcript.whisperx[19].end 449.146
transcript.whisperx[19].text 就是對於整個AI的一個發展我們也是期待就是說我們人工智慧的發展有它的一個風險所以我們也要盡量去就是考量這個風險跟這個機會並存這樣子的一個狀態因為人工智慧的發展畢竟為我們帶來便利性然後它的風險真的是不可預知不可控的所以
transcript.whisperx[20].start 467.614
transcript.whisperx[20].end 482.145
transcript.whisperx[20].text 對於有高風度危險的AI我們也是要做好相關的一個準備讓這個風險控制在一定的程度裡面因為目前我們也看到就是說有一些例子就是AI失控的一個例子那這部分我們未來會怎麼去預防
transcript.whisperx[21].start 484.992
transcript.whisperx[21].end 513.605
transcript.whisperx[21].text 就我剛跟委員報告就是說在各個領域那它會訂定不同的這個層級式的規範那高風險領域如果它已經到科技上面沒辦法可控的話可能會完全限制它使用那它如果是可控的狀態下它可能必須要經過一定的審查機制譬如我剛才所提到的AI或者是Machine Learning的醫療工具其實衛福部是會進行審查的那有一些它必須要有透明化的衣物譬如說我們的防炸條例就有規定說網路廣告平台使用人工智慧是要標示
transcript.whisperx[22].start 514.358
transcript.whisperx[22].end 533.109
transcript.whisperx[22].text 是,所以我们对于AI的一个管理规范,我们也希望出发部要做一个好好的全面的一个评估,因为也要综合我们国家的一个国情做一个通盘的一个考量,然后未来定义一个完善又完备的一个管理的规范。谢谢。谢谢委员。