00:00:00,029 |
00:00:01,250 |
有請陳樹越委員質詢謝謝主席 請主席邀請速發部葉次長有請葉次長備質詢 謝謝 |
00:00:23,359 |
00:00:47,105 |
委員早安 委員好次長早今天我們是針對這個人工智慧法來進行詢問那我們也知道現在科技的進步發展真的是日新月異所以這個人工智慧的一個發展也跟著蓬勃發展那對於這個人工智慧的這個運用對我們的商業活動跟我們現代人類的生活也是造成很大的衝擊跟影響 |
00:00:51,108 |
00:01:11,885 |
這個賴總統也宣誓說要打造台灣成為人工智慧之島那主委院長也有強調說要推動台灣進入AI全面的應用時代所以一個完善的人工智慧基本法對於我們就是要這個發展AI的指引絕對是有它的必要性這個也是很多委員會社會各界都在關注的一個議題 |
00:01:13,166 |
00:01:27,433 |
那我們也知道隨著AI的一個快速發展跟它的運用它所帶來的一個風險真的也是非常的大像這個AI它提供的資訊的偏見或者是不確不準確性或者是錯誤的訊息或者是會是不是侵犯隱私的問題還有這個智慧財產權的問題這剛剛崑澤委員問到還有這個威脅國家安全還有這個AI失控這樣子的一些風險 |
00:01:40,620 |
00:01:54,881 |
所以这些风险也是成为我们各国在这个AI治理上真的是迫在眉睫必须去面对跟处理的那在这边我请教一下叶司长就是我们对这个AI风险的管理我们的态度是怎么样 |
00:01:57,044 |
00:02:24,122 |
我們完全同意委員的說法我們同時要在鼓勵創新跟風險管理之間求取的平衡行政院在研擬這個AI基本法的時候大概就會特別的強調說包括人類自主隱私的保護跟安全性透明跟可解釋性公平跟可問責希望我們能夠享受AI所帶來的好處減低AI所帶來的負面的影響所以這個在草案裡面 |
00:02:26,424 |
00:02:53,627 |
是那我们就是说对未来对于这个AI的一个监理因为我们知道现在就是参考国外的做法目前大概有两种的方式一个就是欧盟的就是制定人工智慧监管的专法那另外一个就是美国的就是不制定专法他是采取比较这个监管的态度是比较自由的就是要避免过度的一个干预所以在这个部分我们是不是也要去思考就是说我们在制定这个专法来监管之后 |
00:02:54,147 |
00:03:15,254 |
對於這個AI的一個發展是不是會造成限制是謝謝委員的確我們有看到歐盟跟韓國的嚴格比較嚴格的這個監管規範會造成這個AI創新的一些一定的阻礙所以我們採取基本法模式最大的好處它是原則性的規定那它不會這個阻礙這個創新或是彈性的運用那這個 |
00:03:16,994 |
00:03:36,808 |
只有在各個領域在特別使用到AI的時候各個領域的主管機關可以根據它風險高低訂定規範譬如說自駕車一定會使用到人工智慧交通部就可以訂定無人載具的特別規範或者是在醫學上已經廣泛應用AI的醫療器材 |
00:03:38,529 |
00:04:02,902 |
其實我們的衛福部也訂定了醫療器材AI的指引這個意思就是說在一般性的規範上面我們採取基本法原則性的就像委員所說的保留一定的彈性但是在各個領域會根據它風險高低來制定比較細膩的規範我們是採取這樣做法可以說是折衷歐盟跟美國採取的一種折衷式的方式 |
00:04:03,627 |
00:04:10,813 |
是那我們就是參照這個歐盟他是針對這個AI的一個監理他是就是AI的這個風險他是用風險分級的一個方式就是分為不可接受的風險高風險還有有限風險及低或無風險四個等級那我們看到速發部的一個報告還有對外的一個就是說明都是我們要採取這個風險分類那所謂風險分級跟風險分類有什麼差別它差異是在哪裡 |
00:04:34,541 |
00:04:59,614 |
根本報告風險分級就如委員所提到歐盟其實是把它分成這個不可接受一直到低風險那其實在歐盟因為它是一個框架性的法律到各個會員國它其實還是有彈性的空間那我們採取的是另外一種方式其實比較像是美國NIST所採取的方式我們把風險不管它是影響國家的還是影響社會秩序還是影響人權的把它標示出來 |
00:05:00,915 |
00:05:15,167 |
而且從這個識別風險到評估風險到這個對應風險我們提供一連串建議讓各個領域的主管單位譬如說智慧醫療也好或智慧金融也好或智慧交通也好可以根據他那個領域 |
00:05:16,328 |
00:05:36,257 |
所會形成的風險把它識別出來然後採取跟風險高的我們就採取比較高的限制手段那風險低的或許採取透明化的義務甚至如果沒有風險的可以不用監管大概是用這樣的方式來做那相對於這個歐盟的風險分歧它兼顧了層級化規範但是它可能在各個領域有更大彈性適用的空間 |
00:05:37,190 |
00:05:43,334 |
是好那我們知道就是說現在就是全球AI的競爭可以說是非常的激烈所以AI的技術也是成為各國科技競爭的一個核心所以也看到各國真的都是卯足全力真的是摩拳擦掌那我們看到 |
00:05:55,243 |
00:05:58,427 |
韓國他也宣示說2030年他要擠升全球AI三強為目標所以我們看到韓國他的做法在今年他們就將這個就是有關科技的這個預算追加 |
00:06:09,841 |
00:06:14,204 |
增加了25%來到了1.8兆的含元好像這1.8兆的含元換算成台幣是386億這是一個非常龐大的預算我們也看到去年書發部有表示就是要規劃五年期的政府AI發展戰略計畫這個部分好像預計編列190億的經費預計在明年正式啟動 |
00:06:36,019 |
00:06:59,313 |
那目前這個政府AI發展戰略計劃的計劃內容我們行政院核定了嗎這個我們還在行政院審查當中那我們會盡快的希望這個其實是智慧國家非常重要的一個部分那希望能夠及早的能夠達成共識之後那能夠行政院核定之後我們快盡快來推動 |
00:07:00,163 |
00:07:20,811 |
是因為總統都宣示說要打造台灣成為人工智慧之島所以我們就是說在各個方面的這個效率啊或者是決心我想也是非常的重要的啦所以有關這樣子一個戰略計劃我想應該也是應該要盡速的來進行那另外我們 |
00:07:24,724 |
00:07:29,146 |
就是對於整個AI的一個發展我們也是期待就是說我們人工智慧的發展有它的一個風險所以我們也要盡量去就是考量這個風險跟這個機會並存這樣子的一個狀態因為人工智慧的發展畢竟為我們帶來便利性然後它的風險真的是不可預知不可控的所以 |
00:07:47,614 |
00:08:02,145 |
對於有高風度危險的AI我們也是要做好相關的一個準備讓這個風險控制在一定的程度裡面因為目前我們也看到就是說有一些例子就是AI失控的一個例子那這部分我們未來會怎麼去預防 |
00:08:04,992 |
00:08:33,605 |
就我剛跟委員報告就是說在各個領域那它會訂定不同的這個層級式的規範那高風險領域如果它已經到科技上面沒辦法可控的話可能會完全限制它使用那它如果是可控的狀態下它可能必須要經過一定的審查機制譬如我剛才所提到的AI或者是Machine Learning的醫療工具其實衛福部是會進行審查的那有一些它必須要有透明化的衣物譬如說我們的防炸條例就有規定說網路廣告平台使用人工智慧是要標示 |
00:08:34,357 |
00:08:53,109 |
是,所以我们对于AI的一个管理规范,我们也希望出发部要做一个好好的全面的一个评估,因为也要综合我们国家的一个国情做一个通盘的一个考量,然后未来定义一个完善又完备的一个管理的规范。谢谢。谢谢委员。 |