iVOD / 162620

張雅琳 @ 第11屆第3會期交通委員會第16次全體委員會議

Start Time End Time Text
00:00:02,403 00:00:03,828 好 謝謝主席 我們有請部長請部長
00:00:12,145 00:00:37,437 好 那我想就是說今天我想要主要來討論也還是像是AI基本法跟以及我們AI基本法未來要制定的一些我們可能要考量的面向來跟部長做一些討論那就是說在2024年的時候呢7月5號日本發布日本的一個資訊通訊白皮書呢其中統計了多個國家的人在使用生成式AI的一個使用率那就發現說日本敬佩莫作啦說他們是最後一名那英國大概也是只有39.8%
00:00:40,329 00:00:54,501 那我們的MIC的資測會呢其實也做了在去年也做一個深層式AI的大調查那36%的網友其實都使用過這個深層式AI的工具那其中我們的年輕族群18到25歲的使用的比例呢又是更高
00:00:55,222 00:01:19,178 那這也因此呢在這個影響到了未來現在這個日本在做這個AI的人工智慧白皮書的第二版的時候他們宣示日本要成為世界上使用AI最friendly的國家作為他們當前的一個策略目標那其實他們也在今年的二月的時候呢也正式的確立了這個AI的法案會由全體閣僚就是各部部長來作為AI的統管機關來制定相關的研發跟應用計畫
00:01:25,902 00:01:37,130 他們是說他們的科學技術政策擔當大臣陳內實表示我們將建構既能夠促進創新又能應對風險的全球示範性法律
00:01:38,545 00:01:57,975 與全國之力讓日本成為AI全球最適合AI開發和運用的國家那他們這個法呢其實也在今年的5月28號由參議院審議通過了成為他們首部人工智慧的法律框架那我想要其實從上個禮拜大家一直不停的在討論一件事情就是說到底AI基本法我們應該目標定定是什麼
00:01:59,335 00:02:26,228 因為其實我想過去在國科會啊因為它主要是在科學研究它的一些風險它一定是會調的比較低嘛因為它相對的是要讓科學可以持續的去推展可是當我們今天回到了產業的運用上面我們已經看到了非常多的問題所以我自己在想就是說當我們現在數位部要來做這個法的時候我們自己的目標定定的到底是什麼可不可以請部長大概簡單講一下委員妳講得很好就是事實上這個
00:02:27,188 00:02:42,903 AI的發展就剛剛講說一方面重視創新那一方面重視管理那美國的做法不一樣像歐盟就比較重視管理美國就比較開放創新日本也比較重視創新所以就是說基本上是用法來鼓勵創新包括投資等等等
00:02:43,443 00:03:12,351 那我們臺灣應該是介於這兩個的中間所以我們同時注重一些管理管理包括就跟你講風險管理跟資料治理但是我們又不希望因為太強像歐盟這麼強勢的管理影響到AI的產業的發展所以這個就為什麼拿捏在為什麼這個有這麼多討論有這麼多版本那我們為什麼在行政院包括在我們部裡面有這麼多討論都是因為這個拿捏要很精準那就比如說因為AI技術又在進步進步很快
00:03:12,771 00:03:37,204 所以就是說我們過去認為的管理方式可能再過一年或再過半年又不對所以就是說這個東西變成就是一個一個是一個挑戰了解我懂那因為其實基本上在歐盟我們算以前歐盟是定的非常想管控度是高的可是我們今年也可以看到波蘭跟英國在這個月都踩煞車嘛因為他們也發現他們會擔心在全世界競爭上面他們會輸
00:03:40,846 00:03:59,049 所以我想這個東西可能希望在七月的時候七月底的時候預計會提出版本的時候我們是不是也可以怎麼樣去根據現在的一個發展的趨勢去拿捏出因為在立法目的上面就要續名因為我們現在立法目的裡面其實並沒有去講到促進經濟相關的產業發展我們比較是在管控面的角度原來是這樣沒錯
00:04:00,190 00:04:14,063 對所以我想這個就是因為全世界其實不管是過去大家有管控的都已經開始慢慢要轉個彎所以我們在立法目的上面應該也要去做一些修正才對那這個部分就是做一個提醒跟建議那再來下一個部分就是說呃
00:04:19,007 00:04:47,363 我們其實在五月份的時候呢我跟這個訴務發佈其實有開了一個會就是有關於基本法的一個修法會議當時我就有針對就是評測中心當時是有講說我們說產業開發啊其實都會到評測中心去做一個檢測這樣子那當時是也有跟我說會這個依據這個涵蓋公平性啦準確性啊可靠性啊隱私及資安等等文面下讓讓我們的這個產品可以去保護到這個兒童然後防止犯罪等等的
00:04:48,363 00:05:11,690 但是我看了一下我們的題目啊其實我們的題目我請教了一些相關的專家學者他們覺得這樣子的題目其實是不夠精準而且非常的簡略啦其實要真的要避免我們讓兒童所攝錄的像聊天機器人讓孩子去自殺了這樣子的狀況其實似乎不足那當時呢我在這邊其實也有學者提供我一些建議那這個之後我也會再提供給
00:05:12,550 00:05:31,821 給我們的評測中心那基本上他們是說如果今天這個東西AI的產品開發用於教育職業培訓學生評估或者是監控學習者的行為或者是擁有了與未成年心理情緒互動等等情緒識別就會把這樣子的東西是視為高風險
00:05:35,003 00:06:01,321 那他必須在風險管理設計合規自我評估還有第三發審查的時候明確的去納入了兒童的脆弱性操控風險家長同意流程透明度與可識別性也就是說像在操作系的部分他們要確認是否有難以察覺的誘導式設計例如可能是遊戲化獎勵無限滑動讓兒童無意識的進行操作或者是過度的使用
00:06:02,081 00:06:26,914 以及這個裡面是否明確的標示為AI兒童可以識別我今天是在跟機器人互動不是真人互動才能夠讓他提出一個更容易辨識的提示以及是否依據GDPR取得家長的同意限制敏感資料的收集並且提供刪除及存取權限給兒童及家長
00:06:27,774 00:06:44,070 那這個東西呢我會認為這是這才是真正做到了所謂的兒少的保護那這個部分呢我們是不是可以其實之前評測中心是說可以再跟兒少團體來做一些討論那這部分是不是也可以邀請部長承諾這件事情應該可以我們再請那個
00:06:45,071 00:07:04,727 在我們修法之前我們是不是就可以做到這件事情因為我希望當我們的這個基本法出去之後這個沒有問題喔那個委員這邊或者任何那個學者專家有那個一套題目希望我們對各種那個AI進行監測的話你可以把那個題目交給我們的AI評測中心那我們AI評測中心就會去做所謂的benchmark
00:07:05,347 00:07:21,780 這邊我們可以提供團體跟學者的名單但我希望除了在評測之外在我們基本法的時候是不是可以把這些概念也放進去我想再跟委員看怎麼安排我們再去增進我們這方面的評測的項目好那我們一起努力 謝謝