iVOD / 150097
陳秀寳 @ 第11屆第1會期教育及文化委員會第4次全體委員會議
Start Time | End Time | Text |
---|---|---|
00:00:05,205 | 00:00:07,765 | 謝謝主席 請院長委員早院長早昨天在教文組的總質詢本席有針對短影音的部分提出我的質詢那院長應該有聽到昨天在本席質詢短影音這個部分那這邊要來請教院長過度不當的使用短影音對孩子這個 |
00:00:35,151 | 00:00:54,552 | 的發展會有所影響這個部分院長你同意嗎?這部分我比較沒有研究不過這個看起來有這個可能但是我不是這方面專家你自己使用過短影音嗎?大概偶爾看過不是說一天到晚使用因為你也很忙可能沒有很多時間像這些孩子一樣可能用了就成癮 |
00:00:55,693 | 00:01:22,951 | 今天再提一次關於短影音這個問題因為本席昨天有提到短影音大部分其實大部分的短影音它都使用是簡體的文字簡體中文那現在最夯的短影音平台像是抖音還是小紅書那這些短影音的強勢入侵其實很嚴重的影響到大家對繁體中文的使用跟認知不管是在國際間還是對我們的孩子都有很大的影響 |
00:01:24,552 | 00:01:28,616 | 另外一個狀況就是說當現在我們正要在發展我們AI模組要發展的時候我們需要大量的繁體中文的資料讓AI來學習跟連結其實我們繁體中文的資料提供得越完整越多那它所表達出來的訊息才會更清晰更完整更正確 |
00:01:45,231 | 00:02:08,229 | 但是如果說現在遇到的狀況是反體中文的資料量是比較少的那現在這種狀況幾乎可以算是另外的假工因為我們反體中文的資料庫的資料量是偏少那加上如果我們的孩子已經被習慣去使用反體中文那院長你覺得說這樣子對我們之後的AI的語言模型發展有什麼影響? |
00:02:08,908 | 00:02:09,970 | 中央研究院院長 |
00:02:29,209 | 00:02:29,229 | ﹚陳秀寳﹚ |
00:02:55,691 | 00:02:56,111 | 中央研究院院長陳秀寳 |
00:03:18,618 | 00:03:47,371 | 首先,我們能夠開放的部分目前沒有牽涉到任何智慧財產權或是Copyright的部分我們能夠開放的我們儘量立即馬上開放目前還有一些法規限制的部分我們儘量看能夠排除這些法規的限制朝向能夠把所有的資料都讓AI的大型元模型訓練朝這方向走 |
00:03:47,651 | 00:04:07,471 | 院長您講到一個重點我們的資料如果能夠被釋出能夠越多的資料來提供那對於使用者他的方便性方便度越高那這樣子的訊息交流量越高的話才能夠讓更多的人來使用的順手那就本席目前所知呢國科會這邊也有向中央設來購買資料庫 |
00:04:09,973 | 00:04:13,236 | 中央社應該是目前提供繁中資料庫是首選因為他的是非常非常完整再來這邊還要請教院長說未來對我們的AI兌換引擎我們如何協助之外我們是不是也會我們如何來協助國科會來發展台版的CHEP |
00:04:33,333 | 00:04:41,903 | 我們跟國會是攜手合作的國會計劃大部分的成員都是我們院裡面的成員所以我們沒有不分彼此事實上我們是同一個團隊在做的 |
00:04:48,008 | 00:04:50,630 | 現在很多這種詐騙的手法不管是AI圖片AI假影片讓我們彷彿勝訪 |
00:05:09,179 | 00:05:21,945 | 現在甚至有外媒教導如何來辨識AI假圖片院長你看一下這張圖片這個部分有6個重點就是教人家怎麼來辨識放大仔細看找到發圖來源那種種其實 |
00:05:25,587 | 00:05:45,623 | 雖然說他有這樣子叫人家怎麼去判斷那其實這個AI生成的假圖片如果說我們有這樣的程式去判斷它還是會出錯所以專家會建議說還是不用微妙因為有時候這個工具會把真實的圖片當作是假的那假的他又分辨不出有哪一些是真的那我們 |
00:05:47,014 | 00:05:57,943 | 如果說民眾有這樣的疑慮就是說我們如何人沒有辦法辨認的時候那我們有辦法藉助AI的技術來辨認AI生成的圖片或影片嗎? |
00:05:58,632 | 00:06:21,729 | 我們請專家廖宏元所長來回答委員你好這個題目其實我10年前在做數位臨場國家人計畫的時候那個影像篡改數就是我在做的那那個部分是為目的那個時候的目的是為了能夠修復我們那些在檔案局或者是國家電影館裡面那些影片因為那些影片會長霉 |
00:06:23,090 | 00:06:49,540 | 因為是膠捲的所以把它數位化以後裡面會有煤在上面所以我那時候是2008年左右專門在研發這個然後我那時候的結論就是說如果我們沒有在取向的過程裡面就放浮水印的話事實上這樣是很難偵測的因為以我那時候的技術就可以弄得幾乎亂蒸就你沒有辦法判別的甚至於可以把我自己的現代人塞到古代的影片裡面去黑白的 |
00:06:50,120 | 00:06:50,320 | 李卓人議員 |
00:07:09,813 | 00:07:32,112 | 所以這是會變成一個很可怕的現象是我們無法分辨這個到底是真的還是假的也沒有技術可以分辨嗎是這個意思這就是我前一陣子講的那個Deepfake的技術救了所有那些做壞事的壞男人跟壞女人因為我們可以沒有辦法驗證說他們到底是不是真的所以過去的那些做壞事的人都可以 |
00:07:32,332 | 00:07:38,717 | 所以以AI技術來合成的這些假影片假圖片我們沒有辦法用AI的技術反推回去說他是一個假的沒有辦法目前是沒有辦法的那我們對本身當然我們對AI的期待是非常的高那也因為AI是我們很未知的 |
00:07:49,184 | 00:08:17,481 | 他未來的走向發展到怎樣的進展到現在比如說剛才您的回答是說如果是用AI生成的這個假圖片假相假影片他技術非常是高超的時候不管是AI的技術都無法分辨人也無法分辨那到那個時候那真的會是一種不可控的一個局面面對這樣子的現象其實不管是官司訴訟不管是民眾的交易糾紛不管是詐騙這樣的我們都防不勝防那這民眾該如何自保 |
00:08:18,701 | 00:08:42,777 | 這些事情就像在辦刑事的案件一樣因為在呈堂的證供裡面你如果拿出一個改變內容的東西的話是不能當呈堂證供因為我也長久以來一直幫刑事局在處理犯罪的資料但是我們要有辦法證明它是改變的、變造的沒有辦法證明沒有辦法證明因為按照現在的技術你真的沒有辦法證明合成的影像或video是沒有辦法的 |
00:08:43,924 | 00:09:12,780 | 所以現在民眾只能希望說我們的各專家我們的各學者盡量的朝這個方向去精進去研究讓AI它是可以功能很強大但是我們又可以信任未來可能有新的方法可以做這件事情但是目前還沒看到那我應該代表我們的民眾們來要求來拜託期待說我們盡快把這樣的技術發展出來這件事情是可遇不可求因為全世界都期待有這樣的技術目前好吧那大家一起加油了謝謝 |
00:09:15,064 | 00:09:15,086 | 好 |