IVOD_ID |
150097 |
IVOD_URL |
https://ivod.ly.gov.tw/Play/Clip/1M/150097 |
日期 |
2024-03-20 |
會議資料.會議代碼 |
委員會-11-1-22-4 |
會議資料.會議代碼:str |
第11屆第1會期教育及文化委員會第4次全體委員會議 |
會議資料.屆 |
11 |
會議資料.會期 |
1 |
會議資料.會次 |
4 |
會議資料.種類 |
委員會 |
會議資料.委員會代碼[0] |
22 |
會議資料.委員會代碼:str[0] |
教育及文化委員會 |
會議資料.標題 |
第11屆第1會期教育及文化委員會第4次全體委員會議 |
影片種類 |
Clip |
開始時間 |
2024-03-20T10:13:27+08:00 |
結束時間 |
2024-03-20T10:22:43+08:00 |
影片長度 |
00:09:16 |
支援功能[0] |
ai-transcript |
支援功能[1] |
gazette |
video_url |
https://ivod-lyvod.cdn.hinet.net/vod_1/_definst_/mp4:1MClips/b8deaa01a2e7f192ccefe655b82d75bd2577149e9af75248f8ba9b0039caa7a6286ec5ce099167b55ea18f28b6918d91.mp4/playlist.m3u8 |
委員名稱 |
陳秀寳 |
委員發言時間 |
10:13:27 - 10:22:43 |
會議時間 |
2024-03-20T09:00:00+08:00 |
會議名稱 |
立法院第11屆第1會期教育及文化委員會第4次全體委員會議(事由:邀請中央研究院院長廖俊智列席報告業務概況,並備質詢。(3月18日、20日及21日三天一次會)) |
gazette.lineno |
272 |
gazette.blocks[0][0] |
陳委員秀寳:(10時13分)謝謝主席,請院長。 |
gazette.blocks[1][0] |
主席:院長。 |
gazette.blocks[2][0] |
廖院長俊智:陳委員早。 |
gazette.blocks[3][0] |
陳委員秀寳:院長早。院長,昨天在教文組的總質詢本席有針對短影音的部分提出質詢,院長應該有聽到昨天本席質詢短影音這個部分。這邊要來請教院長,過度不當的使用短影音對孩子的發展會有所影響,這個部分院長您同意嗎? |
gazette.blocks[4][0] |
廖院長俊智:這部分我比較沒有研究,不過看起來有這個可能,但是我不是這方面的專家。 |
gazette.blocks[5][0] |
陳委員秀寳:你自己使用過短影音嗎? |
gazette.blocks[6][0] |
廖院長俊智:大概偶爾看過,不是一天到晚使用。 |
gazette.blocks[7][0] |
陳委員秀寳:因為你也很忙,可能沒有很多時間,像這些孩子一樣,可能用了就成癮。今天再提一次關於短影音這個問題,因為本席昨天有提到,其實大部分的短影音是使用簡體的文字、簡體中文,現在最夯的短影音平台像是抖音或小紅書,這些短影音的強勢入侵,其實很嚴重的影響到大家對繁體中文的使用跟認知,不管是在國際間還是對我們的孩子都有很大的影響。另外一個狀況是,當現在我們正要發展我們AI語言模組的時候,我們需要大量的繁體中文資料讓AI來學習跟連結,其實繁體中文資料提供得越完整、越多,它所表達出來的訊息才會更清晰、更完整、更正確,但是現在遇到的狀況是,繁體中文資料量是比較少的,這種狀況幾乎可以算是內外夾攻,因為我們繁體中文資料庫的資料量偏少,加上如果我們的孩子已經被習慣使用簡體中文,院長,您覺得這樣對我們之後AI的語言模型發展會有什麼影響? |
gazette.blocks[8][0] |
廖院長俊智:確實誠如委員提的,假如沒有很多繁體中文的資料來訓練新的大型語言模型的話,將來對我們文化的發展會產生非常大的負面影響,所以這方面中研院也在思考怎麼樣儘量開放我們所有繁中的資料,讓AI研究學者能夠一起來訓練我們AI的研究。關於這方面,李育杰要不要講一下? |
gazette.blocks[9][0] |
李研究員育杰:剛剛委員的質詢事實上都是非常正確的,我們也用類似的說法成功的說服像公共電視、ETtoday無償釋出他們的繁體中文資料庫,這個也是我們對外的一個說法。 |
gazette.blocks[10][0] |
陳委員秀寳:是,其實這個部分跟之前中研院發生過會有錯誤的中國觀點、錯誤的語言模型也是有相關,中研院也有學者提到,臺灣需要自己的大型語言資料庫,院長,本席想要瞭解說,你們剛剛說你們會來協助,你們要如何協助整合我們繁中語言的資料庫?有怎樣比較具體的規劃嗎? |
gazette.blocks[11][0] |
廖院長俊智:第一個,我們能夠開放的部分,目前沒有牽涉到任何智慧財產權或是copyright的部分,只要能夠開放的,我們會儘量立即、馬上開放。目前還有一些法規限制的部分,我們儘量能夠排除這些法規的限制,朝向把所有的資料都讓AI的大型語言模型訓練的這個方向走。 |
gazette.blocks[12][0] |
陳委員秀寳:是,院長講到一個重點,我們的資料如果能夠被釋出,能夠有越多的資料來提供,讓使用者的方便度越高,這樣子的訊息交流量越高的話,才能夠讓更多人使用得順手。就本席目前所知,國科會也有向中央社購買資料庫,中央社應該是目前提供繁中資料庫的首選,因為它的是非常非常的完整。再來,還要請教院長,未來除了對AI對話引擎要如何協助之外,我們要如何協助國科會來發展台版的ChatGPT? |
gazette.blocks[13][0] |
廖院長俊智:我們跟國科會是攜手合作的,國科會的計畫大部分的成員都是我們院裡面的成員,所以我們不分彼此,事實上我們是同一個team、是同一個團隊在做的,所以國科會團隊大部分的人都是我們團隊的人…… |
gazette.blocks[14][0] |
陳委員秀寳:所以這邊會全力來協助整個AI的…… |
gazette.blocks[15][0] |
廖院長俊智:對,我們就是同一個團隊,不能講協助,我們就是同一個團隊。 |
gazette.blocks[16][0] |
陳委員秀寳:那就是一起努力。 |
gazette.blocks[17][0] |
廖院長俊智:對。 |
gazette.blocks[18][0] |
陳委員秀寳:講到AI的部分,我們再提一下,現在很多詐騙的手法,不管是AI圖片、AI假影片,都讓我們防不勝防,現在甚至有外媒來教導如何辨識AI假圖片,院長,你看一下這張圖片,這個部分有六個重點來教大家怎麼去辨識,包括放大仔細看、找到發圖來源等等,雖然他有教大家怎麼去判斷,但對於AI生成的假圖片,即使我們有這樣的程式去判斷它,還是會出錯,所以專家會建議還是不用為妙,因為有時候這個工具會把真實的圖片當作是假的,然後假的它又分辨不出哪一些是真的。可是如果民眾有這樣的疑慮,當人沒有辦法辨認的時候,我們有辦法藉助AI的技術來辨認AI生成的圖片或影片嗎? |
gazette.blocks[19][0] |
廖院長俊智:我們請專家廖弘源所長來回答。 |
gazette.blocks[20][0] |
廖所長弘源:委員你好。這個題目其實10年前我在做數位典藏國家型計畫的時候,影像竄改術就是我在做的,那個時候的目的是為了修復一些在檔案局或是國家電影館裡面的影片,因為那些影片會長黴,因為是膠卷的,所以把它數位化以後,裡面會有黴在上面,所以我在2008年左右是專門在研發這個,然後我那時候的結論就是,如果我們沒有在取像的過程裡面就放浮水印的話,事實上這樣是很難偵測的,因為以我那時候的技術就可以弄得幾乎亂真,就是你沒有辦法判別的,甚至於可以把我這個現代人塞到古代黑白的影片裡面,然後你沒有辦法分辨在走路的那些人中,哪一個是現代人、哪一個是古代人。所以目前的 Deepfake所產生的這些東西,如果在成像的過程裡面沒有適當的放浮水印進去防偽的話,事實上是可以隨意篡改,而且以我的技術,你們是沒有辦法分辨的。 |
gazette.blocks[21][0] |
陳委員秀寳:所以這會變成一個很可怕的現象,就是我們無法分辨這個到底是真的還是假的,也沒有技術可以分辨,是這個意思嗎? |
gazette.blocks[22][0] |
廖所長弘源:是的,這就是我前一陣子講的,Deepfake的技術救了所有做壞事的壞男人跟壞女人,因為我們沒有辦法驗證他們到底是不是真的,所以過去的那些做壞事的人都可以…… |
gazette.blocks[23][0] |
陳委員秀寳:所以以AI技術來合成的這些假影片、假圖片,我們沒有辦法用AI的技術反推回去說它是一個假的。 |
gazette.blocks[24][0] |
廖所長弘源:是的,沒有辦法,目前是沒有辦法的。 |
gazette.blocks[25][0] |
陳委員秀寳:當然我們對AI的期待是非常的高,也因為AI是我們很未知的,它未來的走向、會發展到怎樣的進展,到現在,譬如說剛才您的回答是,如果是用AI生成的假圖片、假影片,技術非常之高超的時候,即使是AI的技術都無法分辨,人也無法分辨,到那個時候真的會是一種不可控的局面。面對這樣的現象,不管是官司訴訟,不管是民眾的交易糾紛,不管是詐騙等等,我們都防不勝防,那民眾該如何自保? |
gazette.blocks[26][0] |
廖所長弘源:這些事情就像在辦刑事案件一樣,因為在呈堂證供裡面,你如果拿出一個改變內容的東西的話,是不能當呈堂證供的,因為我長久以來也一直在幫刑事局處理犯罪的資料。 |
gazette.blocks[27][0] |
陳委員秀寳:但是我們要有辦法證明它是變造的。 |
gazette.blocks[28][0] |
廖所長弘源:沒有辦法證明,因為按照現在的技術,你真的沒有辦法證明合成的影像或video,是沒有辦法的。 |
gazette.blocks[29][0] |
陳委員秀寳:所以現在民眾只能希望各專家、各學者儘量的朝這個方向去精進、去研究,讓AI可以功能很強大,但是我們又可以信任。 |
gazette.blocks[30][0] |
廖所長弘源:未來可能有新的方法可以做這件事情,但是目前還沒看到。 |
gazette.blocks[31][0] |
陳委員秀寳:我應該代表我們的民眾們來要求、來拜託,期待我們儘快把這樣的技術發展出來。 |
gazette.blocks[32][0] |
廖所長弘源:這件事情是可遇不可求,因為全世界都期待目前有這樣的技術。 |
gazette.blocks[33][0] |
陳委員秀寳:好吧,那大家一起加油了!謝謝。 |
gazette.blocks[34][0] |
主席:好,謝謝。我們在第9號萬美玲委員質詢完畢之後,就休息5分鐘,謝謝。 |
gazette.blocks[34][1] |
現在請登記第8號郭昱晴委員。 |
gazette.agenda.page_end |
392 |
gazette.agenda.meet_id |
委員會-11-1-22-4 |
gazette.agenda.speakers[0] |
柯志恩 |
gazette.agenda.speakers[1] |
洪孟楷 |
gazette.agenda.speakers[2] |
羅廷瑋 |
gazette.agenda.speakers[3] |
吳沛憶 |
gazette.agenda.speakers[4] |
葛如鈞 |
gazette.agenda.speakers[5] |
林宜瑾 |
gazette.agenda.speakers[6] |
陳秀寳 |
gazette.agenda.speakers[7] |
郭昱晴 |
gazette.agenda.speakers[8] |
萬美玲 |
gazette.agenda.speakers[9] |
張雅琳 |
gazette.agenda.speakers[10] |
吳春城 |
gazette.agenda.speakers[11] |
陳培瑜 |
gazette.agenda.speakers[12] |
謝衣鳯 |
gazette.agenda.speakers[13] |
范雲 |
gazette.agenda.speakers[14] |
吳思瑤 |
gazette.agenda.speakers[15] |
葉元之 |
gazette.agenda.speakers[16] |
林倩綺 |
gazette.agenda.page_start |
341 |
gazette.agenda.meetingDate[0] |
2024-03-20 |
gazette.agenda.gazette_id |
1131701 |
gazette.agenda.agenda_lcidc_ids[0] |
1131701_00006 |
gazette.agenda.meet_name |
立法院第11屆第1會期教育及文化委員會第4次全體委員會議紀錄 |
gazette.agenda.content |
邀請中央研究院院長廖俊智列席報告業務概況,並備質詢 |
gazette.agenda.agenda_id |
1131701_00005 |
transcript.pyannote[0].speaker |
SPEAKER_01 |
transcript.pyannote[0].start |
5.17784375 |
transcript.pyannote[0].end |
6.93284375 |
transcript.pyannote[1].speaker |
SPEAKER_01 |
transcript.pyannote[1].start |
7.54034375 |
transcript.pyannote[1].end |
7.67534375 |
transcript.pyannote[2].speaker |
SPEAKER_00 |
transcript.pyannote[2].start |
7.67534375 |
transcript.pyannote[2].end |
7.89471875 |
transcript.pyannote[3].speaker |
SPEAKER_01 |
transcript.pyannote[3].start |
7.89471875 |
transcript.pyannote[3].end |
7.91159375 |
transcript.pyannote[4].speaker |
SPEAKER_03 |
transcript.pyannote[4].start |
11.37096875 |
transcript.pyannote[4].end |
11.97846875 |
transcript.pyannote[5].speaker |
SPEAKER_01 |
transcript.pyannote[5].start |
12.09659375 |
transcript.pyannote[5].end |
12.85596875 |
transcript.pyannote[6].speaker |
SPEAKER_01 |
transcript.pyannote[6].start |
13.68284375 |
transcript.pyannote[6].end |
23.50409375 |
transcript.pyannote[7].speaker |
SPEAKER_01 |
transcript.pyannote[7].start |
24.63471875 |
transcript.pyannote[7].end |
27.41909375 |
transcript.pyannote[8].speaker |
SPEAKER_01 |
transcript.pyannote[8].start |
28.49909375 |
transcript.pyannote[8].end |
34.21971875 |
transcript.pyannote[9].speaker |
SPEAKER_01 |
transcript.pyannote[9].start |
35.11409375 |
transcript.pyannote[9].end |
38.16846875 |
transcript.pyannote[10].speaker |
SPEAKER_03 |
transcript.pyannote[10].start |
38.53971875 |
transcript.pyannote[10].end |
44.47971875 |
transcript.pyannote[11].speaker |
SPEAKER_01 |
transcript.pyannote[11].start |
43.88909375 |
transcript.pyannote[11].end |
46.90971875 |
transcript.pyannote[12].speaker |
SPEAKER_03 |
transcript.pyannote[12].start |
45.71159375 |
transcript.pyannote[12].end |
50.25096875 |
transcript.pyannote[13].speaker |
SPEAKER_01 |
transcript.pyannote[13].start |
50.14971875 |
transcript.pyannote[13].end |
83.78159375 |
transcript.pyannote[14].speaker |
SPEAKER_03 |
transcript.pyannote[14].start |
51.21284375 |
transcript.pyannote[14].end |
52.93409375 |
transcript.pyannote[15].speaker |
SPEAKER_03 |
transcript.pyannote[15].start |
53.74409375 |
transcript.pyannote[15].end |
54.18284375 |
transcript.pyannote[16].speaker |
SPEAKER_03 |
transcript.pyannote[16].start |
54.95909375 |
transcript.pyannote[16].end |
55.17846875 |
transcript.pyannote[17].speaker |
SPEAKER_03 |
transcript.pyannote[17].start |
55.27971875 |
transcript.pyannote[17].end |
55.36409375 |
transcript.pyannote[18].speaker |
SPEAKER_01 |
transcript.pyannote[18].start |
84.28784375 |
transcript.pyannote[18].end |
128.58471875 |
transcript.pyannote[19].speaker |
SPEAKER_03 |
transcript.pyannote[19].start |
128.60159375 |
transcript.pyannote[19].end |
159.12846875 |
transcript.pyannote[20].speaker |
SPEAKER_00 |
transcript.pyannote[20].start |
160.07346875 |
transcript.pyannote[20].end |
176.25659375 |
transcript.pyannote[21].speaker |
SPEAKER_01 |
transcript.pyannote[21].start |
175.58159375 |
transcript.pyannote[21].end |
199.22346875 |
transcript.pyannote[22].speaker |
SPEAKER_03 |
transcript.pyannote[22].start |
197.82284375 |
transcript.pyannote[22].end |
198.19409375 |
transcript.pyannote[23].speaker |
SPEAKER_03 |
transcript.pyannote[23].start |
199.00409375 |
transcript.pyannote[23].end |
227.65784375 |
transcript.pyannote[24].speaker |
SPEAKER_01 |
transcript.pyannote[24].start |
227.37096875 |
transcript.pyannote[24].end |
272.24159375 |
transcript.pyannote[25].speaker |
SPEAKER_00 |
transcript.pyannote[25].start |
236.43284375 |
transcript.pyannote[25].end |
236.44971875 |
transcript.pyannote[26].speaker |
SPEAKER_03 |
transcript.pyannote[26].start |
236.44971875 |
transcript.pyannote[26].end |
236.80409375 |
transcript.pyannote[27].speaker |
SPEAKER_03 |
transcript.pyannote[27].start |
272.17409375 |
transcript.pyannote[27].end |
272.22471875 |
transcript.pyannote[28].speaker |
SPEAKER_03 |
transcript.pyannote[28].start |
272.24159375 |
transcript.pyannote[28].end |
282.45096875 |
transcript.pyannote[29].speaker |
SPEAKER_03 |
transcript.pyannote[29].start |
282.53534375 |
transcript.pyannote[29].end |
287.09159375 |
transcript.pyannote[30].speaker |
SPEAKER_03 |
transcript.pyannote[30].start |
287.51346875 |
transcript.pyannote[30].end |
290.97284375 |
transcript.pyannote[31].speaker |
SPEAKER_01 |
transcript.pyannote[31].start |
290.07846875 |
transcript.pyannote[31].end |
294.09471875 |
transcript.pyannote[32].speaker |
SPEAKER_03 |
transcript.pyannote[32].start |
291.74909375 |
transcript.pyannote[32].end |
297.19971875 |
transcript.pyannote[33].speaker |
SPEAKER_01 |
transcript.pyannote[33].start |
297.60471875 |
transcript.pyannote[33].end |
324.87471875 |
transcript.pyannote[34].speaker |
SPEAKER_03 |
transcript.pyannote[34].start |
298.65096875 |
transcript.pyannote[34].end |
299.12346875 |
transcript.pyannote[35].speaker |
SPEAKER_01 |
transcript.pyannote[35].start |
325.22909375 |
transcript.pyannote[35].end |
346.12034375 |
transcript.pyannote[36].speaker |
SPEAKER_01 |
transcript.pyannote[36].start |
346.93034375 |
transcript.pyannote[36].end |
358.35471875 |
transcript.pyannote[37].speaker |
SPEAKER_03 |
transcript.pyannote[37].start |
358.60784375 |
transcript.pyannote[37].end |
361.49346875 |
transcript.pyannote[38].speaker |
SPEAKER_02 |
transcript.pyannote[38].start |
361.84784375 |
transcript.pyannote[38].end |
363.50159375 |
transcript.pyannote[39].speaker |
SPEAKER_02 |
transcript.pyannote[39].start |
363.55221875 |
transcript.pyannote[39].end |
382.63784375 |
transcript.pyannote[40].speaker |
SPEAKER_02 |
transcript.pyannote[40].start |
382.84034375 |
transcript.pyannote[40].end |
394.26471875 |
transcript.pyannote[41].speaker |
SPEAKER_02 |
transcript.pyannote[41].start |
394.50096875 |
transcript.pyannote[41].end |
428.18346875 |
transcript.pyannote[42].speaker |
SPEAKER_01 |
transcript.pyannote[42].start |
428.30159375 |
transcript.pyannote[42].end |
429.16221875 |
transcript.pyannote[43].speaker |
SPEAKER_02 |
transcript.pyannote[43].start |
429.12846875 |
transcript.pyannote[43].end |
430.05659375 |
transcript.pyannote[44].speaker |
SPEAKER_01 |
transcript.pyannote[44].start |
429.53346875 |
transcript.pyannote[44].end |
437.86971875 |
transcript.pyannote[45].speaker |
SPEAKER_02 |
transcript.pyannote[45].start |
432.03096875 |
transcript.pyannote[45].end |
433.16159375 |
transcript.pyannote[46].speaker |
SPEAKER_02 |
transcript.pyannote[46].start |
434.88284375 |
transcript.pyannote[46].end |
435.50721875 |
transcript.pyannote[47].speaker |
SPEAKER_02 |
transcript.pyannote[47].start |
436.99221875 |
transcript.pyannote[47].end |
452.33159375 |
transcript.pyannote[48].speaker |
SPEAKER_01 |
transcript.pyannote[48].start |
452.26409375 |
transcript.pyannote[48].end |
459.87471875 |
transcript.pyannote[49].speaker |
SPEAKER_02 |
transcript.pyannote[49].start |
457.14096875 |
transcript.pyannote[49].end |
462.00096875 |
transcript.pyannote[50].speaker |
SPEAKER_01 |
transcript.pyannote[50].start |
462.25409375 |
transcript.pyannote[50].end |
487.39784375 |
transcript.pyannote[51].speaker |
SPEAKER_00 |
transcript.pyannote[51].start |
483.38159375 |
transcript.pyannote[51].end |
483.85409375 |
transcript.pyannote[52].speaker |
SPEAKER_01 |
transcript.pyannote[52].start |
487.63409375 |
transcript.pyannote[52].end |
497.67471875 |
transcript.pyannote[53].speaker |
SPEAKER_00 |
transcript.pyannote[53].start |
487.68471875 |
transcript.pyannote[53].end |
488.08971875 |
transcript.pyannote[54].speaker |
SPEAKER_02 |
transcript.pyannote[54].start |
498.53534375 |
transcript.pyannote[54].end |
511.52909375 |
transcript.pyannote[55].speaker |
SPEAKER_01 |
transcript.pyannote[55].start |
511.17471875 |
transcript.pyannote[55].end |
513.65534375 |
transcript.pyannote[56].speaker |
SPEAKER_01 |
transcript.pyannote[56].start |
513.82409375 |
transcript.pyannote[56].end |
513.85784375 |
transcript.pyannote[57].speaker |
SPEAKER_02 |
transcript.pyannote[57].start |
513.85784375 |
transcript.pyannote[57].end |
522.85221875 |
transcript.pyannote[58].speaker |
SPEAKER_01 |
transcript.pyannote[58].start |
513.95909375 |
transcript.pyannote[58].end |
514.29659375 |
transcript.pyannote[59].speaker |
SPEAKER_01 |
transcript.pyannote[59].start |
523.84784375 |
transcript.pyannote[59].end |
534.93471875 |
transcript.pyannote[60].speaker |
SPEAKER_02 |
transcript.pyannote[60].start |
529.93971875 |
transcript.pyannote[60].end |
530.95221875 |
transcript.pyannote[61].speaker |
SPEAKER_02 |
transcript.pyannote[61].start |
534.93471875 |
transcript.pyannote[61].end |
539.23784375 |
transcript.pyannote[62].speaker |
SPEAKER_02 |
transcript.pyannote[62].start |
540.28409375 |
transcript.pyannote[62].end |
540.57096875 |
transcript.pyannote[63].speaker |
SPEAKER_01 |
transcript.pyannote[63].start |
541.17846875 |
transcript.pyannote[63].end |
547.74284375 |
transcript.pyannote[64].speaker |
SPEAKER_02 |
transcript.pyannote[64].start |
547.74284375 |
transcript.pyannote[64].end |
551.69159375 |
transcript.pyannote[65].speaker |
SPEAKER_01 |
transcript.pyannote[65].start |
551.47221875 |
transcript.pyannote[65].end |
553.54784375 |
transcript.pyannote[66].speaker |
SPEAKER_01 |
transcript.pyannote[66].start |
554.99909375 |
transcript.pyannote[66].end |
555.37034375 |
transcript.whisperx[0].start |
5.205 |
transcript.whisperx[0].end |
7.765 |
transcript.whisperx[0].text |
謝謝主席 請院長委員早院長早昨天在教文組的總質詢本席有針對短影音的部分提出我的質詢那院長應該有聽到昨天在本席質詢短影音這個部分那這邊要來請教院長過度不當的使用短影音對孩子這個 |
transcript.whisperx[1].start |
35.151 |
transcript.whisperx[1].end |
54.552 |
transcript.whisperx[1].text |
的發展會有所影響這個部分院長你同意嗎?這部分我比較沒有研究不過這個看起來有這個可能但是我不是這方面專家你自己使用過短影音嗎?大概偶爾看過不是說一天到晚使用因為你也很忙可能沒有很多時間像這些孩子一樣可能用了就成癮 |
transcript.whisperx[2].start |
55.693 |
transcript.whisperx[2].end |
82.951 |
transcript.whisperx[2].text |
今天再提一次關於短影音這個問題因為本席昨天有提到短影音大部分其實大部分的短影音它都使用是簡體的文字簡體中文那現在最夯的短影音平台像是抖音還是小紅書那這些短影音的強勢入侵其實很嚴重的影響到大家對繁體中文的使用跟認知不管是在國際間還是對我們的孩子都有很大的影響 |
transcript.whisperx[3].start |
84.552 |
transcript.whisperx[3].end |
88.616 |
transcript.whisperx[3].text |
另外一個狀況就是說當現在我們正要在發展我們AI模組要發展的時候我們需要大量的繁體中文的資料讓AI來學習跟連結其實我們繁體中文的資料提供得越完整越多那它所表達出來的訊息才會更清晰更完整更正確 |
transcript.whisperx[4].start |
105.231 |
transcript.whisperx[4].end |
128.229 |
transcript.whisperx[4].text |
但是如果說現在遇到的狀況是反體中文的資料量是比較少的那現在這種狀況幾乎可以算是另外的假工因為我們反體中文的資料庫的資料量是偏少那加上如果我們的孩子已經被習慣去使用反體中文那院長你覺得說這樣子對我們之後的AI的語言模型發展有什麼影響? |
transcript.whisperx[5].start |
128.909 |
transcript.whisperx[5].end |
129.97 |
transcript.whisperx[5].text |
中央研究院院長 |
transcript.whisperx[6].start |
149.209 |
transcript.whisperx[6].end |
149.229 |
transcript.whisperx[6].text |
﹚陳秀寳﹚ |
transcript.whisperx[7].start |
175.691 |
transcript.whisperx[7].end |
176.111 |
transcript.whisperx[7].text |
中央研究院院長陳秀寳 |
transcript.whisperx[8].start |
198.618 |
transcript.whisperx[8].end |
227.371 |
transcript.whisperx[8].text |
首先,我們能夠開放的部分目前沒有牽涉到任何智慧財產權或是Copyright的部分我們能夠開放的我們儘量立即馬上開放目前還有一些法規限制的部分我們儘量看能夠排除這些法規的限制朝向能夠把所有的資料都讓AI的大型元模型訓練朝這方向走 |
transcript.whisperx[9].start |
227.651 |
transcript.whisperx[9].end |
247.471 |
transcript.whisperx[9].text |
院長您講到一個重點我們的資料如果能夠被釋出能夠越多的資料來提供那對於使用者他的方便性方便度越高那這樣子的訊息交流量越高的話才能夠讓更多的人來使用的順手那就本席目前所知呢國科會這邊也有向中央設來購買資料庫 |
transcript.whisperx[10].start |
249.973 |
transcript.whisperx[10].end |
253.236 |
transcript.whisperx[10].text |
中央社應該是目前提供繁中資料庫是首選因為他的是非常非常完整再來這邊還要請教院長說未來對我們的AI兌換引擎我們如何協助之外我們是不是也會我們如何來協助國科會來發展台版的CHEP |
transcript.whisperx[11].start |
273.333 |
transcript.whisperx[11].end |
281.903 |
transcript.whisperx[11].text |
我們跟國會是攜手合作的國會計劃大部分的成員都是我們院裡面的成員所以我們沒有不分彼此事實上我們是同一個團隊在做的 |
transcript.whisperx[12].start |
288.008 |
transcript.whisperx[12].end |
290.63 |
transcript.whisperx[12].text |
現在很多這種詐騙的手法不管是AI圖片AI假影片讓我們彷彿勝訪 |
transcript.whisperx[13].start |
309.179 |
transcript.whisperx[13].end |
321.945 |
transcript.whisperx[13].text |
現在甚至有外媒教導如何來辨識AI假圖片院長你看一下這張圖片這個部分有6個重點就是教人家怎麼來辨識放大仔細看找到發圖來源那種種其實 |
transcript.whisperx[14].start |
325.587 |
transcript.whisperx[14].end |
345.623 |
transcript.whisperx[14].text |
雖然說他有這樣子叫人家怎麼去判斷那其實這個AI生成的假圖片如果說我們有這樣的程式去判斷它還是會出錯所以專家會建議說還是不用微妙因為有時候這個工具會把真實的圖片當作是假的那假的他又分辨不出有哪一些是真的那我們 |
transcript.whisperx[15].start |
347.014 |
transcript.whisperx[15].end |
357.943 |
transcript.whisperx[15].text |
如果說民眾有這樣的疑慮就是說我們如何人沒有辦法辨認的時候那我們有辦法藉助AI的技術來辨認AI生成的圖片或影片嗎? |
transcript.whisperx[16].start |
358.632 |
transcript.whisperx[16].end |
381.729 |
transcript.whisperx[16].text |
我們請專家廖宏元所長來回答委員你好這個題目其實我10年前在做數位臨場國家人計畫的時候那個影像篡改數就是我在做的那那個部分是為目的那個時候的目的是為了能夠修復我們那些在檔案局或者是國家電影館裡面那些影片因為那些影片會長霉 |
transcript.whisperx[17].start |
383.09 |
transcript.whisperx[17].end |
409.54 |
transcript.whisperx[17].text |
因為是膠捲的所以把它數位化以後裡面會有煤在上面所以我那時候是2008年左右專門在研發這個然後我那時候的結論就是說如果我們沒有在取向的過程裡面就放浮水印的話事實上這樣是很難偵測的因為以我那時候的技術就可以弄得幾乎亂蒸就你沒有辦法判別的甚至於可以把我自己的現代人塞到古代的影片裡面去黑白的 |
transcript.whisperx[18].start |
410.12 |
transcript.whisperx[18].end |
410.32 |
transcript.whisperx[18].text |
李卓人議員 |
transcript.whisperx[19].start |
429.813 |
transcript.whisperx[19].end |
452.112 |
transcript.whisperx[19].text |
所以這是會變成一個很可怕的現象是我們無法分辨這個到底是真的還是假的也沒有技術可以分辨嗎是這個意思這就是我前一陣子講的那個Deepfake的技術救了所有那些做壞事的壞男人跟壞女人因為我們可以沒有辦法驗證說他們到底是不是真的所以過去的那些做壞事的人都可以 |
transcript.whisperx[20].start |
452.332 |
transcript.whisperx[20].end |
458.717 |
transcript.whisperx[20].text |
所以以AI技術來合成的這些假影片假圖片我們沒有辦法用AI的技術反推回去說他是一個假的沒有辦法目前是沒有辦法的那我們對本身當然我們對AI的期待是非常的高那也因為AI是我們很未知的 |
transcript.whisperx[21].start |
469.184 |
transcript.whisperx[21].end |
497.481 |
transcript.whisperx[21].text |
他未來的走向發展到怎樣的進展到現在比如說剛才您的回答是說如果是用AI生成的這個假圖片假相假影片他技術非常是高超的時候不管是AI的技術都無法分辨人也無法分辨那到那個時候那真的會是一種不可控的一個局面面對這樣子的現象其實不管是官司訴訟不管是民眾的交易糾紛不管是詐騙這樣的我們都防不勝防那這民眾該如何自保 |
transcript.whisperx[22].start |
498.701 |
transcript.whisperx[22].end |
522.777 |
transcript.whisperx[22].text |
這些事情就像在辦刑事的案件一樣因為在呈堂的證供裡面你如果拿出一個改變內容的東西的話是不能當呈堂證供因為我也長久以來一直幫刑事局在處理犯罪的資料但是我們要有辦法證明它是改變的、變造的沒有辦法證明沒有辦法證明因為按照現在的技術你真的沒有辦法證明合成的影像或video是沒有辦法的 |
transcript.whisperx[23].start |
523.925 |
transcript.whisperx[23].end |
552.78 |
transcript.whisperx[23].text |
所以現在民眾只能希望說我們的各專家我們的各學者盡量的朝這個方向去精進去研究讓AI它是可以功能很強大但是我們又可以信任未來可能有新的方法可以做這件事情但是目前還沒看到那我應該代表我們的民眾們來要求來拜託期待說我們盡快把這樣的技術發展出來這件事情是可遇不可求因為全世界都期待有這樣的技術目前好吧那大家一起加油了謝謝 |
transcript.whisperx[24].start |
555.064 |
transcript.whisperx[24].end |
555.086 |
transcript.whisperx[24].text |
好 |