iVOD / 159142

黃健豪 @ 第11屆第3會期交通委員會第2次全體委員會議

Index Text
0 黃委員健豪:(11時51分)謝謝主席。我們一樣請數位部黃部長。
1 主席:請部長。
2 黃部長彥男:委員好。
3 黃委員健豪:部長好。這部分我還是延續剛剛先翔的問題,剛剛他講到南韓,我給部長更新一下新聞,今年南韓的個人資訊保護委員會有發現說臉書Meta在蒐集使用者的宗教信仰、政治觀點還有性別議題等等方面的資料,來提供給廣告商,所以最後裁罰了5億元,有這樣的故事存在。所以講到我們今天公務機關全面禁止使用DeepSeek的原因當然是擔心有資安疑慮,那我們想問的是說,部長,對於ChatGPT、DeepSeek這種AI工具,只有DeepSeek有這種個資或資訊上傳的疑慮嗎?其它的模型有沒有相關的風險?
4 黃部長彥男:報告委員,我還是要講說當要禁用一個軟體或是一個服務的時候,還是要引用法律,要有法依據。DeepSeek被禁用是因為根據危害國家資通安全產品的規範去禁止使用,我們並沒有禁止DeepSeek在民間使用,是因為我們沒有法規去讓我們禁止民間使用DeepSeek,所以並不是用個資法去禁止DeepSeek,而是用危害國家資通安全產品這樣的規範去禁用DeepSeek。那DeepSeek確實是中國的產品,它資料確實有回傳中國,而且中國有情報法,他的中央機關可以隨時要求DeepSeek把資料給中國政府來監控,所以確實有疑慮我們才會去禁止。
5 黃委員健豪:好。部長因為你剛剛提到說的確DeepSeek有相關的問題,這大家都知道,我們也不能否認這個事實。我剛剛第二個問題是問說,其他的AI模型會不會有相關的疑慮?它的數據,它後端的資料庫裡面會不會一樣有被隨時提取的風險?這第一個問題。那第二個問題是說,因為部長剛剛在上一段質詢有提到說,你很明確說因為中國現在是我們的敵人,如果他是我們的敵人,如果這個假設認定為真的話,那DeepSeek的相關資料中共的官方可以隨時提取的話,如果我們只有官方禁止使用,民間卻沒有禁止使用,這個邏輯不是有點矛盾嗎?因為其實民間的很多資料庫裡面,或是我們民間很多資訊系統裡面,都有很多我們的敏感資訊在,還有很多我們國人的不管是政治立場也好、宗教信仰也好、各方面的資訊也好,這些東西不就也會提供給所謂的敵國來判斷、來做為情蒐的工具嗎?
6 黃部長彥男:我還是回到那一點,就是說我們要禁用任何的軟體或服務,一定要有法可循,目前禁用公務機關不能使用DeepSeek是根據危害國家資通安全產品這樣一個規範,可是那個規範只有規範到公務機關,並沒有規範到民間,所以目前在民間除非我們能夠證明DeepSeek有個資法違法,不然我們沒辦法禁用它。所以我們現在也是在分析跟蒐集,看看DeepSeek是不是真的有違反個資法,目前因為還沒有足夠的證據來證明它有違反個資法,所以我們目前並沒有禁止使用DeepSeek,還是回到法的層面。
7 黃委員健豪:部長你剛剛提的,我覺得是比較被動的,因為對數位部期待,部長你也清楚,我對數位部是非常支持的,在總預算的時候我也提醒很多次,我想我對數位部的支持你不能否認啦。所以我們今天要提的是說,今天既然有數位部的存在,後續也談到說包含現在本來要討論所謂AI基本法的問題也是一樣,如果今天你是因為有其他的法令來處理DeepSeek的問題,我們期待數位部做的是不管是DeepSeek也好,還是ChatGPT也好,還是相關後續會發展出的很多AI模型也好,我們這個母法是什麼?基本法是什麼?到底數位部什麼時候才要提出來?
8 黃部長彥男:我們事實上在去年11月就有提一個院的版本,希望在這個會期能夠再做一些文字修改,當然也參考各黨團的不同版本,我們當然是希望在這個會期能夠提出一個AI基本法。但是我要特別強調,基本法有2個層面,一個就是鼓勵AI的創新,另外一面是要考慮到人權。
9 黃委員健豪:監管嗎?
10 黃部長彥男:對,考慮到人的人權問題,所以這方面怎麼取得balance大家要再來討論,就是說過度的管理會造成AI發展的受限,但是不管理又會造成AI的危害,一個是剎車、一個是油門,什麼時候踩煞車,什麼時候踩油門?這個就是最大的問題,這需要跟社會、跟各黨團再同步溝通。
11 黃委員健豪:部長,因為你剛剛一直提到的一件事情是,我們之所以現在沒有禁止民間使用DeepSeek,或是我沒有去禁止比如說ChatGPT或是其他的AI模型在公務機關來使用的原因是因為沒有相關的法令,這是你剛剛講的嘛。那這個相關法令一直沒有出來之前,現階段民間正在使用DeepSeek也好,或是我們官方各公務機關可能有些人已經在使用ChatGPT也好,那在這變動的過程裡面,我們的這些資訊、我們的個資或是我們政府的決策,是不是數據就流出去了?會不會有這個問題?
12 黃部長彥男:我剛剛也講過,就是說原則上像這種所謂的雲端LLM的服務,在公務機關的敏感資料我們會要求避免使用,但就是說這個東西還是一樣在雲端版。但是現在這些公司包括Microsoft、包括Google,他們也知道個問題,所以慢慢會開始提供一個也不是叫地板,就是它會有一個沙盒的概念,就是把資料放在沙盒裡面而不出去,如果這是可行的話,我們會比較trust,不過這還需要進一步去驗證。不過就是說LLM確實是很多功能可以用,但是我們在公家機關使用要特別小心。
13 黃委員健豪:部長,對不起,因為我時間不夠,剩2分鐘。剛剛部長您主動提到這幾個跨國大公司,他們可能願意跟你們配合或談判。
14 黃部長彥男:沒錯。
15 黃委員健豪:可能從我們過去在談詐騙這件事情就好了,我想數位部有花了很多心力在跟Meta、Google這些跨國公司在進行相關的談判,到今年可能才相對有成效,那回到這個AI基本法的問題就好,如果回到AI基本法的問題,如果我們的數據資料也是全部掌握在這些跨國公司手上,或是像現在新的這個ChatGPT手上的話,那你數位部的立場是什麼?另外還有就是說,剛剛提到的要分等級,因為我想歐盟,你也很清楚歐盟有分出來了,有所謂基本法出來了,歐盟有分4個等級。那我們臺灣在AI基本法上面,我們參考的版本是以歐盟為主?還是南韓為主?還是怎麼樣,會有什麼樣的版本出來?
16 黃部長彥男:我們現在是同時參考美、日、英和歐盟的,歐盟主要是以管理為主,美、日、英主要是以產業推動為主,怎麼取得balance我們現在就在跟各界溝通。我是希望出來一個版本是同時能夠鼓勵AI創新,同時又能夠在適當的地方踩剎車,不要影響到人權或者是公平性、透明性或者是資安等各方面的問題。所以這的確是一個比較複雜的工作,也需要再跟社會去溝通,不過同時我們也希望說很快的在這個會期能夠提出一個版本讓大家能夠通過,在AI的規範上有所依循,避免一些可能造成的危害。
17 黃委員健豪:我想發展當然是發展的很快啦,現在大家我覺得對於民意代表、對多數民眾來講,大家擔心的反而是監管的部分,尤其是個資的部分,還有像比如說都會想像或是幻想未來AI取代人類的工作或人類思想的問題,這部分是歐盟訂的規範比較嚴格,那我要問的是說我們數位部未來在這個相關法令上面,在討論的過程裡面,在這種最高層次的監管部分,是依歐盟的標準,還是依美國的標準?
18 黃部長彥男:我們希望是用臺灣的現況、用臺灣的標準,那這個就是我們需要再跟社會溝通,我不希望訂出一個AI基本法是讓大家覺得窒礙難行,然後只是為了管理。不過就是這個東西還需要再溝通,同時希望能夠促進產業,同時又不要做一些可能因AI產生的危害,包括歧視、偏見或者是資安、正確性、透明性的問題都要一併處理,這個我們會努力。
19 黃委員健豪:好,部長,謝謝。
20 黃部長彥男:謝謝。
21 主席(黃委員健豪代):接下來請許智傑委員發言。
公報詮釋資料
page_end 360
meet_id 委員會-11-3-23-2
speakers ["許智傑","洪孟楷","林國成","李昆澤","林俊憲","蔡其昌","魯明哲","陳素月","徐富癸","何欣純","邱若華","廖先翔","黃健豪","林楚茵","游顥","葛如鈞"]
page_start 311
meetingDate ["2025-03-13"]
gazette_id 1142601
agenda_lcidc_ids ["1142601_00010"]
meet_name 立法院第11屆第3會期交通委員會第2次全體委員會議紀錄
content 邀請數位發展部部長黃彥男列席報告業務概況,並備質詢
agenda_id 1142601_00010