• 想知道 AI 基本法會怎麼推出?也請教部長對於 AI 監管這一塊,有什麼看法跟主張?

  • 如同你剛才所說的,歐盟討論這個題目已經相當久了,他們主要的修正就是因為生成式 AI 的興起,所以他們把本來沒有考慮到生成式 AI 的花了大概一、兩年的時間,翻修成有考慮生成式 AI 的情況。

  • 我們在過程中發現生成式 AI 的主要挑戰,是因為它是一種基礎技術,很難預先判斷會用在哪裡,所以就必須要有一套方式,若即時造成社會的損害或者是危害可能性,能夠快速發現,而發現之後才能夠對症下藥。舉例來說:像生成式 AI 如果發展出能夠很容易說服人,進入人的潛意識,也就是沒有意識到的情況之下,就去說服他做什麼本來不是他的最佳利益事情,這種事情是違反基本人權,這種事情應該要限制等等。

  • 所以基本上是兩個:一個是如何快速把新的危害能夠透過制度性的方式發現到;第二個是當發現到之後,我們怎麼樣快速告訴所有的從業人員,這種新的應用在某個邊界以外就是不可以的、應該要朝著別的方向來做,這個也是上次講過轉方向盤的部分。

  • 想請問一下,如果以落地一點的說法,像危害是哪一些或者是沒有什麼生活化的例子?

  • 其實像臺灣已經通過了三個跟這個相關的法律修正,舉例來講,像透過深偽意圖使人當選或不當選,這個是現在最夯的題目,這是一種危害。另外一種危害是透過投資廣告等等的方式,能夠引起名人或者其他有公信力的單位,這些單位因為現在深偽變得非常容易,很容易冒充某一個名人同時跟幾千人一對一私訊跟視訊,以前沒有這個狀態,現在有生成式AI,可以跨文化、跨語言來做,因此這又是另外一種危害,所以我們也有說線上平台如果發現這種事,又不在 24 小時之內下架,最重可以負連帶的罰款,也就是有人被騙多少他就是要賠多少,這是很具體的危害,這是投資詐騙的部分。

  • 第三,非經個人同意的私密影像合成,這部分之前在性暴力相關防治的法案當中,也已經有納入這樣的做法。我們注重的是,社會上已經期待這種危害如果再不明確說這個不行的話,接下來就會有相當大的社會不當影響力時,我們就要快速來進行回應。這部分我們已經做一陣子了,各部會都有在注意生成式 AI 造成怎麼樣損害跟危之後,快速立法。

  • 剛剛部長提到有生成式危害,線上平台沒有下架的話,他要負連帶罰款,之前我在參閱您給我的資料當中,我有發現您跟教授有討論到,是不是可以跟我們細講一下,當時說的是,因為很多人透過 FB 詐騙,FB 不處理的話,是可以連帶罰款,但認為FB是外國的平台,並不是臺灣境內,這到底要怎麼處理?是不是可以多跟我們分享這個部分?

  • 事實上只要在境內有營業的事實,也就是有從事廣告業務,事實上是廣告業,而且也有落地,意思是有臺灣的分公司等等,所以這一個部分在之前幾年我們不管是在落地的負責人上或者是稅的跨境認定上等等,這部分都已經調適到雖然他的總部可能在愛爾蘭或者是其他的地方,但是在境內有營業的事實,我們可以掌握他的營業狀況,或者是連帶罰鍰等等,並不會有無法執行的問題。

  • 想要請問部長會覺得 AI 監管會走什麼路線,或者是跟著什麼國家的路線走?

  • 我想是剛剛講的大原則,也就是快速「發現危害」及精準「遏止危害」的大原則是各國都一樣的,只要是民主國家,很少不是用這樣的方式做,但每一個國家所遭受到的挑戰不同。如果一個國家先發現詐騙的危害或者先發現換臉非經個人同意私密影像等等的這種危害,就會先處理這個,但在其他的國家,可能他們比較在意的像是社會信用,也就是透過國家監控的人類情緒識別來影響搭飛機、搭車等等,因為有一些政權示範這樣的用法,一些歐盟的會員國會覺得自己的廠商如果開始這樣做的話,可能讓民主或者是自由的程度大幅倒退,所以他們先處理這個危害。框架上我想大家都是類似的,但是具體的危害,每個社會是不同的。

  • 想要請問部長,不知道這個問題是不是可以問,現在針對臺灣境內有可能的危害,我們到底是往哪一個方向?像臺灣來講,很容易常想到的是詐騙橫行,管制方向有可能往這個方向走嗎?

  • 打詐五法,當然裡面已經有處理一些像投資詐騙等等的情況,我們也注意到我們自己在推行行政數位化的時候,我們會發現外面來的這一些挑戰,有一些已是用生成式 AI 在產生的。我舉例:像我們之前有辦理「點子松」,也就是徵件辦法,大家可以提一些好的想法,但是有生成式 AI 之後,如果不限制一個人投幾則的話,只要有生成式 AI,不管是短片或者是影像或者是文字,每個人都可以生出上萬則,這個時候我們評審或者是審查的機制又沒有自動化,這個時候就會產生類似被阻斷式攻擊的情況。

  • 你剛剛提到的像在防詐上也是類似的,像剛剛講到的,本來要一對一詐騙,但是現在透過訓練一個語言模型幫他詐騙,可以一次詐騙非常多人,這樣的案件量,雖然是同樣的行為者,但是案件量、數量就會跨縣市變得相當多,因此在行政院當中也有考慮一定程度可以透過 AI 來流線化一些比較重複的部分,是不是可能一定程度讓 AI 來進行,致使攻防使用 AI 的程度才稍微比較對等一點,這也是在我們精確處理對策當中的一部分。

  • 我可以說生式式 AI 造成的防詐,有關單位也會想要以 AI 的方式來應付,以免案件太多,可以這樣說嗎?

  • 就像裡面重複的部分,像同一個人用同一支 AI 程式攻擊相當多不同的標的,不管是攻擊要騙錢的部分,或者是其他資安方面的攻擊,我們在防守方其實看起來很像是上千個不同的事件,但是事實上不管是調查、處理或者是後面一些相關程序的時候,事實上都是完全重複的,因為其實是只有一個,如何確保不能因為分身攻擊很多地方,我們這邊就要花幾百或者是幾千倍的這種行政作業流程、文書處理流程等等,這是很重要的一件事。

  • 這個問題可能會退到最後面,大家還是會認為法律是最後的道德底線,AI 監管的這一件事,大部分會有疑慮的是 AI 監管可行嗎?跟得上科技的腳步嗎?部長是不是可以跟我們分享 AI 監管為何重要,可以遏止到什麼地步?

  • 這個後面有一個想法,好像我們打地鼠,冒出一個、我們就來處理一個,如果很嚴重,我們就通過法律來處罰,後面有隱含的是,很像反應的速度不及危害出現的速度,所以是追著跑的感覺,我可以這樣理解嗎?

  • 但是我剛剛講的不是,我剛剛講的是超前的態度,在還沒有發生大規模損害,只是危害,也就是有損害的可能、有這個危險與風險,可能只影響到一小部分的人、影響的程度不嚴重,在大規模蔓延之前,我們如果已經有一套系統的方式,好比像半年前就先發現有這樣的情況,我們就可以超前布署來說我們怎麼樣開發不只是防治的部分,而且也是提前教育大家,好比像幾年前有請科技會報辦公室當時跟我拍的一支影片,用很便宜的手機或者是筆電,Deepfake 我自己的影片跟影像,跟大家說現在用 Deepfake 很容易的這件事。

  • 大家看到這個東西或者是信以為真之前,就先打預防、接種疫苗那樣,先讓大家知道未來會有這樣的危害,大家用自己的方式能夠提高警覺等等,等到這個造成危害的技術變得普及的時候,相對衝擊就沒有這麼大,因為大家心理已經做好防備,而且已經知道要如何對應等等,所以我覺得超前布署還是最重要的部分。

  • 我再舉一個例子,像我們在疫情的時候,就已經有發現到每次要開發新的、大的系統,就有一些詐騙訊息問是否才剛從口罩系統訂了口罩,但其實並不是真的有取得使用者個資,只是因為所有的人都在做領取口罩的這件事,所以亂槍打鳥的擊中率很高。但是,我們從今天開始,所有機關在共同供應契約上都可以很容易用一封 0.75 元的價格來共用「111」的簡訊號碼來進行發送,以後等到大家都採用了,我們很快就會說不是用短碼發送的,基本上當作詐騙就好了,就不需要再一一回應不同簡訊詐騙的態樣,就像你講到的退到一個源頭,如果不是藍勾勾或者是短碼,這樣就是假的,這也是打預防針的方法。

  • 我總結來說,部長認為現在臺灣 AI 基本法,其實完全是走超前布署的路線,並不是危害出現才訂法令來避免?可以這樣講嗎?

  • 不能這樣講,這樣講很像說如果訂了 AI 基本法,剛剛講的那些投資詐欺、選舉跟其他相關都不用處理了,絕對不是這樣子。

  • 我們要建立的是這樣一種機制,這種機制不是只是在這些 AI 系統或者產品的研發過程中去進行評測,我們有一個評測中心可以評測一些性質,而且也要實際布署到社會,但是社會還沒有大規模採用的這一段時間來做「社會評測」,也就是我們去問先開始用的人,已經感覺到會有怎麼樣的危害,因為我們不是那些從業人員,其實沒有辦法在實驗室裡或者是開發商這邊就預先想到會造成這樣、那樣的危害,所以應該要有一種系統性的方式,至少每半年等等透過一種調查的方法來廣泛蒐集大家看到未來半年看到的危害是什麼,有這樣的機制。

  • 但是,如果最後被發現投資詐騙的危害被先期發現了,最後要通過修訂這一方面懲罰的法律,當然還是要回歸到金管會、消費保護體系去,所以每一個不同的部會都要參加到危害發現跟對峙的概念裡面。

  • 瞭解。您剛剛說 AI 監管有兩個,一個是超前布署、另外一個是基本的法規,是這樣嗎?

  • 對,也就是預防性的,也不能叫「監管」,比較有點像「調適」,也就是讓社會知道有這樣的一種新能力出現,可能會造成這些危害,我們就預先採取哪一些新的方式,來讓這些危害不能蔓延、不嚴重等等的情況,這個是先期的,也就是預防勝於治療,但是後面治療、懲罰等等,這個當然還是會有。

  • 最近也有一些討論的聲量認為與其立 AI 基本法,不如直接訂定相關的法規,這一個部分部長有什麼想法可以跟我們分享?

  • 當然其實我們有一些法規的設計,像金融創新相關的實驗條例,也就是俗稱「金融沙盒」或者是「無人載具的相關實驗條例」等等,這些法律存在並不是要預測未來會需要立哪一些法,而是讓他有一個先期實驗的場域,在這個先期實驗的場域裡面我們花比較多的時間來看如果無人載具進入社會,這個社會的反應是怎麼樣,並不是一下子讓無人載具在全臺灣都可以跑,或者一個金融事業要導入 AI 來進行某部分的活動或者是工作,同樣先讓一些自願的測試者來讓我們知道這個過程中是不是會有好比像潛意識影響人等等的這些問題或者是個資、隱私等等的問題。

  • 這類俗稱「沙盒」的這些法案,可以說是育成後面法案的孵化器,在這當中試,如果發現有重大危害,我們說不定後面要通過法規的修正去抑制這個危害,如果在這個沙盒當中發現有重大的利益,我們說不定也要修正既有的法規,本來限制的東西要開放,不是本來開放的東西要限制而已,等於這種實驗調適的機制,我覺得也是相當重要的。

  • 我最後一個問題是,想要請教部長當全民在討論 AI 監管的時候,您覺得在 AI 監管這一方面有沒有什麼應該要重視的東西,或者是真正 AI 監管的核心是什麼,因為很常會誤會 AI 監管是不是會採到自由的紅線?或者是不是會跟人權扞格?

  • 應該這樣講,如果某一個技術在下游應用的時候,會造成不可逆的公共危害,當然環境污染是最常舉的例子,我想不會有人說把臭氧層破壞掉是冷媒製造商的自由,按照上次討論的例子來講,所以這個跟自由沒有關係,沒有誰有破壞我們居住環境的自由,所以差別只是在你多快可以讓整個社會、業界瞭解到某些特定的應用方式,當這些條件滿足的時候就會造成重大危害,像手機的螢幕很小,不是危害,手機是用觸控的,很方便、也不是危害,推送通知也不是危害,透過 AI 來讓你看到你覺得比較有意思、會待比較久的社群、別人的貼文本身也不是危害,這幾個加在一起就是會產生成癮性、注意力相關的問題,就會產生很多包含言論極化等等的問題,這個是我們在過去十年有看到的;但是你看裡面的每一個科技,難道你要禁止觸控式螢幕?這個是不可能的;我們是預先要先讓社會瞭解到,有些人把這個加在一起用,當加在一起用的時候會有重大危害,所以如何快速發現這一件事才是重點。

  • 剛剛部長提到我們現在的做法有一部分是先行者先來談,他們有可能關注到的危害是什麼,等於我們看待危害的定義跟標準是綁在這些人身上嗎?

  • 這有兩個部分,第一個是所謂的「self-selection」,也就是我自己覺得有的危害,能夠應該有一個地方可以讓我舉手發言,而且跟其他與我類似處境的人討論,這個是一個。另外一個,可能也需要一定廣泛的代表性,在一些文獻當中,我們可以看到有一些是採取民調的方法,先知道人口比例是什麼,然後做分層抽樣、抽個一千多人、正負 3%,大家都很熟悉這一套的信心指數、然後問它一些問項,但是這種傳統的民意調查方法是,很難問開放性的問題,問的是已經知道哪一些危害,然後問嚴重不嚴重,這個可以,要打電話問都可以;但是如果是問開放性的問題,像工作上感覺到有破壞哪一些在意的價值等等,這用電訪及純統計代表性的量化方法就比較難做到這一件事;當然,這種互動式訪問也因為生成式 AI 出現,這個技術也在進步。

  • 但是另外一個方法是,像審議式調查的方法,也就是「sortition」,抽出全國具有代表性的某些人,裡面幾百人、甚至上千人在線上類似 Google Meet 當中去進行腦力激蕩,這樣既可以注重人口的抽樣代表性,也就是大家都有機會參與,並不是只有知道這一件事或者是先期參與者參與;二方面,根本還沒有應用或者是受到影響的人,有機會透過一段審議的過程,先瞭解有這一件事,而且放在自己的生活情境當中,想一想如果輪到我或者是親朋好友或者公司,開始這樣採用的話,預期會有這樣的危害。所以廣泛抽樣跟精確討論跟審議,我們分別都有做一些,但是把這兩個結合在一起,目前都還在規劃。

  • 我想追問一題,法律永遠是站在監管的角色,但是科技一定是無限制的發展或者是擴張,部長怎麼看待風險與機會或者是限制與機會?

  • 我想先 push back 一下,如果有不破壞臭氧層的冷媒,那麼製造冷氣機或者是冷卻的事業,還會覺得破壞臭氧層是我的自由、科技就是要無限制的增長嗎?不是這樣子,大家瞭解到有明確的公共危害,而且投資去找出替代品之後,不用那個新的替代品,基本上就是公害,就是害群之馬,而且也沒有經濟誘因去做這一件事,這個我們上次訪問都有討論到,所以我不覺得有什麼問題;現在的問題是在前期的社會評測沒有做,你就只能做所謂最後要掉下懸崖前擋住的護欄,就像你剛剛講的,但是我們除了做 guard rail(護欄)之外,我們還可以做 guide rail(導軌),我們前期就知道會有這樣的情況,我們就可以導引產業去往我們已經知道比較不會造成公共危害的這些方向來進行發展,這個我想在環境的治理上有非常多的例子,我不在這邊繼續舉環境污染的例子,相信你們應該滿瞭解的。

  • 差不多是這樣子。在剛剛的採訪當中,部長有沒有想要補充的部分?

  • 剛剛講的「審議式調查」,理論上可以兼具大家審慎地討論及全人口抽樣代表性,並不是少數先期參與者,所以這樣的方式我覺得還滿值得我們來試試看,未來如果有機會的話,也希望成為評測中心持續的部分,不過這個當然要跟評測中心的委員們討論。

  • 不好意思,我再追問一題,所以像這樣大規模審議式調查,臺灣算是在國際間的先行者,或是其他國家也是採用同樣的方式?

  • 以我所知,如果去找「Deliberative Polling」計畫,他們當然在各國都有一些審議式民主學者做了類似的事情,但是之前他們一直有一個挑戰,要大家到同樣實體的地方來進行審議討論的成本相當高,以至於不能像現在滾動式民調的每兩天做一次一直做,但是像現在這種線上的好處,很多引導師的工作,一定程度可以交給語言模型、AI 來做,因為它真的聽得懂你講話的意思,雖然沒有辦法精確體會你的感受,因為生成式 AI 還沒有身體,但是至少知道你講的這一句話跟這個題目是不是有切題、是不是需要拉回來、是不是要問你是不是可以講一些事實基礎等等,這個程度完全在語言意思的層次,這個 AI 是可以做的。

  • 所以,透過 AI 來引導討論,就有機會大家完全用線上的方式,你一次就可以好比 4 萬人來,但是我們就變成 1,000 個同時 40 個人的討論場域或者是 4,000 個的 10 人討論的場域,以前的困難不可能一次請到 4,000 個引導師來做小組討論,但是這 4,000 個都是 AI,就可以這樣做;這有一點像「我城對談」,事後的蒐集、整理、綜整等等,可以透過 AI 來加強,以我所知,目前國家政府來採用這樣一套有規模、持續地做,這個比較少,Meta 用這個方式已經做了兩、三次了。

  • 所以在科技業之外,以國家為單位的話,臺灣在這一件事上算是先驅者?

  • 應該算比較領先。

  • 部長,您會覺得特別哪一個東西是特別的重點,要放到這一篇文章當中?像剛剛提到的審議式調查很有趣。

  • 像我們之前也有討論過,其實 AI 的比重不一定要到八成,有的時候兩成也可以。所以 AI 可以作為引導師,其實引導的大概不一定比人類好,但是差別就是 AI 可以一次有 4,000 個引導師,人類大概沒有辦法,一下子要訓練 4,000 個引導師本身就是很大的挑戰;所以這樣的情況之下,如何讓大家在發現 AI 這一件事有所幫助,也就是正面的用法,並不是要擋住他而已,這個我們剛剛說要用來說 guide rail 這類的技術,我們儘量快速引導到能夠強化我們的治理、強化我們的公眾審議等等的這個方向去,我覺得這是可以強調的。

  • 我也覺得這對讀者來講很有趣、可以學到的內容,因為 AI 基本法背後如何擬出集結眾人智慧的法律或者是規定,用的方法是創新的,這個事情是很重要的。

  • 是。我也想強調的是,這並不是只能進 AI 基本法或者是只能進其他部會的相關法律,我們自己的評測中心本身也有運作機制,所以我們也可以在評測中心的範圍當中先來做。文章如果要提到 AI 基本法,或許是作為一個引子,但是剛剛提到一系列的程序,是在我們現有評測制度當中就可以開始落實,不需要等到基本法三讀通過。

  • 謝謝部長。