非常謝謝大家提供給我們這麼好的意見,大家可能也知道 T 大使也好,或者是雲市集也好,很多是在疫情期間出於疫情的需求而推出。在疫情之後,如果只是回應短期需求,可能就要慢慢落日或者是下車了,但是如果像大家提到的青年、學生培力、國際交流等等,這個屬於長期需求的話,這個部分反而要加碼,我們自己也在對於數位產業署的數位青年跟雲市集,在進行重新討論,我想今天大家提出來的這些想法,我們很多應該都可以納到重新討論的想法裡面去,這個是第一點。
第二,我想不管是雲市集也好、T 大使也好,有一個很重要的精神是跨域共創。以 T 大使為例,並不是完全排除掉以數位為主的科系,但是占比一直都保持在 12%、13%左右,算是一個種子,但是這個種子我們讓它和其他科系的青年組隊,可能 5 個人或者是 10 個人一隊,裡面別的科系朋友也有自己科系所帶來的長處,截長補短的同時,大家對於數位轉型的概念不會害怕,不會害怕之後才會帶到企業跟民間。所以接下來,不管是透過社團或者是其他的方式,這個還要把握住,並不是全部都到其他的科系,也不是資訊相關科系才可以申請,而是要把握住某一個程度的比例,不只是跨系,而是跨院或者是跨校,這個部分系 T 大使推這麼幾年來滿成功的模式,這個可以維持住。
再來,剛剛提到生成式 AI 的部分,峰會因為剛好跟立院的質詢是同一天,我只能透過預錄,但可以試著在預錄當中帶一些生成式 AI 的元素,如果你發現我的嘴型不太自然,那可能就是合成的(笑);其實已經有好幾家廠商都來問是不是可以拿我的肖像、建模或者是人偶來推出產品,我說沒有問題,都拋棄肖像權跟著作權,以我所知現在有三個生成式 AI 分身,已經在國內各平台可以開始使用。
但是,確實除了像我這種比較極端拋棄掉肖像權跟著作財產權,馬上就會帶來很多爭議,關於這些爭議,我們當然在數位產業署有「AI 評測中心」這個才剛剛開幕,目前當然是以文字為主,但是很快也會有影像等等相關的進來,我們的目的其實滿簡單,就是讓整個業界都可以告訴我們說怎麼樣的運用是應該要容許、加強,怎麼樣的運用是不行的,可能是在產品布署前及布署後都要加以評測,如果超出常規太多的話,我們就不鼓勵這樣的產品,我想這個是全球都在進步跟管制中間要找出這個平衡,滿好的一點是大家都不吝於分享大家的意見,所以這一個部分我想在評測中心這邊有很多大家可以一起來參加的部分,我們也會透過像審議式的調查問大家怎麼樣的運用大家比較可以接受、怎麼樣的運用會破壞掉資訊的完整性,所以要防範等等,因此這個 MarTech 一定是先挑戰,不管是綠線或者是紅線,大家可以一起來幫忙。
除此之外,數位產業署還有一些別的,像數位金卡也是數位產業署負責,國外甚至是 MarTech 相關的一些朋友,不一定是寫程式,也可以做行銷、公眾溝通的專業等等,但是現在有 8 年的經驗,我們直接發金卡,這樣也可以彌補像把大學生轉過來,但是每年的數量還是在減少,所以會有一個自然缺口,我們希望可以透過不管是金卡或者是數位青年的國際人才對流等等的方式,我們這邊當然創造一個百分比,但是創造這個百分比之後能維持就不錯了,然後每年還是會減少,所以每年會減少的 gap 要透過國外的人才對流來補,這邊也有相當多政策在做這一件事,這個是比較 high level;但是具體上包含要辦活動,或者是要問是不是有數位產業署可以一起辦的部分,我們請數位產業署這邊來回答。
之前 Vitalik 也是這樣,Vitalik 在疫情的時候就想申請金卡,但是我們就說要專門辦一個我頒金卡給他的活動,因為對 Vitalik 這些人來講,自己出機票完全不是問題,所以他們就自己過來了,這樣我們就搭著辦。
我再補充一點,因為剛才也有提到獨立的個資會即將成立,想必《個資法》跟著會修法,不管是在資料蒐集或者是處理的這兩件事上,比較會往歐盟的方向移動,這個是已經確定的,不太可能是相反的方向。
我們現在在剛剛大家有提到的多元創新司,在下個月就有兩個指引頒布,跟大家比較有關係的應該是 隱私強化技術指引 ,PETs 有點像預防性的資安,一開始就不需要把個資交給第三方來處理,處理的其實是加密過的或者是亂數化過或者是合成資料,在這樣的情況之下,比較不會自己的資安守得很好,但是你的供應商或者是下游幫你把個資洩漏,結果還是罰你的問題。
以最簡單的概念來說,也就是隱碼技術,數位產業署推動一陣子了,隱瞞技術現在很多概念是很多電信商在幫忙推,因為電信商本來就知道你的電話號碼,所以對他們來講並沒有額外的隱私洩漏,但是電商來講,透過電信商所開發的隱碼平台,讓他的物流士可以完全不接觸到你的手機號碼的情況之下,就可以聯絡客戶,雙向都可以,貨送到之後亂數的隱碼就消失了,也不會再次連結的問題。
確實在警政署高風險個資的通報當中,現在歸零了,所以表示我們有做一些不錯的事情。當然未來會有更多的隱私強化技術,不是只有這種轉接的技術,想必會變成如果想要投資資安的話,只要多投資這種先期防護,後面收拾的應變、通報、滲透測試不是不做,但是風險就比較可控。
當然還有 數據公益運作指引 ,那個就是與其我們把所有的地方資料 Raw Data 都收過來,那個地方就會承受非常大的個資風險,不如各個不同的蒐集者整理起來,但是好比只交換自己訓練出生成式 AI 的數據,而不分享任何 Raw Data,這樣就在產業裡面大家可以共享一個生成式模型,其實如果多一點人用這樣的方法來進行操作的話,很多的個資侵害的問題是直接消失的,因為根本沒有集中到任何的地方。
這個我想就連 Google 自己切換到這個方式也花了六年,最近都變成不用 Raw Data 的方式來蒐集,我們在意識推廣之下,希望不要花到六年,所以這種比較新的泛稱隱私強化技術,我們自己會有相當多的投資在上面,未來也會跟資安院、隱碼技術的推廣加以結合,這個部分當然坦白來講,有些像同態加密還在研究,其實現在還不能商轉,大家就持續關注。
我們指引出來之後,如果大家覺得有哪一些新的部分要加進來,或者某些技術我們覺得還在研究中,但是大家已經在用了,也即時告訴我們,我們就即時更新指引,我們的目的是符合這個指引之後,通過一些基本的評測檢查之後,從獨立的個資會的角度說這個不算個資或者是跨境傳輸,這個就可以省去以前沒有獨立個資會的時候,要跟每一關的目的事業主管機關判這個不是個資才行,只要有一票否決就沒有了,這個還不是讓大家擔心,而是擔心拖兩年都不做決定,所以以前分散式管理也有分散式管理的問題;現在有了獨立個資會,雖然管制強度增加,但是也表示我們只要說服一組人就好了,因此這個也是可以花一點時間幫忙想一想跟推廣。
這個在爭取中的,也就是樓梯正在響的部分,大概是一年後才會拿到相關的預算,所以我們在今年可以做的比較像 pilot,等於國科會、國發會的審查委員問說這個模式是我們自己想出來,或者是民間有做過,我們就可以說民間有做過,而且效果很好,所以這個部分,就請數位產業署持續跟 AMT 保持聯絡。
如同你剛才所說的,歐盟討論這個題目已經相當久了,他們主要的修正就是因為生成式 AI 的興起,所以他們把本來沒有考慮到生成式 AI 的花了大概一、兩年的時間,翻修成有考慮生成式 AI 的情況。
我們在過程中發現生成式 AI 的主要挑戰,是因為它是一種基礎技術,很難預先判斷會用在哪裡,所以就必須要有一套方式,若即時造成社會的損害或者是危害可能性,能夠快速發現,而發現之後才能夠對症下藥。舉例來說:像生成式 AI 如果發展出能夠很容易說服人,進入人的潛意識,也就是沒有意識到的情況之下,就去說服他做什麼本來不是他的最佳利益事情,這種事情是違反基本人權,這種事情應該要限制等等。
所以基本上是兩個:一個是如何快速把新的危害能夠透過制度性的方式發現到;第二個是當發現到之後,我們怎麼樣快速告訴所有的從業人員,這種新的應用在某個邊界以外就是不可以的、應該要朝著別的方向來做,這個也是上次講過轉方向盤的部分。
其實像臺灣已經通過了三個跟這個相關的法律修正,舉例來講,像透過深偽意圖使人當選或不當選,這個是現在最夯的題目,這是一種危害。另外一種危害是透過投資廣告等等的方式,能夠引起名人或者其他有公信力的單位,這些單位因為現在深偽變得非常容易,很容易冒充某一個名人同時跟幾千人一對一私訊跟視訊,以前沒有這個狀態,現在有生成式AI,可以跨文化、跨語言來做,因此這又是另外一種危害,所以我們也有說線上平台如果發現這種事,又不在 24 小時之內下架,最重可以負連帶的罰款,也就是有人被騙多少他就是要賠多少,這是很具體的危害,這是投資詐騙的部分。
第三,非經個人同意的私密影像合成,這部分之前在性暴力相關防治的法案當中,也已經有納入這樣的做法。我們注重的是,社會上已經期待這種危害如果再不明確說這個不行的話,接下來就會有相當大的社會不當影響力時,我們就要快速來進行回應。這部分我們已經做一陣子了,各部會都有在注意生成式 AI 造成怎麼樣損害跟危之後,快速立法。
事實上只要在境內有營業的事實,也就是有從事廣告業務,事實上是廣告業,而且也有落地,意思是有臺灣的分公司等等,所以這一個部分在之前幾年我們不管是在落地的負責人上或者是稅的跨境認定上等等,這部分都已經調適到雖然他的總部可能在愛爾蘭或者是其他的地方,但是在境內有營業的事實,我們可以掌握他的營業狀況,或者是連帶罰鍰等等,並不會有無法執行的問題。
我想是剛剛講的大原則,也就是快速「發現危害」及精準「遏止危害」的大原則是各國都一樣的,只要是民主國家,很少不是用這樣的方式做,但每一個國家所遭受到的挑戰不同。如果一個國家先發現詐騙的危害或者先發現換臉非經個人同意私密影像等等的這種危害,就會先處理這個,但在其他的國家,可能他們比較在意的像是社會信用,也就是透過國家監控的人類情緒識別來影響搭飛機、搭車等等,因為有一些政權示範這樣的用法,一些歐盟的會員國會覺得自己的廠商如果開始這樣做的話,可能讓民主或者是自由的程度大幅倒退,所以他們先處理這個危害。框架上我想大家都是類似的,但是具體的危害,每個社會是不同的。
打詐五法,當然裡面已經有處理一些像投資詐騙等等的情況,我們也注意到我們自己在推行行政數位化的時候,我們會發現外面來的這一些挑戰,有一些已是用生成式 AI 在產生的。我舉例:像我們之前有辦理「點子松」,也就是徵件辦法,大家可以提一些好的想法,但是有生成式 AI 之後,如果不限制一個人投幾則的話,只要有生成式 AI,不管是短片或者是影像或者是文字,每個人都可以生出上萬則,這個時候我們評審或者是審查的機制又沒有自動化,這個時候就會產生類似被阻斷式攻擊的情況。
你剛剛提到的像在防詐上也是類似的,像剛剛講到的,本來要一對一詐騙,但是現在透過訓練一個語言模型幫他詐騙,可以一次詐騙非常多人,這樣的案件量,雖然是同樣的行為者,但是案件量、數量就會跨縣市變得相當多,因此在行政院當中也有考慮一定程度可以透過 AI 來流線化一些比較重複的部分,是不是可能一定程度讓 AI 來進行,致使攻防使用 AI 的程度才稍微比較對等一點,這也是在我們精確處理對策當中的一部分。
就像裡面重複的部分,像同一個人用同一支 AI 程式攻擊相當多不同的標的,不管是攻擊要騙錢的部分,或者是其他資安方面的攻擊,我們在防守方其實看起來很像是上千個不同的事件,但是事實上不管是調查、處理或者是後面一些相關程序的時候,事實上都是完全重複的,因為其實是只有一個,如何確保不能因為分身攻擊很多地方,我們這邊就要花幾百或者是幾千倍的這種行政作業流程、文書處理流程等等,這是很重要的一件事。
這個後面有一個想法,好像我們打地鼠,冒出一個、我們就來處理一個,如果很嚴重,我們就通過法律來處罰,後面有隱含的是,很像反應的速度不及危害出現的速度,所以是追著跑的感覺,我可以這樣理解嗎?
但是我剛剛講的不是,我剛剛講的是超前的態度,在還沒有發生大規模損害,只是危害,也就是有損害的可能、有這個危險與風險,可能只影響到一小部分的人、影響的程度不嚴重,在大規模蔓延之前,我們如果已經有一套系統的方式,好比像半年前就先發現有這樣的情況,我們就可以超前布署來說我們怎麼樣開發不只是防治的部分,而且也是提前教育大家,好比像幾年前有請科技會報辦公室當時跟我拍的一支影片,用很便宜的手機或者是筆電,Deepfake 我自己的影片跟影像,跟大家說現在用 Deepfake 很容易的這件事。
大家看到這個東西或者是信以為真之前,就先打預防、接種疫苗那樣,先讓大家知道未來會有這樣的危害,大家用自己的方式能夠提高警覺等等,等到這個造成危害的技術變得普及的時候,相對衝擊就沒有這麼大,因為大家心理已經做好防備,而且已經知道要如何對應等等,所以我覺得超前布署還是最重要的部分。
我再舉一個例子,像我們在疫情的時候,就已經有發現到每次要開發新的、大的系統,就有一些詐騙訊息問是否才剛從口罩系統訂了口罩,但其實並不是真的有取得使用者個資,只是因為所有的人都在做領取口罩的這件事,所以亂槍打鳥的擊中率很高。但是,我們從今天開始,所有機關在共同供應契約上都可以很容易用一封 0.75 元的價格來共用「111」的簡訊號碼來進行發送,以後等到大家都採用了,我們很快就會說不是用短碼發送的,基本上當作詐騙就好了,就不需要再一一回應不同簡訊詐騙的態樣,就像你講到的退到一個源頭,如果不是藍勾勾或者是短碼,這樣就是假的,這也是打預防針的方法。
不能這樣講,這樣講很像說如果訂了 AI 基本法,剛剛講的那些投資詐欺、選舉跟其他相關都不用處理了,絕對不是這樣子。
我們要建立的是這樣一種機制,這種機制不是只是在這些 AI 系統或者產品的研發過程中去進行評測,我們有一個評測中心可以評測一些性質,而且也要實際布署到社會,但是社會還沒有大規模採用的這一段時間來做「社會評測」,也就是我們去問先開始用的人,已經感覺到會有怎麼樣的危害,因為我們不是那些從業人員,其實沒有辦法在實驗室裡或者是開發商這邊就預先想到會造成這樣、那樣的危害,所以應該要有一種系統性的方式,至少每半年等等透過一種調查的方法來廣泛蒐集大家看到未來半年看到的危害是什麼,有這樣的機制。
但是,如果最後被發現投資詐騙的危害被先期發現了,最後要通過修訂這一方面懲罰的法律,當然還是要回歸到金管會、消費保護體系去,所以每一個不同的部會都要參加到危害發現跟對峙的概念裡面。
對,也就是預防性的,也不能叫「監管」,比較有點像「調適」,也就是讓社會知道有這樣的一種新能力出現,可能會造成這些危害,我們就預先採取哪一些新的方式,來讓這些危害不能蔓延、不嚴重等等的情況,這個是先期的,也就是預防勝於治療,但是後面治療、懲罰等等,這個當然還是會有。
當然其實我們有一些法規的設計,像金融創新相關的實驗條例,也就是俗稱「金融沙盒」或者是「無人載具的相關實驗條例」等等,這些法律存在並不是要預測未來會需要立哪一些法,而是讓他有一個先期實驗的場域,在這個先期實驗的場域裡面我們花比較多的時間來看如果無人載具進入社會,這個社會的反應是怎麼樣,並不是一下子讓無人載具在全臺灣都可以跑,或者一個金融事業要導入 AI 來進行某部分的活動或者是工作,同樣先讓一些自願的測試者來讓我們知道這個過程中是不是會有好比像潛意識影響人等等的這些問題或者是個資、隱私等等的問題。
這類俗稱「沙盒」的這些法案,可以說是育成後面法案的孵化器,在這當中試,如果發現有重大危害,我們說不定後面要通過法規的修正去抑制這個危害,如果在這個沙盒當中發現有重大的利益,我們說不定也要修正既有的法規,本來限制的東西要開放,不是本來開放的東西要限制而已,等於這種實驗調適的機制,我覺得也是相當重要的。
應該這樣講,如果某一個技術在下游應用的時候,會造成不可逆的公共危害,當然環境污染是最常舉的例子,我想不會有人說把臭氧層破壞掉是冷媒製造商的自由,按照上次討論的例子來講,所以這個跟自由沒有關係,沒有誰有破壞我們居住環境的自由,所以差別只是在你多快可以讓整個社會、業界瞭解到某些特定的應用方式,當這些條件滿足的時候就會造成重大危害,像手機的螢幕很小,不是危害,手機是用觸控的,很方便、也不是危害,推送通知也不是危害,透過 AI 來讓你看到你覺得比較有意思、會待比較久的社群、別人的貼文本身也不是危害,這幾個加在一起就是會產生成癮性、注意力相關的問題,就會產生很多包含言論極化等等的問題,這個是我們在過去十年有看到的;但是你看裡面的每一個科技,難道你要禁止觸控式螢幕?這個是不可能的;我們是預先要先讓社會瞭解到,有些人把這個加在一起用,當加在一起用的時候會有重大危害,所以如何快速發現這一件事才是重點。
這有兩個部分,第一個是所謂的「self-selection」,也就是我自己覺得有的危害,能夠應該有一個地方可以讓我舉手發言,而且跟其他與我類似處境的人討論,這個是一個。另外一個,可能也需要一定廣泛的代表性,在一些文獻當中,我們可以看到有一些是採取民調的方法,先知道人口比例是什麼,然後做分層抽樣、抽個一千多人、正負 3%,大家都很熟悉這一套的信心指數、然後問它一些問項,但是這種傳統的民意調查方法是,很難問開放性的問題,問的是已經知道哪一些危害,然後問嚴重不嚴重,這個可以,要打電話問都可以;但是如果是問開放性的問題,像工作上感覺到有破壞哪一些在意的價值等等,這用電訪及純統計代表性的量化方法就比較難做到這一件事;當然,這種互動式訪問也因為生成式 AI 出現,這個技術也在進步。
但是另外一個方法是,像審議式調查的方法,也就是「sortition」,抽出全國具有代表性的某些人,裡面幾百人、甚至上千人在線上類似 Google Meet 當中去進行腦力激蕩,這樣既可以注重人口的抽樣代表性,也就是大家都有機會參與,並不是只有知道這一件事或者是先期參與者參與;二方面,根本還沒有應用或者是受到影響的人,有機會透過一段審議的過程,先瞭解有這一件事,而且放在自己的生活情境當中,想一想如果輪到我或者是親朋好友或者公司,開始這樣採用的話,預期會有這樣的危害。所以廣泛抽樣跟精確討論跟審議,我們分別都有做一些,但是把這兩個結合在一起,目前都還在規劃。
我想先 push back 一下,如果有不破壞臭氧層的冷媒,那麼製造冷氣機或者是冷卻的事業,還會覺得破壞臭氧層是我的自由、科技就是要無限制的增長嗎?不是這樣子,大家瞭解到有明確的公共危害,而且投資去找出替代品之後,不用那個新的替代品,基本上就是公害,就是害群之馬,而且也沒有經濟誘因去做這一件事,這個我們上次訪問都有討論到,所以我不覺得有什麼問題;現在的問題是在前期的社會評測沒有做,你就只能做所謂最後要掉下懸崖前擋住的護欄,就像你剛剛講的,但是我們除了做 guard rail(護欄)之外,我們還可以做 guide rail(導軌),我們前期就知道會有這樣的情況,我們就可以導引產業去往我們已經知道比較不會造成公共危害的這些方向來進行發展,這個我想在環境的治理上有非常多的例子,我不在這邊繼續舉環境污染的例子,相信你們應該滿瞭解的。
剛剛講的「審議式調查」,理論上可以兼具大家審慎地討論及全人口抽樣代表性,並不是少數先期參與者,所以這樣的方式我覺得還滿值得我們來試試看,未來如果有機會的話,也希望成為評測中心持續的部分,不過這個當然要跟評測中心的委員們討論。
以我所知,如果去找「Deliberative Polling」計畫,他們當然在各國都有一些審議式民主學者做了類似的事情,但是之前他們一直有一個挑戰,要大家到同樣實體的地方來進行審議討論的成本相當高,以至於不能像現在滾動式民調的每兩天做一次一直做,但是像現在這種線上的好處,很多引導師的工作,一定程度可以交給語言模型、AI 來做,因為它真的聽得懂你講話的意思,雖然沒有辦法精確體會你的感受,因為生成式 AI 還沒有身體,但是至少知道你講的這一句話跟這個題目是不是有切題、是不是需要拉回來、是不是要問你是不是可以講一些事實基礎等等,這個程度完全在語言意思的層次,這個 AI 是可以做的。
所以,透過 AI 來引導討論,就有機會大家完全用線上的方式,你一次就可以好比 4 萬人來,但是我們就變成 1,000 個同時 40 個人的討論場域或者是 4,000 個的 10 人討論的場域,以前的困難不可能一次請到 4,000 個引導師來做小組討論,但是這 4,000 個都是 AI,就可以這樣做;這有一點像「我城對談」,事後的蒐集、整理、綜整等等,可以透過 AI 來加強,以我所知,目前國家政府來採用這樣一套有規模、持續地做,這個比較少,Meta 用這個方式已經做了兩、三次了。
應該算比較領先。
像我們之前也有討論過,其實 AI 的比重不一定要到八成,有的時候兩成也可以。所以 AI 可以作為引導師,其實引導的大概不一定比人類好,但是差別就是 AI 可以一次有 4,000 個引導師,人類大概沒有辦法,一下子要訓練 4,000 個引導師本身就是很大的挑戰;所以這樣的情況之下,如何讓大家在發現 AI 這一件事有所幫助,也就是正面的用法,並不是要擋住他而已,這個我們剛剛說要用來說 guide rail 這類的技術,我們儘量快速引導到能夠強化我們的治理、強化我們的公眾審議等等的這個方向去,我覺得這是可以強調的。
是。我也想強調的是,這並不是只能進 AI 基本法或者是只能進其他部會的相關法律,我們自己的評測中心本身也有運作機制,所以我們也可以在評測中心的範圍當中先來做。文章如果要提到 AI 基本法,或許是作為一個引子,但是剛剛提到一系列的程序,是在我們現有評測制度當中就可以開始落實,不需要等到基本法三讀通過。
謝謝。
謝謝。mymoda 之前有一個案子是說要有小辭典、多媒體,今天已經上線了,在網站公告訊息按最底下的「 moda 小辭典 」可以看到第一篇,也就是零信任,按進去之後可以連到資訊處副座所寫的第一篇部落格,也就是零信任架構,這個是滿好的開始,之後在工作上,雙語詞彙有非常多的詞,任何一個說文解字一下,都很歡迎大家投稿。
有關於追蹤管考項目,有沒有要補充或者是說明的?
性質是科技、公建或者是社發?
看大家有沒有其他要補充或者是詢問的?
以我所知,其實像大家簽公文都會有實體自然人憑證,像我有一台 iPad 再加一台 Android,我等於有三對公私鑰,怎麼樣讓這三個任何一個還在,就可以進行加解密等等,這個是很重要的工作。以我所知,民主司有一支公建,準備明年來做這個,所以我覺得有一些自己用到,然後應該要有這樣的基礎建設,這個部分盡可能併到已經核定的公建裡面,以及未來即將的公建來辦理。我鼓勵資訊處把缺的 spec 開出來,可以在民主司這邊解決。