所以所謂的 hyperlocal(小規模在地),去增強它的拘束力,現在看起來是相對容易的一個做法。
另外一個情況就是像加州的做法。就是說他們先做基礎建設,然後就等一個緊急的情況,好像野火來的時候。等於整個全加州的關注都在這個上面。而且如果你不趕快提出一個方案,去把州政府、市政府、聯邦政府的權責能夠區分出來的話,那對州長的政治前途也不太好。這個情況,那這個情況它就很容易一下凝聚就是大量的民意。
所以就是在平時的時候用小規模在地的做,但是建立起這樣的基本制度。那這樣子每次就是特別的緊急狀況,像之前疫情等等來的時候,再把它提到全國情況。目前大概是這樣來做。
這個之前 Gogolook(Whoscall 開發商)有一個 Android 上的系統,叫 Message Checker。那個就是用您所提到的原理。
它的原理就是它 Android,你不管是裝任何的通訊軟體,它都會跳出通知。然後它去攔那個通知的 API。所以它是在你自己的手機上面,對所有的通知去進行篩檢。然後去看它是不是詐騙、或是不是網路攻擊、是不是釣魚等等。
因為它是在你自己的手機上本機運行。所以就像您剛剛講的,它是小模型。它不需要去把你收到所有私人訊息都傳回趨勢科技,或者傳回 Gogolook 等等。
所以防詐騙的做法,現在慢慢都開始從雲往端去移動。因為大部分人不會想要把自己的特別的點對點加密的訊息,去分享給這些大公司。但是詐騙大概都是在這些地方特別的嚴重。所以你要不侵害隱私,又要能夠去進行攔阻。確實像您說的,就是在手機本地去運行小模型,應該是最主流的現在大家看到的解決方式。
我確實有自己下來做這個題目。我有參加一個基金會,我是理事,叫做 ROOST.tools。我們是今年 2 月在巴黎 AI 峰會,我跟 Meta 的 Yann LeCun——就是他們 AI 的負責人,開放式 AI 的算是掌門人吧——以及 Eric Schmidt——就是很關注安全的以前 Google 的執行長——我們一起發展 ROOST 這個概念。
這個概念同樣就像您剛剛講到,就是去訓練小模型。我們一開始挑的題目是 CSAM(兒少性剝削影像)。主要原因就是因為它的非法性在全球都比較確定。其他的可能還有言論自由什麼的爭議,但是 CSAM 應該是沒有太大的爭議了。當然這裡是說跟真人像的,如果是漫畫的那個是有爭議的。但是 anyway,這裡是說像真人的那個部分。
這部分以前的問題是說,大部分你要做這種機器訓練的時候,持有那個圖片就是非法的。所以以前我們沒有辦法做端到端的訓練。只能上載到微軟的 Microsoft PhotoDNA,或者是美國的 NCMEC(國家失蹤與受虐兒童中心)——FBI 的資料庫。
但是現在因為你要合成這種兒少性剝削影像的成本太低,而且你可以直接在手機或筆電上就合成。所以就像以前那種溯源的做法,已經是行不通了。
所以我們現在就是透過一個叫做 CLIP Embedding——是 OpenAI 的一個程式庫——把圖片變成跟它圖片意思類似的文字。但是它在轉文字的時候,不會洩露那個圖片裡面的人的個資。所以你就突然間手上會有一堆文字去描述那個圖片。但是這個文字是可以合法處理的,就是它不觸發兒少性影像的那個問題。然後你就分享這堆文字的描述值,就是它的 embedding。然後我就可以分散式地來訓練這種小模型。
目前我們已經成功說服 Discord,他的訓練平台已經讓 Bluesky 在用了。另外 Roblox 好像也快要用了。所以我們確實是現在在做這種事。如果等兒少性剝削影像這個題目可以完全用這種方式解決,其他的部分,包括您所提的詐騙等等,我覺得也很有希望。
現在也有不用自己接電話,就是透過像蘋果 Apple Intelligence,它會幫你聽電話、摘要、然後跟你講。那個也是用地端的模型做的。那是我之前在蘋果合作的團隊。2016 年就跑掉了。但是他們就留下來繼續做 Apple Intelligence。所以以我所知,現在是有自動綜整的能力。你可以在 MacBook 或者是在 iOS 上都有。它幫你接電話、幫你綜整。
我試著了解一下你的問題。就是說,你覺得現在在高中端,雖然是有累積一些就是團隊的能力等等。但是最後還是看個人考試的那個能力,決定到哪個大學。所以你在想說大考怎麼樣調整……
就是說如果現在大學,他能夠信任說,在之前不管高中端,或者是技術高中等等,他這種同儕互評,或者是剛剛講到 PBL 等等的這種就是所謂的學習歷程的這些東西,能夠有可信度。那你建立起這個有可信度的交叉評量的這件事情……
確實一定程度上面,其實以我所知,現在也有一些就是多元選才等等的這些做法、繁星推薦等等。其實現在的狀況我並沒有那麼悲觀。就是說現在已經有一些名額是,透過類似這樣 portfolio(學習歷程)的方法進來的。那之後當然這種 portfolio 的問題,當然還是現在的可信度可能沒有高到這個程度這樣子。
所以我覺去得增強剛剛講到的就是:我們在一個團隊裡面,然後這個團隊討論等等。我剛剛講到的十個人的討論室裡面,其實 AI 它是隨時在讀空氣的。它可以去算出每個人他對於這個團隊討論他的貢獻的程度。他引導其他人討論的程度。
所以如果有個開放可驗證的某種 AI 模型,然後不是很容易被欺騙的,用某種方式去協助評審,去看說一個人在團隊裡面他的貢獻度到底多少。我覺得這個未來確實是一個方向。
但是這個的前提就是說,這個 AI 模型它必須是超在地的、就是我們大家都同意的。而不是說丟給矽谷的什麼黑箱演算法來決定誰要念清大這樣子。謝謝。
目前的做法,就是所謂的比較好的一個評量方法,叫 Proportionate Veto Core(PVC,比例否決核心)。
它的做法就是說,可能像我們加州火災是 30 個政策選項,最後選出 5、6 個。我可以證明說,所有參加的這幾千人裡面,任何 10% 的少數,就是任何這樣子挑出來的 10% 的少數,都可以去 veto(否決)、都可以去杯葛掉裡面他們最不喜歡的那 10% 的選項。任何 20% 的人都可以杯葛掉他們最不喜歡的那 20%。任何 30% 的人都可以杯葛掉他最不喜歡 30%。
所以你在數學上是可以證明說,最後存活下來的這些選項,基本上都是讓大部分人就是「雖不滿意但可接受」或比較高興。而不會有任何少數人非常不高興。
那當然你如果只有一個人非常不高興,因為你只是千分之一。你沒有辦法杯葛掉千分之一的提案,因為總共才 30 個提案。但是就是說人們只要稍微有一點點凝聚力的話,就很容易去杯葛掉不要的那個部分。
所以這個算是一個防守式的數學方式。就是說它沒有辦法去做出讓大家都非常高興的那種做法。但它可以證明搭的這個橋,基本上除了極少數極端值之外,其他人都覺得是相當好的。就至少夠好(good enough)。
我剛剛講到那個 Maximizing OS(最大化的作業系統)。這個比較像是 satisficing(滿意即可)。就是說它夠好就好。到某個程度,我們這個橋就先搭了先過了。那某些真的沒有共識、還分歧的部分,你就輪到下一輪再進行討論。所以就是先把低垂的果子先採收掉。
而且在數學上可以證明說,它沒有犧牲掉任何少數族群的權益。大概我覺得目前暫時先做到這樣,已經比本來的、別的聚合的方法要好很多了。謝謝。
非常棒的問題。二月在巴黎跟 Eric Schmidt 發表 ROOST 的時候,我跟他們 Schmidt 基金會有大概討論這個問題。
我的看法簡單來講,就是說我覺得我當年學的軟體工程,有點像手工業者的那種感覺。就是陶藝、雕刻那種。它有非常大的難以直接傳遞的,你必須要當學徒學很長一段時間,才能夠學到的這些默會知識(tacit knowledge)。
但是我覺得現在開始,就是軟體工程慢慢變成比較像是完全機具化的這種作業。可以說是,特別是大家可能有看到,就是 GPT-5 Pro、Claude Code,未來 Gemini 3.0 Pro 出來之後。基本上你只要能夠描述的出來的前端介面,或者是它的呈現方式,精準度不要差多少,那 AI 都可以鉅細靡遺地畫給你。基本上已經不太需要手工雕花的狀況了。
所以在這個情況下,我覺得整個想法就會變得相當不一樣。就是程式設計裡面,可能「程式」的比重會一直減低,而「設計」的比重會一直增加。
就是說你面對機器的部分,很可能到最後幾乎完全沒有。面對人的部分、面對使用者需求的部分,變得越來越高。到最後大家都是架構師加上 PM 的這樣子的一個狀況。
實際像我們當年那樣去雕花的,已經就有點像 Elon Musk 說,現在還是有人在自己種菜。但是自己種菜、在菜園裡面種菜,那是為了強身健體,或者是自己怡情養性。但是並沒有辦法跟工廠化農業來進行直接的競爭。
所以我未來覺得軟體工作——就是宜敬部長的看法——就是以前那種客戶有一個需求,你就專門幫他雕花,做一個專案。這個不但顯然是夕陽產業,而且在未來也不需要這樣子做了。
之前是這樣子做是因為,你要看懂別人的程式的成本非常高。然後你很難去把客製化的專案,改成一個通用化的產品。
但現在是你只要——就是剛剛講到那個匝道——就是 API 的這些接口、介面有設計好。這樣需要客製化的客戶,也不會需要你來客製化。他只要告訴 Claude Code,或者是這些 vibe coding 的工具說:「我今天介面想要長這樣。」他就好像免洗餐具 3D 列印一樣,就把它弄一個他想要看到的前端。等於你只要管營運邏輯那邊就好了。
我講得比較繁瑣,簡單講就是說,如果我們能夠從程式的部分往設計的部分移動。然後再去善用剛剛講到這些機械化的、自動化的軟體產生工具。那這樣就比較容易達到說,我們看到社會需求,就直接做出全世界可以用的產品,也不太需要受到像以前那樣語言、或者文化、或者是慣用操作介面的這些限制。因為你在那個地方去用 vibe coding 去再做客製化就好了。簡單講是這樣子。希望有回答到您的問題。
對,很好的問題。我其實主要工作的時間都是睡覺的時間。所以我每天一定要睡到八個小時。如果要處理比較困難的問題,就要加班,就要睡到九個小時或十個小時。
所以可以說,白天的時間基本上都是在跟人互動,然後發揮我的好奇心。但是我在白天是不下判斷的。就是全部都收集起來。但是真正下判斷的時候,就是在睡覺的時候。我也不知道是怎麼做的。總之就是醒來就會有一些新的想法。大概就是這樣的做法。
那時候我記得 2022 年,那時候我們正在籌備數位發展部。然後就出現裴洛西議長來台。然後我們就受到網攻。7-11、火車站的外面的廣告招牌都被換掉。
那時候謝翠娟——當時是資管處長,接下來的資安署署長——就是負責去回應這些攻擊。我每天都要他向我回報。但不是回報資安的情況,是回報他睡了幾個小時。分段睡沒有關係,一定要睡夠。
這個概念其實滿簡單。就是說,基本上資安的攻防也好,其他的攻防也好。攻擊的方式,他絕對不會等你去把你的防禦做完。他一定馬上變招,馬上做一個新的方式。
但是人如果沒有睡夠的話,你前一天所吸取到的東西,你沒有辦法真的寫入長期記憶。所以你如果才睡三個小時,你醒來之後,還是用你昨天那一套再做。那這樣過了幾天之後,攻擊方就一定贏,防守方就一定輸。
所以作為防守方,你一定要睡夠,才能夠去充分吸取你前一天獲得的資訊跟情報,新的防守的招數才會出現。所以即使是在最高壓力的時候,像當時疫情的時候等等,我就是怎麼樣都要睡夠。
所以我具體的建議,就是說不妨把蒐集資料,或者甚至做一些評量,或者是做 judgment(判斷)的工作,只要是你醒著的時候,我覺得都可以交給 AI 做。
我現在像我在牛津的 6pack.care 的網站。不但程式碼完全是 Grok 寫的。它就連裡面的內容,我都是讓 Claude 跟 GPT 去互相辯論,然後讓 Gemini 做裁判。然後讓 agent 在那邊 orchestrate(編排)。所以我什麼都不用做。我只要看他們辯論的記錄就可以了。然後試著在中間去提取人類可以看得懂的部分,然後把它變成我的哲學創作。
我覺得未來越來越多的創作會是這個形狀。就是 judgment 的部分,可以在醒著的時候交給 AI。人是 perception(感知)。就是你去看所有其他實際上的需求。你要照顧哪些關係?哪些人會有哪些求知的要求?或者是有哪些增進他們的服務的要求等等。
然後你把這些要求,跟剛剛 AI 的 judgment 去做結合。結合完之後可能有個 prototype(原型)。就像剛剛講一定不完美。不完美沒有關係,大家一定會有很多批評指教。那個就是你隔天的新的 input。
只要每天都能夠睡夠,大概就可以每天有一個 checkpoint(檢查點)。大概就可以一直保持創作的能量。大概是這樣。謝謝。
我覺得是靠大家一起努力的結果。因為我現在主要做的題目,就像剛剛說的,就是去極化(depolarization)。就是在社會上已經彼此仇視到一個程度的情況。而且既有的大的機構——像在美國大的新聞機構、大的學術機構、大的政府機構——都預設就一半的人不相信的這個情況。你要怎麼樣子去把它橋接回來?