當然,當然。它在 SayIt 平台上,正如我提到的。而且 SayIt 平台其實是你不僅可以閱讀,還可以寫作和擁有的東西,因為它全部都在公共領域。所以如果你拿它的一部分,出版一本書,稱之為你的書,我完全沒問題。這就是我所說的「在消逝前發表」和成為一個足夠好的祖先的意思。
謝謝院長的介紹。非常高興能夠有這個機會,來跟大家聊一下我最近的工作。
大家可能知道,我現在擔任無任所大使(at large ambassador)。在最近一年大概去了 27 個國家,可以說是民主國家大概都跑過了一輪。大家在各國現在最關心的議題,就是如同院長剛剛講到的:就是怎麼樣確保他們的民主制度,不會因為 AI 的出現,以及這些演算法——包含社交媒體等等——去放大衝突的部分,然後讓共創的部分變得非常困難。
不過為了讓大家更了解,我一開始為什麼會來做這個題目,我就先不講我在牛津的研究,或者是在英國有一個合作式 AI 基金會(Cooperative AI Foundation)的工作,稍後再談。
先講自己的一個故事。大家可能知道,我快滿五歲的時候,醫生診斷我有先天性心臟病。他就跟我家人說,這個小孩大概只有 50% 的機率,可以存活到接受心臟手術的年紀。
從那個時候開始,我每天晚上睡覺的時候,就有一個感覺好像在丟硬幣。如果硬幣掉下來的是不正確的那一面的話,明天就會醒不過來。所以我從大概五歲就養成一個習慣,英文叫做「Publish before perish」(在消逝之前發表)。
我沒有時間去追求完美。所以我那時候是先在錄音帶——就是那種塑膠的有兩個孔可以轉的,可能很多年輕朋友不知道那是什麼——然後之後是磁碟片,當然 Internet 上面,每天去記錄我學到了什麼東西。
這個習慣,就是把我學到的、我對談的逐字稿等等,都發表在網路上。那透過這個過程,我就有一個發現:就是說你線上如果是發表一個已經非常完美、已經完成的作品的話,那看到的人就是按個讚,然後他就滑掉了,就去看下一個東西了。
但是,如果是我發表的是還不完美的、那有很多缺陷的、我還沒有想清楚的,那這樣就好像一個邀請函一樣。就所有人看到了,都會說「這邊錯了,我來修正它」,或者「這邊有不完美的地方,我也可以幫忙」等等。
所以就是透過從小就分享我醞釀中的一些不成熟的想法,反而我找到我的線上的社群。所以這種就是透過脆弱、透過不完美來創造連結的方式,我覺得後來就變成我工作的一個核心:就是怎麼樣子透過看到這個社會或這個結構的缺陷,然後讓大家有這樣一個邀請函,來一起創造。
我很喜歡一個詩人,加拿大的 Leonard Cohen。他曾經寫過一首詩,我把它翻譯成:「萬事萬物都有缺口,缺口就是光的入口。」我們的數位社會有非常多的缺口,那這個缺口並不是說把它掩蓋下來,而是說把它當作共創的所在。
那我們就回到今天的主題。就是現在的這個缺口,怎麼樣子被放大呢?事實上很多是透過 AI 的方式。
AI 這個題目,大家在報紙上面可能也看到,有一派的人認為說,AI 發展到某一個程度,可能會造成社會太大的衝擊,不管是失業或者是犯罪,或者是更嚴重的資源上面的衝擊等等。所以就希望能夠把 AI 發展的速度能夠減緩,或甚至對所謂的超智慧(Superintelligence)給一點限制。
但是如果你去聽很多矽谷的朋友的話,他們就會說,其實加速得還不夠快,還可以再加快一點。希望很快的就可以達到週休三日、週休四日、週休五日的那種世界。
所以這個討論是非常的兩極化的。但是我今天想要討論是一個不同的角度。就是說,你一輛車子如果是只有油門跟煞車的話,那其實是沒有辦法開的。我們現在在做的事情,並不是加速或者減速可以解決,重點是怎麼樣打方向盤。
就是說,如果 AI 它是接下來很強的一個引擎的話,我們怎麼樣確保它往哪個方向開的這個控制權,是能夠讓全民、讓所有人都可以參加。
那這個就是所謂的 Cooperative AI(合作式 AI)。就是透過 AI 來促成人跟人之間的合作,然後又透過合作的狀況更好的人,能夠來促成人跟機器、機器跟機器,乃至於整個社會的合作。這個就是 Cooperative AI 的意思。
要理解為什麼這件事情很重要,就是要了解這年頭的 AI,就是機器學習,它是怎麼樣子來訓練的。
大家可能知道,我想在場也有很多朋友了解,這年頭的 AI 大概就是你給它一個目的,你給它一個需要最大化的一個分數,然後它就會用各種各樣的方式,為達目的不擇手段,想出很多人類想不出來的方式,去最大化這一個分數。不管是 GDP 的最大化、產出最大化、利潤最大化,或者大家黏在手機上面時間的最大化等等。那這些都是非常流行、非常多人用來訓練 AI 的所謂的「獎勵函數」(Reward Function),就是讓 AI 能夠越高分越好。
我舉例。好比像說大概十年之前,大家如果有用社群媒體的話,會發現說,所有主流的社群媒體,差不多就是在 2015 年前後,發現了:就是它如果從「你追蹤誰,就看到誰的貼文」,改成說「你就算沒有追蹤的人,只要 AI 覺得你會喜歡看,也讓你看到那些貼文」。這樣一個改變,你本來的情況可能一天只花在社群媒體上一小時,但是如果變成 AI 主動推給你東西的話,你就會待三小時。
所以大家都切換到後面的這樣一種「for you」——就是為你量身打造的演算法。
這樣子的問題當然是說,以前我們只要追蹤一樣的人,我們大概就知道說,我們是在相同的世界裡面。但是現在就算我們追蹤一樣的人,只要我們在一篇文章上,我多停一秒鐘,你少停一秒鐘,那接下來隔天我看到的東西,就會跟你開始不一樣,然後就會越來越不一樣。
而且這種,我把它叫「寄生式的」(parasitic)AI——因為只有對它好、對我不好。這種寄生式的 AI,就是找到我們中間的衝突,然後把它放大。
放大的意思是什麼呢?就是去找最會激怒我的,或者是讓我覺得衝突性最高的。為什麼呢?給你品質很好的文章,大家看了需要一點時間了解、需要一點時間想,那時候就不會一直待在社群媒體上面,那就會去做別的事情,可能查資料、可能自己稍微靜坐一下、散個步等等。
但是如果是找到讓你忍不住一定要去反唇相譏的、一定要去「炎上」、一定要去作戰、憤怒對立的話,基本上在上面三四個小時,都不會覺得時間過去了。
所以這個寄生式的 AI,如果它的獎勵函數,就是說要最大化每一個人待在螢幕前面的時間的這個目標的話,那它就不擇手段地,就會去找到我們分裂最大的,以及就是對彼此憤怒的那個地方,然後一直放送這個地方給我們看。這個就叫「enragement for engagement」——就是透過激怒、透過炎上來達到互動。
所以現在當然我們過了十年,現在回頭去看,就可以發現說,我們比起十年之前,幾乎全世界各種各樣的,就是人跟人之間,以及人群跟人群之間,它極端化的程度——就是對彼此的感受的不好的、憤怒的那個程度——就比十年以前要高得多。
臺灣的狀況還稍微好一點。我才剛從日本回來,日本也好一點。但是在美國,好比像說,美國就是已經被叫做「peak polarization」(極化高峰)。就是它已經不可能比那個再極化了。就是他的共和黨跟民主黨的支持者中間,就是他看到對方所做的任何事情、任何訊息,他一定做完全相反的解釋,而且已經不可能更相反的解釋了。那這個都是有社會學的量測的。
我把它叫做一個很高的 PPM。PPM 講的不是二氧化碳的百萬分濃度(Parts Per Million),我講的那個「Polarization Per Minute」(每分鐘極化程度)。就是你刷社群媒體,激化的訊息。
所以這個情況,當然就是很像空氣污染的情況,就好像霧霾一樣。整個社會都越來越看不清楚,說到底我們彼此認知的事情是什麼、狀況是怎麼樣、共享的現實是什麼。這個都就是霧霾越濃越看不到。
所以我們共享現實基礎崩潰,當然有很多別的問題,包含民主秩序、自由社會等等的問題。但其實這些很可能都是一開始就是告訴 AI:「最大化使用者黏在螢幕上的時間」,不擇手段來造成的。
所以這個的狀況,現在當然就變本加厲。因為在當年大家還是自己寫文章,或者自己上傳影片,然後 AI 是告訴我們要看到什麼影片。但是現在可能大家也知道,隨著 Sora 2 等等的這些推出,現在我們都不用自己寫文章,也不用自己拍影片了,全部都是 AI 來產生了。
他們叫做「AI Slop」。不知道要怎麼翻?AI 垃圾訊息之類的。類似垃圾食物的垃圾訊息。
這個道理其實很簡單。就是說,如果是廚師做很精美的、很營養的料理給你吃,你吃一吃就會感覺飽了。因為本來人就是吃飽了,身體需要就飽了。但是如果是給一堆沒有營養,但是非常多鹽、非常多油炸,然後怎麼吃都好像沒有飽一樣,就是越喝越渴。那這個在食物叫垃圾食物,那在 AI 我們叫 AI Slop。
那這樣子的狀況就是會讓大家雖然是黏在裡面,然後但是一直都覺得沒有任何飽足感,就是一直不斷的運行多巴胺的迴路。
那我們以前在做 AI 倫理的時候,很喜歡講一個概念叫做「Human in the loop」,就是說 AI 在做決定的時候,一定要有人在那個做決策的迴圈裡面,隨時喊停。
但是因為現在 AI 的速度實在太快了,包含生成這種內容的速度實在是太快了。所以我就常常講說,我們是「human in the loop of AI」。就是好像是 AI 是倉鼠輪(hamster wheel),然後人就好像倉鼠一樣被跑在裡面,就一直跑一直跑。其實倉鼠因為需要運動,牠跑的時候其實應該是滿開心的。但是在這個情況下,牠對那個輪子到底要到哪裡去,那個方向盤牠是一點掌握都沒有,是原地在奔跑。
所以現在就 AI Slop 的這個情況,就很像這個 human in the loop of AI 的這個情況。
所以我們就會發現說,我們要怎麼解決這個問題?其實是不能夠再把人放到 AI 的迴圈裡面。我們要反過來,是把 AI 放回人的迴圈裡面——就是人之間互相關懷的那個迴圈裡面。是 AI 要用人際的速度來運作,而不是越來越轉得快的 AI 的速度。因為到某個程度,其實人是沒有辦法去配合那個速度的。
所以我們就要解決剛剛那個最大化(Maximize)的問題。所以這個作業系統是怎麼樣的?我們有提出 Cooperative AI 的這樣一個想法,合作式的 AI。
它核心的想法就是說:當然社會上是有差異有衝突,但是 AI 的目的不是去放大它,把它當作好像能源、好像地熱能、好像燃料一樣。就是說可能有岩漿很熱等等,但是它是要有一個耐熱的引擎,去把它變成動能。
意思就是說,AI 它服務的對象,就不是單獨的個人——他花多少時間、或者賺到多少錢、或者怎麼樣。而是它要服務的是:人群跟人群之間,它的關係的健康的程度。
意思是說,它要找到不同觀點中間,有哪些罕見的共識。不是說一邊 51%,然後另外 49%。而是找到中間重疊的地方。
第二個就是說,它是以人跟人之間彼此關係的能力。如果是要最大化的話,是最大化我們中間的關係的健康的程度,而不是某一個個人的程度。
第三個最後就是說,是盡可能讓每個在地的社群,都可以去好像導航一樣,去把 AI 的方向導向這個社群覺得好的部分。而不是說所有人都有矽谷的、或者北京的、或者哪裡的一個巨型的 AI,來設定社會的關係。
不過這個當然很抽象,所以我們馬上來舉一個例子。
我們在 10 年之前,2015 年的時候,我們在臺灣有引進一個系統,叫做 Polis。當時就是 Uber 正在進入臺灣的時候。Uber 一開始是沒有職業駕照的朋友在開。那當然沒有職業駕照,他可以宣稱說他只是上班順便載人,然後只是順便交個朋友收點錢等等。那但是事實上就是在做計程車的事情。
那在各國當時都出現了非常大的衝突。就是覺得這是「太棒了,是創新」,或者是覺得說是「非常不公平」等等。那你如果去看當時的社群媒體,在臺灣也是一樣,各有支持的朋友。然後任何一邊只要貼了看起來其實蠻有道理的一個貼文,馬上會被轉貼。但是轉貼並不是支持他的意思,而是加一個尖酸刻薄的評論的意思。然後另外一邊又會再轉貼,再加更尖酸刻薄的評論。所以其實本來很好的朋友,這樣子轉貼加註三四次之後就彼此封鎖了,也不知道為什麼。
總之這個十年前的時候,我們第一次感受到這種「轉推加註」的對社會的關懷的撕裂的這種能力。
所以後來我們就邀請大家到 Polis 這套系統。這套系統它是被設計成我們叫「Prosocial Media」(利於社會的媒體),不是反社會的媒體。