這對我來說是很好的訓練。就算教科書一樣,換一個老師、換一群學生,看法都完全不同。我很小就習慣了跟不熟的人一起解決事情。這也可以稱為「弱連接」。
一個很大的原因是,過去的教育系統常常一對一競爭,比誰考卷寫得好、誰成績高就當班長。但真實世界裡如果一個人用標準答案能解決的事,早就解決了。
現實中,我們面對的狀況不是那樣,所以我很早發現大部分有趣的事情不可能靠一個人用標準答案解決。必須和立場不同、看法不同、受過不同訓練、甚至不同語言的人溝通。
溝通時,就要找出共同價值。現在新課綱稱之為「共好」,之前可能不叫這個,但找到共同價值能讓原本可能衝突或比較的人,變成比較建設性的關係。這也來自我的求學經驗。
是。以前強調媒體識讀或數位識讀,能完整吸收一篇文章或一本書,固然重要,但很多人即使背下來,也不代表能應用到社會。
素養(competence)的意思是,你不只接收資訊,也創造資訊;不只背下一本書,也會去比較不同來源,形成更立體的看法,就不會變成每個人都被困在自己的資訊泡泡裡。網路時代尤其如此,沒有這種能力,很容易每個人都被困住。
是。現在很強調自主決定方向,也透過 capstone 或 PBL 等方式,讓學生想對社會帶來什麼正向改變。有個專案、使命,就像先看到一個點,轉向就直接跑過去,不管原本的跑道。其他跑道的人也可能轉向同一目標,這樣就不再靠班級或科系決定,而是靠「一起完成某件事」。大學階段還有「大學社會責任」等概念,也是同樣意思。
現在看起來已經在進步,尤其兩年多前的 ICCS 國際評比,台灣在 15 歲青少年的人權、環境、社會參與度都拿第一,已經走了很長一段路,雖然還能更好。
那也很好,可以去問身邊的人。進大學會碰到不同背景的人,問問他們什麼對他們有意義,怎麼對社會、環境、自己或家庭有意義。參與別人的計畫,也是一種創造意義。不要侷限在「個人意義」,可以回到「共好」。如果自己還沒找到興趣,也可以看看別人正在做什麼。
可能有,但我也想幫年輕人說話。很多人感到的挫折,不是個人挫折,而是制度挫折。像我們線上連署平台,5000 人連署就要回應,最多連署的常常是 15、6 歲朋友,因為他們沒有「事情就該如此」的預設。看到不對勁,就去找資料、連署,像「早自習為何那麼早?」結果真的改變了規定,讓大家可以晚一點到校,這種成就感比他個人挫折更大。
通常我有好幾百個書籤和全文索引。因為我腦海像星座圖,關鍵字念出來時,我同時就在系統裡搜尋。念問題的十秒內,我花六七秒就能找到,看起來就像信手拈來。
我念時不打斷,所以腦裡沒有別的聲音。那時候意識就專注在搜尋,念只是像騎腳踏車一樣自動。
大約八歲被霸凌時,一開始很困惑,不知道為什麼有人會這樣做。如果沒有保持好奇心,就會陷入「他好壞、我好可憐」的狀態。但我保持好奇,想「為什麼會這樣」,於是去看皮亞傑、蒙特梭利、薩提爾等書,想了解為什麼小孩會有這些行為。
有。因為我先天性心臟病,可能睡著就不一定醒得來。我的自信結構是「我今天貢獻了什麼,明天即使醒不來還能留下」。但對很多小孩來說,他們沒有存在主義焦慮,他們的自信是來自跟別人的相對位置,成績第一跟第二對他差很多,但對我來說沒有差別。
對,不輕易接受標準答案。問老師或校長,他們有現成答案,但不代表背下來就能跟世界互動,得先消化。所以我會持續問「為什麼是這樣」「可不可以不是這樣」。
對,而且保持好奇的好處是,你跟別人互動時都是開放式問題,他也比較願意跟你分享。如果你已經有套標準答案,只問他「是不是這樣」,他只能回答「是」「不是」,人際互動很無趣。
我在 Project Liberty Institute 和 Jonathan(《失控的焦慮世代》作者)等同事都在回答這問題。以前大家看同一份報紙或同一則電視新聞,放下後可以討論。但現在如果演算法按偏好推送,大家看到的都不同,甚至毫無重疊,共同經驗消失,就造成吃飯各滑各的。要解決就必須重建共同經驗,知道家人朋友也在同一個體驗上。
實體世界可以如此,網路上也能透過共同創作維基百科、編地圖或一起玩 Roblox,但得是「共創」而非被動接收。若演算法只是推你想看的,這是反社會;若是幫你把創作和別人結合,就變親社會。
一方面是自律,也跟習慣有關。2009 年左右,我在 Socialtext 推出類似 Twitter、維基百科、共用試算表等企業協作工具,但發現只要用智慧型觸控螢幕、有推播功能、一次打開多個 App,就像「雞尾酒效應」,大腦會一直被拉走,形成注意力缺失感。
我很好奇為何我自己也變得像注意力缺失。後來 2010 年起,我透過精神分析等方式,了解其中機轉後,就不再受影響。現在我的手機還是灰階。這不是盲目自律,而是理解機轉並對應。
也不一定。企業要賺廣告錢,可是現在在 Facebook 或 YouTube,你很少看到詐騙廣告,因為我們通過法律,要求廣告主用數位簽章擔保,不再能用幾百萬個假帳號來投放。若平台不遵守,有人被騙 100 萬,平台就要賠 100 萬,這叫「外部成本內部化」,像空汙罰款一樣。目前全世界只有我們全面採用這套制度,這也是我在擔任數位發展部部長時和羅秉成政委、林右昌部長等提出的草案,送進立院,很快通過,因為大家都認為這是公害。
我常說,我是「with the people」不是「for the people」。不是幫大家做事,而是一起做事。很多挑戰,民間有人較早感受到,也有初步解方。公部門要做的,就是讓這些解方彼此連結、擴散。像總統盃黑客松,把地方、社區、大學成功的做法,一下就帶到全國。讓大家有共同認知,就比較不會覺得體制難以撼動。
台灣的自學制度不一定要「在家自學」。很多是團體或機構,類似一種比較自由的「學校」,不一定照課綱,而是依共同興趣。也可以去圖書館、數位集會中心、大學社會責任、社區大學等。很多地方都很歡迎從小就對社會做出正面貢獻的孩子。能貢獻就能建立信心。
對,只要保持好奇,不一定像我那樣對「為何被霸凌」好奇,他也可以對別的事情好奇,轉移注意力。
像我是一半「程式」一半「設計」。對機器的部分是程式,但對人的部分是設計。我的價值在設計、面對人的部分,文字發明前就存在了。程式那部分是文字發明後才有的,現在很多小幫手可以代勞。我們不能把「對機器」的部分當成自己的全部價值。不如把 AI 看成工具,真正在意的應該是「對人一起創造意義」。
對,現在什麼都可以設計,未來、社會、互動、策略等等。
我雖然想到就做,中間還會想:哪些是今天能做的?因為我小時候身體不好,十二歲開刀後才知道我還能再醒來。但前十二年已經形成一種習慣:我今天能完成什麼,就先做,睡前記下來。如果醒不來,剩下的別人也能接續。所以我做的事通常都是做不完的,需要別人一起來。
那兩年壯遊時,我發現網路上認識人雖然快,但在現實裡每個人背後都有故事。我就去聽他們的故事,像天上許多星星,壯遊讓我把星星串起來變成自己的星座。
對,就像一個「chosen family」,不是血緣,而是故事共享。可能比朋友還親,像是族人。
對,創造正向體驗。也不一定是茶,任何新的嗅覺或味覺都行。然後把對方的文字餵到語言模型裡,看看能不能用正向方式解讀,再把正面元素加進記憶。下次看到就只剩好感。
對,我先看裡面有沒有建設性的部分。如果找不到,也會好奇「為什麼沒有?」但就把它當語言材料來看。
我今天帶的是《說不完的故事》。我從小就很喜歡它,連英文名字 Audrey 也是跟這本書有關。它講到幻想國,你可以把它想成「書的世界」「哲學世界」或「AI 語言模型的世界」。
柏拉圖說,人就像在洞穴裡,只看到投射在洞壁上的影子,並不真正知道外面真實世界的樣貌。AI 像是在洞穴裡的第二層洞穴,由人類的描述(文本、影音、各種資料)所形成的「影子的影子」裡面——它並沒有直接擁有「真實世界」的感官經驗。
因為 AI 模型所能接觸到的素材,幾乎全都來自人類上傳至網路的文字、影片、聲音或圖像等——這些其實已經是人類對世界的「詮釋」或「二手、三手敘述」。對 AI 而言,這些大量資料就是它唯一的「世界」。它雖然能根據我們整理好的資料進行推論或產生新的語句,可是它所根據的,終究不是真實世界本身,而是「人類如何描述世界」的集合。
因此,AI 很容易陷入所謂的「幻覺」(hallucination)——也就是在它匯整或產生新內容時,並沒有真正驗證「那是不是和現實一致」。它只是在已知文字中找尋統計相關性或語義模式,進而衍生新的回答。若是題目牽涉到真實世界的物理狀態、時空條件或最新的事實,AI 就可能不小心「張冠李戴」或「杜撰」出其所謂的「答案」,因為它無法像人一樣透過「直接感官體驗」或「真實實驗」來判斷。
它到底哪些是「真」、哪些是「幻想」,常常需要人類再去對照現實或進行事實查證,才能確定。
我的英文名是 Audrey。在台灣說「龍鳳」時,鳳比較偏陰性,但「鳳凰」時,鳳又偏陽性,其實是非二元的字。它在日文念作「Ōdori」,跟 Audrey 發音相近。
哈囉。很高興第三次來到這個節目。
不分區。
沒有特定的哪一個大使館。
其實現在在矽谷大概三個主要的流派,一個就是我之前看逐字稿,您也有說是有效的加速主義,加速的時候就是踩油門,把它踩到底,那個流派的想法大概就是覺得說,AGI 它不只是要做到人類能做的事情,而且要一路飆到所謂的「ASI」,Artificial Super Intelligence,就是比起人類組成的組織,公司或甚至政府,都要更有能力,那這個發展沒有終點了,這一個想法。
那另外一個想法是之前 Vitalik 也上過這個節目,他是所謂「d/acc」,意思是說我們在發展的時候不是在意它通不通用,應該在意它防守的部分跟攻擊的部分,優先發展防守的部分,然後武器的部分,好比像說核子技術用來做核彈的部分就先不要研發,那用來做其他好的,好比像說核磁造影等等,就優先研發,所以這個如果是拿開車來比喻,就是我們優先做方向盤。
對,做個排序去打方向盤。
那當然有另外一派是說,我們就先把煞車做好,確保說大家先停下來六個月,或先停下來多久,那確保我們把這個對齊問題,就是確保 AGI 它不會做出傷害人類的事情時,我們再繼續往下做。所以從油門到方向盤到煞車,大概三個看法。
那我自己,相信你也知道,比較是轉方向盤這一邊的,就是我會覺得說整個社會的準備程度才是主要的問題,在準備程度到之前就去發展超過這個的,尤其是攻擊性的部分,那就會產生出像之前您有提過您很擔心的,大家會突然之間迷戀上這個 AI,或者是說如果迷戀上 AI 還要騙你錢那就更麻煩了。
那這裡其實是有一個很有趣的,就是因為我們很容易把 AI 擬人化,所以像我坐 Waymo,我在舊金山常常坐 Waymo,你可以說你「信賴」Waymo,就是意思就是說比起一般的駕駛,他比較不會出車禍。
但是你說「信任」Waymo,那是完全另外一回事,因為我們通常說信任的時候,是說我相信你這個人的道德、這個判斷等等,好像要跟你交朋友,但是你去「信任」Waymo 到底是什麼意思?其實不確定是什麼意思。
不知道如何「信任」一套系統,一個 system。
但是如果我們是說我「信賴」它,意思是說我願意了解到他的供應鏈裡面沒有哪一個部分會想要暗算我等等,這個是比較容易的,所以把它當做工具的想法,我覺得還是我們轉方向盤的時候,在這個階段應該先持守住。
如果在準備好之前就飆過去,說不定就摔下懸崖,對不對?