所以在這個情況之下,我們不是一個一個去問他們問題,跟傳統民調不一樣。為什麼?因為每個人被單獨問問題的時候,都會挑一個比較極端的立場來回答。所以我們想要找到是整個社會可以接受的做法。
所以我們就隨機抽籤出了 400 多個人。這 400 多個人其實就跟民調一樣,是非常嚴謹的。就是他不管是居住地、學歷、職業、性別等等,他的分布都跟全臺灣的總人口的分布是相同。所以他是有統計代表性的一群人。就是所謂的 sortition(民主抽籤)。
所以這樣怎麼辦?所以我們就透過簡訊,我們寄了 20 萬則簡訊,給隨機的臺灣的號碼。然後裡面只問說:「我們要維護資訊完整性,你有什麼想法嗎?跟我們講一下。」然後裡面就非常多人願意參加我們在線上的討論。
所以這個情況下面當然是很嚴重,大家就有很多損失、很多問題。但是你如果是一個一個去做民調的話,絕大部分臺灣人即使是在當時,都會說政府不應該管制言論。任何內容方面的管制(都不行),因為我們是全亞洲網路最自由的國家,我們是絕對不接受。
舉例來說,去年。我不知道大家記不記得,去年年初的時候,有一陣子,任何人只要打開 YouTube 或者 Facebook,尤其是 Facebook,就一定會看到黃仁勳(Jensen Huang)先生的臉。然後他就會說要回饋臺灣、要教你一些存股的做法,或者是說加密貨幣要送給你。有很多變形。然後你如果按的話,就真的有時候會聽到 Jensen 的聲音就會跟你說話。但當然不是 Jensen,那個就是 Deepfake(深偽),就是透過 NVIDIA GPU 合成出來他的聲音。
我再舉一個例子。剛剛的 AI,是有生成式 AI 以前的狀態。但是我們在臺灣,事實上也有用語言模型,就是有生成式 AI 之後的狀態來做 AI 治理。
所以這一點我覺得是蠻不錯的。等於說我們在這邊實驗出來的一個治理的方式,那現在變成各大社群平台的一個基礎。那當然我自己也有在跟 Bluesky——就是 X 的主要競爭者之一——我們弄了一套 Green Earth,讓這個藍天配綠地。綠地的演算法,那就是把 X 剛剛弄到這一套,能夠在 Bluesky 透過一個開放的方式來使用。
然後再加上 Grok Mini。所以你就可以去告訴 X 的演算法說,我現在想要多看到什麼,我想要少看到什麼。所以像以前是 AI 去誘發你的偏好,其實這個偏好都是無意識的。但現在因為有橋接演算法,你就可以有意識地去說,我想要橋接到哪些社群、我想要橋接到哪些想法。那你就可以反過來去設定你的偏好。
這個演算法現在已經,YouTube 在美國,然後 Facebook 跟 Threads 在美國,大概都採用了。所以已經變成主流的一個演算法。Elon Musk 也公開說,它會在應該是下個月,就把 X 的主要的時間軸的演算法,也變成橋接的演算法。
任何人提出來之後,同樣的就是某些人會覺得這些講法很好,某些人會覺得這些講法實在是差勁透了。他們很快就會分成左翼跟右翼。然後演算法就會說,誰能夠提出一個想法,讓兩邊的人都覺得「尚可」,這個就浮上來,變成所謂的社群備註。
現在這個治理,當然在國際上是還滿有名的,也影響到了 X.com,就是 Twitter。他們之前就有推出一個叫「社群備註」(Community Notes)。它就是在 X 上面的任何一則推文,每個人都可以去說,這個推文它有哪些沒有講完全的地方、沒有講好的地方。
所以你這個大的群體就一定要去照顧到小眾的想法,一定要提往他們那邊橋接的想法,你才贏得到橋接獎勵,才有可能最後變成政策形成的參考。所以這件事情也翻轉了我們以前民主「票多的贏」的這件事情。
所以在這個協力的治理的框架裡面,你就不是像以前那樣子,好像你有 70%、80% 的票,你就可以去忽略掉 10%、20% 的聲音。在 Polis 裡面是剛好相反。如果你有一個比較大的群體在這邊,然後有好幾個比較小的群體在邊陲。你大的群體中間因為沒有什麼差別,它的同質性高,所以你在大的群體裡面同溫層裡提再多意見,它都不會得到橋接的獎勵。
這裡的重點,我想不只是說解決特定的政策問題,而是它給國際看到如何解決問題。所以這個情況下,我們就提出了這樣一個概念,叫做「協力治理」(collaborative governance)。
在這件事情上面,我們就翻轉了誘因。同樣是用機器學習,我們也是用機器學習;同樣是用 AI。但是它的傳播力,因為是給中間的罕見共識。所以我們過了三個禮拜,我們就看到有九個論點,是各方都能夠接受的。我們就把這九個論點,變成「多元化計程車方案」。當然 Uber 的問題在臺灣就解決了。
所以這個就跟傳統的社群媒體剛好相反。本來社群媒體是你越去攻擊對方、你越去拉大跟另外一邊的距離,你的傳播力就越強。你越極端的就會給越多人看到。那在 Polis 剛好相反,就是你越能夠去橋接掉這些隔閡的,你的傳播力就越強。所以這個就是橋接式演算法。
所以每個人,他只要能夠提出去贏得對方那個群體的支持的這些想法,跨越的距離越大,你就得到越大的搭橋的獎勵。也就是說,你會傳播力越強。
然後它就會,系統會告訴你說,這個群體都認為是這些事情是好的,那個群體可能是覺得這些事情是不好的。但是在這兩個中間,就有一些搭橋的想法。這些想法是兩個彼此之間幾乎什麼都不同意的群體,都覺得這個是不錯的。所以這個是有點罕見的這種共識。
那第二個是說,你隨著同不同意,你會看到你的肖像、你的圓圈圈會移到某一個群體那邊。一開始就是有支持 Uber 的群體、支持計程車的群體、支持國家應該要照顧到偏鄉的群體等等,有很多群體。
Polis 它跟一般的社群媒體有兩個不同。一個像剛剛講到的,沒有轉推按鈕。事實上是連回覆的按鈕都沒有。你看到一個貼文,你就只能說「我同意」,或者「不同意」,或者「跳過它」。然後當然就是捲到下一則。下一則你也可以說我同意、不同意、跳過它。這是一個差別。
那你要平衡撕裂這件事情,你就只能用 Polis 的這種演算法。這是什麼演算法呢?就是橋接的演算法(bridge-based algorithms)。
它的概念其實很類似於 Twitter 這些。你到了 Polis 之後,你看到的也是一則貼文,也是 140 個字之內。但是它的差別就是說,你沒有「轉推」這個按鈕。最近已經有很多研究顯示說,你只要有轉推這個按鈕,不管你是用哪一種推薦演算法,基本上大家就一定撕裂。完全就是被轉推按鈕這件事情所決定的。
所以後來我們就邀請大家到 Polis 這套系統。這套系統它是被設計成我們叫「Prosocial Media」(利於社會的媒體),不是反社會的媒體。
總之這個十年前的時候,我們第一次感受到這種「轉推加註」的對社會的關懷的撕裂的這種能力。
那在各國當時都出現了非常大的衝突。就是覺得這是「太棒了,是創新」,或者是覺得說是「非常不公平」等等。那你如果去看當時的社群媒體,在臺灣也是一樣,各有支持的朋友。然後任何一邊只要貼了看起來其實蠻有道理的一個貼文,馬上會被轉貼。但是轉貼並不是支持他的意思,而是加一個尖酸刻薄的評論的意思。然後另外一邊又會再轉貼,再加更尖酸刻薄的評論。所以其實本來很好的朋友,這樣子轉貼加註三四次之後就彼此封鎖了,也不知道為什麼。
我們在 10 年之前,2015 年的時候,我們在臺灣有引進一個系統,叫做 Polis。當時就是 Uber 正在進入臺灣的時候。Uber 一開始是沒有職業駕照的朋友在開。那當然沒有職業駕照,他可以宣稱說他只是上班順便載人,然後只是順便交個朋友收點錢等等。那但是事實上就是在做計程車的事情。
不過這個當然很抽象,所以我們馬上來舉一個例子。
第三個最後就是說,是盡可能讓每個在地的社群,都可以去好像導航一樣,去把 AI 的方向導向這個社群覺得好的部分。而不是說所有人都有矽谷的、或者北京的、或者哪裡的一個巨型的 AI,來設定社會的關係。
第二個就是說,它是以人跟人之間彼此關係的能力。如果是要最大化的話,是最大化我們中間的關係的健康的程度,而不是某一個個人的程度。
意思是說,它要找到不同觀點中間,有哪些罕見的共識。不是說一邊 51%,然後另外 49%。而是找到中間重疊的地方。
意思就是說,AI 它服務的對象,就不是單獨的個人——他花多少時間、或者賺到多少錢、或者怎麼樣。而是它要服務的是:人群跟人群之間,它的關係的健康的程度。
它核心的想法就是說:當然社會上是有差異有衝突,但是 AI 的目的不是去放大它,把它當作好像能源、好像地熱能、好像燃料一樣。就是說可能有岩漿很熱等等,但是它是要有一個耐熱的引擎,去把它變成動能。
所以我們就要解決剛剛那個最大化(Maximize)的問題。所以這個作業系統是怎麼樣的?我們有提出 Cooperative AI 的這樣一個想法,合作式的 AI。
所以我們就會發現說,我們要怎麼解決這個問題?其實是不能夠再把人放到 AI 的迴圈裡面。我們要反過來,是把 AI 放回人的迴圈裡面——就是人之間互相關懷的那個迴圈裡面。是 AI 要用人際的速度來運作,而不是越來越轉得快的 AI 的速度。因為到某個程度,其實人是沒有辦法去配合那個速度的。
所以現在就 AI Slop 的這個情況,就很像這個 human in the loop of AI 的這個情況。
但是因為現在 AI 的速度實在太快了,包含生成這種內容的速度實在是太快了。所以我就常常講說,我們是「human in the loop of AI」。就是好像是 AI 是倉鼠輪(hamster wheel),然後人就好像倉鼠一樣被跑在裡面,就一直跑一直跑。其實倉鼠因為需要運動,牠跑的時候其實應該是滿開心的。但是在這個情況下,牠對那個輪子到底要到哪裡去,那個方向盤牠是一點掌握都沒有,是原地在奔跑。
那我們以前在做 AI 倫理的時候,很喜歡講一個概念叫做「Human in the loop」,就是說 AI 在做決定的時候,一定要有人在那個做決策的迴圈裡面,隨時喊停。
那這樣子的狀況就是會讓大家雖然是黏在裡面,然後但是一直都覺得沒有任何飽足感,就是一直不斷的運行多巴胺的迴路。
這個道理其實很簡單。就是說,如果是廚師做很精美的、很營養的料理給你吃,你吃一吃就會感覺飽了。因為本來人就是吃飽了,身體需要就飽了。但是如果是給一堆沒有營養,但是非常多鹽、非常多油炸,然後怎麼吃都好像沒有飽一樣,就是越喝越渴。那這個在食物叫垃圾食物,那在 AI 我們叫 AI Slop。
他們叫做「AI Slop」。不知道要怎麼翻?AI 垃圾訊息之類的。類似垃圾食物的垃圾訊息。
所以這個的狀況,現在當然就變本加厲。因為在當年大家還是自己寫文章,或者自己上傳影片,然後 AI 是告訴我們要看到什麼影片。但是現在可能大家也知道,隨著 Sora 2 等等的這些推出,現在我們都不用自己寫文章,也不用自己拍影片了,全部都是 AI 來產生了。
所以我們共享現實基礎崩潰,當然有很多別的問題,包含民主秩序、自由社會等等的問題。但其實這些很可能都是一開始就是告訴 AI:「最大化使用者黏在螢幕上的時間」,不擇手段來造成的。
所以這個情況,當然就是很像空氣污染的情況,就好像霧霾一樣。整個社會都越來越看不清楚,說到底我們彼此認知的事情是什麼、狀況是怎麼樣、共享的現實是什麼。這個都就是霧霾越濃越看不到。
我把它叫做一個很高的 PPM。PPM 講的不是二氧化碳的百萬分濃度(Parts Per Million),我講的那個「Polarization Per Minute」(每分鐘極化程度)。就是你刷社群媒體,激化的訊息。
臺灣的狀況還稍微好一點。我才剛從日本回來,日本也好一點。但是在美國,好比像說,美國就是已經被叫做「peak polarization」(極化高峰)。就是它已經不可能比那個再極化了。就是他的共和黨跟民主黨的支持者中間,就是他看到對方所做的任何事情、任何訊息,他一定做完全相反的解釋,而且已經不可能更相反的解釋了。那這個都是有社會學的量測的。
所以現在當然我們過了十年,現在回頭去看,就可以發現說,我們比起十年之前,幾乎全世界各種各樣的,就是人跟人之間,以及人群跟人群之間,它極端化的程度——就是對彼此的感受的不好的、憤怒的那個程度——就比十年以前要高得多。
所以這個寄生式的 AI,如果它的獎勵函數,就是說要最大化每一個人待在螢幕前面的時間的這個目標的話,那它就不擇手段地,就會去找到我們分裂最大的,以及就是對彼此憤怒的那個地方,然後一直放送這個地方給我們看。這個就叫「enragement for engagement」——就是透過激怒、透過炎上來達到互動。
但是如果是找到讓你忍不住一定要去反唇相譏的、一定要去「炎上」、一定要去作戰、憤怒對立的話,基本上在上面三四個小時,都不會覺得時間過去了。
放大的意思是什麼呢?就是去找最會激怒我的,或者是讓我覺得衝突性最高的。為什麼呢?給你品質很好的文章,大家看了需要一點時間了解、需要一點時間想,那時候就不會一直待在社群媒體上面,那就會去做別的事情,可能查資料、可能自己稍微靜坐一下、散個步等等。
而且這種,我把它叫「寄生式的」(parasitic)AI——因為只有對它好、對我不好。這種寄生式的 AI,就是找到我們中間的衝突,然後把它放大。