它的做法就是說,可能像我們加州火災是 30 個政策選項,最後選出 5、6 個。我可以證明說,所有參加的這幾千人裡面,任何 10% 的少數,就是任何這樣子挑出來的 10% 的少數,都可以去 veto(否決)、都可以去杯葛掉裡面他們最不喜歡的那 10% 的選項。任何 20% 的人都可以杯葛掉他們最不喜歡的那 20%。任何 30% 的人都可以杯葛掉他最不喜歡 30%。
目前的做法,就是所謂的比較好的一個評量方法,叫 Proportionate Veto Core(PVC,比例否決核心)。
但是這個的前提就是說,這個 AI 模型它必須是超在地的、就是我們大家都同意的。而不是說丟給矽谷的什麼黑箱演算法來決定誰要念清大這樣子。謝謝。
所以如果有個開放可驗證的某種 AI 模型,然後不是很容易被欺騙的,用某種方式去協助評審,去看說一個人在團隊裡面他的貢獻度到底多少。我覺得這個未來確實是一個方向。
所以我覺去得增強剛剛講到的就是:我們在一個團隊裡面,然後這個團隊討論等等。我剛剛講到的十個人的討論室裡面,其實 AI 它是隨時在讀空氣的。它可以去算出每個人他對於這個團隊討論他的貢獻的程度。他引導其他人討論的程度。
確實一定程度上面,其實以我所知,現在也有一些就是多元選才等等的這些做法、繁星推薦等等。其實現在的狀況我並沒有那麼悲觀。就是說現在已經有一些名額是,透過類似這樣 portfolio(學習歷程)的方法進來的。那之後當然這種 portfolio 的問題,當然還是現在的可信度可能沒有高到這個程度這樣子。
就是說如果現在大學,他能夠信任說,在之前不管高中端,或者是技術高中等等,他這種同儕互評,或者是剛剛講到 PBL 等等的這種就是所謂的學習歷程的這些東西,能夠有可信度。那你建立起這個有可信度的交叉評量的這件事情……
我試著了解一下你的問題。就是說,你覺得現在在高中端,雖然是有累積一些就是團隊的能力等等。但是最後還是看個人考試的那個能力,決定到哪個大學。所以你在想說大考怎麼樣調整……
現在也有不用自己接電話,就是透過像蘋果 Apple Intelligence,它會幫你聽電話、摘要、然後跟你講。那個也是用地端的模型做的。那是我之前在蘋果合作的團隊。2016 年就跑掉了。但是他們就留下來繼續做 Apple Intelligence。所以以我所知,現在是有自動綜整的能力。你可以在 MacBook 或者是在 iOS 上都有。它幫你接電話、幫你綜整。
目前我們已經成功說服 Discord,他的訓練平台已經讓 Bluesky 在用了。另外 Roblox 好像也快要用了。所以我們確實是現在在做這種事。如果等兒少性剝削影像這個題目可以完全用這種方式解決,其他的部分,包括您所提的詐騙等等,我覺得也很有希望。
所以我們現在就是透過一個叫做 CLIP Embedding——是 OpenAI 的一個程式庫——把圖片變成跟它圖片意思類似的文字。但是它在轉文字的時候,不會洩露那個圖片裡面的人的個資。所以你就突然間手上會有一堆文字去描述那個圖片。但是這個文字是可以合法處理的,就是它不觸發兒少性影像的那個問題。然後你就分享這堆文字的描述值,就是它的 embedding。然後我就可以分散式地來訓練這種小模型。
但是現在因為你要合成這種兒少性剝削影像的成本太低,而且你可以直接在手機或筆電上就合成。所以就像以前那種溯源的做法,已經是行不通了。
這部分以前的問題是說,大部分你要做這種機器訓練的時候,持有那個圖片就是非法的。所以以前我們沒有辦法做端到端的訓練。只能上載到微軟的 Microsoft PhotoDNA,或者是美國的 NCMEC(國家失蹤與受虐兒童中心)——FBI 的資料庫。
這個概念同樣就像您剛剛講到,就是去訓練小模型。我們一開始挑的題目是 CSAM(兒少性剝削影像)。主要原因就是因為它的非法性在全球都比較確定。其他的可能還有言論自由什麼的爭議,但是 CSAM 應該是沒有太大的爭議了。當然這裡是說跟真人像的,如果是漫畫的那個是有爭議的。但是 anyway,這裡是說像真人的那個部分。
我確實有自己下來做這個題目。我有參加一個基金會,我是理事,叫做 ROOST.tools。我們是今年 2 月在巴黎 AI 峰會,我跟 Meta 的 Yann LeCun——就是他們 AI 的負責人,開放式 AI 的算是掌門人吧——以及 Eric Schmidt——就是很關注安全的以前 Google 的執行長——我們一起發展 ROOST 這個概念。
所以防詐騙的做法,現在慢慢都開始從雲往端去移動。因為大部分人不會想要把自己的特別的點對點加密的訊息,去分享給這些大公司。但是詐騙大概都是在這些地方特別的嚴重。所以你要不侵害隱私,又要能夠去進行攔阻。確實像您說的,就是在手機本地去運行小模型,應該是最主流的現在大家看到的解決方式。
因為它是在你自己的手機上本機運行。所以就像您剛剛講的,它是小模型。它不需要去把你收到所有私人訊息都傳回趨勢科技,或者傳回 Gogolook 等等。
它的原理就是它 Android,你不管是裝任何的通訊軟體,它都會跳出通知。然後它去攔那個通知的 API。所以它是在你自己的手機上面,對所有的通知去進行篩檢。然後去看它是不是詐騙、或是不是網路攻擊、是不是釣魚等等。
這個之前 Gogolook(Whoscall 開發商)有一個 Android 上的系統,叫 Message Checker。那個就是用您所提到的原理。
所以就是在平時的時候用小規模在地的做,但是建立起這樣的基本制度。那這樣子每次就是特別的緊急狀況,像之前疫情等等來的時候,再把它提到全國情況。目前大概是這樣來做。
另外一個情況就是像加州的做法。就是說他們先做基礎建設,然後就等一個緊急的情況,好像野火來的時候。等於整個全加州的關注都在這個上面。而且如果你不趕快提出一個方案,去把州政府、市政府、聯邦政府的權責能夠區分出來的話,那對州長的政治前途也不太好。這個情況,那這個情況它就很容易一下凝聚就是大量的民意。
所以所謂的 hyperlocal(小規模在地),去增強它的拘束力,現在看起來是相對容易的一個做法。
像我們在美國 Bowling Green 在 Kentucky(肯塔基州鮑靈格林市),就幾千人而已,相當於我們一個鎮。在那個人口裡面,他們就比較容易給出高的拘束力。裡面大概一兩千人有參與這個。說真的非常有代表性。大家都同意的話,我也不需要鎮長說什麼。大家都覺得說這個很棒,那我們就去做了。
通常學理上我們是希望用兩個方法。一個是說盡量在小規模的地方先做。像芬蘭他們在全國做這個之前,他們就是先在一些試點的這些,類似我們縣議會、或甚至是一個里的里民大會的那個程度而已。
但是當然它的強度、它的拘束力,並沒有強到相當於立委通過的法案,或相當於公投。它差不多就相當於立委提出的一個質詢案的,就是備詢的那個程度而已。
如果現在在講的是說,怎麼樣再加強它的拘束力。就是變成……因為其實現在你如果是在公共政策網路參與平台上面提連署案,它正反雙方,其實現在都是用橋接的方式在做 aggregation(統整)。
我們去年的那一個,當然是變打詐專法,跟變成我們叫數位簽章,就是電子簽章法修正案。
反而是亞洲或歐洲很多還是很依賴傳統的大型的事實查核機構。可能就要看美國這個實驗成不成功,我們再看要不要跟。
所以我是覺得蠻不錯的。尤其是美國是特別適合這樣做。因為他們許多人都對機構化的事實查核已經完全放棄信任。所以他們除了橋接式這一套、可攜式這一套之外,他們也沒有別的選項了。
所以這樣這個平台就有充分的誘因,去做我們剛剛講到的,包含可攜性在內這些事情。所以整個市場應該就會變成一個比較好的,就是 positive sum(正和)的一個競爭。
如果今天是 Bluesky,他本來就是分散式的架構。他不會主動給你任何東西。你要看任何演算法的 feed(資訊流),那就是你去訂閱的。如果那個 feed 的創作者要免責,那他就是透過像我們剛剛講 Green Earth 這種工具,去讓你客製化你的推薦引擎。一旦你說「對,這就是我的推薦偏好」之後,那使用者又負全責。所以平台就免責。
因為你就會看到,像維基百科,他絕對不會主動推給你什麼你沒有訂閱的東西。所以維基百科繼續享有絕對免責。
所以如果是這樣的話,我覺得這個就很好。就會變成是一個向上競爭,而不是逐底競爭的狀況。
當然如果更細究的話,就是說如果我自己現在訓練出一個推薦模型,然後是我拿著我的推薦模型去這個社群平台。如果是我自己使用者訓練的推薦模型,那是不是所有我收到的東西,我自己就要負責任了?理論上是。
所以這個我想,我們在英文是把 speech(言論)跟 reach(觸及)分開。就是說你有完整的言論自由,你愛講什麼就講什麼,也絕對不會被下架。但是如果平台主動推給當初沒有訂閱你的人,平台的推送行為,就要算做他的第一方言論,那就變從犯了。簡單講就是這樣,我覺得是蠻直觀的。現在應該是共和黨可以接受的一個解決方式。Brendan Carr 他們可以接受的一個方式。
然後加州的州議會,先前已經通過一個連帶責任法案。是說同樣的就是違法內容,如果平台明知其為違法,而且又把它主動推送給就是被動接受、我也沒有訂閱這個創作者的人的話,那他也要負一些責任。
其實 230 在美國的一些法院,州級的,它已經有一些判例顯示說:如果你是——我就講名字——TikTok。那你已經知道裡面某一些影片它是違法的。但是你在使用者已經檢舉它違法的情況下,你又推送給其實沒有訂閱這個創作者的使用者。那這個時候他不能夠免除責任。
非常好的問題。這個我在 Harvard Kennedy School 有一篇文章叫《Sunset and Renew》,講的就是 230 要怎麼做調整。
維基百科什麼都要倒閉了。
所以在這個情況下,我想在未來這種就是透過團隊,然後看這個團隊怎麼樣善用 AI,當做這個團隊的輔助或者教練。而不是說去增強團隊裡面每一個個人的這個能力。我覺得顯然會是未來的主流。東大開始做什麼,別的學校就會開始跟進。所以應該很快就會普及了。
所以他們現在東大明年會翻新他們的學制。他們會有一個叫做設計學院(Design College / Design Institute)。他們的整個評量方式就都是跨科系。然後是以完成特定任務,就像我們 PBL 那種概念。然後就是以專案為主軸的學習(Project-Based Learning)。以 Purpose,就是以特定的社會使命為主的學習。然後是透過同儕互評,甚至是跨班互評來進行討論。而不是說由一個人去審說你的書審有沒有用 AI 等等。這些事實上都已經沒有意義了。
我們在資訊科學界有一個叫圖靈測試(Turing test)。就是你要一個人看另外一個人的打字,然後再看電腦的打字。然後你要區分說這個是人,還是這個是電腦。到 GPT-5 出來的時候,好像 70% 多的人會覺得 GPT-5 才是人,另外那個是電腦。就是說它已經比人更像人的情況。所以你靠筆試去測任何東西都是不準的。因為你就叫 GPT 幫你寫就好了。
但是他們也發現說,第一個就是在有 AI 的情況下,每個人筆試能力都一樣好。你作文沒有辦法拼得過 AI 了。他們本來覺得說,好像日文是有非常多很困難的部分,機器語言處理是不能處理的。但是到 GPT-5 出來,他們去做評比。
對。我之前有跟東京大學的校長有聊過這個題目。因為東京大學大家如果有看漫畫都知道,大家都知道是非常注重那個筆試的。就是考滿分的上東大,大家都知道是這個狀況。
只是說我們怎麼樣讓整個社會都可以了解到,像以前那樣就是個人跟個人之間的競爭,其實越來越沒有意義。而且所有時間過去,只會越來越沒有意義。關懷的能力才會越來越有意義。我覺得大家越把這個概念能夠擴散出去,我們在終身教育上就越容易。
所以我想當時都是因為 AlphaGo,然後一開始就可以看到這種 AI 的起飛,所以我們設計了這樣一套做法。現在回過頭來,我想這個方向還是對的。
所以當然好奇自發的部分,還是每個學生自己要做的。但是他可以透過一些社會的責任。每個大學可以勾一些永續發展目標,169 項,看大家要勾幾個。在附近 USR(大學社會責任)做到一些有幫助的專案。如果成功了的話,當然非常有成就感。如果沒有成功也可以發論文。總之就是讓大家怎麼樣都覺得有學到東西,這樣的做法。
所以我後來當然也擔任社會創新相關的政務委員。我們當時也有說,大學就是高等教育,他也可以一定程度上,不要變成說好像每個人各自發展他自己的學問。而是說他在發展學問的過程裡面,也可以去透過互動達到共好。
所以這些部分都跟標準答案沒有關係。所以我們那時候就設定這些是所謂的核心素養。
那意思就是說,就算機器人可以做掉所有標準化的東西。「我自己的好奇心」這件事情,還是機器不能取代的。「我想要跟我不同的人之間彼此之間互相合作」的這件事情,還是機器沒有辦法取代的。那以及我們要怎麼樣子去把好像就是你輸我贏、你贏我輸、或者你輸我輸的這樣一種情況,去把它翻轉成雙贏、多贏的情況。這個操作也不是 AI 可以來幫人做的。因為這是人跟人之間的關係的一部分,就是關懷的部分。