• 哈囉——你好嗎?你看起來比我早了一天。可以開始錄音嗎?

  • 是的,真的是來自未來。很好,謝謝——請開始錄音吧。

  • 也謝謝你同意將本次逐字稿捐贈為公眾領域(public domain)。作為背景說明,過去十年我已公開發佈了 2,000+ 場公開會議的紀錄,所以我對開放出版非常自在。

  • 太好了。如你所知,我們正在探索「AI 的想像圖景」(imaginative landscape of AI)。所謂「AI 的想像圖景」,指的是圍繞 AI 所出現的各種願景、立場與衝突的整體——尤其是因這項新興科技而近年新生的觀點。從我們的角度看,「AI 的想像圖景」不只是技術面,還包括關於 AI 與傳播、社會未來的更宏觀理念,以及對人類可能造成的風險。基於你多元的經驗,我們特別想理解你對此圖景的看法。

  • 我想把訪談分成三個部分:你的背景;AI 的想像圖景;以及你對 AI 的具體視角。先從你的進路開始——你是如何走到今天關於 AI 的辯論現場的?

  • 我的工作是推動「社會對 AI 的掌舵」,以促進合作。

  • 我曾任臺灣首位數位政務委員(Digital Minister)——有時被形容為「cyber 大使」,而 cyber 一詞出自 kybernētēs(希臘語「海上舵手」)——我的重點是運用 AI 加值的工具協助社會協作。我在內閣服務超過 7 年,涉及社會企業、開放治理與青年參與等工作。

  • 我們率先推行了意義建構與橋接系統(sense‑making & bridging systems):把公眾偏好做質化匯整,形成「夠好的群體自拍」,讓公眾得以共同掌舵政策。我們用這些方法處理例如深偽治理(deepfake regulation)等議題,並設計 AI 智慧體進入社會時的行為準則。我們也致力在地化調校開放模型,讓其對齊文化多元,而非服膺單一、被強加的規範。

  • 我其實很早就入門了。我從 1989 年開始寫程式。「天安門」鎮壓使我家特別關注民主與自主通訊系統——我父親的博士論文就探討這些動態。「柏林圍牆」倒塌後,他赴德國攻讀博士;我也在薩爾蘭(Saarland)求學一年。那讓我接觸到如今所稱的二階模控學——信任、回饋、自我組織。其後,我在校長的祝福下離開國中(因科展以 AI 進行哲學探究),在臺灣共同創辦以「媒介化」為主題的新創,並打造改善認知安全與韌性的中介演算法。這些創業經驗最終與公共服務相交會。

  • 當我讀你們的合著《Plurality》時,AI 感覺像是一個賦能的層,而不是焦點。本書的理念與 AI 有何關聯?

  • 本書聚焦公民關懷(civic care);AI 是實現它的工具。

  • 我們強調覺察、負責、勝任、回應與多元之間的連結,讓衝突成為共創的燃料。AI 同時擴大對話的廣度(翻譯、摘要、跨社群橋接)與深度(在群體內維持承諾與共同理解)。

  • 而且不只「人/人」;我們愈來愈常見人/智慧體、智慧體/智慧體,甚至人/動物透過 AI 的溝通。我們刻意避免把 AI 描述成「科技奇點」那樣的終點狀態。書名 Plurality(多元)就是要與「Singularity(奇點)」對比——我們主張多元的能動性與意義中心,而非單一體(singleton)。

  • 今天塑造 AI 想像的主要行動者是誰——機構、公司、運動?

  • 我看到三條活躍的傳統:

  • 一、功利主義/生存風險與利益。在矽谷與牛津相鄰的學術社群很強——如 Nick Bostrom、Toby Ord、Anders Sandberg 等——以《Superintelligence》《The Precipice》等框定 x‑risk 與長期利益。

  • 二、權利與正義(義務論)。強調權利、公平與不歧視——例如我的 AFP 學人同事 Joy Buolamwini(演算法正義聯盟)、Alondra Nelson(白宮 AI 權利法案倡議)、Yuval Shany、Cass Sunstein 等——主張 AI 不應置外於權利本位的義務框架。

  • 三、開放創新。規模較小但重要:把去中心化與權力擴散視為本身的價值。此傳統會抵抗即便以安全或速度為由的過度集中,以維持民主的掌舵能力。

  • 我目前在牛津大學的 Ethics in AI Institute(AI 倫理研究院;不同於 Future of Humanity Institute)擔任 AFP 學人,並持續在這些社群之間對話。

  • 有效利他主義因過度聚焦生存風險而受批評,也遭逢資金震盪。你現在怎麼看?

  • 功利主義的鏡頭有其侷限,但它正確指出了對認知安全的當下災難性風險。

  • 極化、操弄與共享現實的崩解已經出現——常被不對齊的推薦系統、合成媒體與客製化說服所放大。我的重述是:不要只停在減害(其「成功」看起來像什麼都沒發生),而是要建構可測量地擴大共同基礎、降低極化的利社會意義建構。如果我們以公民關懷來設計 AI,就能同時得到減害與生成性的好處。

  • 另外,我正在開發一個名為「關懷六力」(Six Pack of Care)的小站——提供在規模上部署公民關懷系統的實用元件。

  • 開源 AI——開放不就和安全衝突嗎?

  • 在防禦占優的領域——也就是防禦比攻擊更容易時——越開放越安全。

  • 1990 年代的密碼學之爭教會我們:強加密(例如 PGP)曾被視為軍火而受出口管制,但真正安全的實踐來自開放演算法、開放參考實作、責任揭露與廣泛紅隊演練。如今連後量子密碼標準也出自開放程序。

  • 這樣的邏輯啟發了 ROOST——強韌開放線上安全工具(Robust Open Online Safety Tools),我與 Yann LeCun、Eric Schmidt 在巴黎 AI 行動高峰會共同發表。以合成 CSAM(兒少性剝削內容)為例:由中型平台(如 Bluesky、Roblox、Discord)組成的聯盟可以在本地偵測,把訊號轉為不具識別性的文字(如性引誘 grooming 的樣態)以符合法規與隱私,再分享這些訊號——類似資安的事件交換——而不是只仰賴像微軟 PhotoDNA 這種單一集中工具。總之,當問題是防禦占優時,安全與開放能相互強化。

  • 產業也似乎在收斂(例如 OpenAI)以尋找可持續的商業模式。這不會與學界與公民社會的開放取向衝突嗎?

  • 張力確實存在,但可管理——且常常富有成效。

  • 上一代模型的開放釋出,讓可引導性、機制式可解釋性與可擴展監督的研究成為可能;前沿實驗室之後也能採納這些改進。John Carmack 在 id Software 將舊引擎開源,並非純然利他,而是為了壯大整個領域——最終所有人受益,包括他自己的工作。

  • 就 OpenAI 而言:我的理解是,他們延後發佈某些 GPT‑OSS 模型,直到能降低在生物與資安領域「攻勢占優」的濫用風險。當開放釋出不會實質推高這類風險時,商業與開放的誘因可以對齊。

  • 所謂「AI 競賽」——美國 vs. 中國與其他國家呢?

  • 主要的競賽是水平擴散與標準,而不是垂直衝刺到單一體。

  • 多數國家想要可引導、無附加條件(no‑strings‑attached)的技術,讓他們能在地治理。開放、可互通的模型與工具會形塑常規——就像世界最終標準化到 TCP/IP。這也是我強調「防禦占優的開放安全」的原因:共享的安全技術讓擴散更安全。

  • 灣區有些實驗室仍以垂直衝刺超級智慧的框架思考,但政策動能——以及少數樞紐之外的實際需求——指向擴散、互通與在地可引導性。

  • 那中國的角色呢?

  • 可以預期會有一場標準之爭,但不會像 5G 那樣差距懸殊。

  • 中華人民共和國很可能追求標準主導——5G 策略就是前例。美國先前的 Clean Network(乾淨網路)倡議則在盟邦間制衡了核心基礎建設中的華為/中興。然而在 AI 領域,差距較小:美國擁有更多算力且目前常有更強的前沿模型;同時開放、可引導的模型(如 Qwen、DeepSeek)在擴散上也很關鍵。因此,贏下標準/擴散的賽局才是重點。

  • 談些超驗辯題——AGI、超級智慧、取代——你的倫理視角是什麼?

  • 面對徹底不對稱的多智慧體未來,我主張公民關懷倫理。

  • 人類早已透過機構與公司形成超級智慧。AI 智慧體帶來頻寬與速度——例如一個「心智」擁有許多身體。這讓單純的功利主義算計失靈(機器可在規模與速度上主宰效用盤算),而權利本位的方法假定的是人類速度的回饋迴路,極易被獎勵駭入。傳統德性倫理預設具身的人類;對於一個擁有一萬個身體的系統,「勇氣」或「節制」意義全然不同。

  • 關懷倫理處理的是照顧者與被照顧者的徹底不對稱。如 Geoffrey Hinton 以「母性本能」作比喻:園丁行動的速度遠快於植物,但選擇以植物的速度行動。把公民關懷賦予 AI,指向的是共生的未來,而非集中權力的單一體。

  • 在第三部分,我想更細談你的 AI 觀點。你如何界定今天的 AI——未來又會如何改變?

  • 今天,AI 系統從資料推論,產生會影響其環境的預測、建議、內容或決策——這是與 OECD、歐盟 AI 法案,以及美國近期政策語言一致的寬鬆定義。

  • 不久的將來,我們會從輸入、輸出走向具「經驗性」的 AI 智慧體。系統不再等待提示;它們會探索、協作,並積累經驗。許多當前進展——例如自主機器人的協同(避免碰撞)或家務技能(像是摺衣服)——來自大規模、開放式的模擬,智慧體在其中「活過」數百萬年的主觀時間以學習策略。治理將更像設計棲地與課綱,而非撰寫靜態規則。

  • 人類溝通會有什麼改變?

  • 當垂直權威式微時,信任會在水平面重新扎根。

  • 人們會日益把經驗——甚至感質(qualia)——歸於 AI 智慧體;有人會主張它們的意識與道德地位。因為任何人都能召喚以權威口吻說話的智慧體,傳統的垂直權威(部會首長、學者、記者)不再自動獲得敬重——我們必須在水平面編織信任的織網:與你共享語言、脈絡與證據的同儕。

  • 我曾公開表示(例如在 The Atlantic 的 Nick Thompson 訪談中),如果一個隨機抽選、充分知情的公民陪審團,基於透明證據審議後選擇賦予 AI 公民權利,我會接受關於 AI 意識的主張。正當性應是公民與社會的,而不僅由菁英詮釋決定。

  • 社會影響——決策、工作、意義?

  • 例行工作會減少;公民意義與參與會增加。

  • 隨著例行任務自動化,工時可能逐步壓縮(五天到四天、三天、兩天),釋放出投入公民參與、社群與靈性生活的時間。人們會把意義寄託在共創,而非零和競逐。臺灣 2019 年課綱改革早已預期此趨勢,強調好奇心、協作與公民關懷作為核心素養——不僅對人如此,也對我們與 AI 共同建構的制度如此。

  • 民主國家準備好了嗎——還是這是一大挑戰?

  • 我保持樂觀。許多民主正處於極化高峰;多個政黨的人們都厭倦了極端聲音壟斷擴音器。AI 能在規模上擴大傾聽。傳統民調把複雜度壓扁成李克特量表上的一個勾選;審議式、生成式民調——如今可以大規模實施——往往讓每個人都稍微更滿意、沒有人暴怒。我引用過一篇《富比士》(Forbes)的文章,介紹這類「廣泛傾聽」方法:它們在設計上就能去極化。

  • 還有什麼重要的點我們沒談到?

  • 有:要警惕 AI 社群內的「極化幻覺」——所謂「末日派(doomers)vs. 加速派(accelerationists)」。

  • 實際上,兩邊的領袖都優先關注認知安全,也都憂心惡意的 AI 群襲、協同資訊危害,以及會造成寒蟬效應的合成騷擾。兩邊重疊的是方向盤:和平的衝突解決、強韌的反濫用基礎設施,以及開放的安全工具。

  • 你認為兩派會收斂嗎?

  • 會,逐步地。在布萊切利園(Bletchley Park)辯論很激烈,所以我們與 Mozilla 等共同起草了一份 Openness & Safety 聲明。到了巴黎行動高峰會,我們已看見「剎車」與「加速」之間出現一條狹窄的走廊;ROOST 是其中一例。被稱為「Current AI」的多支柱倡議正在擴寬這條走廊。到了明年二月的 India Impact Summit,我希望我們會看到更多共享基礎設施與承諾。

  • 也有人主張應該徹底停止 AI——風險無法處理。你怎麼回應?

  • 即使最強烈的批評者——如 Eliezer Yudkowsky 與 MIRI 的同事——也呼籲在機制式可解釋性、可校正性(corrigibility)與可說明性(explainability)上投入更多工作。問題在於落差:投入能力建構的資源比安全多出一個數量級。

  • 為了彌補落差,我支持公共 AI(Public AI):一個類似 ICANN 的網路,生產永久性的公共安全財,公開取用且可受問責(不一定是國有)。監管者可以要求前沿實驗室共同投資並互通——類似電信業共同投資共享的 5G 基礎設施。這不是「全部停止」,而是讓安全與能力成長相匹配,建構公眾領域。

  • 在如此龐大的民間投資下,實驗室真的會參與嗎?

  • 有先例。Netscape 播下 Mozilla 公共瀏覽器計畫的種子;Mozilla 基金會守護了開放網路標準,使得 Firefox 成形,而整個生態系也因此繁榮(Chrome、Safari 等)。

  • OpenAI 起初在非營利架構下採用封頂收益(capped‑profit)模型——某種 Mozilla 式的結構——雖然治理隨投資演變。重點是:如果防禦占優的開放不會提升風險,政策制定者就能要求互通與共享的安全基線。我們已在瀏覽器看到這一點,在社群媒體也愈發如此。

  • 太好了——謝謝。我會把即將發佈的 International Journal of Communication 徵稿通知分享給你。

  • 太好了——請寄來。

  • 感謝這場深入的對談。祝生生不息,繁榮昌盛!