對。所以我想要釐清妳立場的一點就是,我們作為人類,我同意妳。我們表現出指數增長,顯然,經濟增長,特別是自工業革命以來。有一個非常明顯的指數曲線,倍增時間也越來越快。
好的,那這個呢?遞迴自我改進(Recursive self-improvement),所以這個想法是下一個版本,妳知道,Claude 4.5 升級到 Claude 8 或什麼的,Claude 8 太強了,妳只要把它留在房間裡一週,對吧?它一週不輸出任何東西,然後妳回來,它說:「嘿,我剛剛編寫了 Claude 9,它編寫了 Claude 10,它們開始越來越快地互相編寫,現在我們在 Claude 90 了。我知道我們花了一年才從 Claude 7 到 Claude 8,但現在我們在 Claude 90 了。」妳知道,那種情境,對妳來說合理嗎?
我想繼續探討這個問題,以確保妳對智慧的心智模型真的跟我的很像。讓我們繼續探討這個問題:智慧的規模有多高?因為到目前為止,妳說,「嘿,它很高。」妳已經承認是的。
所以有一架飛機正在起飛,我們緊抓著不放,聽起來妳也有非常類似的心智模型。是的,我們緊抓著,但妳有一種樂觀認為緊抓著可能會成功,對吧?
妳知道,退一步來說,就基本的心智模型而言,我使用爬梯子爬很快的比喻。另一個比喻是,「嘿,有一架飛機正在起飛。」我想像這是人類種族抓著正在起飛的飛機,對吧?因為 AI 非常… 妳知道,我們看到正回饋循環,AI,Claude Code 開始獨立運行的時間越來越長。妳知道,它接管了人們的電腦,做所有這些有生產力的任務。
好的,所以妳我分歧的地方在於妳擁有這種巨大的樂觀主義,認為「噢,對,它… 我們要爬這個巨大的階梯。它將遠遠超出我們今天真正能想像的任何東西,但人類只是會爬梯子。我們永遠不會從梯子上掉下來。我們和 AI 只是會成功地… 我們將成為一個大群才,我們將成為大型關懷六力。我們只是一起爬得很快,」對吧?
群體的天才,群才,對吧?是啊,好的,我聽過這個詞被拋出來。
好的,我想我懂妳的意思了。妳是說妳其實同意我,智慧光譜確實比今天的人類高得多。所以即使妳看今天的一家人類公司,對吧,妳看 SpaceX 的所有協調,一群非常聰明的人類很好地協調在一起,非常有生產力,妳同意我的看法,2100 年的 SpaceX 將比今天的 SpaceX 生產力高得多。天花板比我們今天看到的要高得多。
妳不認為未來會是一個街區大小的資料中心或街區大小的運算堆… 將會存在這樣一個實體,它將比直到今天為止活過的任何人類都強大,即使所有人類集合在一起,將他們的心智匯集在一起,一起建立一堆工廠,所有這些與即將在不久的將來存在的這個運算堆相比都將相形見絀?
所以妳有這個街區大小的運算中心。妳不認為在幾年或幾十年內,一個街區大小的運算中心將會超越 2025 年所有活著的人類加總的能力嗎?
對,它可以。那妳是否也同意可能有這樣一種心智,比如說它就在運行,它佔據了一個街區。這是一個充滿運算的街區,密集排列的電晶體,感謝台積電或其他什麼,對吧?
讓我拆解一下,好嗎?所以我會問妳一個非常細微的問題,就是在可能的心智空間中,難道不存在一種在能力上遠優於目前人類心智的心智嗎?
好的,那麼我的問題是,難道沒有一個更超智慧的超智慧要來嗎?妳真的認為我們已經觸頂了嗎?
好的。我想我早該知道妳會這麼說,因為妳確實逐字寫過,妳說:「我們需要的超智慧已經在這裡。它是人類協作的未開發潛力。它就是我們,人民。」所以妳堅持那個說法?
所以為了開始這部分的對話,讓我直接問妳,妳的 AGI 時間表大概是什麼?
但現在,讓我們進入我認為是核心的部分,從目前為止我收集到的資訊,這是妳我分歧的關鍵。如果我猜得沒錯,我認為是我們對遠超人類智慧出現的預期。
好的,公道。所以我不會在這裡直接處理那個問題,但對於本節目的觀眾,你們可以去查,我跟 Vitalik Buterin 在節目中有另一整集,還有一集是我對 Emmett Shear 關於 Softmax 的演講的反應。我對我自己理解的 Softmax 有很多不同意見,觀眾可以去查,Doom Debates Softmax。
有機對齊的人和妳對 AI 的看法有什麼特別的分歧點嗎,還是非常一致?
所以讓我再問妳一個問題:這跟 Emmett Shear 的公司 Softmax 相似嗎?妳跟他們有什麼共同點?
妳知道,在假設 AI 不會突然以其不可控的力量壓倒我們的前提下,妳說的一切都很棒。讓我問一個問題來結束關於妳的世界觀的部分,對吧?我們談到了多元宇宙,關懷六力,以及為什麼妳認為像 d/acc 這樣的東西實際上是可行的。
好的,我感覺到妳我會產生分歧的地方,在於我們對 AI 走向超智慧的樣貌的預測,而我們還沒觸及那一塊。所以我不直接反對妳說的任何事情。我覺得妳做得很好。
所以我的問題是,妳不覺得這個理想是否可行存在巨大的問號嗎?
這跟我對 Vitalik 上節目時說的一樣,當時我們在談論 d/acc。在 d/acc 的背景下,我說:「聽著,如果有人坐在像臺灣這樣的島上,而核戰正在發生,或者超智慧正在爭奪地球控制權,妳無法告訴妳的島嶼… 有一個理想是島嶼可以自我防禦,但妳不可能在這個島上戴著安全帽就能保護自己。妳就是完蛋了。」
所以我個人對這兩個提案有類似的反應,那就是太棒了,原則上我不反對,對吧?如果妳能做到那就太好了,對吧?如果我們能邁向未來,我們能總是,像妳說的,實際傾聽人們,實際信守承諾,是的,我會很喜歡那樣,對吧?
對,防禦性。是的,沒錯。是啊,我認為妳同意所有這些 D,並且妳增加了一些更深入流程細節的東西。比如,我們檢查承諾,我們檢查結果。這對 d/acc 來說有點新。
對。是啊,d/acc,我知道最大的幾個是民主、去中心化。我想那是最主要的兩個 D。也許還有另一個 D 值得一提。
妳關於關懷六力所說的一切,這種方法,我相信妳知道,與 Vitalik Buterin 的 d/acc 有很多共同點,對吧?
果然,這裡有一張六力的圖片,上面寫著:「實際傾聽人們(Actually, listen to people)」,那是其中之一,然後是「實際信守承諾(Actually, keep promises)。我們檢查過程。我們檢查結果。盡可能雙贏,以及盡可能在地化。」好的,所以所有這些加在一起,基本上就是多元宇宙的一部分,對吧?妳會補充什麼?
這裡,讓我把它放到螢幕上。我現在在 6pack.care 網站上。這是一個任何人都可以訪問的網站。上面寫著:「關懷六力,AI 倫理研究院,唐鳳與 Caroline Green 的研究計畫。」
噢,原來如此。好的,所以它有兩種不同的含義。好的,妳想逐一介紹,還是要我讀出我手邊的資料?
所謂的六力(6-Pack),妳是指六罐啤酒還是六塊腹肌?
我們也來談談最近的一篇文章,《關懷六力》(The 6-Pack of Care),對吧?那是妳的關鍵隱喻之一。
所以稍後,我想更具前瞻性地談談智慧光譜。但就觸及所有有趣點的最佳順序而言,讓我們回到妳寫的一些東西。
沒錯,而且這真的與妳一致。所以對我來說,這都很棒,只是它並沒有真正觸及我的核心問題,也就是超智慧導致的末日或人類滅絕。
如果我可以個人化我的動態,我會說,好,預測我被激怒的可能性有多大,每天只給我兩三個激怒點就好。所以我不需要反覆被激怒。
是啊。是啊,是啊,完全同意,我在這點上支持妳,因為我是 X(前身為 Twitter)的重度使用者,很多時候我發現自己被我強烈不同意的立場激怒,我不敢相信這麼多人對這個議題這麼錯誤。
太棒了。好的,所以對,就我個人而言,我不能說我反對。我是說,我認為人們應該有自由和靈活性。我是說,可能有些人喜歡打開 TikTok,然後非常投入一個小時,他們沒有關閉它的問題,但妳不反對人們能夠自定義他們的動態,對吧?
是啊,好的,這是我們可以做的一個非常具體的例子。如果我理解正確的話,妳基本上是說,今天滑 Facebook 或 Instagram 或 TikTok 的人,這些產品的製造者違反了多元宇宙原則,因為他們太專注於參與度這個指標,所以妳基本上會讓他們從今天開始……具體來說,妳會讓演算法按照妳的原則做什麼?
好的,我是說,這聽起來不錯。很難反駁,對吧?因為妳喚起了我們很多人喜歡的東西。我們都希望每個人都贏,我們都希望彼此之間有更多的連結。所以也許參與這個立場的最好方法是對比。有沒有一個強烈的反對者不同意多元宇宙原則的好例子,然後我們可以比較和對照?
是的。好吧。公道。那麼讓我們談談「多元宇宙」(Plurality),因為這似乎是妳關於 AI 未來所有前瞻性提案中的一個巨大的統一概念,妳已經提出了很多我認為屬於這一部分的觀點,但也許退一步,給我完整的 Plurality 推銷詞。
是啊,販賣希望者。
所以我認為這個節目… 我積極地認為自己是一個販賣恐懼者(fearmonger),因為,妳知道,就像他們說的,「如果他們真的要抓你,那你就不是偏執狂」,對吧?所以在這種情況下,我是說,如果你們真的都要被… 對,那是我的觀點,我們遠低於該參數,但…
所以我實際上看到… 老實說,我們遠低於恐慌的最佳水準。一些恐慌是好的,或者一些,妳知道,不管妳叫它什麼,一些關注,一些發燒,對吧?升高溫度。
就像,從我的角度來看,旋轉的剃刀葉片就要來了。它們太近了,而大家甚至還沒有張開嘴尖叫。
好的。我尊重妳的觀點。我的觀點是每個人在末日論的光譜上仍然太低了。
好的,如果我理解正確的話,關於人們有多悲觀這個單一參數,有一個最佳水準。如果你超過那個水準,就會適得其反。但妳認為我們現在是低於還是高於那個水準?
好的。對我來說,這似乎有點太過聰明了,因為妳也可以爭辯說,如果一群人關注 AI 末日,那會讓人們奮力阻止它,然後降低機率,對吧?很難說是正回饋還是負回饋。我會聲稱這完全是負回饋。
好的,好的。我們絕對會再多談這個。我想問妳,妳曾將「AI 末日論」(AI doomerism)稱為一種「超信念」(hyperstition),對吧?解釋一下。
是啊,好吧。我明白妳的意思。我同意,有正面的副作用。一個正面的副作用是,即使假設末日風險很低,能夠盡可能控制妳正在建立的 AI 仍然是件好事,對吧?
是啊,妳對該聲明的價值或妳希望看到誰簽署有什麼想法嗎?