Vitalik Buterin vs Guillaume Verdon:AI 加速主義的兩條路線,誰會贏?

Vitalik Buterin vs Guillaume Verdon:AI 加速主義的兩條路線,誰會贏?

發布於
·18 分鐘閱讀
AICrypto產業觀察Web3投資創業商業VCDeFiAGI

TL;DR

  • EAC(Effective Accelerationism,有效加速主義)認為加速是熱力學定律,像重力一樣不可逆,減速只會降低你的生存機率
  • DEAC(Defensive/Decentralized Acceleration,防禦性加速主義)認同加速的價值,但主張需要主動塑造加速的方向,避免權力集中和不可逆的災難
  • 兩人在開源、去中心化 AI 權力、反對集中控制這些議題上高度一致
  • 最大分歧:Vitalik 認為 AGI 晚四年到來比早四年安全,Guillaume 認為延遲帶來的機會成本是指數級的
  • Crypto 可能是 AI 與人類之間建立信任的經濟耦合層,這點雙方都認同
  • Guillaume 的公司 Extropic 正在做熱力學計算晶片,號稱能比 GPU 能效高一萬倍,目標是讓個人擁有自己的 AI 算力

Podcast 與來賓背景

這集在 2026 年 4 月 9 日播出的 a16z Podcast,原始錄製於 a16z crypto 的活動現場,由 a16z crypto 的 CTO Eddy Lazzarin 主持。a16z 就是 Andreessen Horowitz,矽谷最大的創投之一,他們的 crypto 部門專門投 Web3 和區塊鏈相關的公司。

這集的兩位主角:Vitalik Buterin,Ethereum 的創辦人,應該不用多介紹了,他在 2023 年底提出了 d/acc(防禦性/去中心化加速主義)的哲學框架,算是對當時矽谷 e/acc 風潮的一個回應。另一位是 Guillaume Verdon,Extropic 的創辦人兼 CEO,他在網路上更廣為人知的身分是 Beff Jezos,e/acc 運動的發起人。Extropic 是一家做熱力學計算硬體的新創,用超導體晶片跑機率性 AI 運算,號稱能比傳統 GPU 能效高出好幾個數量級。另外還有 Shaw Walters,Eliza Labs 的創辦人,做開源 AI Agent 框架的,在場負責串場和提問。

這大概是 Vitalik 和 Guillaume 第一次正式面對面辯論,光看陣容就知道會很精彩。

加速是重力,你反對也沒用?

Guillaume 的開場非常有氣勢。他把整個 EAC 的哲學根基建立在熱力學第二定律上:系統會自我適應、複雜化,以便從環境中獲取更多能量並散發熱能。這是生命的本質,也是文明進步的驅動力。

用他的原話來說:「這就像重力。你可以跟熱力學吵架,它不在乎,它繼續走。」

他的論證鏈條大概是這樣的:宇宙中每一個 bit 的資訊都在為自己的存在而戰,能幫助系統生存和成長的 bit 會被保留下來,這是一種類達爾文的選擇效應。所以,加速是物理定律的必然結果,採取加速文化的個體、組織、國家,生存機率更高。反過來,decel(減速)心態其實是在加速你自己的滅亡。

老實說,這套從第一性原理推導出來的論述確實很有說服力。如果你接受他的前提,結論幾乎是邏輯自洽的。EAC 的終極度量標準是 Kardashev Scale(卡爾達肖夫指數),簡單說就是一個文明能使用多少能量。往上爬就是進步,停下來就是退化。

但 Vitalik 顯然不買這套「加速就對了」的帳。

Vitalik 的熱力學反擊

有趣的是,Vitalik 也從熱力學切入,但走了一條完全不同的路。他花了大概三分鐘用兩罐氣體的比喻解釋了熵增原理:冷的氣體原子速度用兩位數就能表示,熱的用六位數,混合之後變成 5.7 位數。你不知道的資訊量從 800 萬位數變成 1,140 萬位數,這就是熵增。

然後他丟出關鍵的一擊:熵增代表我們對世界的無知在增加,但我們保留下來的那些 bit 對我們更有意義。價值來自於我們人類自己,不是來自某個低複雜度的優化目標。

如果你拿任何一個 LLM,隨機把其中一個 weight 設成正 90 億,會怎樣?最好的情況是跟那個 weight 無關的部分繼續運作,最壞的情況是整個模型報廢。

他用這個比喻來說明:人類社會就像一個複雜的神經網路,如果你盲目加速某一個面向,可能會把整個系統搞壞。所以問題不是要不要加速,而是「怎麼有意識地加速」。

這個 LLM weight 的比喻真的很精準,我覺得這是整場辯論最漂亮的一招。

他們同意的比他們不同意的多

聽完整場辯論,最讓我意外的是:這兩個人的共識其實比分歧大得多。

開源和去中心化 AI 權力:兩人都認為 AI 權力必須分散,不能集中在少數公司或政府手上。Guillaume 拿美國憲法第二修正案類比:就像政府不應該壟斷暴力,AI 也不應該被壟斷。每個人都應該能擁有自己的模型、自己的硬體。Vitalik 則從隱私和監控的角度切入,擔心 AI 會讓監控變得無孔不入,讓獨裁政權更難被推翻。

這讓我想到之前在 Crypto 不是為人類設計的,是為 AI Agent 設計的 那篇寫過的觀點:Crypto 的去中心化特性天然適合 AI Agent 的需求。這場辯論某種程度上驗證了這個判斷。

反對以安全為名的集中控制:Guillaume 提到這週(錄製時)發生的 Anthropic 事件,Dario Amodei 因為拒絕讓 AI 用於全自動武器和大規模監控美國人而被施壓。他的評論很直白:「我們警告了好幾年的事情,現在真的發生了。」Vitalik 也認同這是 unipolar risk(單極風險)的具體案例。

兩人都認為 AI 能力的進步本身就能帶來安全性的提升。RLHF、機械可解釋性(mechanistic interpretability)、persona controls 這些對齊技術,都是能力進步的副產品。

真正的分歧:要不要踩剎車?

好,接下來是辣的部分。

Vitalik 主張:如果 AGI 是四年後到來,八年會比四年安全。他認為那多出來的四年可以用來改善 alignment 的理解、提升全球的 cybersecurity 和 biosecurity、確保不會有單一實體鎖定超過 51% 的權力。他甚至提出了一個具體但爭議性極大的建議:限制硬體供應。

他的理由是:硬體本來就已經極度集中了,台灣生產了超過 70% 的晶片,全世界只有四個國家有能力生產。而且中國在 AI 上的策略是「快速跟隨者」加上「廣泛部署」,就算美國延遲四年,中國也不見得能在這四年內反超。

Guillaume 對這個提議完全不同意。他的反駁有三層:

第一,延遲一個指數級增長的東西,機會成本也是指數級的。每一年的延遲都意味著本來可以被拯救的生命、可以被解決的問題被推遲了。

第二,實務上不可執行。你要怎麼阻止其他國家繼續生產晶片?除非你建立一個有足夠強制力的世界政府,但那本身就是一個巨大的集權風險。Vitalik 拿核武器檢查制度類比,Guillaume 反駁說核武器不是雙用途技術,沒人有動力去擴散核武,但 AI 有巨大的經濟正面效益,你沒辦法用同樣的框架來管。

第三,他自私地補了一刀:「你如果限制 GPU 的增長,我很樂意用 Extropic 的替代方案來吃掉那個市場。」這句話讓全場笑了,但他是認真的。Extropic 的熱力學計算晶片號稱能比 GPU 能效高一萬倍,如果真的做到了,限制 GPU 只會加速替代方案的崛起。

我個人覺得 Vitalik 的「四年 vs 八年」框架在邏輯上是成立的,但 Guillaume 關於不可執行性的反駁更有說服力。你沒辦法讓全世界的人都同意放慢腳步,尤其是當放慢腳步的代價是讓競爭對手超越你的時候。這跟囚徒困境(Prisoner's Dilemma)的結構一模一樣。

Crypto 是 AI 與人類之間的信任協議

這場辯論最讓我覺得有啟發性的部分,是關於 Crypto 在 AI 時代的定位。

Guillaume 的觀點:當 AI 變成去中心化的自主實體,跑在分散式的伺服器上,你怎麼跟它做生意?美元是靠暴力背書的,但 AI 不在你的司法管轄範圍內。Crypto 提供了一種不需要暴力背書就能建立經濟信任的機制。

Vitalik 則從財產權的角度切入:如果人類勞動的經濟價值歸零(這在歷史上從未發生過,但理論上可能),那人類靠什麼維持跟 AI 的議價能力?答案是財產權。而如果 Crypto 能成為人類和 AI 共用的金融系統,那人類在這個系統中的資產就是他們的 leverage。

如果 Crypto 能成為那個合併的金融系統,而不是人類和 AI 用兩套完全分開的系統,那就太好了。

這個觀點我覺得非常重要。很多人還在用「Crypto 的 UX 太爛,一般人不會用」的框架來評估 Crypto 的未來。但如果 Crypto 的主要用戶根本不是人類,而是 AI Agent 呢?那 UX 就不是問題了,因為 AI 讀 smart contract 比讀法律合約快一百萬倍。

十年、百年、十億年

辯論最後的部分是展望未來,這段比較像是各自的 vision statement。

Guillaume 的十年願景:每個人都有個人化的 AI 算力作為認知的延伸,你控制它、擁有它。這不一定需要 Neuralink,一個穿戴裝置加上本地 AI 就夠了。大部分公司會變成 AI 為主、少量人類的混合體。他最擔心的下行風險是 AI 權力的過度集中導致「memetic mode collapse」,就是你被允許思考什麼、什麼文化是合法的,全被壓縮到一個極窄的範圍。

Vitalik 的十年願景比較謹慎:先避免第三次世界大戰,大幅提升 cybersecurity、biosecurity、infosecurity。他擔心的是一種「矽谷式的不平衡加速」,同一條街上,一棟大樓在造 Silicon God,幾棟之外就是帳篷和毒品交易商。

百年尺度上,兩人倒是出奇地一致:人類和 AI 會軟合併(soft merge),生物學會有重大突破,火星可能被改造,大部分 AI 算力會在太陽周圍的 Dyson Swarm 裡。

十億年?Guillaume 說得很嗨:生物合成混合體,多星系殖民,沿著 Kardashev Scale 一路往上爬。

我聽到這裡忍不住想:我連下個月的 roadmap 都排不清楚,這些人在規劃十億年後的事。但說真的,正是因為有人在想這種尺度的問題,短期的技術決策才有方向感。

我的觀察

聽完這場辯論,我有幾個感想。

第一,EAC 和 DEAC 的差異其實沒有 Twitter 上看起來那麼大。兩邊都支持加速,都反對集中控制,都認為開源很重要。真正的分歧在於「要不要以及如何主動介入加速的方向」。Guillaume 認為系統會自我調節,Vitalik 認為人類需要主動塑造。

第二,這場辯論最大的盲點是:它幾乎完全是從矽谷的視角出發的。當 Vitalik 說「限制硬體」的時候,他假設的是一個美國和少數盟國能有效協調的世界。但現實的地緣政治比這複雜得多。

第三,Crypto 作為 AI 與人類之間的信任協議這個框架,我覺得是最值得深想的部分。之前寫過很多關於 AI Agent 和 Crypto 交叉 的文章,但這次從「財產權」和「共用金融系統」的角度切入,讓我對這個方向又多了一層理解。

第四,Guillaume 提到的 Extropic 熱力學計算晶片,如果真的能實現他說的效能,那會是比 GPU 更根本性的典範轉移。但他自己也承認現在看起來像是「狼來了的男孩」。我會持續關注,但在看到實際產品跑出 benchmark 之前,保持適度懷疑。

最後一個感想比較個人:這兩個人其實都在做同一件事,就是試圖用一套第一性原理的框架來回答「人類應該怎麼面對 AI」這個問題。Guillaume 的答案是「順著物理定律走,加速就是最優解」,Vitalik 的答案是「物理定律告訴你加速的方向,但你還是需要主動選擇加速什麼」。

我個人偏向 Vitalik 的立場多一些。不是因為我不同意加速,而是因為我不相信「系統會自我調節」這個前提在所有情況下都成立。歷史上太多「系統自我調節」最後調節出世界大戰的案例了。

但 Guillaume 有一點說得很對:散播悲觀主義和恐懼,本身就是一種負面的 self-fulfilling prophecy。如果所有人都覺得未來很糟,未來大概率就會很糟。

搞懂兩邊的論述,自己做判斷。這大概是面對 AI 加速最務實的態度了。

如果你對 AI 和 Crypto 交叉的產業觀察有興趣,我的部落格 wilsonhuang.xyz 會持續更新這類內容,歡迎訂閱追蹤。

推薦閱讀

喜歡這篇文章嗎?

訂閱電子報,每週收到精選技術文章與產業洞察,直送你的信箱。

💌 隨時可以取消訂閱,不會收到垃圾郵件