當 AI Agent 學會「說話」:Cisco 的 Internet of Cognition 要解決什麼問題

當 AI Agent 學會「說話」:Cisco 的 Internet of Cognition 要解決什麼問題

發布於
·
更新於
·8 分鐘閱讀
AIPodcast產業觀察創業Web3SaaS商業產品投資Crypto

TL;DR

  • 目前 AI 產業幾乎只在「垂直擴展」(更大的模型、更多參數),Cisco 提出「水平擴展智慧」的路線,讓不同 Agent 能協作、共享意圖、建立信任
  • Cisco 內部已部署 CAPE 系統(20 個 Agent 組成的 multi-agent system),自動化了 40% 的 SRE 任務,回應時間從數小時降到即時
  • 開源專案 AGNTCY(隸屬 Linux Foundation)提供 Agent 之間的發現、身份驗證、通訊和可觀測性基礎設施
  • 傳統的 RBAC 權限控制不適用於 Agent,Cisco 提出 TBAC(Tool, Task, Transaction-Based Access Control),按任務動態授權
  • 在 OSI 七層模型之上新增 Layer 8(語法層)和 Layer 9(語意層),讓 Agent 之間的溝通從「傳資料」升級到「傳認知狀態」

節目與來賓背景

The Cognitive Revolution 是由 Nathan Labenz 主持的 AI 深度訪談節目,專門找 AI 領域的 builder、研究者和產業玩家來聊最前線的技術趨勢。這集的來賓是 Vijoy Pandey,Cisco OutShift 的 SVP 兼 GM。OutShift 是 Cisco 內部的技術孵化引擎,專攻 AI 基礎設施、量子網路等新興技術。Pandey 本身是 UC Davis 電腦科學博士,手上有超過 80 項雲端運算和分散式系統的專利,同時也負責 Cisco Research 和開源計畫。簡單說,這是一個在分散式系統領域打滾超過十年的人,來談 AI Agent 的分散式協作。

所有人都在 Scale Up,誰在想 Scale Out?

現在整個 AI 產業的主旋律就是「把模型做大」。更多參數、更多資料、更多算力,垂直往上堆。這條路當然會繼續走,但 Pandey 點出一個很少人認真想過的問題:我們完全沒有碰水平擴展這條軸線。

什麼意思?現在的 AI 系統就算再強,本質上還是一個大腦在獨自運作。Claude 可以 spawn sub-agent,Gemini 2.5 可以自己分派子任務,但這些都還是「同一個大腦的分身」。真正的水平擴展是讓不同來源、不同專長的 Agent 能像人類團隊一樣協作。

Pandey 用人類智慧演化來做比喻:人類聰明了幾十萬年,會用工具、會畫圖、會用符號溝通,但真正的 step function 是大約七萬年前語言被發明的那一刻。有了語言,你才能對齊意圖、分工合作、解決從沒遇過的新問題。

AI Agent 現在就卡在「還沒發明語言」的階段。

Cisco 內部已經在吃自己的狗糧

這不只是理論。Cisco 內部的 CAPE 系統(Community AI Platform Engineer)是一個由大約 20 個 Agent 組成的 multi-agent system,專門處理 SRE(Site Reliability Engineering)的工作流。它接了五個以上的使用者介面,執行超過 100 個 tool call,橫跨雲端供應商、地端環境、可觀測性、編排、網路和安全。

成果:團隊負載減少 30%,40% 的任務完全自動化,回應時間從數小時變成即時。這個專案後來也開源了,Adobe、AWS、Nike 等企業都有參與。

Agent 之間怎麼「認識彼此」?

Pandey 用一個醫療場景來解釋。想像一個醫院的排程 Agent 需要跟保險公司的 Agent、診斷 Agent、藥局 Agent 協作。這四個 Agent 來自不同組織,今天根本無法直接溝通。

AGNTCY(A-G-N-T-C-Y,已捐給 Linux Foundation)就是要解決這個基礎建設問題。它有四根柱子:

  1. Discovery:Agent 目錄,類似 DNS 但可以按能力和聲譽搜尋,底層用 DHT(Distributed Hash Table)實現去中心化
  2. Identity & Access:傳統 RBAC 不夠用,因為 Agent 會動態切換角色。Cisco 提出 TBAC,按 tool、task、transaction 動態授權,用完就降回基本權限
  3. Communication:整合 MCP(Model Context Protocol,Anthropic 的 Agent 對工具協定)和 A2A(Google 的 Agent 對 Agent 協定)
  4. Observability:跟 Microsoft 合作在 OpenTelemetry 裡加入 Agent 層級的觀測擴充

但 Pandey 很坦白地說:目前這些只解決了「讓 Agent 能互相講話」的問題。真正的意圖對齊、共享記憶、協同推理,今天還是靠人類在中間當膠水。

OSI 模型要加兩層

這是整集最有野心的部分。現有的 OSI 七層模型是為「確定性端點之間交換資料」設計的。但 AI Agent 是非確定性的認知端點,交換的是認知狀態。

Pandey 提出在上面加兩層:

  • Layer 8(語法層):解決不同框架之間的語法差異。你的 Agent 跑在 Vertex,我的跑在 Bedrock,格式不同,這層負責翻譯
  • Layer 9(語意層):深入通訊內容,提取真正的意圖。不只是傳 NLP 文字,而是在外面包一層 header,標記「我正在發現資訊」「我正在協商」「我要執行動作」

為什麼需要這層?因為 TBAC 要運作,你得先知道 Agent 到底想做什麼。而要知道它想做什麼,就得理解它的語意通訊。所以是 LLM all the way down。

我的觀察

老實說,聽完這集我最大的感受是:這個方向對,但時間軸很不確定。

企業端的需求是真實的。任何稍具規模的公司,環境裡一定會有來自 ServiceNow、Salesforce、Microsoft、Anthropic、Google 等不同廠商的 Agent。它們必須協作,這不是 nice-to-have。

但挑戰也很明顯。Pandey 自己也承認 guardrail 和 evaluation stack 都還沒完全解決。當你讓多個非確定性系統以機器速度互相溝通,還可能用 latent space 直接傳遞認知狀態(繞過人類可讀的自然語言),失控的風險是存在的。

不過換個角度想,這跟早期網路的發展邏輯很像。先有基礎協定,再慢慢長出治理層。TCP/IP 剛出來的時候也沒有 HTTPS,但沒有人因此說「那我們別連網了」。

去中心化的 Agent 目錄和身份系統這件事特別值得關注。OpenAI 在做的是 curated app store 模式(控制目錄、控制評價、控制廣告),Cisco 推的是開放、permissionless 的模式。這兩條路線的競爭,會直接決定未來 Agent 生態長什麼樣子。

如果你對 multi-agent system 的基礎設施層感興趣,這集值得完整聽一遍。更多這類產業觀察,我都會持續寫在 wilsonhuang.xyz,有興趣的話可以訂閱追蹤。

推薦閱讀

喜歡這篇文章嗎?

訂閱電子報,每週收到精選技術文章與產業洞察,直送你的信箱。

💌 隨時可以取消訂閱,不會收到垃圾郵件