打造超級系統:從手動貼文到每天早上十篇草稿審閱發出,我怎麼把部落格變成一條 Pipeline

打造超級系統:從手動貼文到每天早上十篇草稿審閱發出,我怎麼把部落格變成一條 Pipeline

發布於
·
更新於
·31 分鐘閱讀
AI自動化部落格ClaudePipeline內容創作SEO社群行銷工程產品

TL;DR

  • 一開始用 Claude Chat 手動生成文章,每篇都要自己複製貼上,做久了累到懷疑人生
  • 逐步把流程拆解成 Skill,讓 SEO 標籤、圖片提示詞、slug 全部自動產出
  • 最後用 Claude Code 寫了一整套 Go Pipeline,每天早上九點自動抓 Podcast、生成逐字稿、寫文章、上傳草稿
  • 後續又加了 Facebook、Threads、X、LinkedIn 多平台自動分發,每個平台的格式限制都不一樣,踩了不少坑

之前寫過一篇「我如何用 AI 打造自己的寫作系統,讓它寫出來的東西不像 AI 像自己」,講的是怎麼把自己的寫作風格整理成 style guide,讓 AI 產出的文章讀起來像我自己寫的。那篇算是起點,這篇是後續:當寫作風格搞定之後,我怎麼把整個內容生產流程繼續自動化,但還有太多優化空間。

上週有人問我:「你最近怎麼開始瘋狂寫文章,是不是整天都在寫?」

我笑了一下。老實說,現在我每天花在「寫文章」上的時間外界沒有想像那麼多,但走到這一步,中間的過程比想像中曲折,因為時間都花在優化系統。

手動時期:Claude Chat + 複製貼上地獄

最早很單純。過年幾天自架了一個個人電子報(其實就是個網站,只是部落格的樣子),把自己的寫作風格整理成一份 style guide,丟進 Claude Chat 的專案裡。每次想寫文章,就抓素材或是用講的、用寫的灌進去,讓 Claude 用「我的語氣」寫出來。

效果其實不錯,但問題是文章寫完之後還有一堆事:想標題、取 slug(就是網址列上那串英文)、寫 SEO description、挑分類標籤、選關鍵字、生封面圖的提示詞。每一步都要在 Claude Chat 和部落格後台之間來回切換。

一篇文章從素材到發佈,光是這些雜事就要花超過十分鐘,幾天寫一篇還撐得住。但當我想要穩定日更又不想花太多時間,這個流程就開始讓人煩躁了。

Skill 半自動化:先處理最痛的環節

我做的第一個改進,是在 Claude Chat 裡建了幾個 Skill。

第一個 Skill 負責 metadata 生成:丟一篇完成的文章進去,自動吐出標題、slug、SEO description、10 個分類標籤和 10-12 個關鍵字。以前這些東西要想五到十分鐘,現在幾秒搞定。

第二個 Skill 是圖片提示詞。我的部落格每篇文章都配一張 Doré Noir(我自己取的觸發詞,有興趣可以去查 Gustave Doré 這位畫風我喜歡的法國畫家)風格的封面圖,一種結合古典版畫和暗色調的視覺風格,蠻有辨識度的。這個 Skill 會根據文章主題自動生成對應的圖片 prompt,讓整個系列維持統一的視覺調性。

有了這兩個 Skill,流程變成:Claude 寫完文章 → 丟給 Skill 跑 metadata → 拿到結果 → 貼到後台 → 發佈。

省了不少時間。但「手動貼」這件事還是在。

素材來源:35 個 Podcast,和一個很快就撞到的天花板

在想辦法自動化之前,我還有先處理的是「素材從哪裡來」這個問題,有穩定的取材來源,才能不停輸出,就像小時候看海賊王連載,每次看到尾田大大下週取材所以停刊就不爽,現在比較知道為什麼要取材了。

我自己平常就在聽 Podcast,科技、創投、金融、AI、Crypto 各領域加起來追蹤了不少。既然每集都在聽,那把它們變成文章不是很合理嗎?吸收的也比較快,平常那麼忙不太可能花幾小時在那邊慢慢聽,於是我開始整理我的 Podcast 和 YouTube 訂閱清單,最後先收集了 35 個來源。

這份清單涵蓋的範圍還蠻廣的。科技創投那邊有 All-In Podcast、Acquired、20VC、a16z Podcast、Lenny's Podcast 這些;金融投資有 Odd Lots、Bloomberg Surveillance、We Study Billionaires;Crypto 有 Bankless、The Breakdown;AI 領域有 Latent Space、Cognitive Revolution。YouTube 那邊則是 Y Combinator、Stanford GSB、Fireship、Diary of a CEO 這類頻道。

我甚至還額外建了一組 Poker 專用的來源清單,有 Doug Polk、Jonathan Little、Thinking Poker 這些,想說找些有趣的且自己也有興趣的結合題材,也就催生出了之前那篇 AI 打 Poker:「十個 LLM 打德州撲克,結果比你想的還荒謬」。

來源有了,下一步是把音訊轉成逐字稿。

逐字稿:從 Groq 免費 API 到本機 Whisper

一開始我用 Groq 提供的免費 Whisper API 來做語音轉文字。Groq 的速度很快,幾分鐘就能轉完一集,體驗很好。

但問題很快就出現了。

Podcast 的音檔動輒一到三個小時,檔案大、處理時間長。Groq 的免費方案有用量上限:每小時只能轉 7,200 秒(2 小時)的音訊,每日上限是 28,800 秒(8 小時)。聽起來好像很多?一集 Podcast 動輒一到三小時,轉個兩三集就把一小時的額度吃光了,得等下一個小時才能繼續。如果當天有十集長集要轉,八小時的每日上限也不太夠用。然後轉一轉卡住程式說在等待重試,

然後等半天其實又網路卡住,測試半天其實沒卡都是回傳 rate limit,你也不知道是 Groq 發現你狂用故意限制你還是怎樣,總之要等的話就會一堆麻煩小問題,解的蠻煩的。

繞了一圈之後,我決定改用本機轉錄。在 MacBook Pro 上裝了 whisper-cpp,跑 Whisper Large V3 Turbo 模型。速度確實比 Groq 慢不少,一集一到三小時的音訊大概要花十幾、二十分鐘才能轉完。

但我想了一下,這件事其實不需要我盯著。

Pipeline 設定成每天凌晨自動跑,我睡覺的時候它在轉,早上起來就轉好了。十集大概花幾個小時,反正我也用不到那台電腦。慢一點就慢一點,穩定能跑完比什麼都重要。

這個決定後來證明是對的。Groq 的免費額度隨時可能改,依賴外部 API 的免費方案本來就不是長久之計。本機跑雖然慢,但不會有額度問題,也不用擔心 API 突然改規則或漲價。

四百多篇文章,和一個幸福的煩惱

逐字稿的流程跑通之後,我做了一件現在回想起來有點瘋的事,就跟 Tony Stark 當初做出馬克二號的時候說: "Sometimes you gotta run before you can walk."。

我沒有慢慢來,而是一口氣把 35 個來源過去幾週的集數全部抓下來,批次跑逐字稿,然後全部丟給 Claude 生成文章。

結果資料夾裡一次冒出了四百多篇 Markdown 文章。

pasted-image

四百多篇。

老實說我自己根本看不完。打開後台滿滿都是文章,光是用標題掃一遍就要花不少時間,更不用說每篇都仔細讀過。

但有趣的是,看這些文章我其實看得很開心。因為素材來源的品質本身就很好,這些都是我精挑細選過的 Podcast 和 YouTube 頻道,主持人和來賓的水準都有一定程度,所以 AI 根據逐字稿寫出來的文章,內容深度通常不會太差。再加上 style guide 的約束,寫出來的風格和語氣我大部分也蠻滿意的。翻這些文章的感覺,有點像在逛一個幫你整理好的知識庫。

問題出在「發佈」這個動作。

每次我從四百多篇裡挑出一篇想發的,接下來的流程就是噩夢:手動複製標題、手動跑 Skill 生成 SEO tags 和 keywords、手動複製一個 slug、手動生成圖片提示詞、再把這些東西一個一個貼到部落格後台的對應欄位裡。

每一步都是複製貼上,每一步都重複,每一篇都要再來一次。文章本身已經寫好了,結果最花時間的反而是這些瑣碎的 metadata 處理。

做了幾天之後我就想:等等,部落格是我自己寫的,後台也是我自己寫的,為什麼我要手動做這些事?

既然整個系統都在我的掌控之內,我完全可以讓它自動化。用 Go 寫一個程式,在生成文章的同時把標題、slug、SEO tags、keywords、圖片提示詞全部一起產出,然後直接透過 API 上傳到部落格後台的資料庫,連貼上的動作都省了。

這樣我打開後台的時候,看到的就不是一堆裸文章需要我手動填欄位,而是已經填好所有 metadata 的完整草稿,我只要決定「這篇要不要發」就好。

pasted-image

這就是推動我做 Pipeline 全自動化的真正原因。

Pipeline 全自動化:我不想再當人肉 API

把前面講的所有東西串在一起,就變成了現在這套 Pipeline。

用 Go 寫了一個程式,每天早上九點由 cron 自動觸發。整個流程分四步:

  1. Check feeds:去抓 35 個 RSS feed 和 YouTube 頻道,看有沒有新的集數
  2. Download:把新集數的音檔下載下來
  3. Transcribe:用本機的 Whisper Large V3 Turbo 跑逐字稿
  4. Generate:把逐字稿丟給 Claude CLI,用 Opus 模型搭配我的 style guide 生成文章

文章生成的同時,SEO metadata(標題、slug、description、tags、keywords)和 Doré Noir 風格的封面圖提示詞也一併產出。最後整包東西透過 Supabase REST API 直接上傳到部落格後台,存成草稿。

「自己寫」的文章看多了,我發現幾個我也會想知道的事情就是,每篇文章的提到的人物究竟是誰?還有訪談主持人背景是什麼,就算知道我也想了解他最近做些什麼?所以我就在 skill 裡面多補了一件事,要 Claude 在生成文章時會用 WebSearch 去查來賓的背景資料以及近況,同時確保寫出來的介紹是正確的。

但它偶爾會在文章前面多加一段 thinking preamble,像是 "Now I have all the background info I need." 之類的殘留。還要記得讓 Pipeline 自動偵測並清除這些東西,確保存進資料庫的是乾淨的文章。

另外,如果 Claude 判斷某集逐字稿的內容品質不足(比如只是預告片或廣告),它會回傳 SKIP_LOW_QUALITY,Pipeline 收到這個訊號就不會存檔,避免產出一堆沒營養的東西。

現在我每天早上的流程:打開後台,十篇草稿已經排好,快速掃一遍,挑幾篇按發佈。從半小時縮到五分鐘。

多平台分發:每個平台都有自己的脾氣

文章搞定之後,我又開始處理社群分發。

一篇文章要發到 Facebook、X、Threads、LinkedIn、Telegram,每個平台的格式要求都不一樣。手動做的話又是一個地獄循環,所以我也把這塊自動化了。Pipeline 在生成文章的同時,會自動產出五個平台的版本。

pasted-image

這中間踩了不少坑,講幾個值得小提一下的:

  1. LinkedIn 有 3,000 字元的硬限制。我的文章轉純文字後經常爆掉,所以回頭把文章長度控制在 1,500 到 2,000 中文字,確保轉換後不會被截斷,不然都會發佈失敗。
  2. Threads 要拆成串文,每一串不能超過 500 字元。切割邏輯比想像中麻煩,要在句號的位置切,不能切到句子一半。
  3. Facebook 的演算法會懲罰帶連結的貼文,所以 URL 裡的 . 前面要加一個空格,讓 Facebook 不會自動生成連結預覽,這也是我在 fb-post-formatter.md 裡面有加上的條件之一。
  4. 臉書的個人帳號從 2018 劍橋事件後不能用 publish_actions 串接,只有粉專才可以用 API 發文,但我也懶得創一個粉專,之後有需要再說。

這些平台特性,不踩到不會知道。而且每個平台的規則還會改,所以這套系統其實一直在微調。

每個環節都還能再優化

這套系統跑起來之後,我反而看到了更多可以改進的地方。每一個環節都還有空間。

素材來源與內容種類

目前 35 個 Podcast 和 YouTube 來源其實只是起點,還有很多值得追蹤的頻道和節目可以加進來。素材的廣度直接決定文章主題的多樣性,這塊我會持續擴充。

但更大的拓展空間在於「內容種類」。

我目前的內容大部分是從知名 Podcast 和 YouTube 的深度訪談去做轉譯,產出的文章偏分析型、長篇幅、有深度。這類內容我自己很喜歡,吸引到的讀者和訂閱者自然也是偏好這種風格的。但這只是內容光譜的其中一端。

另一端是即時消息型的內容。你看現在很多 KOL 在做的事情:某家公司發佈了新功能、Elon Musk 又在 X 上講了什麼話、某個地區的地緣政治出了新狀況。這種靠即時時事吸引流量的內容有一個很強的特性:它能讓讀者養成追蹤習慣,因為他們知道來這裡就能拿到最新消息。

這類即時內容的素材來源跟 Podcast 很不一樣。大部分是國外的 X(Twitter),那些 KOL 和新聞帳號發的推文就是最即時的素材。取得方式也不複雜,可以直接透過 API 抓取,或是用一些工具即時擷取這些內容。抓到之後丟進系統的 Pipeline,跑一樣的流程:轉成素材、套用寫作風格、生成文章、自動分發。

所以光是「內容種類」這件事就還有很大的空間可以做。深度分析和即時消息是兩種完全不同的內容策略,兩者可以並存,服務不同需求的讀者。

而這就帶到下一個問題:當內容種類變多了,讀者不見得每種都想看。所以我在規劃的功能是讓讀者訂閱特定類型的文章。現在部落格的讀者收到的是全部主題,但不是每個人都對 Crypto 或 Poker 有興趣,也不是每個人都想收到即時快訊。未來我想讓讀者自己挑選想看的類別,當然選題和品質把關還是由我來主導,但分發可以更精準,不用讓人收到一堆他沒興趣的東西。

系統產出的內容越多樣化,這個分眾訂閱的功能就越有價值。兩件事是互相拉動的。

寫作風格

這是目前最需要迭代的部分。

現在的流程是一個 AI Agent 寫文章,然後我自己 review。問題是,同一個 Agent 寫久了,某些句型和結構會開始重複。我偶爾會翻幾篇文章,發現開場方式或轉折用語撞在一起,雖然有 style guide 在約束,但 AI 的慣性還是會滲出來。

我在想的優化方向是加一個 Reviewer 的角色,類似總編輯。讓第一個 Agent 先寫出初稿,再由第二個 Agent 用批評的角度去 review,指出哪些地方太 AI 味、哪些段落結構重複、哪些句型該換掉,修正之後再產出最終版。等於在 Pipeline 裡多加一道編輯關卡,讓機器自己先吵一輪,到我手上的時候品質應該會再提升一個檔次。

分發平台

目前對接了五個平台:Facebook、X、Threads、LinkedIn、Telegram。但其實還有很多管道可以拓展。偶爾會有媒體邀請擔任專欄作家,或是其他社交平台想要合作。這些平台的開發文件通常都很完整,技術上要串接基本上都做得到,主要是時間分配的問題。

SEO 與 AEO

因為整個部落格是我自己從頭寫的,客製化程度很高。我在後端自己開發了類似 Google Analytics 的功能,可以追蹤每篇文章的表現。另外也做了針對訂閱者的分發工具,之後可以根據不同讀者的閱讀偏好去做主題推薦。

後續在搜尋引擎優化這塊也有很大的空間。除了傳統的 SEO,現在越來越多人透過 AI Agent 來搜尋資訊,所以 AEO(Answer Engine Optimization,讓 AI 搜尋引擎更容易找到你的內容)也是我在研究的方向。部落格是自己寫的好處就在這裡,想改什麼就改什麼,不用被現成平台的限制綁住。

超級系統:當這套系統不只是給自己用

做到這裡,我開始想一個更大的問題:這套東西如果抽象化,是不是可以用在任何人身上?

我目前把這個計畫稱為超級系統。概念很簡單:我在自己身上驗證過的這整套流程,從素材搜集、風格化寫作、SEO 處理、多平台分發,其實可以套用到各行各業的行銷和品牌經營上。

素材搜集和文章生產已經被我自己跑通

我的 Pipeline 每天從 35 個來源抓素材、生成十篇文章,這個流程是穩定跑了幾週。換個產業,邏輯完全一樣。你經營家具品牌?訂閱室內設計和生活風格的 Podcast、YouTube 頻道,系統一樣能抓素材、生成文章。美妝、遊戲、餐飲、科技,甚至酒吧和餐酒館,只要那個領域有值得追蹤的內容來源,系統就能處理。

關鍵在於素材來源的品質。垃圾進、垃圾出這個道理在這裡完全適用。但只要你花心思挑選好的來源,產出的文章就會有一定的深度和可讀性。

寫作風格是可以模仿的

我還不敢講複製,但至少可以說模仿且持續迭代。

我的 style guide 花了不少時間整理,從語氣、用字、結構、禁忌清單到自檢 checklist,整份文件大概四百行。但這件事我做得出來,別人也做得出來。

想像一下:你找一個厲害的編輯,讓他去觀察某個名作家或 KOL 的寫作風格,整理出一份 style guide,然後丟進系統。AI 就能用那個人的語氣寫文章。不用那個人自己動手,也不用那個人花時間,系統幫他寫,他只需要最後看一眼確認就好。

更進階一點,你同時可以有好幾個風格不同的「虛擬編輯」。一個寫得像產業分析師,專門出深度報告;一個寫得像生活部落客,語氣輕鬆親切;一個寫得像新聞記者,客觀中立。同一個品牌,不同的內容調性,針對不同的受眾群體。這些「虛擬編輯」可以同時運作,各自產出不同風格的內容。

運作流程

把整個超級系統的運作方式拆開來看:

  1. 大量生成文章。系統根據你設定的素材來源和寫作風格,每天自動產出一批文章。數量可以調,十篇、二十篇、五十篇都行,取決於你的來源有多少
  2. 人工挑選。你不需要從零開始寫,只需要從一堆已經寫好的草稿裡挑出值得發的。這個動作比從白紙開始寫快太多了
  3. Agentic Review。搭配 Agentic Engineering 的概念,讓不同的 AI Agent 扮演不同角色去 review 文章。一個負責抓事實錯誤,一個負責檢查語氣一致性,一個負責確認 SEO 最佳化。多個 Agent 各司其職,比單一 Agent 的品質好很多
  4. 你親自修改。最後一道關卡還是人。AI 產出的東西再好,還是需要人的判斷來決定最終版本。這步不能省,至少現階段不能
  5. 圖片生成。封面圖、社群配圖都可以用 AI 生成。我自己用 Doré Noir 風格的提示詞模板,透過不斷迭代 prompt 來優化效果。這個流程也是可以模板化的,換個視覺風格就是換一份 prompt 指南
  6. 多平台分發。文章生成之後,自動轉換成各平台需要的格式,一次推到五個、十個平台。技術上要串接這些平台的 API 並不算太難,各家的開發文件都寫得很完整

這個系統可以幫到誰

老實說,最近已經有一些朋友在問我這套東西能不能幫到他們。有經營個人品牌的、有做企業行銷的、有在媒體工作的。他們的需求不太一樣,但核心痛點是同一個:「我知道內容很重要,但我沒有時間每天寫。」

超級系統解決的就是這個問題。它不會取代你的判斷力和品味,但它能把「從零開始寫」變成「從十篇草稿裡挑三篇」。這個效率差異巨大。

再往更遠的方向想,這套系統其實可以直接進化成一個垂直媒體。區塊鏈媒體、AI 產業媒體、金融媒體,甚至某個利基市場的專業媒體,大致上流程都是一樣的:大量搜集該領域的優質素材,用特定風格產出內容,透過多平台分發觸及讀者。傳統媒體需要一整個編輯團隊才能做到的事情,這套系統一個人加幾個 AI Agent 就能跑起來。

這塊還有非常多可以優化的地方,我自己也還在迭代中。如果你對這個方向有興趣,歡迎找我聊聊,也許你的需求可以幫我找到更多值得優化的場景。

回頭看

從「用 Claude Chat 手動寫一篇文章」到「每天自動產出十篇多平台內容」,再到開始規劃超級系統,整個開發時間其實不到一個月。就是過年期間集中做一陣(那時候也研究了 OpenClaw),而且同時還有其他專案在忙,並不是全職投入。

如果我用零碎時間一個月內就能做到這個程度,認真投入的話能走到哪裡?光想就覺得還有很大的空間。

有趣的是,這個過程本身就是一個很典型的自動化路徑:先手動做,找出重複的步驟,逐步用工具取代,最後串成一條 Pipeline。每次都是做到某個臨界點受不了了,才會往下一個階段推進。沒有人是一開始就設計好整套系統的(至少我不是)。

我也不會說這套系統完美。AI 生成的文章品質還是有波動,有些 Podcast 逐字稿品質太差,寫出來的東西也不行。所以最後那道「人工審閱」的關卡我刻意保留了。完全拿掉人類判斷這件事,我覺得現階段還不到那個程度。

但它確實把我從重複性勞動裡解放出來了。我現在可以把時間花在真正需要人腦的地方:判斷哪些主題值得發、哪些觀點需要補充、哪些文章的語氣要微調。

這套系統最有價值的地方,可能不是它現在能做到什麼,而是它讓我看到了「一個人加上 AI 能走多遠」的可能性。從一個人的部落格到一套可以複製的內容生產系統,每一次迭代都在擴大這個邊界。

這個過程本身就很有意思,也還遠遠沒有結束。

這類工具和流程的踩坑心得,我會持續更新在 wilsonhuang.xyz,有興趣的話可以訂閱追蹤,不會漏掉後續的更新。

推薦閱讀

喜歡這篇文章嗎?

訂閱電子報,每週收到精選技術文章與產業洞察,直送你的信箱。

💌 隨時可以取消訂閱,不會收到垃圾郵件