
打造超級系統:從手動貼文到每天早上十篇草稿審閱發出,我怎麼把部落格變成一條 Pipeline
TL;DR
- 一開始用 Claude Chat 手動生成文章,每篇都要自己複製貼上,做久了累到懷疑人生
- 逐步把流程拆解成 Skill,讓 SEO 標籤、圖片提示詞、slug 全部自動產出
- 最後用 Claude Code 寫了一整套 Go Pipeline,每天早上九點自動抓 Podcast、生成逐字稿、寫文章、上傳草稿
- 後續又加了 Facebook、Threads、X、LinkedIn 多平台自動分發,每個平台的格式限制都不一樣,踩了不少坑
之前寫過一篇「我如何用 AI 打造自己的寫作系統,讓它寫出來的東西不像 AI 像自己」,講的是怎麼把自己的寫作風格整理成 style guide,讓 AI 產出的文章讀起來像我自己寫的。那篇算是起點,這篇是後續:當寫作風格搞定之後,我怎麼把整個內容生產流程繼續自動化,但還有太多優化空間。
上週有人問我:「你最近怎麼開始瘋狂寫文章,是不是整天都在寫?」
我笑了一下。老實說,現在我每天花在「寫文章」上的時間外界沒有想像那麼多,但走到這一步,中間的過程比想像中曲折,因為時間都花在優化系統。
手動時期:Claude Chat + 複製貼上地獄
最早很單純。過年幾天自架了一個個人電子報(其實就是個網站,只是部落格的樣子),把自己的寫作風格整理成一份 style guide,丟進 Claude Chat 的專案裡。每次想寫文章,就抓素材或是用講的、用寫的灌進去,讓 Claude 用「我的語氣」寫出來。
效果其實不錯,但問題是文章寫完之後還有一堆事:想標題、取 slug(就是網址列上那串英文)、寫 SEO description、挑分類標籤、選關鍵字、生封面圖的提示詞。每一步都要在 Claude Chat 和部落格後台之間來回切換。
一篇文章從素材到發佈,光是這些雜事就要花超過十分鐘,幾天寫一篇還撐得住。但當我想要穩定日更又不想花太多時間,這個流程就開始讓人煩躁了。
Skill 半自動化:先處理最痛的環節
我做的第一個改進,是在 Claude Chat 裡建了幾個 Skill。
第一個 Skill 負責 metadata 生成:丟一篇完成的文章進去,自動吐出標題、slug、SEO description、10 個分類標籤和 10-12 個關鍵字。以前這些東西要想五到十分鐘,現在幾秒搞定。
第二個 Skill 是圖片提示詞。我的部落格每篇文章都配一張 Doré Noir(我自己取的觸發詞,有興趣可以去查 Gustave Doré 這位畫風我喜歡的法國畫家)風格的封面圖,一種結合古典版畫和暗色調的視覺風格,蠻有辨識度的。這個 Skill 會根據文章主題自動生成對應的圖片 prompt,讓整個系列維持統一的視覺調性。
有了這兩個 Skill,流程變成:Claude 寫完文章 → 丟給 Skill 跑 metadata → 拿到結果 → 貼到後台 → 發佈。
省了不少時間。但「手動貼」這件事還是在。
素材來源:35 個 Podcast,和一個很快就撞到的天花板
在想辦法自動化之前,我還有先處理的是「素材從哪裡來」這個問題,有穩定的取材來源,才能不停輸出,就像小時候看海賊王連載,每次看到尾田大大下週取材所以停刊就不爽,現在比較知道為什麼要取材了。
我自己平常就在聽 Podcast,科技、創投、金融、AI、Crypto 各領域加起來追蹤了不少。既然每集都在聽,那把它們變成文章不是很合理嗎?吸收的也比較快,平常那麼忙不太可能花幾小時在那邊慢慢聽,於是我開始整理我的 Podcast 和 YouTube 訂閱清單,最後先收集了 35 個來源。
這份清單涵蓋的範圍還蠻廣的。科技創投那邊有 All-In Podcast、Acquired、20VC、a16z Podcast、Lenny's Podcast 這些;金融投資有 Odd Lots、Bloomberg Surveillance、We Study Billionaires;Crypto 有 Bankless、The Breakdown;AI 領域有 Latent Space、Cognitive Revolution。YouTube 那邊則是 Y Combinator、Stanford GSB、Fireship、Diary of a CEO 這類頻道。
我甚至還額外建了一組 Poker 專用的來源清單,有 Doug Polk、Jonathan Little、Thinking Poker 這些,想說找些有趣的且自己也有興趣的結合題材,也就催生出了之前那篇 AI 打 Poker:「十個 LLM 打德州撲克,結果比你想的還荒謬」。
來源有了,下一步是把音訊轉成逐字稿。
逐字稿:從 Groq 免費 API 到本機 Whisper
一開始我用 Groq 提供的免費 Whisper API 來做語音轉文字。Groq 的速度很快,幾分鐘就能轉完一集,體驗很好。
但問題很快就出現了。
Podcast 的音檔動輒一到三個小時,檔案大、處理時間長。Groq 的免費方案有用量上限:每小時只能轉 7,200 秒(2 小時)的音訊,每日上限是 28,800 秒(8 小時)。聽起來好像很多?一集 Podcast 動輒一到三小時,轉個兩三集就把一小時的額度吃光了,得等下一個小時才能繼續。如果當天有十集長集要轉,八小時的每日上限也不太夠用。然後轉一轉卡住程式說在等待重試,
然後等半天其實又網路卡住,測試半天其實沒卡都是回傳 rate limit,你也不知道是 Groq 發現你狂用故意限制你還是怎樣,總之要等的話就會一堆麻煩小問題,解的蠻煩的。
繞了一圈之後,我決定改用本機轉錄。在 MacBook Pro 上裝了 whisper-cpp,跑 Whisper Large V3 Turbo 模型。速度確實比 Groq 慢不少,一集一到三小時的音訊大概要花十幾、二十分鐘才能轉完。
但我想了一下,這件事其實不需要我盯著。
Pipeline 設定成每天凌晨自動跑,我睡覺的時候它在轉,早上起來就轉好了。十集大概花幾個小時,反正我也用不到那台電腦。慢一點就慢一點,穩定能跑完比什麼都重要。
這個決定後來證明是對的。Groq 的免費額度隨時可能改,依賴外部 API 的免費方案本來就不是長久之計。本機跑雖然慢,但不會有額度問題,也不用擔心 API 突然改規則或漲價。
四百多篇文章,和一個幸福的煩惱
逐字稿的流程跑通之後,我做了一件現在回想起來有點瘋的事,就跟 Tony Stark 當初做出馬克二號的時候說: "Sometimes you gotta run before you can walk."。
我沒有慢慢來,而是一口氣把 35 個來源過去幾週的集數全部抓下來,批次跑逐字稿,然後全部丟給 Claude 生成文章。
結果資料夾裡一次冒出了四百多篇 Markdown 文章。

四百多篇。
老實說我自己根本看不完。打開後台滿滿都是文章,光是用標題掃一遍就要花不少時間,更不用說每篇都仔細讀過。
但有趣的是,看這些文章我其實看得很開心。因為素材來源的品質本身就很好,這些都是我精挑細選過的 Podcast 和 YouTube 頻道,主持人和來賓的水準都有一定程度,所以 AI 根據逐字稿寫出來的文章,內容深度通常不會太差。再加上 style guide 的約束,寫出來的風格和語氣我大部分也蠻滿意的。翻這些文章的感覺,有點像在逛一個幫你整理好的知識庫。
問題出在「發佈」這個動作。
每次我從四百多篇裡挑出一篇想發的,接下來的流程就是噩夢:手動複製標題、手動跑 Skill 生成 SEO tags 和 keywords、手動複製一個 slug、手動生成圖片提示詞、再把這些東西一個一個貼到部落格後台的對應欄位裡。
每一步都是複製貼上,每一步都重複,每一篇都要再來一次。文章本身已經寫好了,結果最花時間的反而是這些瑣碎的 metadata 處理。
做了幾天之後我就想:等等,部落格是我自己寫的,後台也是我自己寫的,為什麼我要手動做這些事?
既然整個系統都在我的掌控之內,我完全可以讓它自動化。用 Go 寫一個程式,在生成文章的同時把標題、slug、SEO tags、keywords、圖片提示詞全部一起產出,然後直接透過 API 上傳到部落格後台的資料庫,連貼上的動作都省了。
這樣我打開後台的時候,看到的就不是一堆裸文章需要我手動填欄位,而是已經填好所有 metadata 的完整草稿,我只要決定「這篇要不要發」就好。

這就是推動我做 Pipeline 全自動化的真正原因。
Pipeline 全自動化:我不想再當人肉 API
把前面講的所有東西串在一起,就變成了現在這套 Pipeline。
用 Go 寫了一個程式,每天早上九點由 cron 自動觸發。整個流程分四步:
- Check feeds:去抓 35 個 RSS feed 和 YouTube 頻道,看有沒有新的集數
- Download:把新集數的音檔下載下來
- Transcribe:用本機的 Whisper Large V3 Turbo 跑逐字稿
- Generate:把逐字稿丟給 Claude CLI,用 Opus 模型搭配我的 style guide 生成文章
文章生成的同時,SEO metadata(標題、slug、description、tags、keywords)和 Doré Noir 風格的封面圖提示詞也一併產出。最後整包東西透過 Supabase REST API 直接上傳到部落格後台,存成草稿。
「自己寫」的文章看多了,我發現幾個我也會想知道的事情就是,每篇文章的提到的人物究竟是誰?還有訪談主持人背景是什麼,就算知道我也想了解他最近做些什麼?所以我就在 skill 裡面多補了一件事,要 Claude 在生成文章時會用 WebSearch 去查來賓的背景資料以及近況,同時確保寫出來的介紹是正確的。
但它偶爾會在文章前面多加一段 thinking preamble,像是 "Now I have all the background info I need." 之類的殘留。還要記得讓 Pipeline 自動偵測並清除這些東西,確保存進資料庫的是乾淨的文章。
另外,如果 Claude 判斷某集逐字稿的內容品質不足(比如只是預告片或廣告),它會回傳 SKIP_LOW_QUALITY,Pipeline 收到這個訊號就不會存檔,避免產出一堆沒營養的東西。
現在我每天早上的流程:打開後台,十篇草稿已經排好,快速掃一遍,挑幾篇按發佈。從半小時縮到五分鐘。
多平台分發:每個平台都有自己的脾氣
文章搞定之後,我又開始處理社群分發。
一篇文章要發到 Facebook、X、Threads、LinkedIn、Telegram,每個平台的格式要求都不一樣。手動做的話又是一個地獄循環,所以我也把這塊自動化了。Pipeline 在生成文章的同時,會自動產出五個平台的版本。

這中間踩了不少坑,講幾個值得小提一下的:
- LinkedIn 有 3,000 字元的硬限制。我的文章轉純文字後經常爆掉,所以回頭把文章長度控制在 1,500 到 2,000 中文字,確保轉換後不會被截斷,不然都會發佈失敗。
- Threads 要拆成串文,每一串不能超過 500 字元。切割邏輯比想像中麻煩,要在句號的位置切,不能切到句子一半。
- Facebook 的演算法會懲罰帶連結的貼文,所以 URL 裡的
.前面要加一個空格,讓 Facebook 不會自動生成連結預覽,這也是我在 fb-post-formatter.md 裡面有加上的條件之一。 - 臉書的個人帳號從 2018 劍橋事件後不能用 publish_actions 串接,只有粉專才可以用 API 發文,但我也懶得創一個粉專,之後有需要再說。
這些平台特性,不踩到不會知道。而且每個平台的規則還會改,所以這套系統其實一直在微調。
每個環節都還能再優化
這套系統跑起來之後,我反而看到了更多可以改進的地方。每一個環節都還有空間。
素材來源與內容種類
目前 35 個 Podcast 和 YouTube 來源其實只是起點,還有很多值得追蹤的頻道和節目可以加進來。素材的廣度直接決定文章主題的多樣性,這塊我會持續擴充。
但更大的拓展空間在於「內容種類」。
我目前的內容大部分是從知名 Podcast 和 YouTube 的深度訪談去做轉譯,產出的文章偏分析型、長篇幅、有深度。這類內容我自己很喜歡,吸引到的讀者和訂閱者自然也是偏好這種風格的。但這只是內容光譜的其中一端。
另一端是即時消息型的內容。你看現在很多 KOL 在做的事情:某家公司發佈了新功能、Elon Musk 又在 X 上講了什麼話、某個地區的地緣政治出了新狀況。這種靠即時時事吸引流量的內容有一個很強的特性:它能讓讀者養成追蹤習慣,因為他們知道來這裡就能拿到最新消息。
這類即時內容的素材來源跟 Podcast 很不一樣。大部分是國外的 X(Twitter),那些 KOL 和新聞帳號發的推文就是最即時的素材。取得方式也不複雜,可以直接透過 API 抓取,或是用一些工具即時擷取這些內容。抓到之後丟進系統的 Pipeline,跑一樣的流程:轉成素材、套用寫作風格、生成文章、自動分發。
所以光是「內容種類」這件事就還有很大的空間可以做。深度分析和即時消息是兩種完全不同的內容策略,兩者可以並存,服務不同需求的讀者。
而這就帶到下一個問題:當內容種類變多了,讀者不見得每種都想看。所以我在規劃的功能是讓讀者訂閱特定類型的文章。現在部落格的讀者收到的是全部主題,但不是每個人都對 Crypto 或 Poker 有興趣,也不是每個人都想收到即時快訊。未來我想讓讀者自己挑選想看的類別,當然選題和品質把關還是由我來主導,但分發可以更精準,不用讓人收到一堆他沒興趣的東西。
系統產出的內容越多樣化,這個分眾訂閱的功能就越有價值。兩件事是互相拉動的。
寫作風格
這是目前最需要迭代的部分。
現在的流程是一個 AI Agent 寫文章,然後我自己 review。問題是,同一個 Agent 寫久了,某些句型和結構會開始重複。我偶爾會翻幾篇文章,發現開場方式或轉折用語撞在一起,雖然有 style guide 在約束,但 AI 的慣性還是會滲出來。
我在想的優化方向是加一個 Reviewer 的角色,類似總編輯。讓第一個 Agent 先寫出初稿,再由第二個 Agent 用批評的角度去 review,指出哪些地方太 AI 味、哪些段落結構重複、哪些句型該換掉,修正之後再產出最終版。等於在 Pipeline 裡多加一道編輯關卡,讓機器自己先吵一輪,到我手上的時候品質應該會再提升一個檔次。
分發平台
目前對接了五個平台:Facebook、X、Threads、LinkedIn、Telegram。但其實還有很多管道可以拓展。偶爾會有媒體邀請擔任專欄作家,或是其他社交平台想要合作。這些平台的開發文件通常都很完整,技術上要串接基本上都做得到,主要是時間分配的問題。
SEO 與 AEO
因為整個部落格是我自己從頭寫的,客製化程度很高。我在後端自己開發了類似 Google Analytics 的功能,可以追蹤每篇文章的表現。另外也做了針對訂閱者的分發工具,之後可以根據不同讀者的閱讀偏好去做主題推薦。
後續在搜尋引擎優化這塊也有很大的空間。除了傳統的 SEO,現在越來越多人透過 AI Agent 來搜尋資訊,所以 AEO(Answer Engine Optimization,讓 AI 搜尋引擎更容易找到你的內容)也是我在研究的方向。部落格是自己寫的好處就在這裡,想改什麼就改什麼,不用被現成平台的限制綁住。
超級系統:當這套系統不只是給自己用
做到這裡,我開始想一個更大的問題:這套東西如果抽象化,是不是可以用在任何人身上?
我目前把這個計畫稱為超級系統。概念很簡單:我在自己身上驗證過的這整套流程,從素材搜集、風格化寫作、SEO 處理、多平台分發,其實可以套用到各行各業的行銷和品牌經營上。
素材搜集和文章生產已經被我自己跑通
我的 Pipeline 每天從 35 個來源抓素材、生成十篇文章,這個流程是穩定跑了幾週。換個產業,邏輯完全一樣。你經營家具品牌?訂閱室內設計和生活風格的 Podcast、YouTube 頻道,系統一樣能抓素材、生成文章。美妝、遊戲、餐飲、科技,甚至酒吧和餐酒館,只要那個領域有值得追蹤的內容來源,系統就能處理。
關鍵在於素材來源的品質。垃圾進、垃圾出這個道理在這裡完全適用。但只要你花心思挑選好的來源,產出的文章就會有一定的深度和可讀性。
寫作風格是可以模仿的
我還不敢講複製,但至少可以說模仿且持續迭代。
我的 style guide 花了不少時間整理,從語氣、用字、結構、禁忌清單到自檢 checklist,整份文件大概四百行。但這件事我做得出來,別人也做得出來。
想像一下:你找一個厲害的編輯,讓他去觀察某個名作家或 KOL 的寫作風格,整理出一份 style guide,然後丟進系統。AI 就能用那個人的語氣寫文章。不用那個人自己動手,也不用那個人花時間,系統幫他寫,他只需要最後看一眼確認就好。
更進階一點,你同時可以有好幾個風格不同的「虛擬編輯」。一個寫得像產業分析師,專門出深度報告;一個寫得像生活部落客,語氣輕鬆親切;一個寫得像新聞記者,客觀中立。同一個品牌,不同的內容調性,針對不同的受眾群體。這些「虛擬編輯」可以同時運作,各自產出不同風格的內容。
運作流程
把整個超級系統的運作方式拆開來看:
- 大量生成文章。系統根據你設定的素材來源和寫作風格,每天自動產出一批文章。數量可以調,十篇、二十篇、五十篇都行,取決於你的來源有多少
- 人工挑選。你不需要從零開始寫,只需要從一堆已經寫好的草稿裡挑出值得發的。這個動作比從白紙開始寫快太多了
- Agentic Review。搭配 Agentic Engineering 的概念,讓不同的 AI Agent 扮演不同角色去 review 文章。一個負責抓事實錯誤,一個負責檢查語氣一致性,一個負責確認 SEO 最佳化。多個 Agent 各司其職,比單一 Agent 的品質好很多
- 你親自修改。最後一道關卡還是人。AI 產出的東西再好,還是需要人的判斷來決定最終版本。這步不能省,至少現階段不能
- 圖片生成。封面圖、社群配圖都可以用 AI 生成。我自己用 Doré Noir 風格的提示詞模板,透過不斷迭代 prompt 來優化效果。這個流程也是可以模板化的,換個視覺風格就是換一份 prompt 指南
- 多平台分發。文章生成之後,自動轉換成各平台需要的格式,一次推到五個、十個平台。技術上要串接這些平台的 API 並不算太難,各家的開發文件都寫得很完整
這個系統可以幫到誰
老實說,最近已經有一些朋友在問我這套東西能不能幫到他們。有經營個人品牌的、有做企業行銷的、有在媒體工作的。他們的需求不太一樣,但核心痛點是同一個:「我知道內容很重要,但我沒有時間每天寫。」
超級系統解決的就是這個問題。它不會取代你的判斷力和品味,但它能把「從零開始寫」變成「從十篇草稿裡挑三篇」。這個效率差異巨大。
再往更遠的方向想,這套系統其實可以直接進化成一個垂直媒體。區塊鏈媒體、AI 產業媒體、金融媒體,甚至某個利基市場的專業媒體,大致上流程都是一樣的:大量搜集該領域的優質素材,用特定風格產出內容,透過多平台分發觸及讀者。傳統媒體需要一整個編輯團隊才能做到的事情,這套系統一個人加幾個 AI Agent 就能跑起來。
這塊還有非常多可以優化的地方,我自己也還在迭代中。如果你對這個方向有興趣,歡迎找我聊聊,也許你的需求可以幫我找到更多值得優化的場景。
回頭看
從「用 Claude Chat 手動寫一篇文章」到「每天自動產出十篇多平台內容」,再到開始規劃超級系統,整個開發時間其實不到一個月。就是過年期間集中做一陣(那時候也研究了 OpenClaw),而且同時還有其他專案在忙,並不是全職投入。
如果我用零碎時間一個月內就能做到這個程度,認真投入的話能走到哪裡?光想就覺得還有很大的空間。
有趣的是,這個過程本身就是一個很典型的自動化路徑:先手動做,找出重複的步驟,逐步用工具取代,最後串成一條 Pipeline。每次都是做到某個臨界點受不了了,才會往下一個階段推進。沒有人是一開始就設計好整套系統的(至少我不是)。
我也不會說這套系統完美。AI 生成的文章品質還是有波動,有些 Podcast 逐字稿品質太差,寫出來的東西也不行。所以最後那道「人工審閱」的關卡我刻意保留了。完全拿掉人類判斷這件事,我覺得現階段還不到那個程度。
但它確實把我從重複性勞動裡解放出來了。我現在可以把時間花在真正需要人腦的地方:判斷哪些主題值得發、哪些觀點需要補充、哪些文章的語氣要微調。
這套系統最有價值的地方,可能不是它現在能做到什麼,而是它讓我看到了「一個人加上 AI 能走多遠」的可能性。從一個人的部落格到一套可以複製的內容生產系統,每一次迭代都在擴大這個邊界。
這個過程本身就很有意思,也還遠遠沒有結束。
這類工具和流程的踩坑心得,我會持續更新在 wilsonhuang.xyz,有興趣的話可以訂閱追蹤,不會漏掉後續的更新。
推薦閱讀
喜歡這篇文章嗎?
訂閱電子報,每週收到精選技術文章與產業洞察,直送你的信箱。
💌 隨時可以取消訂閱,不會收到垃圾郵件


