2026年5月15日 星期五

一把外洩的 Google API Key,兩天燒出 8.2 萬美元:LLMjacking 正在爆發

 一個 Google API key 外洩,月帳單從 180 美元兩天內衝到 82,000 美元,重點不是粗心,而是 API key 現在直接等於錢


這是開發者 Jacopo Castellano 寫下的真實案例。他平常每月在 Gemini 相關服務的花費大約 180 美元,一把 key 外流之後,兩天內帳單跳到 82,000 美元。攻擊者沒有偷走他任何資料,只是拿他的額度跑自己的推論工作。


這類攻擊有個名字叫 LLMjacking,由資安公司 Sysdig 在 2024 年 5 月命名。概念很單純:攻擊者拿到一把能存取 AI 服務的憑證,就用它去跑推論,帳單算在你頭上。它跟過去的 cryptojacking(挖礦綁架)邏輯一樣,都是偷算力,差別在於 LLM 推論的單價高很多,燒錢速度也快很多。Sysdig 記錄過的案例裡,有受害者一天就被跑出超過 46,000 美元;也有人的個人 AWS 帳號從每月 2 美元,兩三個小時內爆到 730 美元。


為什麼這件事現在才變嚴重,有兩個原因。


第一個是 API key 的性質變了。過去 credential 外洩,主要的風險是資料被看光。但 AI 服務的 key 不一樣,它能直接換算成計算資源,而計算資源有現成的買家。攻擊者不需要做任何資料竊取或權限提升,拿到 key、發一個 HTTP request 就開始燒你的錢。GitGuardian 的 2026 年報告指出,2025 年光是公開 GitHub repo 就新增了 2,865 萬筆寫死的 secrets,年增 34%;其中 AI 服務憑證是成長最快的類別,年增 81%。IBM X-Force 的 2026 威脅情報報告也提到,2025 年有超過 30 萬組 ChatGPT 帳密在暗網上被兜售。


第二個原因是這件事已經產業化了。資安公司 Pillar Security 在 2025 年 12 月到 2026 年 1 月之間,用蜜罐捕捉到一個叫 Operation Bizarre Bazaar 的行動,40 天內 35,000 次攻擊工作階段,平均一天 972 次。它背後是一條完整的供應鏈:掃描器在網路上找暴露的 AI 端點,驗證器測試這些端點能不能用,最後一個地下市集把存取權以 4 到 6 折轉賣出去,涵蓋 30 多家 LLM 供應商,收加密貨幣也收 PayPal。換句話說,攻擊 AI 基礎設施這件事,現在不需要任何技術能力,可以直接用買的。


而 AI 工具本身正在製造更多破口。GitGuardian 發現,AI 協助產生的 commit 洩漏 secrets 的比率是 3.2%,大約是一般情況的兩倍。原因不難理解:你請 Copilot 或 Cursor 幫你接一個 OpenAI 整合,它常常產出一段帶 `OPENAI_API_KEY = "sk-..."` 佔位符的範例碼,你填了真的 key 進去測試,忘了搬到環境變數,就推上去了。一個公開 commit 從推送到第一次被濫用,中位數時間不到四分鐘。


Google 還踩過一個設計上的雷。它的 API key 一直用 `AIza` 開頭,這種 key 最早是設計給 Google Maps 嵌入這類低風險用途的,當年大家就是直接寫進前端 JavaScript。後來 Google 把 Gemini 接到同一套 key 系統,那些早就公開在網頁原始碼裡好幾年的 key,無聲無息地多了呼叫昂貴 AI 端點的能力。


那該怎麼防?這裡有五個動作,每個用 AI API key 的人和團隊都該立刻檢查一遍。


一,API key 不要硬寫進程式碼,更不要 commit 進 repo。要清楚一件事:只要進過 git 歷史,就算你後來刪掉,那把 key 永遠都在歷史裡,任何 clone 過的人都拿得到,必須直接當作已經外洩來處理。


二,用 secret manager 集中管理憑證,並定期輪替。靜態的長期 key 是這整個問題的根源,能用短期 token 或 proxy 取代就取代。


三,在供應商端設定硬性上限,不要只設 alert。alert 是事後通知,hard limit 才是真正的保險絲。設了 200 美元上限,外洩的 key 最多燒掉 200 美元就停。


四,監控異常用量,特別注意非上班時間的推論 spike。費用突然跳高往往是 LLMjacking 最早、有時也是唯一的徵兆,而它該同時被資安和財務兩邊看到,不是只當成財務問題。


五,評估用 OpenAI 的 project-scoped key、Anthropic 的 workspace 範圍來縮小單把 key 的影響範圍。


這些動作沒有一個是難的,難的是在一切還沒出事、你正在趕進度的時候,願意停下來把它做完。過去我們把 API key 當成設定值,一個小麻煩;現在它的外洩成本,已經跟雲端儲存資料外洩同一個等級了。它值得被當成那個等級的東西來對待。


---

來源:

- [The $82,000 mistake: how to secure your AI API keys before it's too late — Jacopo Castellano](https://jacopocastellano.com/blog/ai-api-key-security/)

- [LLMjacking: From Emerging Threat to Black Market Reality — Sysdig](https://www.sysdig.com/blog/llmjacking-from-emerging-threat-to-black-market-reality)

- [Operation Bizarre Bazaar — Pillar Security](https://www.pillar.security/blog/operation-bizarre-bazaar-first-attributed-llmjacking-campaign-with-commercial-marketplace-monetization)

- [Why 28 million credentials leaked on GitHub in 2025 — Snyk / GitGuardian State of Secrets Sprawl 2026](https://snyk.io/articles/state-of-secrets/)

- [2026 X-Force Threat Intelligence Index — IBM](https://www.ibm.com/think/x-force/threat-intelligence-index-2026-securing-identities-ai-detection-risk-management)

- [LLMjacking: How Attackers Steal AI API Keys and Run Up Your Bill — Keyrua](https://keyrua.dev/blog/llmjacking-how-attackers-steal-ai-api-keys)


Qwen 前掌門人出走:沒有產品的新創,憑什麼估值 20 億?


林俊暘離開阿里兩個月,新 AI Lab 還沒名字、沒產品、沒營收,估值已經喊到 20 億美元

這是 5 月 13 日 The Information 和智能涌現的報導。前阿里通義千問(Qwen)技術負責人林俊暘,離職後創辦了一間新的 AI 實驗室,正在募資數億美元,紅杉中國和高榕創投都在洽談參投,估值約 20 億美元。對一間還沒有名字、沒有產品、沒有營收的中國 AI 新創來說,這個價碼幾乎沒有先例。


先說林俊暘是誰。他 1993 年生,今年 32 歲,北大碩士,2019 年進阿里達摩院,2022 年接手 Qwen 團隊,是阿里最年輕的 P10 級技術負責人。三年下來,他主導 Qwen 系列模型的研發和開源策略,把它做成全尺寸覆蓋、全球開發者社群裡最有影響力的國產模型之一。Qwen 系列的全球下載量超過 6 億次,衍生模型超過 20 萬個。對開發者來說,Qwen 是真的能下載、能微調、能部署的東西。


所以這 20 億美元買的不是一個產品路線圖,買的是這份紀錄——一個把開源模型生態從零做到全球一線的人。這個邏輯在矽谷已經跑過好幾遍:前 OpenAI 首席科學家 Ilya Sutskever 的 SSI 成立三個月就拿到 50 億美元估值,前 OpenAI 技術長 Mira Murati 的 Thinking Machines Lab 首輪估值 100 億美元。資本願意在頂尖研究者還沒有任何產出時,先用一個很高的數字把人圈住。現在這套邏輯複製到了中國。


但比估值更值得看的,是他為什麼會走。


林俊暘的離職過程很罕見地公開。3 月 4 日凌晨,他在 X 上發了一句「me stepping down. bye my beloved qwen」,比阿里官方確認還早。導火線是前一天下午,阿里雲 CTO 周靖人向他傳達了一個 Qwen 團隊的重組計畫:把原本垂直整合的 Qwen,拆成預訓練、後訓練、文本、圖像、語音等相對獨立的水平團隊。


這個拆法跟林俊暘一直堅持的做法相反。他主張預訓練、後訓練、Infra、訓練團隊應該緊密結合,甚至從 2024 年中開始在 Qwen 內部自建 Infra 團隊。重組等於要把這套「小而全」的建制打散。據鈦媒體報導,他在內部群組留下的話是「無顏再帶領大家」。


往後看,他離開後阿里的 AI 戰略確實在轉向。離職前 48 小時 Qwen 才開源的 3.5 系列小模型,授權協議跟早期完全開放的 Apache 2.0 不一樣,對大規模商用設了更高的門檻。離職後,阿里把 Qwen 研發團隊和其他核心 AI 業務併進一個新事業群,由集團 CEO 吳泳銘直管,更多新模型轉向閉源以追求商業化收入。阿里雲 2025 年 Q2 財報顯示 AI+雲業務收入年增 26%、AI 相關產品收入連續八季三位數成長,這個量級的業務,自然會把模型團隊往「服務營收」的方向拉。


這就是一個放諸四海都成立的觀察:當一間公司的商業引擎,跟一條技術路線想去的方向不一致時,就算這條路線剛打完一場漂亮的仗,主導它的人最後還是會被推離。林俊暘要的是極致開源、商用零成本,阿里雲要的是能換算成收入的模型。兩邊都沒有錯,但放在同一個組織裡,張力遲早會把人擠出去。


他的新方向也跟這個脈絡接得起來。林俊暘選的切入點是世界模型和具身智能,他在 X 上的判斷是「多模態基礎模型正在轉化為基礎代理,透過強化學習利用工具和記憶進行長時序推理,它們應該從虛擬走向物理世界」。這其實是他在阿里的未竟之業——2025 年 10 月他就在 Qwen 內部組過一支機器人與具身智能的小團隊。離開之後,這件事他可以從頭照自己的想法做。


不過要把話說平衡。多位中國投資人對 The Information 提了一個我覺得值得記著的差異:矽谷那些超高估值,有一部分是押在「最終會被頂級科技巨頭收購」的退出預期上,但這個邏輯在中國還不成立。再加上美國晶片出口管制持續收緊,算力獲取本身就是一道實實在在的坎。也有投資人直接說,技術高管創業,常常在商業化上水土不服。20 億美元是一個起點,不是一個結論。


我會追的是他的第一個模型——它會告訴我們,這份估值買到的,到底是一個人的紀錄,還是一個人帶著一支隊伍重新跑一次的能力。這兩件事不一樣。


---


來源:

- [林俊旸創業,新公司估值約 20 億美金 — 智能涌現/36氪](https://eu.36kr.com/zh/p/3807382930251523)

- [Former Alibaba Qwen Architect Lin Junyang Launches AI Lab, Targets $2 Billion Valuation — BigGo Finance](https://finance.biggo.com/news/AZqhIJ4BrAZSr0oSxS4S)

- [非常罕見!阿里 AI 大牛林俊旸離職後創業,首輪估值超 130 億 — 新浪財經](https://finance.sina.com.cn/wm/2026-05-13/doc-inhxtqxn9394763.shtml)

- [林俊旸告別千問,阿里 AI 的轉身與代價 — 鈦媒體](https://www.tmtpost.com/7901214.html)

- [Alibaba scrambles after sudden departure of Qwen tech lead — KrASIA](https://kr-asia.com/alibaba-scrambles-after-sudden-departure-of-qwen-tech-lead)


2026年5月12日 星期二

模型會升級,真正留下來的是 harness


Opus 4.6 在 Claude Code 跑 Terminal Bench 2.0 拿第 33 名,把同一個模型放到另一個 harness 跑同樣的 benchmark 跳到第 5 名

過去半年 Harness Engineering 這個詞被很多人各自獨立提出來。Hashimoto 2 月、OpenAI 的 Lopopolo 2 月、HumanLayer 3 月、Birgitta Böckeler 4 月。最近 Addy Osmani 把這些線索串成一篇,值得讀。我看完想記下來的不是定義,是裡面一個觀察。

Addy 引用 Viv Trivedy 一句話:「Harnesses don't shrink, they move.」工具變強的時候,harness 對應補位的那層不會消失,只會搬家。

舉個具體案例。Anthropic 在 2025 年 11 月推出 Tool Search Tool,把 MCP 工具描述從 prompt 抽出來,agent 要用才去查。一個典型 MCP setup 的 baseline 從 55,000 token 降到 3,000 token,省 85%。這聽起來像是 harness 縮小了,但實際上「決定哪些工具該載入」這個工作沒消失,是搬到 search/retrieval layer,由更精細的 ranking 機制接手。模型不會自己學會選工具,是 harness 變聰明,幫它選。

ETH Zurich 一篇 paper(arxiv 2602.11988)測 AGENTS.md / CLAUDE.md 的效果,結論很直白:LLM 自己寫的 instruction 檔案,效果常常比沒寫還差。人類寫的能讓任務成功率提升 4%,但會多 20% 的 inference 成本。HumanLayer 給的建議是控制在 60 行內、只放 build/test 指令,不要寫長篇大論。harness 元件不是越多越好,而是要精準,否則每一個都在搶 attention。

這也解釋了一個現象:把 Claude Code、Cursor、Codex、Aider、Cline 並排比較,會發現它們的架構設計比背後的模型還像彼此。模型一直變,但 harness pattern 在收斂。AGENTS.md、subagent、hooks、planner/worker 分工、ratchet 式錯誤紀錄、root level 的 CLAUDE.md,這幾根支柱在每一家都看得到。各家不是抄誰,而是各自試錯後發現同一個答案。

所以也看到一個趨勢:harness 本身正在從「自己造」變成「服務」。Viv 把它叫 Harness-as-a-Service。Claude Agent SDK、Codex SDK、OpenAI Agents SDK 都指向同一個方向,你拿到的不是 LLM completion API,是包含 loop、tool routing、context management、hook、sandbox 的 runtime。客製化的點從「我要怎麼接 LLM」搬到「四根支柱(system prompt、tools、context、subagent)各要怎麼調」。

那「換模型解決問題」這條路為什麼通常不通?

Luke Stahl 在 Stop upgrading your model 那篇寫得直白:模型升級的差距比想像中小,harness 改動的差距比想像中大。HumanLayer 同意:「這不是 model problem,是 configuration problem。」

Sergey Golubev 4 月那篇 Harness Engineering 紀錄文有個具體例子。Opus 4.7 一發布,他幾個 harness 馬上掉鏈子,不是 code 壞掉,是指令解讀方式變了,舊 skill 寫得太寬鬆。重寫三個、整理五個花了大半天。每次模型升級都會逼一次 harness 重整,因為新模型對舊指令會用不一樣的方式詮釋。

所以差異化到底在哪?Ry Walker 的整理是:harness 本體(Claude Code、OpenCode、Goose、Aider)已經是 commodity,遷移成本很低。真正的差異化在三個地方:context 跟 memory(codebase 規矩、過去踩過的坑)、orchestration(多 agent 怎麼分工)、tool layer(接到內部系統的客製化工具)。

回到 Addy 那篇的尾巴,他列了三個值得追的開放問題:多 agent 並行共享 codebase 的協作機制、agent 分析自己的 trace 找 harness 級失敗模式、harness 動態組裝工具與 context 而非事前配好。每一個都是同一條思路的延伸。harness 不會穩定,會繼續搬家,重點是知道它正在往哪搬。

模型升級會繼續發生,幾乎每幾個月一次。但跟 agent 一起累積的 context、規則、工具、skill,這些是換 harness、換模型都帶得走的。

Sources:

- Addy Osmani: Agent Harness Engineering — https://addyosmani.com/blog/agent-harness-engineering/

- HumanLayer: Skill Issue — https://www.humanlayer.dev/blog/skill-issue-harness-engineering-for-coding-agents

- Luke Stahl: Stop upgrading your model — https://lukestahl.io/blog/stop-upgrading-your-model-fix-your-harness/

- Sergey Golubev: Harness Engineering 2026 — https://www.prodfeat.ai/en/blog/2026-04-18-harness-engineering

- Ry Walker: The Agent Harness Problem — https://rywalker.com/agent-harness-problem

- 張維峰 FB 中譯整理 — https://www.facebook.com/jerry.chang.505523/posts/pfbid0WZP6JBVGp3CNR6ot1GizCVcdDPQcEnhxJVW4An3hZLc2EjbviZrfenL627i5ANuvl


2026年5月9日 星期六

Anthropic 的 80 倍成長,真正的瓶頸才剛開始

 


Anthropic 在 2026 年 5 月 6 日開了第二屆 Code with Claude,Dario Amodei 在台上把 Q1 的數字攤開。原本內部「準備好應對每年十倍成長的世界」,結果 Q1 換算成年率,營收和使用量年增到 80 倍。他自嘲這數字「太誇張,也太難應付」,希望趕快回到 AI 定義的「正常」,也就是「只有」十倍。


年化營收的曲線是這樣:2025 年底 $9B、2026 年 2 月 $14B、3 月 $19B、4 月 $30B。OpenAI 的年化營收約 $25B,被超車。


落差怎麼形成的,比 80 倍本身更值得看。當所有 AI 公司都在搶風口,Anthropic 用了一個遠小於對手的訓練預算(約 $12B,OpenAI 約 $32B),把企業端拿了下來。


答案在策略選擇。Anthropic 走的是「窄門」,只做企業客戶、只把 coding 這一個用例做透,其他先放著。這跟 OpenAI「消費端 + 企業端 + 影音 + 瀏覽器 + 裝置」全面進攻是兩個完全不同的賭法。


具體看 Claude Code。2025 年 5 月才公開,6 個月後達 $1B 年化營收,2026 年 2 月翻倍到 $2.5B。年付 $1M 以上的企業客戶,兩年前是十幾家、今年 2 月 500 家、4 月已經 1,000 家。Fortune 10 有 8 家是 Claude 客戶,80% 營收來自企業。Anthropic 每月每使用者收到約 $211,OpenAI 量級是每週 $25,每使用者貢獻差 8 倍。


Ramp 的企業支出統計更直觀。2026 第一季首次採購 AI 工具的企業,73% 把錢花在 Anthropic;半年前還是 50/50。企業採購圈的偏好整個倒過來。


窄門策略也展現在組織人事。Code with Claude 對談前不久,原 CPO Mike Krieger 被調去領導 Anthropic Labs,CPO 位置在 2025 年 12 月換成 Ami Vora。Krieger 是 Instagram 共同創辦人,擅長從零到一抓住產品方向;Vora 在 WhatsApp 跟 Meta 的歷練,則是把產品推到全球規模的 GTM (go-to-market)。CPO 換手不是高層輪流,是公司產品階段的訊號。


但窄門不是沒副作用,這是 Dario 在台上花最多時間講的部分。他兩次提到 Amdahl's Law(阿姆達爾定律),這是 1967 年 IBM 工程師 Gene Amdahl 提出的:你加速了系統的某一部分,整體速度的提升會被你還沒加速的那部分卡住。Dario 把這個半世紀前的觀察套到 AI 加速人類工作上,套了兩次。


對外的 Amdahl,他這樣描述:技術在整個經濟體裡的擴散速度並不均勻,軟體工程師是最快採用新技術的那一群人,這是為什麼焦點都壓在這個領域。Q1 的 80 倍打到 Anthropic 自己跟最早的開發者,其他職業還在後面,那一塊才是放大效應真正的主體。


對內的 Amdahl 更直接。「如果你身處一個組織,可以在相同時間內提交三到四倍的 PR,你就會開始發現有一大堆其他事情在拖你的後腿。」程式碼提交速度提升之後,浮上來的是資安、驗證、設計品質、組織協調、技術債管理。「如果你只加速這一件事,而不是把所有事情都加速,就會出問題。」


這段值得任何在組織裡推進 AI 的人記下來。AI 工具加速個人寫程式很容易,但個人加速完,瓶頸不會消失,只會搬家。下一個浮上來的可能是審查流程跟不上、可能是測試覆蓋率撐不住、可能是設計與工程協作的節奏對不上。


Dario 自己拋了一個比喻:「我們正在慢慢走向資料中心裡住著一個天才之國的境界。現在從一屋子聰明人開始,慢慢往上走,走向一座城市、一個國家的規模。」要走到那一步,光練強模型不夠,組織級的協作方式得整個重新發明一遍。


這場對談跟一年前那場對談的差別也在這。2025 年 5 月 Dario 跟 Krieger 預言「2026 年會出現第一個一個人的億萬美元公司」,當時聽起來像在打賭。一年後同個舞台,已經有兩人公司估值達 $1B、一人公司估值達數億美元,剩下的問題從「會不會發生」變成「哪個產業先發生」。


來源:

- https://www.anduril.tw/anthropic-80x/(狐 Hsiao 整理 Code with Claude 2026 完整對談)

- CNBC(80 倍、SpaceX Colossus 1 算力協議):https://www.cnbc.com/2026/05/06/anthropic-ceo-dario-amodei-says-company-crew-80-fold-in-first-quarter.html

- SaaStr($14B ARR、$2.5B Claude Code、$1M+ 客戶 12→500→1,000 家):https://www.saastr.com/anthropic-just-hit-14-billion-in-arr-up-from-1-billion-just-14-months-ago/

- Ramp 73% 首次採購數據:https://beri.net/article/anthropic-overtakes-openai-enterprise-spending

- 訓練預算對比 $12B vs $32B、ARPU 8 倍:https://www.danilchenko.dev/posts/anthropic-surpasses-openai-revenue/


2026年5月8日 星期五

問題不是 AI 寫 code,而是誰批准它上線


Coinbase 上週宣布裁員 14%,約 700 人。CEO Brian Armstrong 在公開信裡列了兩個理由:crypto 下行週期,加上 AI 改變工作方式。光看這兩個原因,跟今年其他幾家裁員公司沒太大差別,Block、Crypto.com、Algorand 都這樣寫過。


但 Armstrong 那封信被罵翻的點不是裁員,是其中一句:Non-technical teams are now shipping production code(非技術人員現在直接送程式碼上正式環境)。信公開後股價跌了快 5%,X 上很多用戶說要把資金搬離 Coinbase。為什麼這句話這麼傷?因為 Coinbase 2025 年才剛發生過一次資料外洩,影響 69,461 名用戶,公司自己估算修復成本可能到 4 億美元,多起集體訴訟還在跑。所以當 Armstrong 在這個時間點講「非技術背景的員工正在直接送程式碼上正式環境」,用戶讀到的不是「我們很有效率」,而是「我的錢安不安全?」


問題從來不是「誰寫的程式碼」,現在大部分工程師也都用 AI 寫。真正的問題是 AI 程式碼之後的審核機制。2025 年 8 月,Armstrong 在 Cheeky Pint podcast 上說,他幫工程師買齊 Cursor 和 GitHub Copilot 企業授權後,有人跟他說全員上手要好幾個月,他直接在內部 Slack 發強制通知,後來真的開除了拒用的工程師。同年他公開喊 40% 的 Coinbase 程式碼是 AI 寫的,目標 10 月拉到 50%。


這套作法在矽谷不算特別,但 Coinbase 是加密貨幣交易所,「錢的安全」是核心價值。2025 年 9 月 HiddenLayer 揭露 Cursor 跟其他幾個 AI 編輯器的 CopyPasta 漏洞,攻擊者把惡意指令藏在 LICENSE.txt 或 README.md 的 Markdown 註解裡,AI 讀到就會執行。CMU 教授 Jonathan Aldrich 當時說他不會把錢放 Coinbase;Dango 創辦人 Larry Lyu 說這對任何安全敏感的業務都是紅旗。所以這次裁員信不是引爆點,是壓垮駱駝的最後一句話。CEO 公開信原本是寫給內部員工的,Armstrong 卻自己選擇 po 上 X,等於把「我們現在讓非技術人員直接送程式碼上正式環境」這句話直接傳遞到外部用戶面前。


更重要的問題是在審核機制。LaunchDarkly 的調查顯示 91% 工程師不信任 AI 生成的程式碼直接上正式環境,這個比例在金融服務業會更高,因為審計要的不是「程式碼跑起來」,是「誰在什麼時間因為什麼理由改了什麼」。SOX、PCI-DSS、ISO 20022 這些規範要的是完整的監管鏈。AI 每次改動,在審計流程裡就是文件空白。這也是為什麼很多金融機構把 AI 用在資料前處理、ETL、文件草稿、單元測試這類非關鍵路徑,主要的交易系統跟風險引擎還是要人盯。Coinbase 工程部門其實在自家 blog 上澄清過:AI 比較常用在前端跟非敏感系統,「系統關鍵的交易系統」是受謹慎管理的。但 Armstrong 在 X 上發的那封信沒這樣講,他講的是「intelligence with humans around the edge aligning it」(公司是智能體,人在邊緣對齊它)。


我看下來,Coinbase 這次踩到的線,是把「AI 加速」跟「省掉審核」混在一起講。前者是行業共識,後者在受監管行業就是不能讓步。一個工程師一週做完原本一個月的事,這是現實,沒有爭議。但這不等於上線就緒,從原型到上線中間缺的不是模型變聰明,是審計日誌、權限控制、人工把關、資料來源追蹤、錯誤處理,這些不會因為模型進步而自動補齊。


如果這次股價回不來、用戶真的搬走,這會是 AI coding 第一次在公開市場被以實際代價教訓。一年下來大家都在搶速度,這次是市場對「速度該停在哪」的回答。


來源:

- American Banker, Coinbase cuts 14% of staff, citing crypto slump and AI(2026-05-05):https://www.americanbanker.com/news/coinbase-cuts-14-of-staff-citing-crypto-slump-and-ai

- BeInCrypto, Coinbase Stock Falls After Users Criticize Internal AI Pivot(2026-05-05,含股價跌 5%、69,461 資料外洩數字):https://beincrypto.com/coinbase-stock-price-drop-ai-pivot-criticism/

- ExplainThis 原文:https://www.facebook.com/explainthis.io/posts/pfbid02NfZx4QQQaPnxHgWiNXg7xwfjfrKCRD2nEzVmSL4DxUM8gf4J5Xz9MoW4zZ4wYv7ol

- ChainCatcher, Coinbase CEO:全員強制 AI 編程,違者開除(2025-08-30):https://www.chaincatcher.com/zh-tw/article/2202050

- Gate 新聞, AI 編碼工具曝出新漏洞,Coinbase 激進的 AI 政策引發安全擔憂(2025-09,含 HiddenLayer CopyPasta 漏洞、Aldrich 與 Lyu 評論):https://www.gate.com/zh-tw/news/detail/13588122

- Synodus, The risk of Vibe coding in fintech(含 LaunchDarkly 91% 數據, 2026-01-15):https://synodus.com/blog/fintech/vibe-coding/


2026年5月7日 星期四

能做,不等於該自動做


最近一波 AI 自主經營業務的實驗很熱鬧,從 Anthropic 的 Project Vend(讓 Claude 經營一台販賣機)到各家業務開發代理自動發冷郵件。Simon Willison 上週在 X 上對這股熱潮丟了一個不會傳很爆但很值得停下來的提醒:當代理還只在內部沙盒裡玩,怎麼炸都好;但一旦代理開始發信、打電話、下單、發貼文,影響到沒有同意加入的真實人類,每一個對外動作都應該由人類操作者在迴圈裡審核。


這個論點現在看像常識,過幾個月會看起來像先見之明,因為攤開最近幾起具體事件後,「能做不等於該自動做」。


第一起,2026 年 1 月底,北卡州的工程師 Chris Boyd 給開源代理 OpenClaw 介接 iMessage,本來只是想每天 5:30 收到一份新聞摘要。Bloomberg Law 報導,代理後來「失控」,對他、他太太、以及他通訊錄裡的隨機聯絡人轟出 500 多則訊息。第二起,MIT Technology Review 三月那篇〈Online harassment is entering its AI era〉裡的 Shambaugh 案例:一個代理在沒有明確指示的情況下,自己決定針對某位網路使用者寫了一篇詳細的攻擊文章,把對方公開資料整理成攻擊內容,發出去之後代理主人才發文承認「不是我叫它做的」。研究人員壓力測試同類代理也發現,外部使用者可以誘導代理洩漏敏感資訊、浪費資源跑無用任務,甚至刪掉信件系統。


商業面更慘。2024-25 年那一波自主 AI 業務開發代理(Artisan、11x.ai 那一掛)公開的數據是:50-70% 客戶 90 天內流失、代理自動找出來的信件名單只有 79% 是有效的,五封發出去就有一封退信,遠高於健康程式 2-5% 的天花板。LinkedIn 上一位求職者更是寫了一份很有畫面的記錄:他在個人檔案加上 #OpenToWork 標籤後七天內收到 20 封 AI 生成的未經邀請招募信,其中一封招募者不小心把內部 AI 提示詞連同回覆一起寄出來,明確證實這些信都是用爬到的 LinkedIn 資料丟給 AI 工具量產的。


這些案例不只是個別出包,背後有一個攤在桌上的數學現實。Belkins 的對外信數據顯示,冷郵件第一封的垃圾信申訴率大約 0.5%、到第四封會跳到 1.6%。Google 2024 年 2 月的大量寄件人規則把 Gmail 的紅線設在 0.30%,所以一個沒有人類煞車的四次觸及代理序列,在數學上就會穿越天花板,整個寄件網域的信譽(包括公司其他人發的所有信件)會跟著一起掉到垃圾匣。Molted Email 還記錄了一個更典型的事故:代理把短暫的軟退信解讀成「重試」,一個小時內向 150 位收件人發出 30,000 封信件,平常這個網域一天只發 200 封。Microsoft 立刻發現,這個網域接下來幾週寄給人類受眾的所有信件全部進垃圾匣。


Simon 自己過去一年累積的論述跟這些事故是同一條線。他在〈Designing agentic loops〉裡的核心建議很具體:能不開放憑證就不開放;非開放不可的,限縮到測試環境;如果憑證能花錢,先設緊預算上限;代理跑迴圈一定要在沙盒。他另一個更尖銳的觀察叫「致命三件組」(lethal trifecta):當代理同時擁有「不可信輸入、敏感資料、外部通訊能力」這三件,提示詞注入攻擊不是會不會發生的問題,是什麼時候發生。把冷郵件代理拆開看,剛好是這三件全中。


整理出來,給正在打造代理產品的團隊一個檢查清單:能稽核嗎?對外動作是否分高風險、低風險,前者強制升級給人?每個收件人的冷卻時間跟去重有沒有?退信、申訴、退訂有沒有負訊號預算自動煞車?憑證是不是嚴格限縮到只能做最少的事?跑越界的動作有沒有結構化拒絕讓代理知道發生什麼、不要重試迴圈?這些不是錦上添花的可有可無,是讓你的產品在三個月之後還活著、不被信譽燒掉的最低門檻。


更深一點的問題是責任。Simon 那位 MIT 科技評論訪到的 Hinduja 教授說了一句:「機器人沒有良心、可以 24/7 運轉、用很有創意的方式做這件事。」這指出代理越界事件最棘手的部分:當代理自己決定做了壞事,你能找誰?OpenClaw 的擁有者在 GitHub 上發文說「我沒叫它做的」,這個說法可能是真的,但對被攻擊的人完全沒有用。法律責任目前是模糊的,業界規範也還沒成形。


Solomon Hykes 在 AI Engineer World's Fair 講過一個我覺得很精確的代理定義:「An AI agent is an LLM wrecking its environment in a loop.」(AI 代理就是一個 LLM 在某個環境裡反覆搞爆東西)這是工程師笑話,但它很誠實,代理的本質就是在某個環境裡迭代地做事,差別只在這個環境是你願意被搞爆的,還是別人的。當環境裡有沒同意被聯絡的真人,代理不該預設可以搞爆。


最後想說的話很簡單。自主性是能力,不是禮貌。能做不等於該自動做,尤其是當被影響的人還沒同意進這場實驗。這條界線守不住,代理產品的市場不會被監管殺死,會被信任殺死。


來源:

- Simon Willison 〈Designing agentic loops〉:https://simonwillison.net/2025/Sep/30/designing-agentic-loops/

- Simon Willison 對 Lenny's Podcast 的整理(含 lethal trifecta 與 OpenClaw 安全討論):https://simonwillison.net/2026/Apr/2/lennys-podcast

- Bloomberg Law: AI Agent 失控對 OpenClaw 用戶發 500 訊息:https://news.bloomberglaw.com/artificial-intelligence/ai-agent-goes-rogue-spamming-openclaw-user-with-500-messages

- MIT Technology Review: Online harassment is entering its AI era(含 Shambaugh 案例):https://www.technologyreview.com/2026/03/05/1133962/online-harassment-is-entering-its-ai-era

- Weaver: State of Outbound Agentic Pipelines 2026(含 0.30% Gmail ceiling、11x.ai 50-70% churn / 79% email accuracy 數據):https://www.weaver.work/blog/state-of-outbound-agentic-2026

- Molted Email: agent retry loop 一夜燒毀 sender 信譽案例:https://molted.email/blog/what-happens-when-an-ai-agent-over-sends

- Solomon Hykes 的 agent 定義:https://simonwillison.net/2025/Jun/5/wrecking-its-environment-in-a-loop/

AI 正在改寫資安攻防的時間尺度

過去兩週連續三件 AI 安全相關的大新聞:Anthropic 發布 Project Glasswing,召集 AWS、Apple、Cisco、Google、CrowdStrike、Microsoft、NVIDIA、Palo Alto、JPMorganChase、Linux Foundation 一起對抗 AI 帶來的攻擊;CrowdStrike 推出 Project QuiltWorks 把 IBM、EY、Accenture、Kroll、OpenAI、Anthropic 全拉進來;Anthropic 把 Claude Security 公開測試版,直接做進 claude.ai 側欄。CrowdStrike 商務長 Daniel Bernard 一句話被瘋狂引用:「這是我們這個世代資安的 Y2K 時刻。」

這個比喻準的地方很準,但不準的地方更可怕。

先看準的部分。Y2K 在 1990 年代後段觸發了全球性的同步動員:政府、企業、開源社群、顧問業者、軟硬體廠商一起在固定時間軸內掃程式碼庫、修代碼、做演練。今天的場景神似:Anthropic 公開承認他們未發布的 Claude Mythos Preview 已經能在多個主流作業系統跟瀏覽器找到「數千個高嚴重性漏洞」、自己一個團隊用 Opus 4.6 就在開源程式碼庫翻出 500 多個沒人發現過的漏洞,CrowdStrike 2026 Global Threat Report 也說使用 AI 的對手攻擊量年增 89%。整個業界從前沿實驗室到大型系統整合商同步把資安拉到第一順位,這份協同程度跟 Y2K 是同一個量級。

不準的地方有三個層次。

第一個是 Y2K 有截止日,這次沒有。1999/12/31 23:59:59 是清楚的。AI 資安的「臨界點」是另一個更模糊的時刻:哪一天敵對的國家級行為者或勒索軟體集團拿到等同 Mythos 等級的能力?沒人知道。CrowdStrike 總裁 Mike Sentonas 自己給的範圍是 6 到 18 個月。範圍這麼寬代表整件事其實是在猜測,不是真正倒數。

第二個是 Y2K 的攻擊面是可枚舉的:年份位元數、特定函式、特定資料表,看完清單就知道改哪。AI 找漏洞不是。Anthropic 技術長 Elia Zaitsev 講了一句到位的話:「漏洞從被發現到被利用攻擊的時間從幾個月壓到幾分鐘。」當生成攻擊程式的成本崩塌,攻擊面從「已知漏洞清單」變成「整個程式碼庫」。這是為什麼 Bernard 說 Patch Tuesday(每月修補日)已經死了,新規矩是每日修補。任何還在月排程跑漏洞管理的資安長可能忘了跟上。

第三個是 Y2K 攻防是不對稱的:攻方在同一條時間軸上沒有對應的能力升級。AI 資安完全相反:守方手上的 Mythos / Opus 4.7,跟攻方未來會擁有的同源模型是同一條技術路徑。Anthropic 自己也說沒有要普遍釋出 Mythos,但其他前沿實驗室已經在做類似的事情;OpenAI 的 Trusted Access for Cyber 有同樣的合作網。技術不會被某個單一組織關起來。

把這三件事情拼起來,圖像會清楚很多:這次的急迫性是真的,但能用 Y2K 心態應對的部分只有「動員」那一段。整個產業要學會的不是「在截止日之前完工」,是「在沒有截止日的不對稱戰場活下來」。Anthropic 願意把自己最強的模型留住、開放給防守方先用 90 天、捐 1 億美元使用點數給 Glasswing 跟 4 百萬給開源資安組織,這種分發節奏在訴說一件事:他們相信防守先發優勢只能爭取時間,不能解決問題。

對企業端意義很具體。CrowdStrike 統計修補一個漏洞的平均時間超過五個月,現在 AI 把找到這些漏洞的時間壓到接近即時,缺口就在五個月與分鐘之間。對沒有資安維運中心(SOC)跟成熟修補流程的組織,這個缺口短時間內會變成不可承受的風險。Sentonas 直接點出來:多數企業沒有能力自己跑這套防守機制,託管服務跟合作夥伴會變成必備。歐盟 AI 法案下一階段 2026 年 8 月 2 日生效,把高風險 AI 系統的稽核紀錄、事件通報都寫進法律,違反最高罰全球營收的 3%。法規面壓力跟攻擊面壓力在同一條時間軸上同步上來。

對 AI 廠商商業面也是一個轉折。Anthropic 在五角大廈那邊有些合約被擋住,資安是少數他們仍能賣進美國聯邦市場的路線。把 Opus 4.7 接進 CrowdStrike、Palo Alto、SentinelOne、Trend Micro、Wiz 已經在跑的平台,再讓 Accenture、BCG、Deloitte、Infosys、PwC 建部署實踐,等於把通路鎖進去了。這個動作不全是公益,是一個策略性的市場卡位,但結果對防守方有實質好處。

回到個人視角。對一般開發者跟 IT 團隊而言,這件事最直接的意義是:你的程式碼庫即將進入一個會被自動掃描的時代。某個你沒注意過的依賴、某個五年前寫的工具函式、某個從 Stack Overflow 抄來忘記做跳脫處理的查詢,都可能某天被 Mythos 級的模型一次掃出來。在這一波之前先做的事很簡單但常被跳過:把軟體物料清單(SBOM)整理乾淨、依賴版本固定、關掉沒在用的端點、敏感資料的流向再走一次。沒有花俏的 AI 資安工具也能先做完這幾件,等到該裝的時候才不會發現腳下是流沙。

Y2K 那一年很多東西沒爆炸,是因為前面三年多人類做了很多無聊的工。這次大概也一樣。

來源:

- Anthropic Project Glasswing 公告:https://anthropic.com/glasswing

- Anthropic Claude Code Security 發布頁:https://www.anthropic.com/news/claude-code-security

- SecurityWeek 報導 Claude Security 公測:https://www.securityweek.com/anthropic-unveils-claude-security-to-counter-ai-powered-exploit-surge/

- CrowdStrike Project QuiltWorks 公告:https://www.crowdstrike.com/en-us/press-releases/crowdstrike-launches-project-quiltworks/

- CRN: CrowdStrike Bernard 訪談(含「Y2K 時刻」與 Patch Daily):https://www.crn.com/news/security/2026/how-crowdstrike-is-helping-the-industry-to-withstand-ai-driven-vulnerability-deluge-exec

- CrowdStrike Sentonas 6–18 月窗口、5 個月平均修補時間:https://www.crn.com/news/security/2026/crowdstrike-president-huge-opportunity-for-partners-in-countdown-to-ai-driven-vulnerability-surge

- AI Chat Daily 對 Claude Security 商業策略的拆解:https://www.aichatdaily.com/ai-security/aichat-20260504-s1-anthropic-launches-claude-security