最近,全球 AI 圈都在被一個詞震撼—— OpenClaw(龍蝦)。
OpenClaw 有多熱?在國內(nèi),上門安裝 " 龍蝦 " 都成了暴利生意,幾天賺 26 萬;在海外,紐約、曼谷等城市,甚至出現(xiàn)了 " 龍蝦教 " ——成百上千的 " 龍蝦教徒 " 搶爆線下活動門票,把場地圍得水泄不通 ……
而當用戶真的用上 OpenClaw 才發(fā)現(xiàn),它還沒開始掙錢,就先耗空你的錢包:有程序員養(yǎng) " 龍蝦 ",日消耗數(shù)千萬到上億 Token;更有重度使用者一天就消耗 10 億 Token,花費數(shù)千美元。
也因此,中國的 Token 出海正成為一項新產(chǎn)業(yè)——在全球最大的 AI API 聚合平臺 OpenRouter 上,剛過去的 2 月,MiniMax 的 M2.5、月之暗面的 Kimi K2.5、DeepSeek 的 V3.2 三款國產(chǎn)模型的 Token 消耗量躋身全球前五;平臺前十模型的總 Token 消耗約 38.2 萬億,其中中國模型獨占 17.3 萬億,占比 45%。
盡管 OpenRouter 主要聚集了全球的個人開發(fā)者,在全球 AI 支出市場份額中只占很小比重,但這份 Token 消耗榜仍是中國 AI 大模型走向全球的最好注腳。
"Token 出海 " 這一概念并非空洞敘事,而是中國大模型通過 API 形式向全球輸出推理服務的跨境商業(yè)模式。
過去,人們評價一個模型,往往從參數(shù)、運算以及各種榜單排名上去看,但這些維度仍停留在實驗室的視角;如今,當 AI 智能體成為人們的助手、進入應用落地期,Token 消耗成為衡量應用規(guī)?;暮诵闹笜恕?/p>
或許,正如一位行業(yè)分析師所言,2026 就是 AI 算力敘事的分水嶺,從今年開始,市場對 AI 大模型只認兩個指標——你的 Token 生成速度是多少?你的百萬 Token 成本是多少?
1 個月前,AI 圈的焦慮還是誰能先用上 OpenClaw。
那時,但凡一場 OpenClaw 相關的活動,就有上萬乃至數(shù)萬人圍觀;但凡一個技術社群,人們討論最多的就是誰跑通了 OpenClaw,誰養(yǎng)起了 " 龍蝦 "。好像誰晚了一步,誰就要被時代拋棄,被財富拋棄。
然而當?shù)谝慌?" 龍蝦 " 的人開始真的用上它后,就被失控般的 token 消耗震驚:
這些都是實實在在的真金白銀,而且一旦跑起來還不能停下,Token 帶來的焦慮感似乎肉眼可見。
就在 3 月 6 日,ChatGPT 也發(fā)布最新的 5.4 版本,不僅擁有更強的工具調(diào)用和智能體工作流,據(jù)稱其電腦操作能力比肩人類,還將上下文長度提升至 1M。更長的上下文,讓用戶的直接感受就是 " 貴 " ——有開發(fā)者拿它寫了半套 OpenClaw,賬單就讓人心疼了,甚至隨便聊兩句下來一天就要十幾美元。
那為什么過去人們用 AI 對話時從來不提 Token,而現(xiàn)在 OpenClaw 卻讓 Token 消耗失控了?
要理解這種失控,需先看清智能體和傳統(tǒng)對話式 AI 的差別。傳統(tǒng)對話模型就像兩人的簡單對話,用戶提問 - 模型回答,過程中的 Token 消耗是離散的、短暫的,一次頂多幾千、上萬;但 OpenClaw 這類自主智能體,則像一位全天候在崗的數(shù)字員工,它在你的指令下即要拆解目標、規(guī)劃步驟,還要調(diào)用工具、檢查結果,并且根據(jù)結果反饋再回退重試、自動循環(huán) …… 每一步都在消耗 Token,每一輪對話都在放大成本——就像是個沒有開關的水龍頭,一次流淌百萬、千萬個 Token 都不在話下。
因此,這種 Token 的消耗增長已不是線性的,而是指數(shù)級的。
IDC 的數(shù)據(jù)更讓人震驚:到 2030 年,全球活躍 AI 智能體將達 22.16 億,年度 Token 消耗量將從 2025 年的 0.0005 PetaTokens 飆升至 152,667 PetaTokens ——增長超 3 億倍。
這些消耗的 Token,就是實實在在的金錢。" 過去用 AI 大模型,可能我的日均消耗量就幾十塊錢,還不用在乎;但現(xiàn)在的日均消耗變成幾百塊錢,而且在某些情況下我其實不需要非得用頭部模型,我可以根據(jù)不同任務適配不同的模型。" 無問芯穹首席解決方案架構師劉川林稱。
這種情況下,中國模型在 Token 成本上的優(yōu)勢就顯而易見。
以 Anthropic 為例,其最新旗艦模型 Claude Sonnet 4.6 的每百萬 Token 輸出 15 美元;而 MiniMax 最新的 M2.5 模型海外定價 Lightning 版本百萬 Token 輸出為 2.4 美元,不足前者的 1/6。
3 月 2 日晚間,MiniMax 披露了上市后的首份財報。根據(jù)財務數(shù)據(jù),其 M2 系列文本模型在 2026 年 2 月的單日 Token 消耗量已增長至 2025 年 12 月的超 6 倍;其中來自編程套餐(Coding Plan)的 Token 消耗量增長超過 10 倍。而今年春節(jié)前后,Kimi 也憑著旗下 K2.5 大模型的優(yōu)秀性能和低成本,獲得大量全球付費用戶及 API 調(diào)用,20 天收入就超過 2025 年全年總收入。
過去,中國 AI 大模型在海外開源社區(qū)靠刷榜贏得贊譽;如今,我們靠著實打?qū)嵉?Token 成本優(yōu)勢,讓海外 AI 開發(fā)者用腳投票。
靠著 Token 成本優(yōu)勢,中國 AI 大模型已經(jīng)在海外霸榜了嗎?
這里要祛魅一下。盡管近幾周的 OpenRouter 周榜上,中國模型幾乎霸占前五,但 OpenRouter 的主要用戶還是全球個人開發(fā)者、獨立黑客和初創(chuàng)公司,它們在全球 AI 支出中的市場份額也僅占 2% 左右,真正的流量大頭還是那些財富 500 強企業(yè)、大型 SaaS 廠商(如 Salesforce、Microsoft),它們消耗了全球 90% 以上的 Token,但不會通過 OpenRouter 調(diào)用模型,而是直接對接像 OpenAI、Anthropic 這樣的官方 API 或通過 Azure/AWS 來托管。
此外,像 ChatGPT、Gemini 以及 Claude 這種 AI 巨頭,它們絕大部分的流量是在自家閉源生態(tài)內(nèi)運行,也不經(jīng)過 OpenRouter。
盡管這些都是閉源模型,但從一些披露的信息中也可見端倪。根據(jù)微軟 Azure 的披露,2025 年 6 月,僅 Azure OpenAI 的日均調(diào)用量就達 4.4 萬億 Tokens,按月算其調(diào)用量更是超過 130 萬億 Tokens;而 2025 年 7 月谷歌披露的月度 Token 使用量更是高達 960 萬億,是 Azure OpenAI 的 7 倍以上。因此,即使 OpenRouter 顯示的 Token 消耗高峰周(接近 18 萬億),也只是 Azure OpenAI 4 天的 Token 消耗量。
因此,OpenRouter 的榜單數(shù)據(jù),更多是說明,中國大模型的 Token 主要滿足了那些追求低成本開發(fā)者的需求,而沒有進入最廣闊的全球企業(yè)級 AI 市場。
今天,DeepSeek、Qwen 等中國模型已經(jīng)在海外開源模型拿下過半市場份額,為何進不了更大海外企業(yè)級市場?
這是因為,一方面歐美科技巨頭在海外市場布局比中國企業(yè)更早、更深,微軟的 Azure、谷歌的 Google Cloud、亞馬遜的 AWS 都已在全球市場扎根數(shù)十年,形成了牢固的企業(yè)生態(tài),而今天 AI 與云計算已經(jīng)深度綁定,自然它們更容易拿下已打下基礎的企業(yè)級市場。
另一方面,隨著科技發(fā)展、地緣緊張,數(shù)據(jù)主權成為國家安全的重要部分,歐美企業(yè)(尤其是金融、醫(yī)療、政府)對數(shù)據(jù)的合規(guī)和安全極其敏感,因此他們也更傾向與本國的云、AI 廠商合作。
不過,這一歐美企業(yè)筑起的圍墻,正開始出現(xiàn)裂痕。2025 年 10 月,Airbnb CEO 布萊恩就表示,公司正 " 大量依賴阿里巴巴的通義千問模型 "," 我們也會使用 OpenAI 的最新模型,但通常不會在生產(chǎn)環(huán)境中大量使用,因為有更快、更便宜的模型可供選擇。" 當年 9 月,德國的梅賽德斯 - 奔馳與字節(jié)跳動合作,涉及豆包大模型、AI 云原生算法、智駕云等,豆包也就順勢 " 坐 " 上了奔馳。再往前,寶馬、 SAP 也均與通義千問大模型合作。
隨著 AI 對傳統(tǒng)企業(yè)的 " 逼迫 " 加劇,許多歐美企業(yè)在向 AI 轉(zhuǎn)型時已表現(xiàn)出 " 誰便宜用誰 " 的傾向。而中國 AI 大模型則憑借性價比優(yōu)勢打開局面——這可能是中國 AI 模型未來通過 " 被集成 " 方式(作為幕后廉價算力提供商)滲透進全球 SaaS 生態(tài)的最好機會。
接著又來了新問題——為什么中國大模型能走性價比路線?
浪潮信息首席 AI 戰(zhàn)略官劉軍曾表示:
Token 成本不是財務問題,是戰(zhàn)略問題。誰能把成本壓下來,誰就拿到了智能體規(guī)模化的入場券。
Token 成本 ≈ 模型一次 " 思考 " 的電費 + 芯片折舊費。其中,芯片折舊費是單次購買,然后隨著每一次計算再不斷折舊;而電力是數(shù)據(jù)中心持續(xù)運轉(zhuǎn)的燃料。我們曾跟多位數(shù)據(jù)中心從業(yè)者交流,通常一個數(shù)據(jù)中心運營成本中,電費要占 50% 以上,一個大型 AI 數(shù)據(jù)中心的年電力賬單就可達數(shù)億美元。
從 Token 成本的構成看 —— 芯片折舊拼的是產(chǎn)業(yè)創(chuàng)新,而電費拼的是國運級基礎設施。
而說到電力,全球范圍內(nèi)幾乎只有中國的電力供應和電力設施是最完善的。美國則因越來越大的數(shù)據(jù)中心電力消耗,正在引發(fā)電荒。
今年 2 月初,美國紐約州議員就提出法案,要暫停發(fā)放數(shù)據(jù)中心新建及運營相關許可證,暫停令為期三年。原因是紐約州數(shù)據(jù)中心總數(shù)已超過 130 座,由于數(shù)據(jù)中心耗電巨大,有高達 10 吉瓦的用電需求正在排隊接入電網(wǎng),短短一年內(nèi)這一數(shù)字增長了 3 倍。因此,紐約州州長開始要求數(shù)據(jù)中心 " 承擔其應承擔的成本 "。
除了紐約外,美國其他多個州也開始對數(shù)據(jù)中心單獨收取更高的電費,甚至還要求數(shù)據(jù)中心提供長期承諾和財務抵押擔保。
這背后并不是因為美國真的缺電(美國總發(fā)電容量是超過總用電量的),而是因為很多美國電力設施已經(jīng)老舊,無法承受 AI 訓練全年無休、滿負荷運行的高負荷強度。而由于美國電力分配不均,而且數(shù)據(jù)中心的接入速度遠大于發(fā)電建設速度,因此老舊的電力設施就卡住了數(shù)據(jù)中心的脖子。
這種結構性問題,短時間內(nèi)難以解決,因此倒逼著一些大型數(shù)據(jù)中心自建電站,并承擔電網(wǎng)升級的費用,也因此抬高了 AI 企業(yè)的算力成本。
但反觀中國,過去幾年中國已悄悄從頂層設計上布下一張大棋。
2020 年國家推出新基建,將 AI 算力、特高壓等作為新型基礎設施提前布局,建成了一張全球規(guī)模最大、穩(wěn)定性最強、新能源消納能力最強的交直流混聯(lián)大電網(wǎng),也是全球唯一實現(xiàn)特高壓大規(guī)模商業(yè)化運營的電網(wǎng)。這種穩(wěn)定性,幾乎可以避免大規(guī)模停電的情況,讓大模型的訓練 / 推理不會因斷電而廢掉進度;而且容量超大,想擴卡就能擴,不會被電網(wǎng)容量卡脖子。
2022 年,國家再落下一子——推出東數(shù)西算工程,將東部算力需求引導到綠色電力資源豐富的西部。換句話,這就是讓最耗電的 AI 數(shù)據(jù)中心離擁有最便宜電力的地方最近。這使得 AI 數(shù)據(jù)中心的運營成本直接降低了 30%-50%。
2025 年,國家又在雅魯藏布江下游投入 1.2 萬億元布局雅江水電站,這將是全球最大的水電項目,建成后其年發(fā)電量約 3000 億千瓦時,可滿足全國約 3% 的電力需求。這將把西部的電力成本再往下拉一大截。
至此,Token 成本的 " 西升東降 " 格局已然清晰——在未來海量智能體同時在線的世界,中國可以用最低成本的 Token 把 AI 服務輸送到全世界。
當算力不再被電力束縛,中國 AI 出海的想象空間,才真正開始打開。
來源:霞光AI實驗室
