軟終於撐不住了,GitHub Copilot 從月費制改為按 token 計費。這不是產品升級,而是整個 AI […] 〈GitHub Copilot改收費,揭開了AI產業「最大的謊言」〉這篇文章最早發佈於動區BlockTempo《動區動趨-最具影響力的區塊鏈新聞媒體》。軟終於撐不住了,GitHub Copilot 從月費制改為按 token 計費。這不是產品升級,而是整個 AI […] 〈GitHub Copilot改收費,揭開了AI產業「最大的謊言」〉這篇文章最早發佈於動區BlockTempo《動區動趨-最具影響力的區塊鏈新聞媒體》。

GitHub Copilot改收費,揭開了AI產業「最大的謊言」

2026/05/01 13:59
閱讀時長 44 分鐘
如需對本內容提供反饋或相關疑問,請通過郵箱 crypto.news@mexc.com 聯絡我們。

軟終於撐不住了,GitHub Copilot 從月費制改為按 token 計費。這不是產品升級,而是整個 AI 產業補貼騙局的集體破產。本文源自 AI 知名評論者 Ed Zitron 的文章《AI’s Economics Don’t Make Sense》,由深潮編譯、重新整理。
(前情提要:GitHub Copilot 喊停自助訂閱:AI 用量失控,平價方案經濟學已全面崩潰
(背景補充:AI 時代還需要學寫程式?GitHub CEO 告訴你開發者的未來價值在哪

剛寫了一篇關於 OpenAI 如何幹掉 Oracle 的文章,今天這篇用了其中一些材料。

這是我寫過最好的文章之一,我非常自豪。

訂閱付費版既超值,也讓我能每週寫出這些大型、深度研究的免費文章。

昨天早上,GitHub Copilot 使用者得到了我一週前報導過的訊息確認——所有 GitHub Copilot 計劃將在 2026 年 6 月 1 日改為按使用量計費。

微軟不再給使用者一定數量的「請求次數」,而是根據使用者實際使用的模型成本收費,微軟稱這是「……朝著可持續、可靠的 Copilot 業務和所有使用者體驗邁出的重要一步。」使用者現在能用多少,取決於他們訂閱費能買多少 token(比如每月 19 美元的計劃能用 19 美元的 token)。

翻譯:我們不能繼續補貼 GitHub Copilot 使用者了,否則 Amy Hood(微軟 CFO)會開始用棒球棒打人。

這份公告本身就是個有趣的預覽,展示了這些價格變動會如何被包裝:

Copilot 已經不是一年前的產品了。它已經從編輯器內的助手進化為一個能執行長時間、多步驟編碼會話的智慧體平台,使用最新模型,在整個程式碼庫中迭代。智慧體使用正在成為預設模式,這帶來了顯著更高的計算和推理需求。

現在,一個快速的聊天問題和一個數小時的自主編碼會話,使用者付的錢可能是一樣的。GitHub 一直在吸收這種使用背後不斷攀升的推理成本,但目前基於請求次數的高階模式已經不可持續了。按使用量計費解決了這個問題。它更好地將定價與實際使用對齊,幫助我們維持長期服務可靠性,並減少限制重度使用者的需要。

你看,不是微軟在補貼近兩百萬人的算力,而是 AI 變得如此強大、複雜,基本上成了一個不同的產品!

雖然 Copilot 可能「不是一年前的產品了」,但底層經濟錯配幾乎沒變:微軟三年來一直允許使用者每月燒掉超過訂閱費的 token。根據《華爾街日報》2023 年 10 月的報道:

個人使用者每月支付 10 美元使用這個 AI 助手。根據一位知情人士透露的資料,今年前幾個月,該公司平均每個使用者每月虧損超過 20 美元,有些使用者每月讓公司花掉 80 美元。

自然,GitHub Copilot 使用者現在造反了,說產品「死了」、「徹底毀了」。

我兩年前在《次貸 AI 危機》中就預言過這一天:

那一天終於到了,因為你用的每一個 AI 服務都在補貼算力,每一個服務都因此虧錢:

當你為 AI 創業公司的服務付費時——當然包括 OpenAI 和 Anthropic——你支付的是月費,比如 Anthropic 的 Claude 每月 20、100 或 200 美元,Perplexity 每月 20 或 200 美元,或者 OpenAI 每月 8、20 或 200 美元的訂閱。

在一些企業場景中,你會得到某些工作單位的「額度」,比如 Lovable 在每月 25 美元的訂閱中給使用者「100 個月度額度」,以及 25 美元的雲託管(到 2026 年第一季度末),額度可以跨月滾存。

當你使用這些服務時,相關公司要麼按每百萬 token 的費率向 AI 實驗室付費,要麼(對於 Anthropic 和 OpenAI)向雲服務商支付租用 GPU 執行模型的費用。一個 token 基本上是 3/4 個單詞。

作為使用者,你感受不到 token 消耗,只是輸入和輸出的過程。AI 實驗室用「tokens」、「訊息」或帶百分比計的 5 小時速率限制來掩蓋服務成本,你作為使用者,並不真正知道這一切要花多少錢。

在後端,AI 創業公司在瘋狂燒錢,直到最近 Anthropic 還允許你每花 1 美元訂閱費就燒掉高達 8 美元的算力。OpenAI 也允許你這樣做,雖然很難衡量具體多少。

AI 創業公司和雲服務巨頭以為,他們能用補貼、虧損的產品吸引足夠多的人,讓使用者上癮到當企業提價時也拒絕更換。我想他們還以為,token 成本會隨時間下降,但實際發生的是——雖然一些模型的價格可能降了,但更新的「推理」模型燒掉更多 token,這意味著推理成本不知怎麼隨時間變得更高了。

兩個假設都錯了,因為月訂閱模式對任何連線大語言模型的服務來說都說不通。

這樣想吧。當 Uber(不,這和 Uber 完全不一樣)開始提高打車價格時,底層經濟邏輯沒變,呈現給乘客和司機的也沒變——使用者為一次行程付費,司機因一次行程收費。

司機仍然要付油費、車險、當地政府可能要求的許可證,以及車輛可能產生的融資成本,這些成本不由 Uber 補貼。Uber 的鉅額虧損來自補貼、無休止的行銷費用,以及註定失敗的無人駕駛汽車等研發努力。

為了說明 AI 定價錯配的規模,我要請你想象一個 Uber 有著非常不同商業模式的平行歷史。

生成式 AI 訂閱就像如果 Uber 每月收 20 美元讓你打 100 次 100 英里以內的車,汽油 150 美元一加侖,而且 Uber 付油費,因為有人堅持認為石油總有一天會便宜到不值得計量。

Uber 最終會決定開始收取使用者月費來獲得打車資格,然後按使用者消耗的汽油收費。突然間使用者從每月 20 美元打 100 次車,變成支付 20 美元獲得打車資格加上 10 英里行程 26 美元的油費。使用者自然會有點不爽。

雖然這聽起來有點誇張,但實際上是生成式 AI 產業正在發生的事情的相當準確的隱喻,尤其是在 GitHub Copilot。

GitHub Copilot 之前的定價允許每月 300 次高階請求,以及使用 GPT-5 mini 等模型的「無限聊天請求」。

每個請求(引用微軟的話)是「……你要求 Copilot 為你做某事的任何互動」,在基於請求的系統後期,更昂貴的模型會佔用更多請求,比如 Claude Opus 4.6 佔用三次高階請求。當你用完高階請求時,Copilot 會讓你在本月剩餘時間裡隨意使用那些更便宜的模型。

情況也並非一直如此。直到 2025 年 5 月,微軟還給使用者無限使用模型,即便如此使用者也對產品有任何限制感到憤怒。

微軟——像每家 AI 公司一樣——透過銷售不可持續的服務欺騙了客戶,因為銷售基於月訂閱的 LLM 驅動服務從來、從來都說不通。

如果你想知道基於 token 計費的服務可能要花多少錢,GitHub Copilot 子版塊的一位使用者發現,過去一次高階請求的 token 消耗大約是 11 美元,因為一次「請求」涉及在上下文視窗中使用 60,000 個 token、幾個工具,以及一堆內部「輪次」(模型在做的事情)來產生輸出。

還有容易產生幻覺的大語言模型的底層不可靠性。雖然一次高階請求陷入死迴圈並吐出半殘程式碼可能令人沮喪,但當你自己付費時,同樣的故障就沒那麼容易原諒了。

使用者也被訓練成以一種完全不同於基於 token 計費的方式使用產品,我想很多人甚至都沒真正意識到他們燒了多少「tokens」,或者某項特定任務需要多少,這會根據你使用的模型而變化。

這和 Uber 完全不同,任何告訴你相反的人都是在試圖為惡劣行為辯護。Uber 可能提高了價格,但它不必戲劇性地改變平台的底層經濟邏輯,使用者也不必完全改變他們使用產品的方式,因為 Uber 突然開始按每加侖收費。

從來沒有——也永遠不會有——一種經濟上可行的方式來提供由 LLM 驅動的服務,除非按每個使用者實際的 token 消耗收費,而在欺騙這些使用者的過程中,這些公司創造了具有虛幻好處和可疑投資回報的產品。

這多年來一直顯而易見。

從經濟學角度看,月訂閱只有在成本相對靜態時才合理。健身房可以銷售會員資格,因為大致知道裝置磨損多少、課程營運成本、以及電、員工和水在特定時期內可能花多少錢。

Google Workspace 的客戶——至少在 AI 之前——的成本是訪問或儲存檔案的費用,以及 Google Docs 和其他服務的持續成本。數字儲存成本相對較低(而且與 LLM 不同,Google Workspace 對計算需求不高),意味著一個特別重度的 Google Drive 使用者不會侵蝕他們月訂閱的利潤。

然而這些服務故意隱藏 token 數量或某項特定活動花了多少錢,這意味著使用者並不真正知道速率限制意味著什麼,這意味著速率限制的每次突然變化都讓客戶拼命想弄清楚他們能用服務做多少實際工作。

這是一種虐待性、操縱性和欺騙性的經商方式,它存在的唯一目的是讓 Anthropic、OpenAI 和其他 AI 公司能夠擴大使用者基礎,因為大多數 AI 使用者完全透過能夠每花 1 美元訂閱費就燒掉 8 到 13.5 美元的 token 這個視角來感知其真實或想象的好處。

這種故意的欺騙行為只有一個目標:確保大多數人永遠不會接觸到生成式 AI 的真實成本。

當《大西洋月刊》寫一篇關於 Claude Code 是 Anthropic 的「ChatGPT 時刻」的激情檄文時,它基於的是每月 20 美元的訂閱,而不是 Anthropic 提供它所花費的底層 token 消耗,這反過來讓作者原諒模型可能犯的「小錯誤」,或者當它「在更復雜的程式設計任務上卡住」時。

如果作者為她實際的 token 消耗付費,而且每次卡住都導致 15 美元的 token 費用,我不認為她會如此原諒這些故障。

但這都是騙局的一部分。

非常、非常重要的是,主流媒體中寫 AI 的人實際上不理解這些服務要花多少錢,而且任何關於 ChatGPT 或 Claude Code 等服務的主流文章都是由幾乎不知道每項單獨任務可能讓使用者花多少錢的人寫的。

記住:生成式 AI 服務大多是實驗性產品,功能不像任何其他現代軟體或硬體。人們不能就這樣走到 ChatGPT 或 Claude 面前開始要求它工作。

我是說,你可以,但如果你提示不對、不理解它如何工作、或者在你餵給它的東西里犯錯,或者如果它就是搞錯了,它會吐出你不喜歡的東西,這反過來意味著你需要再次提示它。LLM 本質上是不可預測的。

你無法保證 LLM 會執行某個特定動作,或者它會呈現給你一個基於現實的結果。你無法確定某項特定任務——即使是你過去用 LLM 做過很多次的——可能要花多少錢,你也無法確定模型何時可能發瘋刪掉什麼東西,或者乾脆不做某事卻聲稱它做了。

如果使用者被迫支付實際費率,我想很多人會立刻放棄產品,因為如果你瞎折騰探索 LLM 能做什麼,很容易就燒掉 5 美元的 token。

旁註:事實上,你可以在從未得到你想要的結果的情況下燒掉大量錢,因為 LLM 根本不是真正的人工智慧!沒有任何真正理解其侷限性的人可以輕易燒掉 30、50 甚至 100 美元,試圖說服 LLM 做它堅稱自己能做的事。

有個術語形容這個。諂媚。LLM 通常被設計為肯定使用者,即使他們在說危險的瘋話,這可以延伸到說「你想要這個技術上或經濟上完全不可行的大事?」當然可以!這就是為什麼產業如此努力地掩蓋這些成本——這就是他媽的敲竹槓!

我認為大多數 AI 訂閱轉向基於 token 的計費是不可避免的,尤其是 Anthropic 和 OpenAI 現在都已經對企業客戶這樣做了。

正如我上週討論的,Uber 的 CTO 在一個會議上說它在幾個月內就花完了 2026 年的整個 AI 預算,高盛建議一些公司在 AI token 上花費高達員工薪酬的 10%,有可能在未來幾個季度增加到 100%。

這是訓練每一個 AI 使用者儘可能多地使用這些服務同時掩蓋其真實成本的直接結果。每一家要求每一個員工「儘可能多地使用 AI」的大公司都是在基本上忽略或完全脫離其實際 token 消耗的情況下這樣做的,而隨著公司被迫支付實際成本,我不確定你如何能在經濟上證明對這項技術的任何投資是合理的。

當然,你會說工程師「更快地交付程式碼」之類的廢話,我懂。但到底快了多少?你因此賺了或省了多少錢?如果你把 10% 的人力成本花在 AI token 上,這筆額外開支有沒有從其他地方補回來?

我不確定有。我不確定任何在 token 上投入巨資的企業看到了投資回報,這也是為什麼每項關於 AI 投資回報率的研究都找不到多少存在證據。

大多數情況下,你讀到的那些對生成式 AI 各種可能性津津樂道的人,都是在不用承擔真實成本的情況下體驗它的。

每個在 Twitter 上沒完沒了寫他們整個工程團隊瘋狂使用 Claude Code 的瘋子,用的都是每人每月 125 美元的 Teams 訂閱,使用限制和 Anthropic 面向消費者的 100 美元月費訂閱差不多。每個在 LinkedIn 上堅稱自己用某個 Perplexity 產品「幾分鐘完成數小時工作」的怪物,最多也就是每月花 200 美元買 Perplexity 的 Max 訂閱。

實際上,那個 10 人、每月 1250 美元的 Teams 訂閱,很可能每月要燒掉 5000 到 10000 美元的 API 呼叫費用,甚至更多。

Anthropic 增長主管 Amol Avasare 上週說,他們的 Max 訂閱是為重度聊天使用設計的,而不是人們用 Claude Code 和 Cowork 做的那些事,並明確表示 Anthropic 現在在考慮「不同的選項來繼續提供優質體驗」,換句話說就是「我們會在某個時候調整價格」。

我不確定人們是否意識到這些 token 有多貴,特別是涉及大型程式碼庫並頻繁呼叫編碼和基礎設施工具的程式設計專案。一個每月花 200 美元的人能負擔得起 350、400 或 500 美元嗎?他們能承受某個月花費超過這個數字嗎?如果預算超支了怎麼辦?或者他們真的負擔不起完成工作所需的費用怎麼辦?

給你一個更實際的例子,直到 4 月初,Anthropic 自己的 Claude Code 開發者檔案(存檔)還寫著「[使用 Claude Code 的使用者] 平均成本是每個開發者每天 6 美元,90% 的使用者每日成本保持在 12 美元以下。」截至本週,檔案現在這樣寫:

Claude Code 按 API token 消費收費。訂閱計劃定價(Pro、Max、Team、Enterprise)請見 claude.com/pricing。每個開發者的成本因模型選擇、程式碼庫大小和使用模式(如執行多個例項或自動化)而差異很大。在企業部署中,平均成本約為每個開發者每個活躍日 13 美元,每月 150-250 美元,90% 使用者的成本保持在每個活躍日 30 美元以下。

要估算你團隊的開支,從小型試點組開始,使用下面的跟蹤工具建立基準,然後再推廣。

如果我們假設一個月平均有 21 個工作日,Claude Code 使用者的平均成本約為每月 273 美元,或每年 3276 美元。按每個工作日 30 美元算,就是每月 630 美元,或每年 7560 美元。

這些數字驚人,更驚人的是,如果你使用 Anthropic 任何較新的模型,你不可能只花每天 30 美元。Claude Opus 4.7 的費用是每百萬輸入 token 5 美元,每百萬輸出 token 25 美元。一百萬 token 約等於 5 萬行程式碼,假設你使用所謂的最先進模型,你肯定至少會跑完一百萬 token,如果你不太清楚該用哪個模型做特定任務,這個數字會急劇上升。

讓我們再玩玩這個 30 美元的數字。

對於 10 人開發團隊,一年就是 75600 美元,而且我們只算工作日。

如果你有三個月提高到平均每個工作日 50 美元,就漲到 88200 美元

如果你加一個月超過 100 美元,一年就要花 102900 美元。

如果你每天花 300 美元,10 個人一年就要花 756000 美元。

雖然這在資金充足的創業公司或 Meta 這樣的香蕉共和國的備用金思維裡可能可行,但任何真正在意成本的企業都很難證明在一項「提高生產力」的服務上額外花費五位數或六位數是合理的,而這種提高似乎沒人能衡量。

現在,我認為大多數公司分為三類:

Spotify 或 Uber 這樣大型組織裡的企業部署,有痴迷 AI 的 CEO,允許預算不受控制。我也會說資金充足的大型創業公司也是這種情況。

我也會說資金充足的大型創業公司也是這種情況。

使用補貼的「Teams」訂閱的小型創業公司。

付月費訪問 Claude 或其他 AI 訂閱的個人使用者。

大型組織仍然可以說他們在為軟體工程師燒掉數百萬美元的 AI token,理由是「最優秀的工程師」不寫任何程式碼這一可疑好處。

只需要一次糟糕的財報電話會議就能改變這種敘事。在某個時刻,投資者——即使是那些一直在吹大 AI 泡沫的腦殘蠢貨——也會開始質疑不斷攀升的研發成本(AI token 消耗通常隱藏在這裡),當公司的收入增長跟不上時。

這很可能導致更多裁員來控制成本,就像 Meta 那樣,然後在有人問「這些東西真的幫我們更快更好地完成工作了嗎?」時最終收縮。

我還認為,在六個月內,那些在 AI token 上燒掉 10% 或更多人力成本的創業公司,很難說服投資者這樣做是必要的。

一旦所有人都切換到基於 token 的計費,我不確定我們還會看到那麼多關於生成式 AI 的炒作。

人們談論 AI 資料中心的方式完全脫離現實,我認為人們沒有意識到整個時代變得多麼荒謬。

根據 TD Cowen 的 Jerome Darling,關鍵 IT(GPU 和相關硬體)成本約為 3000 萬美元,每兆瓦資料中心容量成本 1400 萬美元。資料中心似乎需要一到三年不等的時間,這還是假設有電力供應的情況下。

到 2028 年底據稱要建成的 114GW 資料中心中,只有 15.2GW 在以任何方式、形態或形式施工。而「施工中」可能只意味著「地上有個坑」。它不意味著——也不應該意味著——該設施將提供的容量會很快可用。

讓我們從簡單開始:每當你想到「100MW」,就想「44 億美元」,其中很大一部分用於 NVIDIA GPU。

因此,每個 AI 資料中心一開始就虧損數百萬美元,即使採用六年折舊計劃,也要多年才能還清……而且隨著 NVIDIA 的年度升級週期,一旦你完成第一個客戶合同,那些 GPU 不太可能賺那麼多錢。

還不清楚 AI 算力的客戶群是否存在於 OpenAI 和 Anthropic 之外,這兩家的需求佔在建 AI 資料中心的 50%,如果他們中任何一家沒錢付款,就會造成巨大的系統性弱點。

無論如何,也不清楚這些資料中心收取什麼樣的持續費率。雖然現貨價格可能在每小時 4.50 美元左右/B200 GPU,但長期合同價格通常低得多,一位創始人(據 The Information)說他們為一年期承諾支付約每 GPU 每小時 3.70 美元。

需要明確的是,我們必須區分現貨成本——在別人伺服器上隨機啟動 GPU 的成本——和合約算力,後者佔資料中心資本支出的大部分。大多數資料中心建設時打算有一兩個大客戶,這意味著這些客戶可能談判到更便宜的混合費率。

因此,許多資料中心的收費遠低於每小時 3.70 美元,因為他們按每兆瓦(或千瓦)價格計費。

這就是經濟學開始崩潰的地方。

這是 100 兆瓦資料中心的起始成本。一個 100MW 的資料中心可能只有 85MW 的實際可計費容量,根據與熟悉超大規模計費的訊息源討論,他們預計每兆瓦收入約 1250 萬美元,或年收入約 10.63 億美元。

現在,我應該明確,你知道的大多數資料中心公司實際上並不建造它們,而是把這項工作留給 Applied Digital 這樣的公司,它們也被稱為「託管合作伙伴」。例如,CoreWeave 向 Applied Digital 支付託管費用以使用其北達科他州的資料中心。CoreWeave 負責資料中心內的所有 GPU 和其他技術。

為瞭解釋經濟不匹配,我將使用一個理論示例,一個租給理論 AI 算力公司的資料中心。

該資料中心的 GPU 很可能是 NVIDIA 的 Blackwell 晶片。更有可能的是,該資料中心使用 8 個 B200 GPU 的 pod,零售價約 45 萬美元一個,或每個 GPU 56250 美元。基於 85MW 的關鍵 IT 負載,每兆瓦的全部資本支出約為 36.78,或總 IT 資本支出約 31.26 億美元,或約 26.7 億美元的 GPU。

假設這個資料中心在北達科他州 Ellendale,這意味著工業電價約為每千瓦時 6.31 美分,每年電費約 5540 萬美元。根據與訊息源的討論,我估計維護、人員、電源更換等持續成本約佔收入的 12%,或每年約 1.28 億美元,使我們達到 1.834 億美元的成本。

等等,抱歉。你還得根據關鍵 IT 支付託管費,根據 Brightlio,該費用通常約為每千瓦每月 180-200 美元,取決於部署的規模和位置,雖然我讀到過低至 130 美元,這是我採用的數字,或每年約 1.33 億美元。這使我們達到 3.164 億美元。

嗯,這仍然少於 10.6 億美元,所以我們還好,對吧?

錯!你有 31.26 億美元的 IT 裝置要折舊,六年折舊下來每年約 5.21 億美元。那就是每年 8.374 億美元,給你留下約 1.686 億美元的年利潤,或約 16.7% 的毛利率……

……如果你一直保持 100% 的入駐率!你看,資料中心可能需要一兩個月來安裝這些 GPU 並讓客戶入駐,在此期間你的收入為零,損失卻大得多,因為你一直在支付託管、電力和營運成本,儘管費率低得多(我為 10% 的電力和 15% 的託管/營運成本建模),這意味著你每天損失約 327 萬美元。

為了這個例子,我們假設你需要額外一個月才能讓這東西執行起來,這意味著你已經支付了約 1.02 億美元,再也拿不回來了,使我們包括折舊在內的年度總成本達到 9.394 億美元,或 6.6% 的毛利率。

等等,該死,你沒用債務買這些 GPU 吧?你用了?有多糟?哦天哪——你得到了一筆六年期的資產支援貸款,貸款價值比為 80%,意味著你以 6% 的利率借了 28 億美元。

你的銀行出於永恆的慷慨,給了你一筆交易——12 個月的寬限期,你只付利息……約 1.68 億美元,這使我們第一年的總成本(為公平起見不包括延遲的一個月)達到約 10.05 億美元……收入 10.6 億美元。

那是 5.19% 的毛利率,而你甚至還沒開始還本金。當那發生時,你每月要還 5410 萬美元的貸款,接下來五年總計每年約 6.49 億美元,約 14.8 億美元,或約負 40% 的毛利率。

我必須明確,這是如果你有 100% 的利用率,而且租戶每次都按時付款。

讓我們談談應該是資料中心歷史上最具經濟可行性的單一專案——一個由 Oracle 為世界上最大的 AI 公司建造的大型園區,Oracle 是一個擁有數十年曆史的近超大規模企業,有向企業和政府銷售昂貴資料庫和業務管理軟體的歷史。

哈,我當然是在開玩笑,這地方就是個該死的噩夢。

Stargate Abilene,一個八棟建築、1.2GW 的資料中心園區,約 824MW 的關鍵 IT,首次宣布於 2024 年 7 月。截至 2026 年 4 月 27 日,只有兩棟建築營運併產生收入,第三棟幾乎沒有任何 IT 裝置。我估計 Stargate Abilene 的總成本約為 528 億美元。

根據我自己的報道,Oracle 預計從 Stargate Abilene 獲得約 100 億美元的年收入,我估計從它為一個客戶建造的 7.1GW 資料中心容量中獲得約 750 億美元的總收入:OpenAI。正如我還報道的,Oracle 在 2024 年估計 Abilene 每年至少要支付 21.4 億美元的託管和電費,支付給土地開發商 Crusoe。

我還應該補充,看起來 Oracle 正在支付 Abilene 的所有建設成本。

根據我的計算和報道,我估計 Abilene 一旦全面營運,粗略毛利率約為 37.47%:

我必須明確,37.47% 的毛利率可能太高了,因為我不知道 Oracle 真實的保險或人員成本的準確數字,只有基於本刊檢視的檔案的估計。

我還應該明確,Oracle 正在把整個該死的未來押在像 Stargate Abilene 這樣的專案上,預先產生數十億美元的成本,這項業務即使 OpenAI 及時支付每一筆款項,也需要多年才能盈利。

遺憾的是,我無法確定 Abilene 有多少是靠債務支付的。我只知道 Oracle 在 2025 年 9 月透過發行不同規模的債券籌集了約 180 億美元,期限從 7 年到 40 年不等,而且在最近一個季度的財報中出現了 247 億美元的負現金流。

我確實知道的是,Oracle 與開發商 Crusoe 簽訂了一份為期 15 年的租約,而且 Oracle 的未來嚴重依賴 OpenAI 持續付款的能力,而這又取決於 Oracle 能否完成 Stargate Abilene 專案。

我還需要明確,每年 38.5 億美元的利潤只有在 OpenAI 按時付款、以最快速度入駐 Abilene 且一切按計劃進行的情況下才可能實現。

遺憾的是,完全相反的情況發生了:

根據 DatacenterDynamics 的報道,首批 200MW 的電力本應在「2025 年」投入使用。隨著時間推移,入駐本應在 2025 年上半年開始,「有潛力在 2025 年達到 1GW」,在 2026 年中期完成全部 1.2GW 容量,在 2026 年中期通電,在 2026 年底前部署 64,000 個 GPU。截至 2025 年 9 月 30 日,「兩棟建築已上線」。

截至 2025 年 12 月 12 日,Oracle 聯席 CEO Clay Magouyurk 表示「Abilene 按計劃推進,已交付超過 96,000 個 NVIDIA Grace Blackwell GB200,也就是兩棟建築的 GPU 數量。」

四個月後的 2026 年 4 月 22 日,Oracle 在推特上表示「……在 Abilene,200MW 已經投入營運,八棟建築園區的交付仍按計劃進行。」目前不清楚這是 200MW 的關鍵 IT 容量還是 Abilene 園區的總可用電力。無論如何,這隻夠支援兩棟建築,這意味著 Oracle 絕對不是「按計劃推進」。

這是一個巨大的問題。OpenAI 只能為實際存在的算力付費,而只有 206MW 的關鍵 IT 容量真正產生收入,第三棟建築至少還需要一個月(如果不是一個季度的話)才能投入使用。

然而,整個 Stargate 資料中心專案還有一個更大、更根本的問題。只有在 OpenAI 實現其荒謬的、卡通般的預測時,這一切才有意義。

正如我在週五討論的:

我再重複一遍這些數字:正在建設的 7.1GW Stargate 資料中心完工後將產生約 750 億美元的年收入,總成本超過 3400 億美元。Oracle 的自由現金流為負 247 億美元,其他業務線正在停滯,這使得其負利潤到低利潤的雲業務成為唯一的增長引擎。

為了真正能夠支付其算力合同——包括與亞馬遜、微軟、CoreWeave、谷歌、Cerberas 以及 Oracle 的合同——OpenAI 必須在四年內籌集或賺到。

📍相關報導📍

馬斯克xAI推出「Grok Code Fast 1」程式設計模型:Cursor、Copilot、Windsurf…限時免費用,速度 規模 價格三突破

全球最大開發者論壇 Stack Overflow 活躍度暴跌 90%,會成 AI 時代下的眼淚?

GitHub 爆紅:144個AI員工職位 (12個部門) 開源免費用,各有性格、工作流與 KPI

市場機遇
Gensyn 圖標
Gensyn實時價格 (AI)
$0.0363
$0.0363$0.0363
-15.79%
USD
Gensyn (AI) 實時價格圖表
免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 crypto.news@mexc.com 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。