OpenAI 不想再「跪著」買顯卡了
如果說過去幾年 OpenAI 是靠 GPT 模型打天下,那么現在,它的野心已經遠遠不止做一家模型公司。
《金融時報》最新消息,OpenAI 正在和博通合作,自研一顆代號 “XPU” 的 AI 推理芯片,預計會在 2026 年量產,由臺積電代工。不同于英偉達 的 GPU,這款芯片不會對外銷售,而是專門滿足 OpenAI 內部的訓練與推理需求,用來支撐即將上線的 GPT-5 等更龐大的模型。
為什么要自己造?原因其實很直接。
首先,Nvidia 芯片不僅貴,而且還不好搶,OpenAI 每次訓練新模型都要消耗成千上萬張 GPU。自研芯片可以降低成本、提升效率,更關鍵的是,它能把命脈握在自己手里。
當然,這一舉動也被外界解讀為 OpenAI 從買算力走向造算力的關鍵一步。
據報道,博通 CEO Hock Tan 在財報中提及,公司新增一筆規模高達 100 億美元的定制芯片訂單,并將在 2026 年進入“強勁發貨期”。
雖然未點名客戶,但業內普遍將矛頭指向 OpenAI,此舉將不僅讓 OpenAI 成為繼谷歌 TPU、亞馬遜 Trainium、Meta Artemis 之后,又一家押注自研 AI 芯片的大廠,也讓博通的 AI 定制芯片業務再添一名重量級客戶。
OpenAI 在多線出擊
這并不是 OpenAI 最近唯一的大動作,它的野心遠不止在芯片上落子。今年以來 OpenAI 在硬件、應用和算力基建三條戰線上幾乎是在同時提速。
先說硬件。 今年 5 月,OpenAI 花了 65 億美元收購了由蘋果前設計大師 Jony Ive 創辦的 AI 硬件公司 io。值得一提的是,這個硬件公司的團隊成員正是當年設計 iPhone 的那群人,履歷相當豪華,現在他們加入 OpenAI,意味著公司不再滿足于軟件服務,而是真的要把 AI 做成人人手里的消費級設備。
再看應用。 就在前幾天,OpenAI 又出手收購了一家做產品測試和實驗平臺的公司 Statsig,交易金額在 11 億美元左右,是 OpenAI 迄今最大規模的收購之一。而 Statsig 的強項是做 A/B 測試和功能實驗,能幫助工程團隊快速迭代產品。
收購之后,創始人 Vijaye Raji 直接加入 OpenAI,當上了“應用 CTO”,負責 ChatGPT、Codex 等核心產品的工程和架構。與此同時,OpenAI 的管理層也在調整:前 Instacart CEO Fidji Simo 負責應用業務,Kevin Weil 轉去研究,Srinivas Narayanan 接管 B2B 應用。
從這里能看出,OpenAI 正在刻意把研究和應用兩條線拆開,并且分別配上重量級操盤手。這種組織架構,已經更接近一家成熟大廠,而不只是單純的研究機構了。
在算力基建上,OpenAI 也在加碼。它正在推進代號 “Stargate” 的超級數據中心項目,投入規模據說可能高達數百億美元。奧特曼甚至放話,到 2025 年底,OpenAI 擁有的 GPU 數量將突破 100 萬臺。
這是什么概念?放在幾年前,整個行業加起來可能都沒有這個量。算力擴容的背后,就是要保證未來的 GPT-5、GPT-6 能有足夠的糧草去訓練。雷峰網 (公眾號:雷峰網)
與此同時,OpenAI 還在分散風險,一邊租 Google 的 TPU,一邊和 AMD 合作,避免完全受制于英偉達。
一條最難走的路
放在行業背景里看,這一步也讓 OpenAI 成為繼谷歌、亞馬遜、Meta 之后,又一家把自研芯片提上日程的 AI 巨頭。谷歌有 TPU,亞馬遜有 Trainium,Meta 有 Artemis,如今 OpenAI 補上了 XPU。
目前外界披露的情況是:OpenAI 研發的芯片是專門面向推理場景的,由前谷歌 TPU 工程師 Richard Ho 帶領大約 40 人的團隊負責,博通提供關鍵設計與 IP,臺積電則計劃用 3nm 工藝代工。
從 AI infra 的角度去看,OpenAI 確實邁出了非常勇敢的一步。
畢竟過去的幾年中,行業的優化幾乎都圍繞著如何讓 GPU 的利用率更高,如何讓每一張卡都物盡其用的節奏去走。而這次 OpenAI 選擇先做推理芯片,其實也是這個邏輯。
而且推理芯片的設計門檻相對低一些,它可以在現有的 GPU 體系之外起到補位的作用。換句話說,XPU 不是要立刻取代英偉達芯片,而是要先把推理這一環牢牢掌握在自己手里。
這也足以說明 OpenAI 的野心:它已經不滿足于依賴現成 GPU,而是開始嘗試從底層重塑算力體系。
但問題是,這條路的好處和弊端都同樣明顯。
自研的好處十分直觀。首先,它可以完全針對大模型的計算模式進行定制,不必像英偉達 GPU 那樣兼顧各種任務。這樣一來,推理效率更高、能耗更低,還能在內存帶寬和互聯架構等瓶頸上做專門優化。
其次,成本壓力也是核心驅動力。英偉達 GPU 的價格居高不下,大模型的訓練和推理往往要消耗成千上萬張卡。如果自研芯片能帶來哪怕 20% 的能效提升,長期節省下來的電費和算力時間,就足以抵消掉巨額的研發投入。
更重要的是,自研還能擺脫對單一供應商的依賴,把模型、軟件和硬件深度綁定,形成更堅固的護城河。
但問題同樣很現實。首先是資金和周期,先進制程芯片的設計與流片成本動輒數億美元,整個周期至少要三到五年。而在這段時間里,英偉達的 GPU 還在不斷迭代,等 XPU 真正上線時能否保持競爭力,還是個未知數。
其次是人才瓶頸,能設計超大規模 AI 加速器的架構師鳳毛麟角,團隊搭建本身就是一道難關。軟件生態問題更為棘手,英偉達最大的優勢不是硬件,而是 CUDA 生態,已經成為行業事實標準。
這也意味著,OpenAI 不僅要造出芯片,還要重新搭建編譯器、驅動、工具鏈,并說服自家工程師愿意遷移,這一點比造出硬件本身還要更難。
屬于 OpenAI 的下一個十年
越激進,風險越大,故事也越精彩。
芯片研發的失敗率從來不低,消費級 AI 設備的市場需求依舊模糊,超級數據中心的投入更是前所未有。OpenAI 所走的,可能是整條產業鏈中最昂貴、最復雜、也最容易摔跤的一條路。
正因如此,它的故事才更值得關注。OpenAI 今天的選擇,不只是為了應對 GPT-5 的算力問題,而是在為未來十年乃至二十年的競爭埋下伏筆。它想要的是,在下一個時代里,像蘋果之于智能手機、微軟之于 PC 操作系統一樣,占據一個不可撼動的核心位置。
所以,當我們談論 OpenAI 的下一個十年,真正的問題不再是“它還能不能造出更強的 GPT”,而是 它能不能用芯片、硬件、算力和應用,一起構筑出屬于 AI 時代的基礎設施。
如果它做到了,那未來科技產業的秩序,可能會因為今天的這幾步棋,而徹底被改寫。雷峰網
雷峰網原創文章,未經授權禁止轉載。詳情見 轉載須知 。