財聯社2月24日訊(編輯 黃君芝)上周末,社交媒體X上有一條關於“未來AI競爭趨勢”的推文引起了馬斯克的興趣,並獲得了其“手動點讚”。而且,馬斯克旗下的xAI也剛好在上周正式發布了Grok 3大模型。
這篇推文是由美國著名TMT(科技、媒體和通信)投資人Gavin Baker發布,馬斯克對此評論道:“分析得很好”。那麽,下麵就讓我們來看下Gavin Baker究竟表達了什麽內容。

先說結論:Baker認為,AI產業格局的變革正在加速,OpenAI在未來的領先優勢將會縮小。未來,數據將成為競爭核心,無法獲得獨特、有價值數據的前沿模型是曆史上貶值最快的資產。就這一點來看,穀歌、Meta等巨頭可以通過壟斷數據構建“護城河”。
具體而言,Baker指出,從2022年夏季到2024年春季,OpenAI一直處於領先地位,但後來穀歌和Anthropic趕上了GPT-4。由於其先發優勢,以及積極押注傳統的預訓練“縮放定律”(Scaling Law),OpenAI公司占據了逾7個季度的主導地位。
Scaling Law也稱尺度定律,被業界認為是大模型預訓練第一性原理。在機器學習領域,特別是對於大型語言模型而言,模型性能與其規模(如參數數量)、訓練數據集大小以及用於訓練的計算資源之間存在的一種可預測的關係。
Baker指出,“Scaling Law”的優勢窗口正在關閉。

他寫道:“Google的Gemini、xAI的Grok-3,以及Deepseek的最新模型,均已達到與GPT-4相近的技術水平。就連OpenAI創始人奧爾特曼也指出,OpenAI未來的領先優勢將更加狹窄。微軟CEO納德拉表示,OpenAI在模型能力方麵領先的獨特時期即將結束。”
“在我看來,這就是為什麽納德拉選擇不為OpenAI提供1600億美元的預訓練資金。”Baker補充道。
據媒體此前報道,微軟內部備忘錄顯示,由於預訓練邊際效益遞減,原計劃投入160億美元升級預訓練基礎設施的方案已被叫停,微軟轉而專注於為OpenAI提供推理算力以獲取收益。
納德拉此前也曾表示,數據中心可能建設過剩,租賃優於自建,微軟甚至可能會使用開源模型來支持CoPilot。Baker認為,這預示著單純依靠規模擴張建立壁壘的“預訓練時代”已走向終結。
數據“獨一無二”
在如此的背景下,大模型層出不窮、而模型架構又大差不差,Baker認為,“獨一無二”的數據資源才是決勝的關鍵。他進一步指出,穀歌和Xai都擁有獨特的、有價值的數據來源,這將使它們與Deepseek、OpenAI和Anthropic越來越不同。
“我多次轉述EricVishria的話,無法獲得獨特、有價值數據的前沿模型是史上貶值最快的資產,而蒸餾隻會放大這一點。”他寫道。
大模型蒸餾(Large Model Distillation),簡單來說,就是將一個複雜的大模型(教師模型)的知識遷移到一個較小的模型(學生模型)中。就像老師把自己淵博的知識傳授給學生,讓學生能夠在資源有限的情況下,盡可能地表現出和老師相似的能力。
Baker還指出,如果未來前沿模型無法訪問YouTube、X、TeslaVision、Instagram和Facebook 等獨特而有價值的數據,則可能沒有任何投資回報率。獨特的數據可能最終成為預訓練數萬億或千萬億參數模型的差異化和ROI(投資回報率)的唯一基礎。
格局變化
Baker總結稱,如果這是正確的,那麽巨型數據中心隻需要2-3個,推理所需算力占95%。AI計算的其餘部分將是較小的數據中心,這些數據中心在地理空間上進行了優化,以實現低延遲和/或成本效益推理。
他解釋稱,成本效益推理=更便宜的電力(核能的溢價更低),基於量化壓縮技術(如Deepseek R1的1-bit LLM)支撐低成本推理。
Baker總結稱,與之前那種預訓練和推理階段計算資源分配大致各占一半的情況不同,現在會變成預訓練占 5%,推理階段占95%。卓越的基礎設施將至關重要。
最後,他還提到,如果OpenAI在5年後仍然是該領域的領導者,那可能是因為先發優勢和規模優勢,以及產品影響力。
“時間會證明一切。”他寫道。