隨著旗下核心數(shù)據(jù)中心正式運(yùn)行,亞馬遜AI基礎(chǔ)設(shè)施布局迎來關(guān)鍵里程碑。
就在幾天前,亞馬遜首席執(zhí)行官安迪·賈西(Andy Jassy)在社交平臺X上宣布:
公司位于美國印第安納州南本德附近的一片玉米地,如今已經(jīng)成為全球最大AI計算集群之一——Project Rainier的核心數(shù)據(jù)中心。這一由AWS與AI獨(dú)角獸Anthropic共同打造的系統(tǒng),部署了近50萬顆Trainium2自研芯片,規(guī)模比AWS歷史上任何AI平臺都大出70%,目前已全面投入運(yùn)行。

據(jù)賈西透露,公司合作伙伴Anthropic正在利用該系統(tǒng)訓(xùn)練和運(yùn)行其大模型Claude,提供了比其此前訓(xùn)練AI模型多5倍以上的計算能力。預(yù)計到年底,該系統(tǒng)的Trainium2芯片部署數(shù)量翻番至100萬顆。
這意味著亞馬遜的AI基礎(chǔ)設(shè)施擴(kuò)張正從戰(zhàn)略布局轉(zhuǎn)向產(chǎn)能兌現(xiàn),成為其AI業(yè)務(wù)發(fā)展的重要轉(zhuǎn)折點(diǎn)。
摩根士丹利預(yù)計,AWS未來兩年收入增速將分別達(dá)到23%與25%,而據(jù)美銀預(yù)測,僅Anthropic就可能在2026年為AWS帶來高達(dá)60億美元的增量收入。
超級計算集群:重新定義AI基礎(chǔ)設(shè)施規(guī)模
Project Rainier系統(tǒng)的正式投運(yùn)標(biāo)志著AWS大規(guī)模AI產(chǎn)能擴(kuò)張的開始。
該系統(tǒng)分布在美國多個數(shù)據(jù)中心,通過NeuronLink技術(shù)連接數(shù)萬臺超級服務(wù)器,旨在最小化通信延遲并提升整體計算效率。
該系統(tǒng)配備的近50萬顆Trainium2芯片,使其成為全球最大的AI訓(xùn)練計算機(jī)之一。亞馬遜計劃在年底前進(jìn)一步擴(kuò)展1GW容量,并將Trainium2芯片數(shù)量再增加約50萬顆。更具雄心的是,公司計劃到2027年將AWS的GW容量翻倍。
AWS首席執(zhí)行官M(fèi)att Garman此前強(qiáng)調(diào),這些自研芯片的性能能夠超越通用替代方案。賈西在財報電話會議上表示:“Trainium2的采用率持續(xù)上升,當(dāng)前產(chǎn)能已全部預(yù)訂。這項(xiàng)業(yè)務(wù)正在快速擴(kuò)張。”
自研芯片戰(zhàn)略初見成效
亞馬遜AI戰(zhàn)略的核心,不是模型,而是“算力底座”——也就是自研芯片體系:Trainium系列(專用于AI訓(xùn)練)和Inferentia系列(專用于推理),構(gòu)成了AWS在AI計算上的“雙引擎”。
現(xiàn)在,這一戰(zhàn)略正顯現(xiàn)成效。
Trainium系列芯片目前已發(fā)展成為一個價值數(shù)十億美元的核心業(yè)務(wù),季度環(huán)比增長150%。這一策略不僅有助于降低模型訓(xùn)練和推理成本,最終還能改善AWS的業(yè)務(wù)利潤率。
與此同時,亞馬遜還在籌備Trainium3的推出,預(yù)計最快將在今年底的re:Invent大會上發(fā)布,2026年進(jìn)行更大規(guī)模部署。這款新一代芯片不僅性能提升,更重要的是將擴(kuò)展到更廣泛的客戶群體,意味著AWS的AI服務(wù)將從“頭部客戶”走向更廣的企業(yè)市場。
美銀分析師Justin Post指出,自研芯片帶來的成本優(yōu)化效應(yīng)已經(jīng)顯現(xiàn):Trainium的采用使模型訓(xùn)練和推理成本顯著下降,推動AWS利潤率改善、并成為新的數(shù)十億美元增長引擎。
Jassy此前還透露,公司正在構(gòu)建的AI平臺Bedrock旨在成為"世界最大的推理引擎",其長期發(fā)展?jié)摿氨華WS的核心計算服務(wù)EC2。目前Bedrock上的絕大多數(shù)token使用量已在Trainium芯片上運(yùn)行。