作者:是德科技產(chǎn)品經(jīng)理Allison Freedman
在快速發(fā)展的AI領(lǐng)域,性能至關(guān)重要——而這不僅限于計算性能。現(xiàn)代數(shù)據(jù)中心里,連接GPU、交換機和服務(wù)器的網(wǎng)絡(luò)基礎(chǔ)設(shè)施承受著巨大的壓力。隨著AI模型擴展到數(shù)千億個參數(shù),行業(yè)關(guān)注的焦點正轉(zhuǎn)向AI訓(xùn)練性能中最為關(guān)鍵但又經(jīng)常被忽視的組成部分之一:網(wǎng)絡(luò)。
長期以來,對AI網(wǎng)絡(luò)進(jìn)行基準(zhǔn)測試和優(yōu)化都需要在昂貴、耗電的GPU上運行實時工作負(fù)載。但GPU的可用性有限,而且大規(guī)模測試環(huán)境的配置需要時間和資金。因此,網(wǎng)絡(luò)驗證往往要推遲到實際工作負(fù)載運行時才能進(jìn)行——這對于發(fā)現(xiàn)設(shè)計缺陷或性能瓶頸來說已經(jīng)太遲了。
在超大規(guī)模AI時代,這種模式已經(jīng)行不通了。
AI網(wǎng)絡(luò)基礎(chǔ)設(shè)施的負(fù)擔(dān)與日俱增
當(dāng)今AI模型的規(guī)模清晰地揭示了未來的基礎(chǔ)設(shè)施挑戰(zhàn)。當(dāng)OpenAI訓(xùn)練GPT-3這一具有里程碑意義的、規(guī)模為1750億個參數(shù)的語言模型時,運算量大約達(dá)到了3.14×10²³ FLOPs,這需要數(shù)千個NVIDIA V100 GPU運行數(shù)周的時間。這種工作負(fù)載不僅挑戰(zhàn)了計算的極限,還考驗了數(shù)據(jù)中心的整體架構(gòu)。AI訓(xùn)練工作在GPU、存儲和參數(shù)服務(wù)器之間產(chǎn)生了極端的東西向流量。流量模式中的任何擁堵、延遲或不平衡都會對吞吐量和能效產(chǎn)生重大影響。在超大規(guī)模場景下,即使是微小的效率損耗,也會造成數(shù)百萬美元的損失。
然而,盡管網(wǎng)絡(luò)層至關(guān)重要,行業(yè)卻很少在部署前對網(wǎng)絡(luò)基礎(chǔ)設(shè)施上的真實AI工作負(fù)載執(zhí)行測試。大多數(shù)數(shù)據(jù)中心不得不使用流量生成器、微基準(zhǔn)測試或基于主觀猜測構(gòu)建的、無法反映真實訓(xùn)練動態(tài)的合成模型。在一個新工作負(fù)載不斷重新定義性能預(yù)期的時代,這樣的做法無疑充滿風(fēng)險。
基于工作負(fù)載仿真,重新思考AI網(wǎng)絡(luò)驗證方式
為了滿足大規(guī)模AI的需求,具有前瞻性的企業(yè)目前正在采用AI工作負(fù)載仿真——這是一種使用模擬訓(xùn)練數(shù)據(jù)來重現(xiàn)大語言模型(LLM)訓(xùn)練、推理及其他AI任務(wù)的流量模式和需求的方法。
工程師無需查看GPU是否可用,即可通過仿真工作負(fù)載實現(xiàn)以下目標(biāo):
·再現(xiàn)真實的AI訓(xùn)練場景
·測量整個網(wǎng)絡(luò)架構(gòu)的性能
·識別擁塞、抖動、緩沖壓力和路由效率低下問題
·對不同的拓?fù)浣Y(jié)構(gòu)、負(fù)載均衡方法和隊列配置執(zhí)行測試
這種基于仿真的方法可以讓團(tuán)隊在GPU到位之前對數(shù)據(jù)中心網(wǎng)絡(luò)進(jìn)行基準(zhǔn)測試和調(diào)試,從而大幅降低成本并加快部署。它還允許工程師重放過往的工作負(fù)載,以測試他們的網(wǎng)絡(luò)在不同流量組合或擁塞控制策略下的響應(yīng)情況。
實際應(yīng)用:企業(yè)發(fā)揮引領(lǐng)作用
這并非停留在理論層面,而是已然落地的實踐。
例如,瞻博網(wǎng)絡(luò)(Juniper Networks)近期發(fā)布了一份白皮書,概述了該公司如何利用AI工作負(fù)載重放和仿真來驗證AI數(shù)據(jù)中心的交換架構(gòu)。通過在其網(wǎng)絡(luò)架構(gòu)中復(fù)現(xiàn)真實的LLM訓(xùn)練流量,瞻博網(wǎng)絡(luò)可以測試擁塞場景、分析結(jié)構(gòu)的可擴展性并優(yōu)化隊列配置策略,而無需等待實際GPU的部署。
瞻博網(wǎng)絡(luò)的工程師還強調(diào)了在“未來負(fù)載條件”下驗證網(wǎng)絡(luò)行為的重要性。借助工作負(fù)載仿真,他們能夠模擬尚未上線的訓(xùn)練工作負(fù)載,助力其構(gòu)建可滿足下一代AI需求的網(wǎng)絡(luò)。
Meta以運營一些全球最先進(jìn)的AI基礎(chǔ)設(shè)施而聞名,它在模擬AI訓(xùn)練環(huán)境的內(nèi)部測試平臺上大力投入。這些測試平臺讓Meta的工程師能夠使用類似訓(xùn)練的流量模式來驗證拓?fù)錄Q策、交換算法和擁塞處理策略。
同樣,Microsoft正在從根本上重新設(shè)計其數(shù)據(jù)中心架構(gòu),以滿足大規(guī)模AI工作負(fù)載的需求。這一轉(zhuǎn)變涵蓋定制的AI加速器、創(chuàng)新的機架規(guī)模系統(tǒng)以及為AI訓(xùn)練量身定制的高帶寬網(wǎng)絡(luò)結(jié)構(gòu)。為支持這些轉(zhuǎn)變,Microsoft投入于先進(jìn)的建模和仿真工具,以復(fù)現(xiàn)LLM訓(xùn)練的密集流量模式。借助這些工具,在部署前,工程師就能夠在受控環(huán)境中評估新的拓?fù)浣Y(jié)構(gòu)、測試負(fù)載均衡策略,并驗證擁塞控制機制。
對于所有這些行業(yè)領(lǐng)導(dǎo)者來說,模擬真實AI工作負(fù)載的用意十分明確:避免主觀猜測,縮短驗證時間,確保網(wǎng)絡(luò)的擴展能夠跟上AI創(chuàng)新的速度。
工作負(fù)載仿真的五大優(yōu)勢
與傳統(tǒng)方法相比,AI工作負(fù)載仿真具有以下幾個關(guān)鍵優(yōu)勢:
1.降低成本
無需專門為網(wǎng)絡(luò)測試預(yù)留昂貴的GPU資源。仿真可在商品硬件或虛擬環(huán)境中進(jìn)行。
2.提高速度
支持在硬件采購或部署階段同步進(jìn)行性能測試,從而加快開發(fā)速度。無需等待機架里的GPU全部可用時再執(zhí)行測試。
3.真實性
仿真工作負(fù)載相比合成流量生成器,能更準(zhǔn)確地復(fù)現(xiàn)真實的訓(xùn)練模式(如突發(fā)流量、集體操作、同步階段)。
4.可重復(fù)性
可以捕獲、保存和反復(fù)重放工作負(fù)載,以測試不同拓?fù)湓O(shè)計、隊列算法或配置更改的效果。
5.可擴展性
支持測試未來的“假設(shè)”場景,例如驗證當(dāng)前網(wǎng)絡(luò)如何處理來自下一代模型的雙倍流量。這種方法使網(wǎng)絡(luò)架構(gòu)師能夠從被動的性能調(diào)整轉(zhuǎn)向主動優(yōu)化——確保AI基礎(chǔ)架構(gòu)的每一層在投入使用之前,都針對吞吐量、延遲和成本效益進(jìn)行了調(diào)整。
參與超大規(guī)模AI基礎(chǔ)設(shè)施建設(shè)的企業(yè)實現(xiàn)戰(zhàn)略轉(zhuǎn)變
隨著LLM的不斷發(fā)展——朝著萬億參數(shù)規(guī)模、多模式架構(gòu)和低延遲推理的方向前進(jìn)——數(shù)據(jù)中心網(wǎng)絡(luò)將面臨前所未有的壓力。未來五年,AI集群的東西向流量預(yù)計將增長10倍或更多,在這種情況下,“等GPU到位再測試網(wǎng)絡(luò)”的舊模式根本無法擴展。企業(yè)如果不能及早、經(jīng)常地驗證其網(wǎng)絡(luò),就可能面臨性能瓶頸、成本超支和產(chǎn)品面市時間延遲等問題。
通過采用AI工作負(fù)載仿真,企業(yè)可以從昂貴的試錯轉(zhuǎn)向明智的設(shè)計,確保其網(wǎng)絡(luò)能夠滿足未來的需求。
結(jié)論:AI網(wǎng)絡(luò)測試的未來在于虛擬化
在打造更快、更智能AI模型的競賽中,基礎(chǔ)設(shè)施至關(guān)重要——而網(wǎng)絡(luò)與計算同樣關(guān)鍵。贏家將是那些能在生產(chǎn)流量進(jìn)入系統(tǒng)之前,就能針對AI規(guī)模的工作負(fù)載對其網(wǎng)絡(luò)進(jìn)行模擬、測試和優(yōu)化的企業(yè)。
正如瞻博網(wǎng)絡(luò)、Meta和Microsoft等公司所展示的那樣,工作負(fù)載仿真已不僅是一種戰(zhàn)術(shù)優(yōu)勢,它正在成為一種戰(zhàn)略必需。
對于超大規(guī)模云服務(wù)商、網(wǎng)絡(luò)設(shè)備制造商以及任何為AI構(gòu)建數(shù)據(jù)中心網(wǎng)絡(luò)的企業(yè)來說,結(jié)論都非常明確:要保持競爭力,就必須采用仿真優(yōu)先的設(shè)計,并從一開始就讓網(wǎng)絡(luò)為AI做好準(zhǔn)備。