在人工智能領域,大語言模型的訓練與推理成本一直是限制技術普及的關鍵因素之一。近日,北京大學人工智能研究院助理教授張牧涵團隊在鯤鵬昇騰科教創(chuàng)新卓越中心(簡稱“卓越中心”)提供的算力支持下,成功研發(fā)出一套高效的大模型訓練推理架構,實現(xiàn)了百萬tokens輸入成本低至1元,為產業(yè)提供了高效能、低成本的解決方案。
此研究成果包括三項關鍵技術創(chuàng)新。首先,目前廣泛使用的相對位置編碼存在較大的稀疏性,團隊通過將每個注意力頭中的位置信息和非位置信息分離,對位置編碼進行了低秩壓縮,僅使用3%的位置信息,即可維持原有表達能力。該方法通過優(yōu)化昇騰硬件的flash-attention算子,使得注意力頭的參數(shù)得到更高效利用。
第二,非位置編碼信息在原始模型中通常處于被抑制狀態(tài)。通過將位置編碼與非位置編碼分離,非位置編碼得到了較大的壓縮空間。團隊采用了聯(lián)合KV的低秩壓縮方法,僅保留12.5%的KV Cache即可維持原始模型的能力。這一方法能夠有效利用昇騰硬件高效的計算能力,減輕訪存壓力,顯著提升推理效率。
最后,基于昇騰硬件在出色的并行計算能力,團隊實現(xiàn)的Recurrent Decoding(RD)技術通過替換LM-head提升了訓練數(shù)據(jù)利用率并加速了推理。在訓練階段,RD通過將解碼出的多個tokens與target tokens進行對比,實現(xiàn)了訓練數(shù)據(jù)的高效利用;在推理階段,結合投機推理顯著提高了tokens的采樣通過率,進而提升了推理速度。
這一成果得到了學術界的廣泛關注,不僅為科研提供了可復用的高效架構,也為AI大模型在企業(yè)中的應用大幅降低了成本。自去年6月成立以來,北京大學與華為在產業(yè)前沿課題的聯(lián)合攻關持續(xù)推進,本次成果驗證了昇騰算力平臺支撐尖端科研的技術實力。卓越中心將繼續(xù)深入開展大模型關鍵技術創(chuàng)新,為構建中國技術生態(tài)提供堅實支撐。
