Nvidia在最新的MLPerf基準(zhǔn)測試中展示Hopper


原標(biāo)題:Nvidia在最新的MLPerf基準(zhǔn)測試中展示Hopper
在最新的MLPerf基準(zhǔn)測試中,NVIDIA再次展示了其強(qiáng)大的Hopper架構(gòu)的實(shí)力。以下是關(guān)于NVIDIA Hopper在MLPerf基準(zhǔn)測試中表現(xiàn)的詳細(xì)概述:
測試結(jié)果概述:
NVIDIA的Grace Hopper超級芯片,特別是GH200型號,在MLPerf推理基準(zhǔn)測試中取得了顯著的成績。這款超級芯片將一顆Hopper GPU和一顆Grace CPU連接到一個單一芯片中,提供了更大的內(nèi)存、更快的帶寬,并能夠在CPU和GPU之間自動切換計(jì)算資源以實(shí)現(xiàn)性能最優(yōu)化。
具體表現(xiàn):
在MLPerf的測試中,內(nèi)置8顆H100 GPU的NVIDIA HGX H100系統(tǒng),在每一項(xiàng)MLPerf推理測試中均實(shí)現(xiàn)了最高吞吐量。
NVIDIA的Grace Hopper超級芯片和H100 GPU在所有MLPerf數(shù)據(jù)中心測試中均處于領(lǐng)先地位,這涵蓋了針對計(jì)算機(jī)視覺、語音識別、醫(yī)學(xué)成像的推理,以及應(yīng)用于生成式AI的推薦系統(tǒng)和大語言模型(LLM)等對性能要求更高的用例。
技術(shù)亮點(diǎn):
Hopper架構(gòu)通過Transformer引擎推進(jìn)Tensor Core技術(shù)的發(fā)展,旨在加速AI模型訓(xùn)練。Hopper Tensor Core能夠應(yīng)用混合的FP8和FP16精度,以大幅加速Transformer模型的AI計(jì)算。
Hopper架構(gòu)與第四代NVIDIA NVLink和NVSwitch技術(shù)相結(jié)合,使得百億億次級高性能計(jì)算和萬億參數(shù)的AI模型能夠在服務(wù)器集群中的每一個GPU之間實(shí)現(xiàn)平滑流暢的高速通信。
性能提升:
與上一代相比,Hopper架構(gòu)在生成式AI訓(xùn)練和推理方面實(shí)現(xiàn)了驚人的速度提升。特別是針對GPT-J 6B模型,NVIDIA的TensorRT-LLM軟件在H100 GPU上能夠?qū)崿F(xiàn)高達(dá)8倍的性能提升。
生態(tài)系統(tǒng)支持:
NVIDIA AI平臺得到了業(yè)界最廣泛的機(jī)器學(xué)習(xí)生態(tài)系統(tǒng)的支持。在MLPerf測試中,有超過70項(xiàng)提交結(jié)果是在NVIDIA平臺上運(yùn)行的,包括Microsoft Azure等云服務(wù)提供商以及華碩、戴爾科技、富士通等系統(tǒng)制造商。
綜上所述,NVIDIA的Hopper架構(gòu)在最新的MLPerf基準(zhǔn)測試中再次展現(xiàn)了其強(qiáng)大的性能和領(lǐng)先地位,進(jìn)一步鞏固了NVIDIA在AI計(jì)算領(lǐng)域的領(lǐng)導(dǎo)地位。
責(zé)任編輯:David
【免責(zé)聲明】
1、本文內(nèi)容、數(shù)據(jù)、圖表等來源于網(wǎng)絡(luò)引用或其他公開資料,版權(quán)歸屬原作者、原發(fā)表出處。若版權(quán)所有方對本文的引用持有異議,請聯(lián)系拍明芯城(marketing@iczoom.com),本方將及時處理。
2、本文的引用僅供讀者交流學(xué)習(xí)使用,不涉及商業(yè)目的。
3、本文內(nèi)容僅代表作者觀點(diǎn),拍明芯城不對內(nèi)容的準(zhǔn)確性、可靠性或完整性提供明示或暗示的保證。讀者閱讀本文后做出的決定或行為,是基于自主意愿和獨(dú)立判斷做出的,請讀者明確相關(guān)結(jié)果。
4、如需轉(zhuǎn)載本方擁有版權(quán)的文章,請聯(lián)系拍明芯城(marketing@iczoom.com)注明“轉(zhuǎn)載原因”。未經(jīng)允許私自轉(zhuǎn)載拍明芯城將保留追究其法律責(zé)任的權(quán)利。
拍明芯城擁有對此聲明的最終解釋權(quán)。
相關(guān)資訊
:

下載拍明芯城 APP
