英偉達(dá)AI芯片上新 傳遞兩大信號

訊石光通訊網(wǎng) 2023/11/16 10:10:41

  ICC訊 美國當(dāng)?shù)貢r(shí)間11月13日,在2023年全球超算大會(huì)(SC23)上,英偉達(dá)推出了新一代GPU H200。當(dāng)日,英偉達(dá)的股價(jià)在截至收盤時(shí)間增長0.6%,為486.2美元,數(shù)據(jù)顯示,英偉達(dá)創(chuàng)下了近7年來最長的連漲記錄。這一次,英偉達(dá)將AI芯片的發(fā)展方向引向了存儲(chǔ)和推理能力。

  英偉達(dá)的新品,與早些時(shí)候英特爾和AMD透露的AI芯片發(fā)布計(jì)劃呼應(yīng),AI芯片從以算力為中心的競爭向更加多樣化發(fā)展。

  AI芯片競爭焦點(diǎn)轉(zhuǎn)向存儲(chǔ)?

  相比于前代H100,H200的性能提升了60%-90%,但是單看算力這一指標(biāo),H200的算力與H100基本相同,對比兩者的產(chǎn)品規(guī)格表可以發(fā)現(xiàn),實(shí)現(xiàn)算力不變而性能飛躍的關(guān)鍵點(diǎn)就是內(nèi)存。

H100與H200規(guī)格對比

  英偉達(dá)在發(fā)布H200時(shí)表示,該產(chǎn)品是全球首款搭載HBM3e的GPU,而H100中使用的仍是HBM3。據(jù)了解,HBM3e能夠?yàn)镠200提供傳輸速度達(dá)4.8TB/秒的141GB顯存。與前代產(chǎn)品、常被其他競爭者視作“計(jì)量單位”的A100 相比,其容量也翻了近乎一倍,帶寬增加了2.4 倍。

AMD將發(fā)布MI300X

  事實(shí)上,英偉達(dá)在AI芯片方面的挑戰(zhàn)者AMD在幾個(gè)月前就強(qiáng)調(diào)了AI芯片存儲(chǔ)容量的重要性。AMD CEO蘇姿豐表示,AMD即將于今年12月推出的純GPU產(chǎn)品Instinct MI300X使用具備192GB顯存的HBM3,帶寬為5.2GB/秒。值得注意的是,AMD產(chǎn)品具備8個(gè)HBM3顯存堆棧,而英偉達(dá)產(chǎn)品僅有6個(gè)。同時(shí),AMD首個(gè)AI加速器產(chǎn)品MI300A也擁有多達(dá)13顆小芯片,共包含1460億個(gè)晶體管,配置128GB的HBM3內(nèi)存,相比前代的MI250,MI300A的性能提高8倍,效率提高5倍。

  在英特爾方面,英特爾CEO帕特·基辛格曾在9月舉行的英特爾on技術(shù)創(chuàng)新峰會(huì)上公布了英特爾AI芯片的路線圖:到2024年,英特爾將推出采用5nm制程的Gaudi3,再下一代AI芯片代號則為Falcon Shores。Gaudi2于2022年推出,從產(chǎn)品規(guī)格來看,Gaudi2所使用的是6個(gè)HBM2堆棧共96GB。英特爾表示,Guadi3的算力將是前代產(chǎn)品Gaudi2的兩倍,網(wǎng)絡(luò)帶寬、HBM容量是Gaudi2的1.5倍。

英特爾Gaudi2規(guī)格

  可以看出, 在各芯片企業(yè)的推動(dòng)下,AI芯片的競逐正從初期的算力指標(biāo)競爭,進(jìn)一步延展到存儲(chǔ)領(lǐng)域,HBM(高帶寬存儲(chǔ))幾乎成為了未來AI芯片當(dāng)中必備且必爭的存儲(chǔ)器。英偉達(dá)超大規(guī)模和高性能計(jì)算副總裁Ian Buck表示:“想要通過生成式AI和HPC應(yīng)用創(chuàng)造智能,就必須使用大型、快速的GPU顯存來高速、高效地處理海量數(shù)據(jù)。”

  半導(dǎo)體行業(yè)專家盛陵海告訴《中國電子報(bào)》記者:“從技術(shù)角度來講,存儲(chǔ)性能是提高AI訓(xùn)練能力的瓶頸,如果存儲(chǔ)能力跟不上算力,整個(gè)模型的訓(xùn)練便難以高效運(yùn)行;從企業(yè)角度來講,發(fā)展存儲(chǔ)性能也是性價(jià)比相對較高的方式之一。”據(jù)了解,當(dāng)前最高規(guī)格高帶寬存儲(chǔ)器的HBM3e主要由SK海力士、三星以及美光提供。

  AI芯片性能提升貴在推理?

  大模型訓(xùn)練和推理的效率與效果是衡量GPU性能的重要指標(biāo),各大廠商也圍繞著大模型訓(xùn)練與推理不斷提升自身實(shí)力。

H200與H100的推理性能對比

  H200的性能提升數(shù)據(jù)著重體現(xiàn)在模型推理上面。英偉達(dá)表示,H200在700億參數(shù)的大語言模型Llama2上的推理速度比H100提高了近一倍,功耗也會(huì)降低50%。同時(shí),英偉達(dá)H200和H100由于都基于Hopper架構(gòu),互相之間具備強(qiáng)兼容性,可實(shí)現(xiàn)一定程度上的替換,同時(shí)英偉達(dá)透露,下一代采用全新架構(gòu)的GPU B100也將于2024年推出,進(jìn)一步強(qiáng)化訓(xùn)練和推理的性能。

  面向訓(xùn)練需求,半導(dǎo)體廠商推出了多塊芯片互連的解決方案,用以支持更大參數(shù)的模型訓(xùn)練。英特爾的GAUDI 2 HLBA-225支持8塊Guadi2共同運(yùn)行;AMD推出Instinct平臺(tái)同樣搭載8塊MI300X,被蘇姿豐稱作是“人工智能推理和訓(xùn)練的終極解決方案”;英偉達(dá)依靠自身NVLink和NV Switch的高速互連技術(shù),推出了HGXH200的服務(wù)器主板。英偉達(dá)稱,客戶可選擇搭載4塊或8塊H200,配合Grace Hopper芯片可為各種應(yīng)用工作負(fù)載提供最高的性能,包括針對1750億參數(shù)以上超大模型的LLM訓(xùn)練和推理。

  “從訓(xùn)練來看,雖有目前常說的‘百模大戰(zhàn)’,但是其參數(shù)量和精度等還需要進(jìn)一步優(yōu)化,同時(shí),專業(yè)大模型的成熟度也不比通用大模型,故而當(dāng)前的主要訴求仍在大模型訓(xùn)練上?!笔⒘旰Uf,“而同時(shí),未來的推理需求則逐步增加,因?yàn)槿斯ぶ悄艿膽?yīng)用落地,最終還是要看推理能力?!?

新聞來源:中國電子報(bào)

相關(guān)文章