騰訊科技訊 8月9日,英偉達(dá)宣布推出一款新芯片,旨在在人工智能硬件領(lǐng)域抵御競(jìng)爭(zhēng)對(duì)手,包括AMD、谷歌和亞馬遜。
據(jù)估計(jì),目前英偉達(dá)在AI芯片市場(chǎng)占據(jù)了超過80%的市場(chǎng)份額。該公司的專長是圖形處理單元(GPU),已成為支撐生成式人工智能軟件(如谷歌的Bard和OpenAI的ChatGPT)的大型AI模型的首選芯片。但由于科技巨頭、云服務(wù)提供商和初創(chuàng)企業(yè)爭(zhēng)奪GPU容量來開發(fā)自己的AI模型,英偉達(dá)的芯片供應(yīng)短缺。
(相關(guān)資料圖)
英偉達(dá)最新發(fā)布的芯片GH200,與該公司目前最高端的AI芯片H100采用相同的GPU。但GH200還配備了141GB的尖端內(nèi)存和一個(gè)72核的ARM中央處理器。
英偉達(dá)CEO黃仁勛在周二的演講中表示:“我們給這個(gè)處理器加了一些提升?!彼a(bǔ)充說:“這個(gè)處理器是為全球數(shù)據(jù)中心的規(guī)模而設(shè)計(jì)的。”
據(jù)黃仁勛透露,這款新芯片將于明年第二季度在英偉達(dá)的經(jīng)銷商處上市,并計(jì)劃在年底前提供樣品。英偉達(dá)的代表拒絕透露價(jià)格。
通常,處理AI模型的過程至少分為兩個(gè)部分:訓(xùn)練和推理。
首先,使用大量數(shù)據(jù)對(duì)模型進(jìn)行訓(xùn)練,這個(gè)過程可能需要數(shù)月時(shí)間,有時(shí)需要數(shù)千個(gè)GPU,例如英偉達(dá)的H100和A100芯片。
然后,該模型將在軟件中用于進(jìn)行預(yù)測(cè)或生成內(nèi)容,這個(gè)過程稱為推理。與訓(xùn)練類似,推理需要大量的計(jì)算資源,并且每次軟件運(yùn)行時(shí)都需要大量的處理能力,例如生成文本或圖像時(shí)。但與訓(xùn)練不同,推理是幾乎持續(xù)進(jìn)行的,而訓(xùn)練只在需要更新模型時(shí)才需要進(jìn)行。
黃仁勛表示:“你可以將幾乎任何大型語言模型放入其中,它將進(jìn)行瘋狂的推理。大型語言模型的推理成本將大幅降低?!?/strong>
英偉達(dá)的新芯片GH200專為推理而設(shè)計(jì),因?yàn)樗哂懈蟮膬?nèi)存容量,可以容納更大的AI模型在單個(gè)系統(tǒng)中。英偉達(dá)副總裁伊恩·巴克在與分析師和記者的電話會(huì)議上表示,英偉達(dá)的H100具有80GB的內(nèi)存,而新的GH200則有141GB的內(nèi)存。英偉達(dá)還宣布推出了一種將兩個(gè)GH200芯片組合到一臺(tái)計(jì)算機(jī)中的系統(tǒng),以支持更大的模型。
巴克表示:“更大的內(nèi)存使得模型可以常駐在單個(gè)GPU上,而不需要多個(gè)系統(tǒng)或多個(gè)GPU來運(yùn)行?!?/p>
此次宣布正值英偉達(dá)的主要GPU競(jìng)爭(zhēng)對(duì)手AMD推出面向AI的芯片MI300X,該芯片支持192GB的內(nèi)存,并被市場(chǎng)推廣為適用于AI推理。谷歌和亞馬遜等公司也正在設(shè)計(jì)自己的定制AI芯片用于推理。
審校:小北