英偉達當地時間周二在洛杉磯舉行的SIGGRAPH大會上宣布了一項人工智能芯片的新配置,英偉達創始人CEO黃仁勛表示,新的芯片能加速生成式人工智能應用程序,并降低大模型的運行成本,讓數據中心規模化。
(資料圖片)
這款最新發布的人工智能芯片GH200使用與英偉達當前最高端的AI芯片H100相同的GPU,但配備141GB的內存以及72核的ARM芯片,H100的內存為80GB。
“這款芯片是為全球數據中心的橫向擴展而設計的。”黃仁勛在發布會上表示。
黃仁勛還表示,新的芯片將于明年第二季度起通過英偉達的經銷商供貨,并在今年年底前提供樣品。但目前這款芯片的價格仍未公布。
英偉達副總裁Ian Buck在一場媒體發布會上表示,新版本的芯片增加了高帶寬內存的數量,這種設計能夠驅動更大的AI模型運行。GH200經過優化,可以執行AI推理功能,從而有效地為類似ChatGPT等生成式AI應用程序提供支持。
英偉達發布新型芯片的背景是人工智能大模型的規模正在不斷擴大。“隨著模型參數的增加,它們需要更大的內存才能在不相互連接的單獨芯片系統上運行,額外的內存提高了GPU的性能。”Buck說道。
目前英偉達在人工智能芯片市場占據主導地位,據估計市場份額超過80%。例如支持谷歌的Bard和OpenAI的ChatGPT運行的都是英偉達的GPU。而隨著全球的科技巨頭、云服務提供商和初創公司都在搶奪GPU資源來開發自己的人工智能模型,英偉達的芯片供不應求。
通常,使用人工智能模型的過程至少分為兩個部分:訓練和推理。首先,使用大量數據訓練模型,這個過程可能需要數月時間,有時需要數千個GPU;然后,模型在軟件中使用推理來進行預測或生成內容。與訓練一樣,推理的計算成本很高,并且每次軟件運行時都需要大量處理能力。且與訓練不同的是,推理幾乎持續進行,而訓練只有當模型需要更新時才需要重新進行。
“你幾乎可以在GH200上運行任何你想要的大型語言模型,它會瘋狂地進行推理。”黃仁勛說,“大型語言模型的推理成本將大幅下降。”
英偉達還發布了一個系統,將兩個GH200芯片組合成一臺計算機,適用于更大的模型。黃仁勛稱之為“全球最大的單體GPU”。
在人工智能芯片供不應求之際,上周英偉達的主要競爭對手AMD發布了一款AI芯片MI300X,該芯片可支持192GB內存,并具有AI推理能力。谷歌和亞馬遜等公司也在設計自己的定制人工智能推理芯片。
英偉達發布會的另一個亮點為OpenUSD的相關進展。OpenUSD近期由美國3D內容行業的5家主要公司:蘋果、英偉達、皮克斯、Adobe和Autodesk聯合成立,目標是有一天可能成為“元宇宙”的3D圖形標準。該組織正通過促進3D工具和數據更大的互操作性,使開發者和內容創作者能夠描述、編寫和模擬大型3D項目,并構建范圍不斷擴大的3D產品和服務。
今年的SIGGRAPH上,IBM高級副總裁Darío Gil的主題演講涉及量子計算的未來以及它如何幫助解決實際問題。索尼首席技術官Hiroaki Kitano也在SIGGRAPH上主持一個關于電影創意產業的論壇。
SIGGRAPH也一直是展示在混合虛擬現實(XR)研究前沿的場所,今年也不例外。Meta展示了兩款VR和MR頭戴設備,其中一款是Butterscotch Varifocal,它將變焦技術與視網膜分辨率VR顯示相結合;另一個是Flamera,這是一款計算相機,使用光場技術。Butterscotch Varifocal和Flamera均仍處于Meta的研發階段,但這些技術可能會在未來激發電子消費產品的靈感。
關于我們| 聯系方式| 版權聲明| 供稿服務| 友情鏈接
咕嚕網 www.fyuntv.cn 版權所有,未經書面授權禁止使用
Copyright©2008-2023 By All Rights Reserved 皖ICP備2022009963號-10
聯系我們: 39 60 29 14 2@qq.com