圖/shutterstock
輝達 Nvidia (NVDA) 於週一發佈了H200,這是一款專為訓練和部署推動生成式人工智慧繁榮的人工智慧模型而設計的圖形處理單元。H200包括141GB的下一代「HBM3」記憶體,將有助於利用人工智慧模型生成文本、圖像或預測。對Nvidia人工智慧GPU的興趣推動了該公司的業績,銷售預計將在本季度激增170%。
該公司的新GPU是H100的升級版,而H100是OpenAI用於訓練其最先進的大型語言模型GPT-4的晶片。大公司、初創公司和政府機構都在爭奪這些晶片的有限供應。根據Raymond James的估計,H100晶片的價格在25000美元到40000美元之間,而需要成千上萬台這些晶片一起工作,以創建過程稱為「訓練」的最大模型。
對Nvidia人工智慧GPU的興奮推動了該公司的股價,截至2023年迄今已上漲逾230%。Nvidia預計其財季第三季度的營收將達到約160億美元,較一年前增長170%。H200的關鍵改進之一是它包括141GB的下一代「HBM3」記憶體,將有助於晶片在經過訓練後執行「推理」,即使用大型模型生成文本、圖像或預測。
Nvidia表示,H200將生成的輸出速度幾乎是H100的兩倍。這是基於使用Meta的Llama 2 LLM進行測試的結果。H200預計將於2024年第二季度發貨,將與AMD的MI300X GPU競爭。類似於H200,AMD的晶片相較於前代有額外的記憶體,有助於將大型模型適應硬體以進行推理運行。
Nvidia表示,H200將與H100相容,這意味著已經使用先前型號進行訓練的人工智慧公司不需要更改其伺服器系統或軟體即可使用新版本。H200將在公司的HGX完整系統上提供四GPU或八GPU伺服器配置,並在名為GH200的晶片上提供,該晶片將H200 GPU與基於Arm的處理器配對。
然而,H200可能不會長時間保持Nvidia最快人工智慧晶片的地位。儘管像Nvidia這樣的公司提供其晶片的許多不同配置,但新的半導體通常每兩年邁出一大步,製造商會採用不同的架構,解鎖比增加記憶體或其他較小的優化更顯著的性能提升。H100和H200都基於Nvidia的Hopper架構。
在十月份,Nvidia告訴投資者,由於對其GPU的高需求,公司將從兩年的架構節奏轉變為一年的發佈模式。該公司展示了一張幻燈片,表明它將於2024年發佈基於即將推出的Blackwell架構的B100晶片。