據外媒3月28日報道,英偉達的尖端圖像處理半導體(GPU)H200現已開始供貨。H200為面向AI領域的半導體,性能超過當前主打的H100。根據英偉達方面公布的性能評測結果,以Meta公司旗下大語言模型Llama2處理速度為例,H200相比于H100,生成式AI導出答案的處理速度最高提高了45%。此前英偉達表示,2024年第二季度推出H200。 英偉達H200于去年11月發布,其為基于英偉達的“Hopper”架構的HGXH200GPU,是H100GPU的繼任者,也是該公司第一款使用HBM3e內存的芯片,這種內存速度更快,容量更大,因此更適合大型語言模型。英偉達3月18日在開發者大會上宣布,年內將推出新一代AI半導體“B200”,B200和CPU組合的新產品用于最新的LLM上,推理大語言模型性能比H100提升30 倍,成本和能耗降至25分之一。H200作為H100下一代產品,內存性能大幅提升,H200升級主要在HBM3e,單芯片HBM容量提升有望進一步提升HBM需求,隨AI應用對算力硬件產品需求不斷提升,英偉達供應鏈有望受益。 中泰證券分析稱,HBM海外引領,核心標的如下:1)存儲原廠:海力士/三星/美光;2)設備:BESI/ASMPT/Camtek等。大陸HBM產業鏈相關標的:1)存儲:香農芯創/佰維存儲/雅創電子等;2)設備:賽騰股份/精智達/新益昌等;3)材料:華海誠科/雅克科技/聯瑞新材/興森科技/深南電路等;4)封測:通富微電/深科技/長電科技等。 |