日前深度求索DeepSeek發(fā)布了其DeepSeek-V3模型。該模型是一款強大的混合專家(MoE)語言模型,擁有671B參數(shù),激活37B。DeepSeek-V3在多項基準測試中表現(xiàn)優(yōu)異,編程能力甚至媲美最領(lǐng)先的3.5 Sonnet,超過GPT-4o。 光大證券分析,短期來看,DeepSeek-V3的低訓(xùn)練預(yù)算可能會讓市場對算力需求的增長預(yù)期有所下調(diào),尤其是對高性能計算(HPC)和GPU等硬件供應(yīng)商的需求可能受到一定影響。但長期而言,低訓(xùn)練預(yù)算并不意味著算力需求的減少,而是算力利用效率的提升。隨著大模型技術(shù)的普及和應(yīng)用的擴展,算力需求仍將保持增長,AI芯片、邊緣計算等長期成長性無憂。 中信證券認為,DeepSeek新一代模型的發(fā)布意味著AI大模型的應(yīng)用將逐步走向普惠,助力AI應(yīng)用廣泛落地;同時訓(xùn)練效率大幅提升,亦將助力推理算力需求高增。持續(xù)看好AI產(chǎn)業(yè)鏈的加速落地機遇,建議重點關(guān)注AI應(yīng)用、AI Infra、AI算力三大主線。 |