//電報內(nèi)容
【DeepSeek發(fā)布Prover-V2模型 參數(shù)量達6710億】《科創(chuàng)板日報》30日訊,DeepSeek今日于AI開源社區(qū)Hugging Face上發(fā)布了一個名為DeepSeek-Prover-V2-671B的新模型。據(jù)悉,DeepSeek-Prover-V2-671B使用了更高效的safetensors文件格式,并支持多種計算精度,方便模型更快、更省資源地訓練和部署,參數(shù)達6710億,或為去年發(fā)布的Prover-V1.5數(shù)學模型升級版本。在模型架構(gòu)上,該模型使用了DeepSeek-V3架構(gòu),采用MoE(混合專家)模式,具有61層Transformer層,7168維隱藏層。同時支持超長上下文,最大位置嵌入達16.38萬,使其能處理復雜的數(shù)學證明,并且采用了FP8量化,可通過量化技術(shù)減小模型大小,提高推理效率。
//解讀摘要
DeepSeek發(fā)布Prover-V2模型,相較前代實現(xiàn)近百倍的模型容量擴張,機構(gòu)看好私有化部署需求增加有望推高大模型一體機銷量,這家公司已與中電數(shù)科簽訂算力中心項目合作協(xié)議,提供基于華為昇騰系列算力的AI一體機產(chǎn)品,另一家相關(guān)市場份額位居行業(yè)第四。