計(jì)算機(jī)-DeepSeek驚艷世界算力與應(yīng)用將迎來結(jié)構(gòu)性變化_第1頁
計(jì)算機(jī)-DeepSeek驚艷世界算力與應(yīng)用將迎來結(jié)構(gòu)性變化_第2頁
計(jì)算機(jī)-DeepSeek驚艷世界算力與應(yīng)用將迎來結(jié)構(gòu)性變化_第3頁
計(jì)算機(jī)-DeepSeek驚艷世界算力與應(yīng)用將迎來結(jié)構(gòu)性變化_第4頁
計(jì)算機(jī)-DeepSeek驚艷世界算力與應(yīng)用將迎來結(jié)構(gòu)性變化_第5頁
已閱讀5頁,還剩16頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

l

DeepSeek近期成為科技圈最炙手可熱的明星企業(yè):

DeepSeek近期分別發(fā)布大模型DeepSeek-v3和推理模型R1,前者在大模型主流榜單的開源模型中位列榜首,并與世界上最先進(jìn)的閉源模型不分伯仲;后者性能對標(biāo)OpenAI的o1正式版,在數(shù)

學(xué)、代碼和自然語言推理等任務(wù)上表現(xiàn)卓越。以上兩個(gè)模型均通過算法和架構(gòu)的創(chuàng)新,大幅降低了訓(xùn)練成本和推理成本,為AI技術(shù)的普及與創(chuàng)新作出了卓越的貢獻(xiàn)

。

DeepSeek相關(guān)模型自從推出后,立刻占據(jù)全球科技頭條并引發(fā)巨大關(guān)注,我們認(rèn)為,DeepSeek呈現(xiàn)出的算法創(chuàng)新、性能表現(xiàn)、開源屬性等多重因素,將對AI應(yīng)用

與算力行業(yè)產(chǎn)生深遠(yuǎn)的影響。lDeepSeek在模型訓(xùn)練與推理中采用了多項(xiàng)技術(shù)創(chuàng)新:DeepSeek-V3實(shí)現(xiàn)了多項(xiàng)工

程技術(shù)上的創(chuàng)新,包括通過FP8精度訓(xùn)練、DualPipe雙向流水線等技術(shù)降低訓(xùn)練成

本,通過優(yōu)化MoE負(fù)載均衡、多頭潛在注意力機(jī)制(

MLA

)來降低推理成本,并通

過多Token預(yù)測(MTP

)以及模型蒸餾來進(jìn)一步提升模型性能,最終用極低的成本完成了訓(xùn)練過程,與此同時(shí)推理的成本也較其他模型有大幅下降。而

R1-Zero的目標(biāo)是驗(yàn)證純RL能否激發(fā)模型的自主推理能力,探索無監(jiān)督強(qiáng)化學(xué)習(xí)的潛力,而R1

則通過數(shù)據(jù)引導(dǎo)+多階段優(yōu)化,平衡推理性能和實(shí)用價(jià)值,目標(biāo)是打造更符合人類偏好的通用推理模型,兩個(gè)模型均實(shí)現(xiàn)了較為理想的效果。lDeepSeek將對AI算力與應(yīng)用產(chǎn)生結(jié)構(gòu)性影響:

由于DeepSeek-V3

、R1等模型通過算法與架構(gòu)層面的多重創(chuàng)新大幅降低了訓(xùn)練端算力消耗,不過我們認(rèn)為,在各模型公司仍致力于訓(xùn)練出性能更強(qiáng)大模型的目標(biāo)指引下,龐大的訓(xùn)練集群將仍然被產(chǎn)業(yè)所追逐,訓(xùn)練算力長期看仍有前景和空間。而推理算力的需求空間則更為樂觀,我們認(rèn)為推理成本的大幅下降將帶來需求更大幅度的增長,而在這樣的過程中,算力需求結(jié)構(gòu)可能將會改變,而美國如果進(jìn)一步收緊AI芯片供應(yīng),則可能對國產(chǎn)芯片形成利好。而另一方面,此前AI應(yīng)用的普及及其商業(yè)化還存在一定的困難,一方面在于模型性能仍然沒法滿足眾多場景的需求,尤其是在推理能力和多模態(tài)環(huán)節(jié),另一方面則是閉源模型性能領(lǐng)先但API調(diào)用的成本過高,影響了AI應(yīng)用的大范圍普及,我們認(rèn)為,DeepSeek

的強(qiáng)推理能力、低算力成本、開源屬性,使得其對AI應(yīng)用的普及有望發(fā)揮重要的作用。lB端企業(yè)級應(yīng)用,建議關(guān)注金山辦公、鼎捷數(shù)智、泛微網(wǎng)絡(luò)、漢得信息、軟通動力、上海鋼聯(lián)、合合信息、新致軟件、每日互動。l垂直行業(yè)應(yīng)用領(lǐng)域有較強(qiáng)優(yōu)勢的企業(yè),建議關(guān)注科大訊飛、焦點(diǎn)科技、潤達(dá)醫(yī)療、

同花順、衛(wèi)寧健康

。lAI工具類應(yīng)用,建議關(guān)注彩訊股份、虹軟科技、萬興科技、福昕軟件。l國產(chǎn)算力及算力服務(wù)企業(yè),建議關(guān)注海光信息、寒武紀(jì)-U、中科曙光、云賽智聯(lián)、

安博通、首都在線、優(yōu)刻得-W

。風(fēng)險(xiǎn)提示技術(shù)落地不及預(yù)期;政策落地不及預(yù)期;美國進(jìn)一步制裁風(fēng)險(xiǎn);競爭激烈導(dǎo)致變現(xiàn)能力

下降。DeepSeek驚艷世界,算力與應(yīng)用將迎來結(jié)

構(gòu)性變化我們認(rèn)為

AI

應(yīng)用正逐步進(jìn)入落地期,有望呈現(xiàn)較多的投資機(jī)遇,建議投資者關(guān)注行業(yè)整

體性機(jī)會,而國產(chǎn)算力及推理算力服務(wù)企業(yè),也將從AI應(yīng)用繁榮中受益。核心觀點(diǎn)

字節(jié)加速AI

落地、小米、理想"All

in

AI"AI

應(yīng)用前景廣闊、自主可控已是大趨勢:計(jì)算機(jī)行業(yè)2025年度投資策略AI

應(yīng)用落地曙光已現(xiàn)2024-12-292024-12-272024-11-18投資建議與投資標(biāo)的浦俊懿

S0860514050004行業(yè)研究

|

深度報(bào)告

計(jì)算機(jī)行業(yè)有關(guān)分析師的申明,見本報(bào)告最后部分。其他重要信息披露見分析師申明之后部分,或請與您的投資代表聯(lián)系。并請閱讀本證券研究報(bào)告最后一頁的免責(zé)申明??春茫ňS持)報(bào)告發(fā)布日期

2025年02月04

日國家/地區(qū)

中國計(jì)算機(jī)行業(yè)行業(yè)目錄引言

...............................................................................................................

4一、DeepSeek-V3、R1模型推出后“火”遍全球

..............................................

41.1

DeepSeek-V3性能表現(xiàn)不輸全球頂尖模型

...................................................................41.2

R1模型實(shí)現(xiàn)了比肩OpenAIo1的推理能力

..................................................................51.3

DeepSeek-V3

、R1模型在產(chǎn)業(yè)中引發(fā)巨大反響

...........................................................7二、DeepSeek模型訓(xùn)練與推理技術(shù)創(chuàng)新解析

................................................

82.1

DeepSeek-V3模型采用了多項(xiàng)創(chuàng)新技術(shù)......................................................................82.2

R1-Zero與R1模型嘗試強(qiáng)化學(xué)習(xí)邊界.......................................................................

10三、DeepSeek將對AI算力與應(yīng)用產(chǎn)生結(jié)構(gòu)性影響.....................................113.1

DeepSeek模型有望引發(fā)算力需求與市場結(jié)構(gòu)變化.....................................................113.2AI應(yīng)用有望在高性能、低成本模型支撐下繁榮

...........................................................

13四、投資建議與投資標(biāo)的.............................................................................15五、風(fēng)險(xiǎn)提示

...............................................................................................16有關(guān)分析師的申明,見本報(bào)告最后部分。其他重要信息披露見分析師申明之后部分,或請與您的投資代表聯(lián)系。并請閱讀本證券研究報(bào)告最后一頁的免責(zé)申明。計(jì)算機(jī)行業(yè)深度報(bào)告——DeepSeek驚艷世界,算力與應(yīng)用將迎來結(jié)構(gòu)性變化2圖表目錄圖1

:DeepSeek-V3在多項(xiàng)評測中成績領(lǐng)先

................................................................................4圖2

:DeepSeek-V3在各類測試集上的表現(xiàn)................................................................................5圖3:DeepSeek-V3API服務(wù)價(jià)格具備很強(qiáng)的吸引力.................................................................5圖4

:DeepSeek-R1在推理能力上比肩OpenAIo1.....................................................................6圖5:基于

R1蒸餾的小模型性能超越OpenAIo1-mini................................................................6圖6

:DeepSeek-R1

API服務(wù)定價(jià)繼續(xù)大幅低于OpenAIo1.......................................................7圖7

:DeepSeek-V3模型訓(xùn)練僅需要278.8萬GPU小時(shí)訓(xùn)練資源

..............................................7圖8

:DeepSeek成為全球增速最快的AI應(yīng)用

.............................................................................8圖9:DeepSeek發(fā)布后下載量增長迅猛

.....................................................................................8圖10

:DeepSeek-V3模型基本架構(gòu).............................................................................................8圖11

:DeepSeek-V3采用FP8為主的混合精度訓(xùn)練方法............................................................9圖

12:多Token預(yù)測(MTP

)模塊結(jié)構(gòu)示意............................................................................

10圖13

:R1-Zero由基礎(chǔ)模型直接進(jìn)行強(qiáng)化學(xué)習(xí)訓(xùn)練而產(chǎn)生

.........................................................

10圖14

:DeepSeek-R1-Zero訓(xùn)練期間

AIME準(zhǔn)確率....................................................................11圖15

:DeepSeek-R1-Zero在RL過程中的平均響應(yīng)長度(輸出長度不斷增加)......................11圖17

:“杰文斯悖論”指出成本下降將刺激資源需求更大增長

......................................................

12圖18:硅基流動x華為云聯(lián)合推出基于昇騰云的DeepSeek

R1

&V3

推理服務(wù).......................

13圖19:AI產(chǎn)品榜全球

Web端訪問前

15情況(24年12月)

....................................................

14圖20:AI產(chǎn)品榜全球APP端訪問前

15情況(24年12月)

....................................................

14圖21:2024年全球

AI產(chǎn)品付費(fèi)用戶規(guī)模

..................................................................................

14圖22:short-CoT模式下,k1.5模型多方面能力領(lǐng)先...............................................................

15圖23:long-CoT模式下,k1.5模型多方面能力比肩o1............................................................

15圖24

:Qwen2.5-Max測試結(jié)果領(lǐng)先各類指令模型

.....................................................................

15圖25

:Qwen2.5-Max表現(xiàn)優(yōu)于各類開源模型............................................................................

15有關(guān)分析師的申明,見本報(bào)告最后部分。其他重要信息披露見分析師申明之后部分,或請與您的投資代表聯(lián)系。并請閱讀本證券研究報(bào)告最后一頁的免責(zé)申明。計(jì)算機(jī)行業(yè)深度報(bào)告——DeepSeek驚艷世界,算力與應(yīng)用將迎來結(jié)構(gòu)性變化3引言DeepSeek

近期分別發(fā)布大模型

DeepSeek-v3

和推理模型

R1,前者在大模型主流榜單的開源模

型中位列榜首,并與世界上最先進(jìn)的閉源模型不分伯仲;后者性能對標(biāo)OpenAI的o1正式版,在數(shù)學(xué)、代碼和自然語言推理等任務(wù)上表現(xiàn)卓越。以上兩個(gè)模型均通過算法和架構(gòu)的創(chuàng)新,

大幅降低了訓(xùn)練成本和推理成本,為AI技術(shù)的普及與創(chuàng)新作出了卓越的貢獻(xiàn)。我們認(rèn)為,DeepSeek呈

現(xiàn)出的算法創(chuàng)新、性能表現(xiàn)、開源屬性等多重因素,將對AI

應(yīng)用與算力行業(yè)產(chǎn)生深遠(yuǎn)的影響。一

、DeepSeek-V3

、R1模型推出后“火”遍全球1.1

DeepSeek-V3性能表現(xiàn)不輸全球頂尖模型2024年

12月26

日,杭州深度求索(DeepSeek

AI

)發(fā)布

DeepSeek-V3并同步開源,據(jù)介紹,

DeepSeek-V3

多項(xiàng)評測成績超越了

Qwen2.5-72B

Llama-3.1-405B

等其他開源模型,并在性能上和世界頂尖的閉源模型GPT-4o

以及Claude-3.5-Sonnet不分伯仲。具體而言,DeepSeek-V3在知識類任務(wù)(MMLU,

MMLU-Pro,

GPQA,

SimpleQA)上的水平相比前代DeepSeek-V2.5顯著提升,接近當(dāng)前表現(xiàn)最好的模型Anthropic公司于2024年10月發(fā)布的

Claude-3.5-Sonnet-1022;在長文本評測(DROP

、FRAMES和LongBenchv2

)方面,V3平均

表現(xiàn)也超越其他模型。在算法類代碼場景(Codeforces),V3

遠(yuǎn)遠(yuǎn)領(lǐng)先于市面上已有的全部非o1

類模型,并在工程類代碼場景(SWE-Bench

Verified)逼近

Claude-3.5-Sonnet-1022

。而在

美國數(shù)學(xué)競賽(

AIME

2024,

MATH

)和全國高中數(shù)學(xué)聯(lián)賽(CNMO

2024)上,DeepSeek-V3大

幅超過了其他所有開源閉源模型。有關(guān)分析師的申明,見本報(bào)告最后部分。其他重要信息披露見分析師申明之后部分,或請與您的投資代表聯(lián)系。并請閱讀本證券研究報(bào)告最后一頁的免責(zé)申明。計(jì)算機(jī)行業(yè)深度報(bào)告——DeepSeek驚艷世界,算力與應(yīng)用將迎來結(jié)構(gòu)性變化圖

1

:DeepSeek-V3

在多項(xiàng)評測中成績領(lǐng)先數(shù)據(jù)來源:

DeepSeek

微信公眾號,東方證券研究所4另外,

DeepSeek-V3

通過算法和工程上的創(chuàng)新,將生成吐字速度從

20TPS(Transactions

PerSecond每秒完成的事務(wù)數(shù)量)大幅提高至60TPS,相比V2.5模型實(shí)現(xiàn)了3倍的提升,可以帶來更加流暢的使用體驗(yàn)。同時(shí),模型API

服務(wù)定價(jià)也將調(diào)整為每百萬輸入tokens

0.5

元(緩存命中)

/

2

元(緩存未命中),每百萬輸出tokens

8元,因此,V3模型在性能實(shí)現(xiàn)領(lǐng)先的同時(shí),定價(jià)大幅低于市面上所有模型,性價(jià)比優(yōu)勢明顯。1.2

R1模型實(shí)現(xiàn)了比肩OpenAI

o1的推理能力2025年1月20

日,DeepSeek再次扔出重磅炸彈,發(fā)布了推理模型R1,該模型在后訓(xùn)練階段大

規(guī)模使用了強(qiáng)化學(xué)習(xí)技術(shù),在僅僅使用極少標(biāo)注數(shù)據(jù)的情況下,極大提升了模型推理能力,在數(shù)

據(jù)、代碼、自然語言推理等領(lǐng)域均實(shí)現(xiàn)了比肩OpenAIo1模型的能力。有關(guān)分析師的申明,見本報(bào)告最后部分。其他重要信息披露見分析師申明之后部分,或請與您的投資代表聯(lián)系。并請閱讀本證券研究報(bào)告最后一頁的免責(zé)申明。計(jì)算機(jī)行業(yè)深度報(bào)告——DeepSeek驚艷世界,算力與應(yīng)用將迎來結(jié)構(gòu)性變化圖3:DeepSeek-V3API服務(wù)價(jià)格具備很強(qiáng)的吸引力圖2

:DeepSeek-V3在各類測試集上的表現(xiàn)數(shù)據(jù)來源:

DeepSeek

微信公眾號,東方證券研究所數(shù)據(jù)來源:

DeepSeek

微信公眾號,東方證券研究所5除了開源相關(guān)模型外,DeepSeek-R1

上線API,對用戶開放思維鏈輸出,服務(wù)定價(jià)為每百萬輸入

tokens

1元(緩存命中)/4元(緩存未命中),每百萬輸出

tokens

16元,與OpenAIo1API

調(diào)用相比,繼續(xù)保持超高的性價(jià)比。與此同時(shí),DeepSeek還上線了APP并更新官網(wǎng),打開“深度思考”模式,即可調(diào)用最新版DeepSeek-R1完成各類推理任務(wù)。DeepSeek不僅開源了R1-Zero和R1兩個(gè)660B模型,還通過

DeepSeek-R1

的輸出,蒸餾了6

個(gè)小模型開源給社區(qū),其中

32B

70B

模型在多項(xiàng)能力上實(shí)現(xiàn)了對標(biāo)

OpenAI

o1-mini

的效果。

同時(shí),DeepSeek

還修改了產(chǎn)品協(xié)議,支持用戶進(jìn)行“模型蒸餾”,即允許用戶利用模型輸出、通過模型蒸餾等方式訓(xùn)練其他模型。有關(guān)分析師的申明,見本報(bào)告最后部分。其他重要信息披露見分析師申明之后部分,或請與您的投資代表聯(lián)系。并請閱讀本證券研究報(bào)告最后一頁的免責(zé)申明。計(jì)算機(jī)行業(yè)深度報(bào)告——DeepSeek驚艷世界,算力與應(yīng)用將迎來結(jié)構(gòu)性變化圖5:基于

R1蒸餾的小模型性能超越OpenAIo1-mini圖4

:DeepSeek-R1在推理能力上比肩OpenAIo1數(shù)據(jù)來源:

DeepSeek

微信公眾號,東方證券研究所數(shù)據(jù)來源:

DeepSeek

微信公眾號,東方證券研究所6圖6

:DeepSeek-R1API服務(wù)定價(jià)繼續(xù)大幅低于OpenAIo1數(shù)據(jù)來源:

DeepSeek

微信公眾號,東方證券研究所1.3

DeepSeek-V3、R1模型在產(chǎn)業(yè)中引發(fā)巨大反響DeepSeek-V3

、R1

兩款模型最讓人印象深刻的不僅在于其比肩業(yè)內(nèi)最佳表現(xiàn)的性能,更在于超低的訓(xùn)練成本:DeepSeek在V3相關(guān)的論文中披露,V3僅僅使用2048塊H800GPU訓(xùn)練2個(gè)月的時(shí)間,共消耗

278.8

GPU

小時(shí),而按照

OpenAI

創(chuàng)始成員之一

Andrej

Karpathy

介紹,

Llama3-405B則消耗了3080萬GPU小時(shí),是V3的

11倍;如果按照H800

GPU每小時(shí)2美金的租賃費(fèi)用計(jì)算,意味著V3模型正式訓(xùn)練僅僅需要

557.6萬美金,

而此前同等性能的模型則需

要0.6-1億美金。而R1模型

是在DeepSeek

V3

的基礎(chǔ)上,通過引入大

規(guī)模強(qiáng)化

學(xué)習(xí)

(Reinforcement

Learning)和多階段訓(xùn)練,進(jìn)一步提升推理能力的模型,據(jù)專家判斷,在V3

的基礎(chǔ)上生產(chǎn)R1模型的成本可能非常低廉。DeepSeek-V3

、R1兩款模型的推出,猶如在AI行業(yè)投入了兩顆重磅炸彈,DeepSeek

迅速成為

科技產(chǎn)業(yè)最耀眼的明星企業(yè),并引發(fā)了巨大的討論與關(guān)注。相較于各科技巨頭不斷構(gòu)建更大規(guī)模

算力集群來訓(xùn)練更強(qiáng)大的模型,DeepSeek

向大家展示了通過精巧的算法優(yōu)化,可以在低一個(gè)數(shù)量級算力消耗的情況下生產(chǎn)出頂尖性能的模型。DeepSeek

已經(jīng)成為眾多科技領(lǐng)域領(lǐng)袖重點(diǎn)關(guān)注的對象:微軟

CEO

納德拉在財(cái)報(bào)電話會議上稱DeepSeek“有一些真的創(chuàng)新”,并透露R1

模型已經(jīng)可以通過微軟的

AI平臺獲取;MetaCEO

克伯格表示

Meta

DeepSeek

視為競爭對手并正在學(xué)習(xí);ASML

CEO

則在接受采訪時(shí)

表示DeepSeek這樣的低成本模型將帶來更多而非更少的AI芯片需求;Anthropic創(chuàng)始人認(rèn)為V3是真正的創(chuàng)新所在;人工智能專家吳恩達(dá)也發(fā)文認(rèn)為中美AI差距正在迅速縮小。OpenAI

CEO山姆奧特曼更是在發(fā)布o(jì)3-mini后罕見地承認(rèn)“在開源上

OpenAI站在了歷史的錯(cuò)誤一方”

。有關(guān)分析師的申明,見本報(bào)告最后部分。其他重要信息披露見分析師申明之后部分,或請與您的投資代表聯(lián)系。并請閱讀本證券研究報(bào)告最后一頁的免責(zé)申明。圖7

:DeepSeek-V3模型訓(xùn)練僅需要278.8萬GPU小時(shí)訓(xùn)練資源計(jì)算機(jī)行業(yè)深度報(bào)告——DeepSeek驚艷世界,算力與應(yīng)用將迎來結(jié)構(gòu)性變化數(shù)據(jù)來源:

DeepSeek-AI《DeepSeek-V3Technical

Report》,東方證券研究所7二、

DeepSeek

模型訓(xùn)練與推理技術(shù)創(chuàng)新解析2.1

DeepSeek-V3模型采用了多項(xiàng)創(chuàng)新技術(shù)據(jù)披露,DeepSeek-V3為自研MoE模型,總參數(shù)671B參數(shù),而每項(xiàng)任務(wù)僅激活37B,在14.8Ttoken

上進(jìn)行了預(yù)訓(xùn)練。DeepSeek-V3實(shí)現(xiàn)了多項(xiàng)工程技術(shù)上的創(chuàng)新,包括通過FP8精度訓(xùn)練、DualPipe

雙向流水線等技術(shù)降低訓(xùn)練成本,通過優(yōu)化MoE負(fù)載均衡、多頭潛在注意力機(jī)制(MLA)

來降低推理成本,并通過多Token預(yù)測(MTP

)以及模型蒸餾來進(jìn)一步提升模型性能,最終取得

了令人驚艷的效果。在超高的熱度下,DeepSeek

成為了全球增速最快的

AI

應(yīng)用,僅上線

18

天日活就達(dá)到了

1500

萬,而

ChatGPT

1500

萬花了

244

天,增速是

ChatGPT

13

倍;1月26

日同時(shí)登頂蘋果

AppStore和谷歌PlayStore全球下載榜首,

目前仍然在100多個(gè)多家/地區(qū)維持領(lǐng)先。有關(guān)分析師的申明,見本報(bào)告最后部分。其他重要信息披露見分析師申明之后部分,或請與您的投資代表聯(lián)系。并請閱讀本證券研究報(bào)告最后一頁的免責(zé)申明。計(jì)算機(jī)行業(yè)深度報(bào)告——DeepSeek驚艷世界,算力與應(yīng)用將迎來結(jié)構(gòu)性變化

數(shù)據(jù)來源:

invest

wallstreet

微信公眾號,東方證券研究所

數(shù)據(jù)來源:

DeepSeek-AI《DeepSeek-V3Technical

Report》,東方證券研究所圖8

:DeepSeek

成為全球增速最快的AI應(yīng)用圖9:DeepSeek發(fā)布后下載量增長迅猛圖

10

:DeepSeek-V3模型基本架構(gòu)數(shù)據(jù)來源:

AI

產(chǎn)品榜,東方證券研究所8從訓(xùn)練的角度,F(xiàn)P8精度訓(xùn)練、DualPipe雙向流水線以及高效的跨節(jié)點(diǎn)通信等技術(shù)是工程領(lǐng)域創(chuàng)

新的重點(diǎn)。1)FP8

精度訓(xùn)練:DeepSeek-V3

將大部分計(jì)算密集型操作(如矩陣乘法)使用FP8

精度進(jìn)行,

同時(shí)保留一些關(guān)鍵操作(如嵌入層、輸出頭、歸一化操作等)的高精度(BF16

FP32),

以確保訓(xùn)練的數(shù)值穩(wěn)定性。

在此基礎(chǔ)上,進(jìn)一步疊加細(xì)粒度量化、高精度累加、在線量化、低精度存儲和通信等技術(shù)方法,成功實(shí)現(xiàn)了高效的

FP8

精度訓(xùn)練。這些創(chuàng)新不僅顯著提高了訓(xùn)練速度和效率,還保持了模型的高性能,為大規(guī)模語言模型的訓(xùn)練提供了新的解決方案。2)DualPipe

雙向流水線:核心思想是將模型的不同層分配到不同的

GPU

上進(jìn)行并行訓(xùn)練,并

通過雙向流水線調(diào)度來同時(shí)處理正向傳播和反向傳播。具體來說,它允許從流水線的兩端同

時(shí)輸入微批次(micro-batches),從而最大化地利用計(jì)算資源并減少通信開銷,該方法實(shí)現(xiàn)了高效的模型訓(xùn)練,為大規(guī)模分布式訓(xùn)練提供了強(qiáng)大的支持。3)

跨節(jié)點(diǎn)通信技術(shù)

:DeepSeek-V3通過高效的跨節(jié)點(diǎn)全對全通信內(nèi)核、通信和計(jì)算的重疊、定

制化通信內(nèi)核、低精度通信以及對未來硬件設(shè)計(jì)的建議,顯著提高了跨節(jié)點(diǎn)通信的效率。這

些技術(shù)不僅減少了通信開銷,還提高了整體訓(xùn)練效率,為大規(guī)模分布式訓(xùn)練提供了強(qiáng)大的支

持。而在推理領(lǐng)域,DeepSeek-V3

混合專家系統(tǒng)(MoE

)和多頭潛在注意力機(jī)制(MLA

)是獲得低成

本、高質(zhì)量推理結(jié)果的重要原因。1)混合專家系統(tǒng)(MoE)

:MoE

是一種將多個(gè)小型專家模型組合起來,共同完成任務(wù)的架構(gòu)

,

MoE

可以顯著增加模型的參數(shù)數(shù)量,而無需像稠密模型那樣增加計(jì)算量。具體而言,V3

模型每項(xiàng)任務(wù)僅激活370億個(gè)參數(shù),大大降低了計(jì)算成本,同時(shí)保持了高性能。2)多頭潛在注意力(MLA):多頭潛在注意力機(jī)制增強(qiáng)了模型處理細(xì)微關(guān)系和同時(shí)管理多個(gè)輸入的能力,使其對需要上下文深度的任務(wù)非常有效。

如果以聽一場演講來類比,傳統(tǒng)的注意力機(jī)制需要記住每個(gè)時(shí)間點(diǎn)的所有細(xì)節(jié)(就像記錄每一秒的錄音)

,而MLA則只提取關(guān)鍵信息(就像只記錄每個(gè)重點(diǎn)句子),這樣大大降低需要記憶的信息。此外,DeepSeek-V3還通過多令牌預(yù)測(MTP

)和模型蒸餾技術(shù)提高了模型的性能。1)多令牌預(yù)測(MTP):傳統(tǒng)的語言模型通常只預(yù)測下一個(gè)令牌(token),而MTP

則是在每

個(gè)位置上,讓模型預(yù)測多個(gè)未來的標(biāo)記,從而提高模型的性能和效率

。它不僅增加了訓(xùn)練信號的密度,還使模型能夠更好地規(guī)劃未來的表示,從而生成更連貫和準(zhǔn)確的文本。有關(guān)分析師的申明,見本報(bào)告最后部分。其他重要信息披露見分析師申明之后部分,或請與您的投資代表聯(lián)系。并請閱讀本證券研究報(bào)告最后一頁的免責(zé)申明。計(jì)算機(jī)行業(yè)深度報(bào)告——DeepSeek驚艷世界,算力與應(yīng)用將迎來結(jié)構(gòu)性變化圖

11

:DeepSeek-V3采用FP8為主的混合精度訓(xùn)練方法數(shù)據(jù)來源:

DeepSeek-AI《DeepSeek-V3Technical

Report》,東方證券研究所9圖

12

:多Token預(yù)測(

MTP

)模塊結(jié)構(gòu)示意數(shù)據(jù)來源:

DeepSeek-AI《DeepSeek-V3Technical

Report》,東方證券研究所2.2

R1-Zero與R1模型嘗試強(qiáng)化學(xué)習(xí)邊界為了獲得推理能力更強(qiáng)的模型,DeepSeek相繼開發(fā)了

R1-Zero和

R1模型,其中

R1-Zero

嘗試

了不使用監(jiān)督微調(diào)(SFT)、僅采用大規(guī)模強(qiáng)化學(xué)習(xí)(RL

)的方式,而R1

則在強(qiáng)化學(xué)習(xí)之前引

入冷啟動階段,通過少量人工設(shè)計(jì)的長鏈思維(CoT)數(shù)據(jù)對基礎(chǔ)模型進(jìn)行初步監(jiān)督微調(diào),從而為強(qiáng)化學(xué)習(xí)提供更穩(wěn)定、可讀性更強(qiáng)的初始策略。R1-Zero

直接在基礎(chǔ)模型上應(yīng)用強(qiáng)化學(xué)習(xí)而不使用任何

SFT

數(shù)據(jù),為了訓(xùn)練

R1-Zero

,DeepSeek

采用了一種基于規(guī)則的獎(jiǎng)勵(lì)系統(tǒng)(而非神經(jīng)獎(jiǎng)勵(lì)模型),該系統(tǒng)包含準(zhǔn)確率獎(jiǎng)勵(lì)和格式獎(jiǎng)勵(lì),其中前者負(fù)責(zé)評估響應(yīng)是否正確,而后者確保模型在生成響應(yīng)時(shí)遵循特定的結(jié)構(gòu)要求。而隨著

RL

訓(xùn)練的持續(xù)推進(jìn),DeepSeek-R1-Zero

的性能呈現(xiàn)出穩(wěn)步提升的趨勢。此外,通過延長測試時(shí)間的計(jì)算,

DeepSeek-R1-Zero

自然而然地獲得了解決更復(fù)雜推理任務(wù)的能力,從生成數(shù)百個(gè)

token

到數(shù)千個(gè)

token,模型得以更深入地探索和優(yōu)化其思維過程。模型的「思考過程」會不斷與最終的正確率獎(jiǎng)勵(lì)相互作用。當(dāng)模型最初得出的答案并未得到較高獎(jiǎng)勵(lì)時(shí),它會在后續(xù)

的推理中「回頭反省」,嘗試補(bǔ)充或修正先前的思路,從而獲得更高的獎(jiǎng)勵(lì)

,通過這樣的方式,模型在沒有外部指導(dǎo)的情況下持續(xù)自主學(xué)習(xí)與迭代,最終具備了強(qiáng)大的推理能力。2

)模型蒸餾技術(shù):模型蒸餾(Knowledge

Distillation)是一種將大型復(fù)雜模型(教師模型)的知

識遷移到小型高效模型(學(xué)生模型)的技術(shù)。其核心目標(biāo)是在保持模型性能的同時(shí),顯著降低模

型的計(jì)算復(fù)雜度和存儲需求

。DeepSeek

利用強(qiáng)大的教師(R1

)模型生成或優(yōu)化數(shù)據(jù),幫助小模

型更高效地學(xué)習(xí),此外,

DeepSeek

通過監(jiān)督微調(diào)(SFT)的方式,將教師模型的知識遷移到學(xué)生模型中。有關(guān)分析師的申明,見本報(bào)告最后部分。其他重要信息披露見分析師申明之后部分,或請與您的投資代表聯(lián)系。并請閱讀本證券研究報(bào)告最后一頁的免責(zé)申明。

數(shù)據(jù)來源:

圖靈人工智能微信公眾號,

東方證券研究所

計(jì)算機(jī)行業(yè)深度報(bào)告——DeepSeek驚艷世界,算力與應(yīng)用將迎來結(jié)構(gòu)性變化圖

13

:R1-Zero由基礎(chǔ)模型直接進(jìn)行強(qiáng)化學(xué)習(xí)訓(xùn)練而產(chǎn)生10R1-Zero

的目標(biāo)是驗(yàn)證純

RL

能否激發(fā)模型的自主推理能力,探索「無監(jiān)督強(qiáng)化學(xué)習(xí)的潛力」

,而

R1則通過數(shù)據(jù)引導(dǎo)+多階段優(yōu)化,平衡推理性能和實(shí)用價(jià)值,目標(biāo)是打造更符合人類偏好的通

用推理模型。R1的訓(xùn)練過程分為4

個(gè)階段:1)階段

1(冷啟動):使用少量高質(zhì)量的

CoT

數(shù)據(jù)對基礎(chǔ)模型進(jìn)行微調(diào),作為

RL

訓(xùn)練的初始

起點(diǎn),解決純RL冷啟動不穩(wěn)定問題;2)階段2(推理導(dǎo)向的強(qiáng)化學(xué)習(xí)):在冷啟動模型上進(jìn)行

RL訓(xùn)練,應(yīng)用

GRPO

算法,結(jié)合規(guī)則獎(jiǎng)勵(lì)和語言一致性獎(jiǎng)勵(lì),優(yōu)化模型在數(shù)學(xué)、代碼、邏輯等任務(wù)上的推理能力;3)

階段3(拒絕采樣+監(jiān)督微調(diào)):使用上一階段的

RL

模型進(jìn)行拒絕采樣,生成高質(zhì)量的推理和非推理數(shù)據(jù),并用這些數(shù)據(jù)對模型進(jìn)行微調(diào)。側(cè)重點(diǎn)是提升模型的綜合能力,使其在寫作、事實(shí)問答等多種任務(wù)上表現(xiàn)良好。4)階段4(全場景強(qiáng)化學(xué)習(xí)):在上一階段

SFT

模型的基礎(chǔ)上進(jìn)行

RL

訓(xùn)練,側(cè)重點(diǎn)是使模型

在所有場景下都能表現(xiàn)良好,包括推理任務(wù)和非推理任務(wù),對齊人類偏好,優(yōu)化模型的實(shí)用

性、無害性和多任務(wù)能力。此外,為了獲得更高效的小模型,并使其具有DeekSeek-R1的推理能力,DeepSeek還對Qwen和

Llama

等開源模型進(jìn)行了微調(diào),使用的是上面

SFT

DeepSeek-R1

的80萬數(shù)據(jù)。研究結(jié)果表明,這種直接蒸餾方法顯著提高了小模型的推理能力。在這里使用的基座模型是

Qwen2.5-Math-1.5B、Qwen2.5-Math-7B、Qwen2.5-14B、Qwen2.5-32B、Llama-3.1-8B和Llama-3.3-70B-

Instruct。三、

DeepSeek

將對AI

算力與應(yīng)用產(chǎn)生結(jié)構(gòu)性影響3.1

DeepSeek模型有望引發(fā)算力需求與市場結(jié)構(gòu)變化由于DeepSeek-V3

、R1

等模型通過算法與架構(gòu)層面的多重創(chuàng)新大幅降低了訓(xùn)練端算力消耗,使

得投資者對繼續(xù)斥巨資構(gòu)建超大規(guī)模算力中心的合理性和前景產(chǎn)生質(zhì)疑,這導(dǎo)致了算力產(chǎn)業(yè)鏈相

關(guān)企業(yè)在

R1模型發(fā)布后暴跌,其中英偉達(dá)股價(jià)

1

27

日下跌

16.97%,市值蒸發(fā)約

5900億美

金,創(chuàng)下美國上市公司單日市值損失記錄,而博通公司股價(jià)跌幅一度接近

20%,收盤時(shí)下跌

17.4%,臺積電股價(jià)也大跌13.3%。數(shù)據(jù)來源:

DeepSeek-AI《DeepSeek-R1:IncentivizingReasoningCapabilityin

LLMsvia

Reinforcement

Learning》,東方證券研究所

15

:DeepSeek-R1-Zero在RL過程中的平均響應(yīng)長度(輸

出長度不斷增加)數(shù)據(jù)來源:

DeepSeek-AI《DeepSeek-R1:IncentivizingReasoningCapabilityin

LLMsvia

Reinforcement

Learning》,東方證券研究所有關(guān)分析師的申明,見本報(bào)告最后部分。其他重要信息披露見分析師申明之后部分,或請與您的投資代表聯(lián)系。并請閱讀本證券研究報(bào)告最后一頁的免責(zé)申明。計(jì)算機(jī)行業(yè)深度報(bào)告——DeepSeek驚艷世界,算力與應(yīng)用將迎來結(jié)構(gòu)性變化圖

14

:DeepSeek-R1-Zero訓(xùn)練期間AIME

準(zhǔn)確率11訓(xùn)練算力長期看仍有前景和空間

。從訓(xùn)練算力的角度,

我們認(rèn)為各模型廠商大概率將借鑒

DeepSeek公開的一系列優(yōu)化方法,如FP8精度訓(xùn)練、跨節(jié)點(diǎn)通信、DualPipe雙向流水線與自身模型訓(xùn)練結(jié)合,探索更高效的模型訓(xùn)練方式。不過,正如

Anthropic

CEO

Dario

所述:“訓(xùn)練越

來越智能的模型的經(jīng)濟(jì)價(jià)值是如此之大,以至于任何成本收益幾乎都會立即被吃掉——它們被重

新投入到制作更智能的模型中,而我們最初計(jì)劃花費(fèi)的成本與此相同”。因此,在各模型公司仍致力于訓(xùn)練出性能更強(qiáng)大模型的目標(biāo)指引下,龐大的訓(xùn)練集群將仍然被產(chǎn)業(yè)所追逐,因此,我們認(rèn)為,訓(xùn)練算力需求從長期來看依然值得樂觀?!敖芪乃广U?/p>

”有望在推理算力上再度印證。而從另一方面來看,開源模型和更低的推理成本將有助于應(yīng)用的繁榮,從而對推理算力形成更加積極的影響。微軟

CEO

納德拉在社交平臺上表示,

“杰文斯悖論(Jevons

Paradox)再次上演!隨著

AI

變得更加高效和普及,我們將看到它的使用

量激增,最終成為一種我們永遠(yuǎn)無法滿足的商品?!苯芪乃广U撌且粭l知名的經(jīng)濟(jì)學(xué)理論,指當(dāng)技

術(shù)的進(jìn)步導(dǎo)致某種資源的使用更加高效時(shí),消費(fèi)者或企業(yè)對它的使用需求可能會大幅增加,雖然

其使用成本降低了,但總消耗最終反而會上升。這樣的情況在當(dāng)前的蒸汽機(jī)時(shí)代和內(nèi)燃機(jī)時(shí)代都曾出現(xiàn)過,我們認(rèn)為,隨著推理成本的下降,AI

應(yīng)用的廣闊需求有望被激發(fā),推理算力將具備更大的增長空間。算力芯片行業(yè)格局是否生變值得關(guān)注。此前,英偉達(dá)憑借領(lǐng)先的計(jì)算與互聯(lián)性能、強(qiáng)大的

CUDA生態(tài),在

AI算力芯片市場占據(jù)主導(dǎo)地位,但DeepSeek

在跨節(jié)點(diǎn)通信方案上的優(yōu)化,以及推理階

段的算力需求爆發(fā)潛力,讓

AI

芯片廠商看到了突破口與希望。AMD

1

25

日宣布已將新的

DeepSeek-V3

模型集成到

Instinct

MI300X

GPU

上;2月1

日,硅基流動與華為云聯(lián)合推出基于

昇騰云的

DeepSeek-R1&V3推理服務(wù),可獲得持平全球高端

GPU

部署模型的效果,而

2

2日,DeepSeek

兩款模型完成海光

DCU

適配并正式上線,意味著國產(chǎn)芯片與

DeepSeek系列模型實(shí)現(xiàn)了無縫銜接。我們認(rèn)為,DeepSeek

模型的開源性以及對芯片性能與生態(tài)要求的下降,可能會對AI芯片行業(yè)的格局產(chǎn)生一定影響。有關(guān)分析師的申明,見本報(bào)告最后部分。其他重要信息披露見分析師申明之后部分,或請與您的投資代表聯(lián)系。并請閱讀本證券研究報(bào)告最后一頁的免責(zé)申明。計(jì)算機(jī)行業(yè)深度報(bào)告——DeepSeek驚艷世界,算力與應(yīng)用將迎來結(jié)構(gòu)性變化圖16:“杰文斯悖論”指出成本下降將刺激資源需求更大增長數(shù)據(jù)來源:

華爾街見聞

,東方證券研究所12此外,DeepSeek在使用英偉達(dá)A100

、H800等性能受限的芯片基礎(chǔ)上訓(xùn)練出V3

、R1

等模型,使得是否要對中國進(jìn)一步進(jìn)行芯片限售成為熱門話題。例如,

Anthropic

CEO

在萬字長文中就提出要對中國進(jìn)行更嚴(yán)格的芯片限制,而彭博社也援引知情人士報(bào)道稱,美國正考慮進(jìn)一步收緊英偉達(dá)(NVIDIA

)芯片對華出口限制,可能將限制范圍擴(kuò)大至英偉達(dá)針對中國市場特供的符合出口管制規(guī)則的H20

芯片。我們認(rèn)為,如果英偉達(dá)等美國

AI

芯片進(jìn)一步受到限制,則可能對國產(chǎn)芯片

的份額與需求產(chǎn)生進(jìn)一步的影響。3.2AI應(yīng)用有望在高性能、低成本模型支撐下繁榮自

ChatGPT問世以來,無論是大模型公司還是各類應(yīng)用型企業(yè)均推出各類基于大模型的應(yīng)用,尋找用戶增長與商業(yè)閉環(huán)機(jī)會。近期我們關(guān)注到,無論是從產(chǎn)品用戶數(shù)增長的角度,還是海外

B

端企業(yè)AI應(yīng)用商業(yè)化落地的角度,均呈現(xiàn)積極的成果,基于大模型的商業(yè)化曙光已現(xiàn)。從各類產(chǎn)品用戶數(shù)及訪問量來看,ChatGPT

網(wǎng)站端

24年12

月3.4億用戶產(chǎn)生38

億次的訪問量,

APP端訪問次數(shù)則超過3億次,月度總訪問次數(shù)超過40億次,保持著明顯的領(lǐng)先優(yōu)勢。在Web

端訪問前

15榜單來看,中國僅有納米AI位列其中,而在APP端,則有豆包、Talkie

AI

Kimi

助手三款,其中豆包、TalkieAI均位列前五,顯示出中國AI應(yīng)用在全球占有重要地位。有關(guān)分析師的申明,見本報(bào)告最后部分。其他重要信息披露見分析師申明之后部分,或請與您的投資代表聯(lián)系。并請閱讀本證券研究報(bào)告最后一頁的免責(zé)申明。圖

17:硅基流動x華為云聯(lián)合推出基于昇騰云的DeepSeek

R1&V3

推理服務(wù)計(jì)算機(jī)行業(yè)深度報(bào)告——DeepSeek驚艷世界,算力與應(yīng)用將迎來結(jié)構(gòu)性變化數(shù)據(jù)來源:

硅基流動微信公眾號,東方證券研究所13我們認(rèn)為,此前AI應(yīng)用的普及及其商業(yè)化還存在一定的困難,一方面在于模型性能仍然沒法滿足眾多場景的需求,尤其是在推理能力和多模態(tài)環(huán)節(jié),另一方面則是閉源模型性能領(lǐng)先但

API

調(diào)用的成本過高,影響了AI應(yīng)用的大范圍普及,我們認(rèn)為,DeepSeek

的強(qiáng)推理能力、低算力成本、

開源屬性性有望推動AI應(yīng)用的繁榮。此外,不僅是

DeepSeek系列模型,國內(nèi)其他模型公司近期發(fā)布產(chǎn)品也取得了性能領(lǐng)先。如

1月

20

日,月之暗面推出的全新SOTA模型——Kimi

k1.5

多模態(tài)思考模型,在short-CoT模式下,

Kimi

k1.5

的數(shù)學(xué)、代碼、視覺多模態(tài)和通用能力大幅超越了全球范圍內(nèi)短思考

SOTA模型

GPT-4o

Claude

3.5

Sonnet

的水平,領(lǐng)先達(dá)到550%;在

long-CoT

模式下,k1.5推理能力達(dá)到長思考SOTA模型OpenAIo1

正式版的水平。而伴隨著

AI

應(yīng)用在日常生活中發(fā)揮著越來越重要的作用,各類

AI

應(yīng)用的付費(fèi)用戶也在增長,目

前來看,2024年付費(fèi)用戶最多的產(chǎn)品是微軟的Copilot,達(dá)到了5574萬,百度文庫緊隨其后,達(dá)到4000萬,而Canva和ChatGPT付費(fèi)用戶也超過了千萬。此外,大模型應(yīng)用

Claude、智能文

檔與協(xié)作平臺Notion

、AI

搜索應(yīng)用Perplexity

、AI

Coding

應(yīng)用Cursor

以及智能陪伴應(yīng)用

Character

AI

也都榜上有名。用戶愿意付費(fèi)往往意味著產(chǎn)品已經(jīng)觸及到了其真正的需求,付費(fèi)行為跨越了感興趣和真正需要之間的鴻溝,是未來AI產(chǎn)品貨幣化的重要方向。有關(guān)分析師的申明,見本報(bào)告最后部分。其他重要信息披露見分析師申明之后部分,或請與您的投資代表聯(lián)系。并請閱讀本證券研究報(bào)告最后一頁的免責(zé)申明。圖

18:AI產(chǎn)品榜全球Web端訪問前

15情況(

24年12月)圖

19:AI產(chǎn)品榜全球APP

端訪問前

15情況(

24年12月)計(jì)算機(jī)行業(yè)深度報(bào)告——DeepSeek驚艷世界,算力與應(yīng)用將迎來結(jié)構(gòu)性變化圖20:2024年全球AI產(chǎn)品付費(fèi)用戶規(guī)模數(shù)據(jù)來源

:AI

產(chǎn)品榜,東方證券研究所數(shù)據(jù)來源:

AI

產(chǎn)品榜,東方證券研究所數(shù)據(jù)來源:

AI

產(chǎn)品榜,東方證券研究所14我們認(rèn)為,DeepSeek-V3

、R1,月之暗面

Kimik1.5,以及Qwen2.5-Max等國產(chǎn)模型的集體性突破,為國內(nèi)AI應(yīng)用的發(fā)展與繁榮打下良好的基礎(chǔ),未來擁有場景和用戶資源的廠商可以以更好的性能

、更低的成本提供產(chǎn)品和服務(wù),與此同時(shí),更開源的模型和更低的成本也意味著AI應(yīng)用企業(yè)的商業(yè)模型將迎來更加積極正面的變化。四、投資建議與投資標(biāo)的我們認(rèn)為AI應(yīng)用正逐步進(jìn)入落地期,有望呈現(xiàn)較多的投資機(jī)遇,建議投資者關(guān)注行業(yè)整體性機(jī)會,而國產(chǎn)算力及推理算力服務(wù)企業(yè),也將從AI應(yīng)用繁榮中受益。B

端企業(yè)級應(yīng)用,建議關(guān)注金山辦公(688111,增持)

、鼎捷數(shù)智(300378,未評級)

、泛微網(wǎng)絡(luò)

(603039,

買入)

、漢得信息(300170,

未評級)

、軟通動力(301236,

未評級)

、上海鋼聯(lián)

(300226,增持

)、合

合信息

(688615

未評

)、新致

(688590

,

買入

)、每日互動

(300766,未評級)。1月29

日,阿里云通義千問旗艦版模型Qwen2.5-Max正式升級發(fā)布,據(jù)介紹,Qwen2.5-Max

模型是阿里云通義團(tuán)隊(duì)對MoE

模型的最新探索成果,展現(xiàn)出極強(qiáng)勁的綜合性能,

阿里云官微發(fā)文

稱,

Qwen2.5-Max

比肩Claude-3.5-Sonnet,

并幾乎全面超越了GPT-4o

、DeepSeek-V3及Llama-3.1-405B。有關(guān)分析師的申明,見本報(bào)告最后部分。其他重要信息披露見分析師申明之后部分,或請與您的投資代表聯(lián)系。并請閱讀本證券研究報(bào)告最后一頁的免責(zé)申明。計(jì)算機(jī)行業(yè)深度報(bào)告——DeepSeek驚艷世界,算力與應(yīng)用將迎來結(jié)構(gòu)性變化圖22:long-CoT模式下

,k1.5模型多方面能力比肩o1圖21:short-CoT模式下,k1.5模型多方面能力領(lǐng)先圖23

:Qwen2.5-Max測試結(jié)果領(lǐng)先各類指令模型圖24

:Qwen2.5-Max表現(xiàn)優(yōu)于各類開源模型數(shù)據(jù)來源:IT

之家,

東方證券研究所數(shù)據(jù)來源:IT

之家,

東方證券研究所數(shù)據(jù)來源:

芯智訊,東方證券研究所數(shù)據(jù)來源:

芯智訊,東方證券研究所15垂直行業(yè)應(yīng)用領(lǐng)域有較強(qiáng)優(yōu)勢的企業(yè),建議關(guān)注科大訊飛(002230,買入)

、焦點(diǎn)科技(002315,未評級)

、潤達(dá)醫(yī)療(603108,買入)、同花順(300033,未評級)、衛(wèi)寧健康(300253,未評級)。AI

工具類應(yīng)用,建議關(guān)注彩訊股份(300634,買入)、虹軟科技(688088,未評級)、萬興科技

(300624,未評級)、福昕軟件(688095,未評級)。國產(chǎn)算力及算力服務(wù)企業(yè),建議關(guān)注海光信息(688041,買入)、寒武紀(jì)-U(688256,未評級)

、

云賽智聯(lián)(600602,未評級)、安博通(688168,未評級)、中科曙光(603019,買入)

、首都在線

(300846,未評級)、優(yōu)刻得-W(688158,未評級)。五、風(fēng)險(xiǎn)提示技術(shù)落地不及預(yù)期

:DeepSeek

為代表的模型雖然在性能和成本上有顯著提升,但仍存在大模型技術(shù)無法支撐AI應(yīng)用在部分場景落地的風(fēng)險(xiǎn);政策落地不及預(yù)期:政策是AI產(chǎn)業(yè)發(fā)展的重要因素,如果政策支持力度不及預(yù)期,也會對行業(yè)發(fā)

展帶來偏負(fù)面影響;美國進(jìn)一步制裁風(fēng)險(xiǎn)

:如果美國進(jìn)一步收緊芯片供應(yīng),仍將對國內(nèi)大模型訓(xùn)練產(chǎn)生負(fù)面影響;競爭激烈導(dǎo)致變現(xiàn)能力下降風(fēng)險(xiǎn):

目前AI產(chǎn)業(yè)競爭激烈,如果各廠商由于競爭進(jìn)一步降低產(chǎn)品定價(jià),則對AI產(chǎn)業(yè)的商業(yè)化形成影響。有關(guān)分析師的申明,見本報(bào)告最后部分。其他重要信息披露見分析師申明之后部分,或請與您的投資代表聯(lián)系。并請閱讀本證券研究報(bào)告最后一頁的免責(zé)申明。計(jì)算機(jī)行業(yè)深度報(bào)告——DeepSeek驚艷世界,算力與應(yīng)用將迎來結(jié)構(gòu)性變化16報(bào)告發(fā)布日后的12

個(gè)月內(nèi)行業(yè)或公司的漲跌幅相對同期相關(guān)證券市場代表性指數(shù)的漲跌幅為基

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論