AI視頻生成:商業(yè)化加速國產(chǎn)廠商表現(xiàn)亮眼_第1頁
AI視頻生成:商業(yè)化加速國產(chǎn)廠商表現(xiàn)亮眼_第2頁
AI視頻生成:商業(yè)化加速國產(chǎn)廠商表現(xiàn)亮眼_第3頁
AI視頻生成:商業(yè)化加速國產(chǎn)廠商表現(xiàn)亮眼_第4頁
AI視頻生成:商業(yè)化加速國產(chǎn)廠商表現(xiàn)亮眼_第5頁
已閱讀5頁,還剩43頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

——AI應用系列報告證券分析師:李典郵箱:lidian@SAC執(zhí)業(yè)資格證書編碼:S0020516080001聯(lián)系人:郜子嫻郵箱:gaozixian@代,經(jīng)歷了多個關(guān)鍵技術(shù)的突破,經(jīng)歷了從靜態(tài)圖像序列拼接成視豐富度以及可控性持續(xù)提升。Sora驗證了Diffusion和Transformer結(jié)合的有效性,測算,2024年AI視頻生成全球規(guī)模為6.15億美金,預計到2032年達到25.63億美金,2025至2032年的復合增速為20%。AI視頻生成產(chǎn)業(yè)規(guī)模受到價格以及模型能力的雙重驅(qū)動。價格方面,目前國內(nèi)外主流模型的API單秒價格在0.2-1元/秒,根據(jù)量子位智庫測算,頂級動畫電影制作成本約為十萬元級/秒,本土動畫電影制作成本在萬元級/秒,本土TVC視頻制作成本在千元級/秒,不論是對比廣告視頻或者影視劇/電影的單秒成本,AI視頻生成均具有極大成本替代優(yōu)勢。另一方面模型能力持續(xù)突破,如時長方面Veo2支持理論最高2分鐘的4K視頻生成,可靈大師版可以通過續(xù)寫方式將視頻延長至3分鐘。生成速度方面,以Seedance1.0為例,根據(jù)官方數(shù)據(jù),對于5),需要“抽卡”,用戶需反復嘗試,才能生成相對理想結(jié)果,隨著產(chǎn)品迭代,“抽卡率”有望降低。豐富度方面,聲音內(nèi)容陸續(xù)添加,如Veo3通過將視頻像素轉(zhuǎn)化為語義信號,實時生成匹配的視頻聲音,大大增強了視頻生成可用性。下游應用來看,2B下游應用包括影視內(nèi)容創(chuàng)作、商業(yè)廣告、電商營銷、城市文旅、動畫教育、游戲娛樂等,應用場景多元化。2C方面,創(chuàng)意玩法持續(xù)拉近產(chǎn)品與C端用戶n競爭格局方面,可靈等國產(chǎn)廠商表現(xiàn)突出。從模型表現(xiàn)來看,根據(jù)ArtificialAnalysis,Seedance1.0、Veo2/3、Kling2.0、Sora、MiniMax產(chǎn)品表現(xiàn)居前,國內(nèi)模型水平達到全球領(lǐng)先水平。從商業(yè)化來看,根據(jù)TheInformation,Runway24年12月ARR達到8400萬美金,25年底ARR沖擊2.65億美金;可靈2025年3月年化收入運行率突破1億美金,4月及5月單月付費金額均突破1億人民幣,二者商n投資建議及相關(guān)標的。我們看好AI視頻生成行業(yè)發(fā)展,產(chǎn)品可用性持續(xù)提升,商業(yè)化進入發(fā)展快軌。重點關(guān)注:快手(1024.HK)以及美圖公司(1357.HK未覆蓋)。n風險提示:產(chǎn)品推廣不及預期的風險;AI技術(shù)發(fā)展不及預期的風險;監(jiān)管趨嚴的風險;算力瓶頸的風險;AI視頻技術(shù)迭代不及預期的風險;商業(yè)化不及預期的風險;AI生成內(nèi)容的版權(quán)風險22n技術(shù)路徑探索,從圖像拼接生成-GAN-Transformer-DiffusionModel-DiT:相比于圖片生成視頻生成更為復雜,若按幀率24幀/秒,一條5秒的視頻就百余張圖像合成,同時視頻生成還需要考慮時序連貫性、空間一致性等問題。20世紀90年代以來,AI視頻生成持續(xù)迭代,經(jīng)歷了多個關(guān)鍵技術(shù)的突破,經(jīng)歷了從靜態(tài)圖像序列拼接成視頻流-GAN-Transformer-DiffusionModel-DiT的技術(shù)演進,生成內(nèi)容豐富度以及可控性持續(xù)提升。數(shù)據(jù)來源:量子位《2024年AI視頻生成研究報告》,國元證券研究所44nVAE(VariationalAutoencoder變分自編碼器)于2013年由Kingma和Welling提出,2015開始被應用于視頻預測任務,通過編碼器將輸入數(shù)據(jù)映射到潛在空間,然后通過解碼器從潛在空間生成數(shù)據(jù)。VAE生成視頻內(nèi)容存在模糊等問題。nGAN(GenerativeAdversarialNetworks,對抗生成網(wǎng)絡)于2014年由IanGoodfellow等人提出,2016年左右開始用于視頻生成,主要由生成器(Generator)和判別器(Discriminator)兩部分組成,生成器負責生成數(shù)據(jù),判別器負責判斷數(shù)據(jù)的真實性,兩者在訓練過程中不斷競爭,生成器學習產(chǎn)生越來越真實的數(shù)據(jù),而判別器學習更好地區(qū)分真假數(shù)據(jù),通過兩者相互博弈來實現(xiàn)高質(zhì)量圖片或是視頻的生成。對抗訓練提升了生成內(nèi)容的質(zhì)量,但存在多樣性有限、訓練不穩(wěn)定容易出現(xiàn)梯度消失和模式崩潰等問題。VAE+GAN,VAE與GAN常常結(jié)合使用,使生成的視頻內(nèi)容更加多樣化,并改善生成視頻的清晰度和真實性?;贕AN的視頻生成產(chǎn)品包括VideoGAN、TGAN等。數(shù)據(jù)來源:DiederikPKingma,MaxWelling《Auto-EncodingVariationalBayes》,阿里云開發(fā)者社區(qū),國元證券研究所數(shù)據(jù)來源:IanJ.Goodfellow等《GenerativeAdversarialNetworks》,AWS,國元證券研究所55nTransformer:Transformer架構(gòu)于2017年由Google團隊提出并逐漸應用于視頻生成領(lǐng)域。2020年ViT論文發(fā)表,2021Google發(fā)表了VideoVisionTransformer。Transformer架構(gòu)更好的建模像素點之間的上下文關(guān)系,提升視覺內(nèi)容生成質(zhì)量,缺點在于高昂的成本和較慢的生成速度。代表性產(chǎn)品包括VideoGPT、Phenaki等。nDiffusionModel:擴散模型靈感源于熱力學,由一個逐級添加高斯噪聲的前向擴散過程和一個逐級預測并消除噪聲的反向過程組成。2020年Ho等人的論文《Denoisingdiffusionprobabilisticmodels》(DDPM)發(fā)表成為關(guān)鍵節(jié)點,2021年LatentDiffusionModels論文發(fā)表,將擴散空間從圖像空間轉(zhuǎn)移到潛空間(LatentSpace),大幅提升計算效率。2022年VideoDiffusionModel論文發(fā)表,通過加入時序注意力層的方式將擴散模型中的二維U-Net擴展至三維,將擴算模型應用于視頻生成任務。另外,基于LDM的開源系列模型StableDiffusion推出,進一步推動擴散模型在視覺生成領(lǐng)域的主導作用。數(shù)據(jù)來源:Ho等《DenoisingDiffusionProbabilisticModels》,《Howdiffusionmodelswork:themathfromscratch》,國元證券研究所數(shù)據(jù)來源:RobinRombach等《High-ResolutionImageSynthesiswithLatentDiffusionModels》,國元證券研究所66nDiT:2022年12月《ScalableDiffusionModelswithTransformers》論文發(fā)表,提出將傳統(tǒng)擴散模型的U-Net替換為Transformer,從而提升傳統(tǒng)擴散模型的可擴展性。采用AdaLN-Zero(自適應歸一化)注入條件信息(文本/圖像/軌跡),取代交叉注意力。2024年2月OpenAI發(fā)布Sora,驗證了Diffusion和Transformer結(jié)合的有效性,并帶動DiT架構(gòu)成為重點方向。根據(jù)Sora發(fā)布的技術(shù)文章,Sora模型先將視頻壓縮到低維潛在空間中,然后將表示分解為時空patch,從而實現(xiàn)了視頻的“patch化”,采用DiT架構(gòu),在多個領(lǐng)域展示了顯著的擴展性能。同時對比過去的視頻生成模型,Sora生成視頻時長顯著提升(60秒),對于自然語言和物理世界規(guī)律有了更強的理解能力。數(shù)據(jù)來源:WilliamPeebles等《ScalableDiffusionModelswithTransformers》,國元證券研究所數(shù)據(jù)來源:OpenAI《Videogenerationmodelsasworldsimulators》,國元證券研究所77nSora為行業(yè)帶來深刻啟發(fā),不少廠商跟進DiT架構(gòu),并在此之上進行創(chuàng)新。以可靈為例,可靈使用了DiT架構(gòu),同時對模型中的隱空間編/解碼、時序建模等模塊進行了升維處理。Seedance1.0引入精確描述模型提升數(shù)據(jù)多樣性與可用性,統(tǒng)一高效的預訓練框架實現(xiàn)多鏡頭切換與多模態(tài)輸入,后訓練構(gòu)建復合獎勵系統(tǒng)提升畫面生動性、穩(wěn)定性和美感。n行業(yè)圍繞提升效率和可控性以及長視頻生成等目標持續(xù)迭代。比如擴散模型的優(yōu)化策略和模型蒸餾、擴散模型的混合專家(MoE)架構(gòu)、引入人類反饋的強化學習、分層生成等,另外除了DiT架構(gòu)之外,其他幾種混合架構(gòu)研究也在持續(xù)推進(右表)。產(chǎn)品名稱產(chǎn)品名稱介紹處理,可精準捕捉到視頻幀內(nèi)的局部空間特征以及跨全面地理解和再現(xiàn)視頻中的運動信息。因此,從快景,到復雜的人物動作,可靈都能精確捕捉,生成采用DiT架構(gòu),引入精確描述模型提升數(shù)據(jù)多樣性與可用性,統(tǒng)一之間相互學習,同時,部署側(cè)只需一個模型就可實現(xiàn)DiT架構(gòu),并在架構(gòu)設計上進行多處升級,包括引入多DiT架構(gòu),并在架構(gòu)設計上進行多處升級,包括引入多碼器、基于自研ScalingLaw的全注意力D數(shù)據(jù)來源:可靈官網(wǎng),字節(jié)跳動Seed微信公眾號,華爾街見聞,國元證券研究所一些研究工作探索了將Transformer與3D卷積網(wǎng)這種混合架構(gòu)能夠同時利用兩者優(yōu)勢,提高Transformer則能夠處理序列數(shù)據(jù)。將兩者結(jié)合可以生成高質(zhì)量的視頻內(nèi)VAE+擴散模型在DiT的基礎(chǔ)上,學者們進-步探索了將變分自編碼器與擴散模型結(jié)合的VAE+擴散模型GAN在圖像生成領(lǐng)域取得了巨大成功,而擴散模型則在GAN在圖像生成領(lǐng)域取得了巨大成功,而擴散模型則在了優(yōu)勢。將兩者結(jié)合的混合架構(gòu)旨在結(jié)合GAN的穩(wěn)定性TimeSformer是-種專門為視頻理解任務設計的Transformer架構(gòu),它通在Transformer架構(gòu)中引在Transformer架構(gòu)中引?交叉注意力機制,可以使模型在生成視頻時更好地利用額外的上下文信息,如文本描述或?qū)ο髽撕?,從而生?shù)據(jù)來源:量子位《量子位:2024年度AI十大趨勢報告》,國元證券研究所88n全球視頻內(nèi)容占互聯(lián)網(wǎng)流量的比重持續(xù)攀升預計超8成,根據(jù)Cisco的預測,2022年視頻內(nèi)容占互聯(lián)網(wǎng)流量的比重預計由2017年的75%增加至82%,而中國方面,Cisco預測2020年中國視頻內(nèi)容流量占比達到87%。n根據(jù)FortuneBusinessInsights,預計到2032年AI視頻生成全球規(guī)模達到25.63億美金,約合184億人民幣。根據(jù)FortuneBusinessInsights測算,2024年AI視頻生成全球規(guī)模為6.15億美金,預計2025年達到7.17億美金,同比增長17%,預計到2032年達到25.63億美金,2025至2032年的復合增速為20%。分應用來看,AI視頻生成下游應用包含2B及2C兩端,根據(jù)FortuneBusinessInsights的統(tǒng)計,目前AI視頻生成下游需求最大的應用方向為市場營銷及廣告,而社交媒體的應用增長最快。0數(shù)據(jù)來源:Cisco《VisualNetworkingIndex:ForecastandTrends,2017-2022》,國元證券研究所數(shù)據(jù)來源:FortuneBusinessInsights,國元證券研究所nAI視頻生成產(chǎn)業(yè)規(guī)模受到價格以及模型能力的雙重驅(qū)動。n價格方面,目前國內(nèi)外主流模型的API單秒價格在0.2-1元/秒。目前主流產(chǎn)品采取積分制,大部分支持API接入,價格方面目前國內(nèi)外主流模型的API單秒價格在0.2-1元/秒,相對價格較高的Veo2生成價格為0.35美元/秒(約2.51元/秒),根據(jù)量子位智庫測算,頂級動畫電影制作成本約為十萬元級/秒,本土動畫電影制作成本在萬元級/秒,本土TVC視頻制作成本在千元級/秒,不論是對比廣告視頻或者影視劇/電影的單秒成本,AI視頻生成均具有極大成本替代優(yōu)勢。Veo2數(shù)據(jù)來源:各公司官網(wǎng),國元證券研究所注:Vidu2.0選取720P4s時長對應價格計算,Hailuo2.0采用768P6s時長對應價格計算,可靈采用720p5s對應價格計算,PixVerse采用720p5s時長對應價格計算數(shù)據(jù)來源:量子位智庫《AI視頻生成研究報告》,國元證券研究所n模型能力提升推動可用性。視頻大模型主要能力評估標準包括生成效率、內(nèi)容語義的一致性、視頻質(zhì)量(包括時空一致性、物理規(guī)則遵循、敘事連貫性、長序列穩(wěn)定性、單幀圖像的生成質(zhì)量等)、動態(tài)表現(xiàn)、畫面美學等。時長方面,當前主流的生成時長為5-10秒,隨著模型迭代時長上限逐漸突破,Veo2支持理論最高2分鐘的4K視頻生成,可靈大師版可以通過續(xù)寫方式將視頻延長至3分鐘,時長突破有望進一步滿足敘事需求擴展下游應用。生成速度方面,隨著硬件性能提升以及模型迭代,整體生成速度大幅提高,以Seedance1.0為例,根據(jù)官方數(shù)據(jù),對于5秒1080p分辨率的視頻生成任務,實測推理耗時41.4秒(基于L20測試),效率大大提升。生成質(zhì)量方面,現(xiàn)階段AI生成視頻常常需要“抽卡”,用戶需反復嘗試,才能生成相對理想結(jié)果,隨著產(chǎn)品迭代,“抽卡率”有望降低。豐富度方面,聲音內(nèi)容陸續(xù)添加,如Veo3通過將視頻像素轉(zhuǎn)化為語義信號,實時生成匹配的視頻聲音,大大增強了視頻生成可用性。數(shù)據(jù)來源:字節(jié)跳動Seed官網(wǎng),國元證券研究所n2B下游應用包括影視內(nèi)容創(chuàng)作、商業(yè)廣告、電商營銷、城市文旅、動畫教育、游戲娛樂等。以電商服裝行業(yè)為例,由于高頻上新的需求,視頻內(nèi)容成本高企,AI視頻內(nèi)容生成極大解決該痛點。影視短片方面,AI短劇應用逐漸成熟,比如快手星芒短劇于24年7月13日推出國內(nèi)首部AIGC原創(chuàng)奇幻微短劇《山海奇鏡之劈波斬浪》,導演陳坤曾在接受《綜藝報》的采訪中表示,玄幻和科幻是傳統(tǒng)影視的兩大痛點,CG特效成本高、周期長,AI可以有效縮短制作周期、降低制作成本,效果可以達到傳統(tǒng)特效的70%到80%。根據(jù)短劇自習室數(shù)據(jù),該劇累計播放量突破5000萬。n2C方面,創(chuàng)意玩法持續(xù)拉近產(chǎn)品與C端用戶距離,內(nèi)容持續(xù)破圈。比如可靈的“毛絨”特效、PixVerse的“毒液”特效等,引發(fā)在社媒上廣泛傳播。依托卓越的視頻圖文生成能力及強大的創(chuàng)作者生態(tài),可為客戶定制風格多元的影視短片。創(chuàng)意驅(qū)動、AI賦能,讓更多好故事被看到。結(jié)合行業(yè)特性及品牌調(diào)性產(chǎn)出優(yōu)質(zhì)廣告素材,支持豐富營銷玩法。奇趣靈感,AI為商智能生成商品展示視頻,快速制作適配不同場景的高質(zhì)量通過生成生動的教育視頻和互動內(nèi)容,幫助深入理智能生成高質(zhì)量角色、場景與特效,提升游戲開發(fā)數(shù)據(jù)來源:快手可靈官網(wǎng),國元證券研究所n從模型表現(xiàn)來看,Seedance1.0、Veo2/3、Kling2.0、Sora、MiniMax產(chǎn)品表現(xiàn)居前,國內(nèi)模型水平達到全球領(lǐng)先水平。根據(jù)ArtificialAnalysis最新AI視頻模型表現(xiàn)排行,文生視頻方面,字節(jié)跳動的Seedance1.0、Google的Veo3/Veo2、以及快手Kling2.0、OpenAI的Sora表現(xiàn)前五;在圖生視頻方面字節(jié)跳動的Seedance1.0、MiniMax的Hailuo02、Google的Veo3以及快手Kling2.0/1.6排名前五。n從商業(yè)化來看,根據(jù)TheInformation,Runway24年12月ARR(AnnualRecurringRevenue)達到8400萬美金,25年底沖擊2.65億美金,可靈2025年3月年化收入運行率突破1億美金,4月及5月單月付費金額均突破1億人民幣。模型模型112233445566778899T2V-01-Director數(shù)據(jù)來源:ArtificialAnalysis,國元證券研究所n使用量份額角度來看,Kling表現(xiàn)突出。根據(jù)Poe發(fā)布的數(shù)據(jù),截止2025年5月4日前一周使用份額情況,Kling市場份額達到了30%,其中Kling2.0大師版4月底推出后僅三周便占據(jù)了21%的市場份額,Runway使用量份額排名第二達到23.6%,Veo-2位列第三,份額為16.6%。n從web端訪問量及APP端MAU來看,根據(jù)AI產(chǎn)品榜統(tǒng)計的5月AI視頻產(chǎn)品web端訪問量來看,Sora、Kling、Loom、Hailuo、PixVerse訪問量排名前五。移動端來看,即夢5月MAU達到3065萬,PixVerse達到1998萬,分別排進5月全球AIAPPMAU的第11位以及第23位。123456789VidnozAIAnimaker2.17M數(shù)據(jù)來源:Poe《2025春季人工智能模型使用趨勢》2025.5.13,國元證券研究所數(shù)據(jù)來源:AI產(chǎn)品榜,國元證券研究所請務必閱讀正文之后的免責條款部分n快手可靈(Kling)于2024年6月發(fā)布,采用DiT架構(gòu)并對模型中的隱空間編/解碼、時序建模等模塊進行了升維處理。2024年7月可靈國際版上線,2024年12月可靈1.6模型發(fā)布,25年4月15日可靈大模型2.0版本及可圖大模型2.0版本正式面向全球發(fā)布,5月2.1系列模型上線。截至目前,可靈AI已累計完成超20次迭代,全球用戶規(guī)模已突破2200萬,擁有來自世界各地的超1.5萬開發(fā)者和企業(yè)客戶,累計生成1.68億個視頻及3.44億張圖片素材。n根據(jù)SimilaWeb,K5月訪問量達到1625萬次,訪問流量分布來看,美國、中國、印尼、印度、巴西為5月訪問量前五數(shù)據(jù)來源:官方微信公眾號,國元證券研究所50數(shù)據(jù)來源:SimilarWeb,國元證券研究所n產(chǎn)品及功能方面,目前可靈具有可靈網(wǎng)頁版、可靈APP、可靈小程序以及快影APP四個產(chǎn)品形態(tài)。具有運鏡控制、首尾幀能力、運動筆刷、對口型等進階功能。對AI生成后的視頻可續(xù)寫4-5秒,支持多次續(xù)寫(最長3分鐘),實現(xiàn)視頻延長。同時可靈支持多圖參考,可以上傳最多四張參考圖,內(nèi)容可以是人物、動物、場景、服飾等各種主體或背景圖片,幫助生成更加可控的AI創(chuàng)意視頻。創(chuàng)意特效方面,“捏捏樂”、“快來惹毛我”、“老照片動起來”助力可靈在社媒傳播破圈。n商業(yè)化方面,2025年2月可靈上線后累計收入超1億人民幣,25年Q1可靈收入超1.5億人民幣,2025年3月年化收入運行率突破1億美金,月度付費金額在4月和5月均突破1億人民幣,營收增速和營收水平均位居全球視頻生成大模型產(chǎn)品和獨立AI產(chǎn)品前列。n我們預計公司2025-2027年經(jīng)調(diào)整凈利潤200.77/246.20/287.21億元,維持公司“買入”評級。數(shù)據(jù)來源:可靈AI,國元證券研究所數(shù)據(jù)來源:Wind,國元證券研究所注:PE采用2025年6月25日收盤價nAI賦能業(yè)務,加速全球化,深入生產(chǎn)力場景打造第三曲線。美圖公司成立于2008年,致力于打造優(yōu)秀的影像與設計產(chǎn)品。公司目前C端產(chǎn)品包括美圖秀秀、美顏相機、Wink等,B端生產(chǎn)力場景主要產(chǎn)品包括美圖設計室、開拍、WHEE、MOKI等,并通過自研美圖奇想大模型+采購+開源方式獲取AI模型能力持續(xù)賦能業(yè)務。C端方面,美圖秀秀全球累計10億用戶,在圖片美化賽道長期保持用戶規(guī)模第一。美顏相機用戶規(guī)模及月活躍用戶數(shù)保持行業(yè)領(lǐng)先。AI視頻工具Wink于2022年3月獨立推出,目前全球月活突破3000萬。24年“AI發(fā)型”、“AI換裝”等AI功能帶動海外用戶增長。截至2024年底,美圖公司全球月活躍用戶數(shù)達到2.66億,中國內(nèi)地以外的國家和地區(qū)月活躍用戶數(shù)為9451萬,同比增長21.7%。生產(chǎn)力場景方面,目前月活用戶數(shù)2219萬,同比增長25.6%,涵蓋商業(yè)攝影、商業(yè)設計、專業(yè)視頻編輯等環(huán)節(jié)。其中美圖設計室截止24年底訂閱用戶113萬,單產(chǎn)品收入約2億元,聚焦商品營銷各個環(huán)節(jié)物流設計;開拍則聚焦于商品口播,推出一年多月活躍用戶數(shù)突破100萬。5月20日,美圖公司宣布與阿里巴巴簽署2.5億美元可轉(zhuǎn)債協(xié)議,雙方將在電商和模型開發(fā)領(lǐng)域展開深入合作。阿里巴巴將在旗下的電商平臺優(yōu)先推廣美圖AI電商工具,同時協(xié)助美圖開發(fā)以數(shù)據(jù)驅(qū)動的電商生圖及生視頻的新工具及新功能,美圖公司承諾未來三年向戰(zhàn)略投資者阿里巴巴采購不低于5.6億元的云服務。n根據(jù)Wind一致預期,預計2025-2027公司實現(xiàn)營業(yè)收入42.43/51.69/61.56億元,歸母凈利潤為8.10/10.92/14.58億元。請務必閱讀正文之后的免責條款部分數(shù)據(jù)來源:美圖公司官方微信公號,國元證券研究所4,252.94數(shù)據(jù)來源:Wind,國元證券研究所注:PE采用2025年6月25日收盤價,盈利預測采用Wind90天一致預期公司評級定義行業(yè)評級定義股價漲幅優(yōu)于基準指數(shù)15%以上行業(yè)指數(shù)表現(xiàn)優(yōu)于基準指數(shù)10%以上股價漲幅相對基準指數(shù)介于5%與15%之間行業(yè)指數(shù)表現(xiàn)相對基準指數(shù)介于-10%~10%之間持有股價漲幅相對基準指數(shù)介于-5%與5%之間股價漲幅劣于基準指數(shù)5%以上行業(yè)指數(shù)表現(xiàn)劣于基準指數(shù)10%以上備注:評級標準為報告發(fā)布日后的6個月內(nèi)公司股價(或行業(yè)指數(shù))相對同期基準指數(shù)的相對市場表現(xiàn),其中A股市場基準為滬深300指數(shù),香港市場基準為恒生指數(shù),美國市場基準為標普500指數(shù)或納斯達克指數(shù),新三板基準指數(shù)為三板成指(針對協(xié)議轉(zhuǎn)讓標的)或三板做市指數(shù)(針對做市轉(zhuǎn)讓標的),北交所基準指數(shù)為北證50指數(shù)。作者具有中國證券業(yè)協(xié)會授予的證券投資咨詢執(zhí)業(yè)資格或相當?shù)膶I(yè)勝任能力,以勤勉的職業(yè)態(tài)度,獨立、客觀地出具本報告。本人承諾報告所采用的數(shù)據(jù)均來自合規(guī)渠道,分析邏輯基于作者的職業(yè)操守和專業(yè)能力,本報告清晰準確地反映了本人的研究觀點并通過合理判斷得出結(jié)論,結(jié)論不受任何第三方的授意、影響,特此聲明。根據(jù)中國證監(jiān)會頒發(fā)的《經(jīng)營證券業(yè)務許可證》(Z23834000),國元證券股份有限公司具備中國證監(jiān)會核準的證券投資咨詢業(yè)務資格。證券投資咨詢業(yè)務是指取得監(jiān)管部門頒發(fā)的相關(guān)資格的機構(gòu)及其咨詢?nèi)藛T為證券

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論