




版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
傳媒行業(yè)AIGC市場(chǎng)分析
技術(shù)助力AIGC發(fā)展,長(zhǎng)期看大模型+多模態(tài)成趨勢(shì)
AI由分析轉(zhuǎn)向創(chuàng)造,22年AIGC產(chǎn)品集中發(fā)布
AI技術(shù)逐漸實(shí)現(xiàn)從分析到創(chuàng)造的迭代。Al(ArtificialIntelligence)即
人工智能,傳統(tǒng)的AI技術(shù)被稱(chēng)為分析式Al(AnalyticalAI),偏向于
分析數(shù)據(jù)并總結(jié)規(guī)律,同時(shí)將規(guī)律運(yùn)用到其他用途,比如運(yùn)用AI技
術(shù)進(jìn)行垃圾郵件檢測(cè)、向用戶(hù)推薦感興趣的短視頻等。但隨著技術(shù)的
迭代,AI已經(jīng)不僅僅局限于分析已有事物,而是開(kāi)始創(chuàng)造有意義、
具備美感的東西,即完成感知世界到創(chuàng)造世界的變遷,這種新型的技
術(shù)被稱(chēng)為生成式A(GenerativeAl)o從定義上看,AIGC既是一種
內(nèi)容形態(tài),也是一種內(nèi)容生成的技術(shù)合集,即生成式AI。從狹義上
看,AIGC(AlGeneratedContent)是繼PGC(Professional
GeneratedContent)與UGC(UserGeneratedContent)之后的一
種內(nèi)容形式,即利用人工智能技術(shù)生成的內(nèi)容。從廣義上看,AIGC
指的是自動(dòng)化內(nèi)容生成的技術(shù)合集,基于生成算法、訓(xùn)練數(shù)據(jù)、芯片
算力,生成包括文本、音樂(lè)、圖片、代碼、視頻等多樣化內(nèi)容。
AIGC起源于20世紀(jì)50年代,經(jīng)過(guò)多年發(fā)展,在2022年AIGC產(chǎn)
品集中發(fā)布,多款產(chǎn)品出圈,引發(fā)社會(huì)廣泛關(guān)注。據(jù)中國(guó)信通院,
AIGC起源于20世紀(jì)50年代,萊杰倫?希勒和倫納德?艾薩克森完成
歷史上第一只由計(jì)算機(jī)創(chuàng)作的音樂(lè)作品《依利亞克組曲》,但受制于
技術(shù)水平,截至1990年,AIGC均僅限于小范圍實(shí)驗(yàn)。1990-2010
年是AIGC的沉淀積累階段,AIGC逐漸從實(shí)驗(yàn)向?qū)嵱棉D(zhuǎn)變,但受限
于算法瓶頸,效果仍有待提升。2010年以來(lái),伴隨著生成算法、預(yù)
訓(xùn)練模型、多模態(tài)技術(shù)的迭代,AIGC快速發(fā)展,2022年多款產(chǎn)品
出圈。
S<1:什么是AIGC
分析式AIAIGC《生成式Al)
懂訓(xùn)練模型
□詐聯(lián)信息識(shí)別
生成算法多模態(tài)技術(shù)
□垃圾郵件檢測(cè)Si
□情測(cè)外賣(mài)時(shí)間0
□推薦感興短的視效
□M
2022年8月,Stabi代yAI發(fā)布StableD用usion模型,為后續(xù)AI繪
圖模型的發(fā)展奠定基礎(chǔ),由Midjourney繪制的《太空歌劇院》在美
國(guó)科羅拉多州藝術(shù)博覽會(huì)上獲得“數(shù)字藝術(shù)’類(lèi)別的冠軍,引發(fā)社會(huì)廣
泛關(guān)注。2022年11月OpenAI推出基于GPT-3.5與RLHF
(ReinforcementLearningfromHumanFeedback,人類(lèi)反饋強(qiáng)化學(xué)
習(xí))機(jī)制的ChatGPT,推出僅2月日活超1,300萬(wàn),據(jù)Forbes,2023
年1月OpenAI的估值從2021年的140億美元提升到2023年1月
的290億美元。此外,科技巨頭亦加碼布局AIGC,如微軟表示將自
己的消費(fèi)者和企業(yè)產(chǎn)品中部署OpenAI的模型,宣布將OpenAI語(yǔ)言
模型整合到Bing引擎和Edge瀏覽器中;谷歌在ChatGPT發(fā)布后亦
加快AI自研,2023年2月7日正式發(fā)布下一代AI對(duì)話系統(tǒng)Bard,
此外谷歌還投資ChatGPT的競(jìng)品Anthropic;國(guó)內(nèi)方面,據(jù)百度官網(wǎng),
2023年2月7日,百度公布了大模型新項(xiàng)目文心一言(ERNIEBot),
據(jù)彭博社,百度計(jì)劃在2023年3月將最初的版本將內(nèi)嵌到搜索服務(wù)
中。
生成算法、預(yù)訓(xùn)練模型、多模態(tài)技術(shù)成為AIGC發(fā)展的關(guān)鍵
從技術(shù)上看,生成算法、預(yù)訓(xùn)練模型、多模態(tài)技術(shù)是AIGC發(fā)展的關(guān)
鍵。從流程上看,算法接收數(shù)據(jù),進(jìn)行運(yùn)算并生成預(yù)訓(xùn)練模型,多模
態(tài)技術(shù)則是將不同模型融合的關(guān)鍵。長(zhǎng)期看大模型+多模態(tài)將成為趨
勢(shì):
#1生成算法持續(xù)優(yōu)化
算法即解決問(wèn)題的策略和機(jī)制,2014年伊恩?古德費(fèi)洛提出的GAN
(GenrativeAdversarialNetwork,生成對(duì)抗網(wǎng)絡(luò))成為最早的AI
生成算法。隨后Diffusion、Transformer^基于流的生成模型
(Flow-basedmodels)、CLIP(ContrastiveLanguageImage
Pre-Training)等深度學(xué)習(xí)算法相繼被推出,其中DHfusion逐漸代替
GAN成為圖像生成的主流模型,Transformer的推出為預(yù)訓(xùn)練模型奠
定了基礎(chǔ),CLIP則廣泛應(yīng)用在多模態(tài)技術(shù)中。
#2預(yù)訓(xùn)練模型持續(xù)完善
2015年以前,小模型一度被認(rèn)為是行.業(yè)發(fā)展的方向,但這些小模型
更偏向處理分析性任務(wù),生成能力較弱。2017年谷歌研究院在
《AttentionisAllYouNeed》中提出Transformer算法的概念,而
Transformer能夠有效提取長(zhǎng)序列特征,具備較高的計(jì)算效率和可擴(kuò)
展性,大大降低訓(xùn)練時(shí)間。2018年谷歌發(fā)布基于Transformer的NLP
(NaturalLanguageProcessing,自然語(yǔ)言處理)預(yù)處理模型BERT,
標(biāo)志著人工智能進(jìn)入預(yù)訓(xùn)練模型時(shí)代。
從流程上看,預(yù)訓(xùn)練模型采用兩階段學(xué)習(xí)法,即首先在大量的通用數(shù)
據(jù)上訓(xùn)練并具備基礎(chǔ)能力,再結(jié)合多樣的垂直行業(yè)和場(chǎng)景對(duì)預(yù)訓(xùn)練模
型進(jìn)行微調(diào),從而有效提升開(kāi)發(fā)效率。隨著參數(shù)規(guī)模的擴(kuò)大,預(yù)訓(xùn)練
模型在語(yǔ)言理解,圖像識(shí)別等領(lǐng)域迅速取得突破,所需的計(jì)算量也急
劇增長(zhǎng)。據(jù)紅杉資本,2015-2020年,用于模型訓(xùn)練的計(jì)算量增加了
6個(gè)數(shù)量級(jí)。據(jù)騰訊研究院,按照類(lèi)型分類(lèi),預(yù)訓(xùn)練模型包括:1)
NLP(自然語(yǔ)言處理)模型,使得人與計(jì)算機(jī)能夠用自然語(yǔ)言有效通
信,包括OpenAI的GPT系歹人Facebook的M2M100;2)CV模
型(Computervision,計(jì)算機(jī)視覺(jué)),運(yùn)用計(jì)算機(jī)及相關(guān)設(shè)備對(duì)生物
視覺(jué)進(jìn)行模擬,比如微軟的Florence;3)多模態(tài)預(yù)訓(xùn)練模型,包含
圖像、文字、視頻等多種形式,如谷歌的Image、StabilityAI的
StableDuffusion等。
?<4:AIGC主要用調(diào)修模型杭理
金或應(yīng)M?盤(pán)量**
答就BERT4810億NLP
LaMDANLP
PaLM沿*及*與幺*、?Jt.代g生*5400化NLP
Imagen沿土及修與圖像110億多幔金
Part4*JIM與曲像文板200億S幔鳥(niǎo)
Florence64億CV
Turing-NLG170億NLP
FacebookOPT-175B訃*饅皂1750化NLP
M2M-100100Hiitl.il150億NLP
DeepMindGato多面手的1T鮑體12億多幔3
Gopher通才及3與生成2800化NLP
AJphaCode代馬立成414億NLP
OpenAlGPT3通*及”與文*.按及等1750億NLP
CLIPADALL-E號(hào)幔3陵去120億5根金
Codex代嗎生?120億NLP
ChatGPT通*及薪與上*、NLP
StabilityAIStableDiffusion*方及解與配像生*多慢島
關(guān)件達(dá)Meaatron-TuringNLG播方理解與文*、拉及5300億NLP
#3多模態(tài)技術(shù)快速發(fā)展
多模態(tài)技術(shù)(MultimodalTechnology)即將圖像、語(yǔ)音、視頻、文
字等多模態(tài)融合的機(jī)器學(xué)習(xí)技術(shù),而CLIP(ContrastiveLanguage-
ImagePre-training)的推出成為跨模態(tài)應(yīng)用生成的重要節(jié)點(diǎn)。CLIP
在2021年由OpenAI開(kāi)源推出,能夠?qū)⑽淖趾蛨D像進(jìn)行關(guān)聯(lián).且關(guān)聯(lián)
特征豐富,后續(xù)“CLIP+其他模型”成為跨模態(tài)生成領(lǐng)域的較通用的做
法,如DiscoDiffusion便是將CLIP與Diffusion模型進(jìn)行關(guān)聯(lián),用
戶(hù)輸入文字指令便能夠生成相關(guān)的圖片。在多模態(tài)技術(shù)的加持下,預(yù)
訓(xùn)練模型已經(jīng)從早期單一的NLP、CV向多模態(tài)、跨模態(tài)的方向發(fā)展。
AIGC產(chǎn)業(yè)鏈基礎(chǔ)層/中間層/應(yīng)用層,中外差距約3年
從產(chǎn)業(yè)鏈結(jié)構(gòu)來(lái)看,AIGC主要包括基礎(chǔ)層、中間層和應(yīng)用層,中外
差距在3年左右。由于技術(shù)與投資環(huán)境差異,AIGC在我國(guó)大多作為
公司的部分業(yè)務(wù)進(jìn)行開(kāi)發(fā),獨(dú)立的初創(chuàng)公司數(shù)量較少,導(dǎo)致AIGC實(shí)
際的場(chǎng)景開(kāi)發(fā)較國(guó)外仍有差距。據(jù)量子位,中外公司的整體差距在3
年左右,底層技術(shù)是核心原因。
#1基礎(chǔ)層
基礎(chǔ)層即預(yù)訓(xùn)練模型,構(gòu)成了AIGC的基礎(chǔ)。隨著預(yù)訓(xùn)練模型參數(shù)的
增加,預(yù)訓(xùn)練所需要的數(shù)據(jù)量同樣快速提升,帶來(lái)較高的成木投入。
據(jù)中國(guó)信通院與京東探索研究院發(fā)布的《人工智能生成內(nèi)容白皮書(shū)
2022》,模型參數(shù)量已從最初的千萬(wàn)級(jí)發(fā)展到了千億級(jí)別,訓(xùn)練代
價(jià)也從數(shù)十天增長(zhǎng)到幾十萬(wàn)天(按在單張V100GPU計(jì)算)。據(jù)北京
智源人工智能研究院,2020年OpenAI發(fā)布的NLP模型GPT-3的
參數(shù)量約1,750億,訓(xùn)練數(shù)據(jù)量達(dá)45TB,模型訓(xùn)練成本近1,200萬(wàn)
美元。因此該領(lǐng)域的參與者主要是科技巨頭與頭部的研究機(jī)構(gòu),如
OpenAL谷歌、微軟、Meta,百度等。
#2中間層
中間層即垂直化、場(chǎng)景化、個(gè)性化的模型。在預(yù)訓(xùn)練模型的基礎(chǔ)上,
能夠快速生成垂直化的小模型,實(shí)現(xiàn)流水線式的開(kāi)發(fā),降低開(kāi)發(fā)成本,
提升效率。如StableDiffusion開(kāi)源后多個(gè)繪畫(huà)模型基于
StableDiffusion開(kāi)發(fā),二次元繪畫(huà)領(lǐng)域包括知名的NovelAL而昆侖
萬(wàn)維的天工巧繪SkyPaint模型則采用全球第一款多語(yǔ)言
StableD附usion分支模型,兼容StableDiffusion。據(jù)騰訊研究院,隨
著大模型+多模態(tài)加速成長(zhǎng)為通用性技術(shù)平臺(tái),模型即服務(wù)
(Model-as-a-Service,MaaS)逐漸實(shí)現(xiàn),通過(guò)API授權(quán)有望助力
AIGC變現(xiàn)。
#3應(yīng)用層
應(yīng)用層即面向C端的AIGC應(yīng)用。從模態(tài)上看,應(yīng)用層包括圖像、
音頻、文本、視頻等,其中圖像領(lǐng)域代表產(chǎn)品包括MidJourney、
DreamStudio等;音頻包括DeepMusic等;文本包括ChatGPT、
Sudowrite等;視頻包括Runway等。從形式上看,應(yīng)用層包括App、
網(wǎng)頁(yè)、小程序、聊天機(jī)器人等,將C端用戶(hù)與模型聯(lián)通,已經(jīng)逐漸
滲透到生活中的各個(gè)領(lǐng)域,如MidJourney搭載在聊天軟件Discord
中推出,ChatGPT則支持網(wǎng)頁(yè)直接登錄,國(guó)內(nèi)的如昆侖萬(wàn)維的天工
巧繪SkyPaint能夠通過(guò)微信小程序登錄,滿(mǎn)足用戶(hù)的多樣化需求。
S<5:AJGC產(chǎn)業(yè)保站構(gòu)
修訓(xùn)“B■宣化、埸霞生個(gè)性化■更研10文字與成?
抒的AJGCBflg
AIGC顛覆傳統(tǒng)生產(chǎn)模式,掀起全場(chǎng)景內(nèi)容生產(chǎn)力革命
AIGC從效率、質(zhì)量、多樣性為內(nèi)容生產(chǎn)帶來(lái)革命
AIGC技術(shù)的突破性進(jìn)展引發(fā)內(nèi)容生產(chǎn)方式變革,內(nèi)容生產(chǎn)由PGC
(專(zhuān)業(yè)制作)和UGC(用戶(hù)創(chuàng)作)時(shí)代逐漸步入AIGC時(shí)代。AIGC
順應(yīng)了內(nèi)容行業(yè)發(fā)展的內(nèi)在需求,一方面內(nèi)容消費(fèi)量增加,急需降低
生產(chǎn)門(mén)檻,提升生產(chǎn)效率;另一方面用戶(hù)端表達(dá)意愿明顯上升,消費(fèi)
者對(duì)內(nèi)容形態(tài)要求更高,內(nèi)容生成個(gè)性化和開(kāi)放化趨勢(shì)明顯。
AIGC通過(guò)其強(qiáng)大的生成能力廣泛服務(wù)于內(nèi)容生產(chǎn)的各類(lèi)場(chǎng)景和內(nèi)容
生產(chǎn)者,在內(nèi)容行業(yè)的應(yīng)用場(chǎng)景不斷增加和拓展,將在內(nèi)容生產(chǎn)中產(chǎn)
生變革性影響。具體來(lái)看主要有以下三點(diǎn):1)自動(dòng)內(nèi)容生成,提升
內(nèi)容生產(chǎn)效率,降低內(nèi)容生產(chǎn)門(mén)檻和內(nèi)容制作成本。當(dāng)前大量文本、
圖像、音頻、視頻等內(nèi)容都可以通過(guò)AIGC技術(shù)自動(dòng)生成,高效的智
能創(chuàng)作工具可以輔助藝術(shù)、影視、廣告、游戲、編程等創(chuàng)意行業(yè)從業(yè)
者提升日常內(nèi)容生產(chǎn)效率。此外,自動(dòng)內(nèi)容生成可以降低內(nèi)容生產(chǎn)門(mén)
檻和內(nèi)容制作成本,例如,借助AI編曲軟件可以自動(dòng)生成編曲,而
人為創(chuàng)作大概需要7-10年的經(jīng)驗(yàn)積累。2)提升內(nèi)容質(zhì)量,增加內(nèi)容
多樣性。AIGC生成的內(nèi)容可能比普通的人類(lèi)創(chuàng)建的內(nèi)容質(zhì)量更高,
大量數(shù)據(jù)學(xué)習(xí)積累的知識(shí)可以產(chǎn)生更準(zhǔn)確和信息更豐富的內(nèi)容,谷歌
的Imagen生成的AI繪畫(huà)作品效果已經(jīng)接近中等畫(huà)師水平。而且
AIGC可以幫助企業(yè)和專(zhuān)業(yè)人士創(chuàng)建更多樣化、更有趣的內(nèi)容,
VQGAN可以生成抽象繪畫(huà)作品,不咕剪輯Cooclip內(nèi)置豐富的貼紙、
音頻、經(jīng)典“?!彼夭牡?,可以增加視頻本身的玩法與樂(lè)趣。3)助力
內(nèi)容創(chuàng)新,實(shí)現(xiàn)個(gè)性化內(nèi)容生成。AIGC將內(nèi)容創(chuàng)作中的創(chuàng)意和實(shí)現(xiàn)
分離,替代創(chuàng)作者的可重復(fù)勞動(dòng),可以幫助有經(jīng)驗(yàn)的創(chuàng)作者捕捉靈感,
創(chuàng)新互動(dòng)形式,助刀內(nèi)容創(chuàng)新。例如AICG在設(shè)計(jì)初期生成大量草圖
可以幫助美術(shù)創(chuàng)作者生成更多創(chuàng)作靈感。根據(jù)個(gè)人用戶(hù)的喜好生成個(gè)
性化內(nèi)容,也有利于多種創(chuàng)意落地。
AIGC發(fā)展中仍面臨法律、安全、倫理和環(huán)境等問(wèn)題。首先,AIGC
引發(fā)了新型版權(quán)侵權(quán)風(fēng)險(xiǎn),因版權(quán)爭(zhēng)議,國(guó)外藝術(shù)作品平臺(tái)Artstation
上的畫(huà)師們掀起了抵制AIGC生成圖像的活動(dòng)。其次,AIGC濫用容
易引發(fā)信息內(nèi)容安全、內(nèi)生安全、詐騙違法犯罪行為等安全隱患,詐
騙團(tuán)隊(duì)利用AIGC換臉偽造埃隆?馬斯克的視頻,半年詐騙價(jià)值超過(guò)2
億人民幣的數(shù)字貨幣。再次,算法歧視等倫理問(wèn)題依然存在,人工智
能大規(guī)模替代人類(lèi)勞動(dòng)引發(fā)爭(zhēng)議。最后,AIGC模型訓(xùn)練消耗大量算
力,碳排放量巨大,對(duì)環(huán)境保護(hù)造成壓力。
a<6:內(nèi)容生產(chǎn)方式的b個(gè)&A院段
H
i
匕a宓:
文本、音頻和圖像生成等落地相對(duì)較快,游戲等方向仍待成熟
細(xì)分場(chǎng)景眾多,文本、音頻、圖像領(lǐng)域發(fā)展較快?;谀B(tài),我們認(rèn)
為目前AIGC下游落地場(chǎng)景有文本、音頻、圖像、視頻、游戲、代碼、
3D生成等。較之國(guó)外,我國(guó)AIGC行業(yè)仍處于剛起步階段,體系化
發(fā)展等仍待完善。
文本生成:AIGC目前可以較好地完成新聞播報(bào)等結(jié)構(gòu)化寫(xiě)作、推薦
相關(guān)內(nèi)容、幫助潤(rùn)色等非結(jié)構(gòu)化內(nèi)容,同時(shí)在虛擬男/女友、心理咨
詢(xún)等閑聊機(jī)器人中應(yīng)用較為廣泛。劇情續(xù)寫(xiě)、營(yíng)銷(xiāo)文本等非結(jié)構(gòu)化寫(xiě)
作與文本交互游戲等應(yīng)用尚未實(shí)現(xiàn)規(guī)?;瘧?yīng)用,未來(lái)或可實(shí)現(xiàn)文本生
成的終稿達(dá)到人類(lèi)平均水平甚至專(zhuān)業(yè)水平。圖像生成:隨著算法模型
的不斷迭代,AI作畫(huà)水平不斷提高。在圖像編輯工具上,去除水印、
提高分辨率、特點(diǎn)濾鏡等已較廣泛應(yīng)用。根據(jù)隨機(jī)或按照特點(diǎn)屬性生
成畫(huà)作等的創(chuàng)意圖像生成,與根據(jù)指定要求生成營(yíng)銷(xiāo)類(lèi)海報(bào)、模特圖
等的功能性圖像生成發(fā)展接近成熟。當(dāng)前圖像生成水平與專(zhuān)職藝術(shù)家、
設(shè)計(jì)師和攝影師的產(chǎn)品設(shè)計(jì)作品存在一定差距。
音頻生成:發(fā)展較為成熟,消費(fèi)與企業(yè)級(jí)的應(yīng)用正在鋪開(kāi)。AIGC目
前在語(yǔ)音克隆、生成虛擬人的特定歌聲/播報(bào)等的文本生成特定語(yǔ)言、
包含作曲與編曲的樂(lè)曲/歌曲生成上得到廣泛應(yīng)用,代表企業(yè)和應(yīng)用
的有倒映有聲、Deepmusic,網(wǎng)易■有靈智能創(chuàng)作平臺(tái)等。AI降噪去
除壓縮和采樣中的噪音仍需改善,AI作曲小冉機(jī)械化與人類(lèi)創(chuàng)作音
樂(lè)水平相仿,在未來(lái)值得期待。視頻生成:AIGC目前對(duì)于刪除特定
主體、生成特效、跟蹤剪輯等的視頻屬性編輯已較廣泛應(yīng)用,視頻換
臉等的視頻部分剪輯預(yù)計(jì)不久將規(guī)?;瘧?yīng)用,對(duì)特定片段進(jìn)行檢測(cè)與
合成的視頻自動(dòng)剪輯發(fā)展仍不完善。當(dāng)前,全自動(dòng)生成長(zhǎng)時(shí)間的視頻
作品還不能實(shí)現(xiàn),距離依個(gè)人夢(mèng)想定制電影和劇集還較為遙遠(yuǎn)。其他
(游戲/代碼/3D):代碼補(bǔ)全生成來(lái)替代程序員重復(fù)性勞動(dòng)的發(fā)展較
為成熟,大量應(yīng)用已落地。游戲中游戲操作策略生成和NPC邏輯及
劇情生成尚需進(jìn)一步完善,3D生成尚處于早期階段,3D模型、3D
角色制作和3D場(chǎng)景尚未實(shí)現(xiàn)規(guī)?;瘧?yīng)用。3D、游戲、代碼自動(dòng)生成
更加智能將成為未來(lái)的增長(zhǎng)方向。
AIGC的商業(yè)模式同樣處于持續(xù)探索的階段,由按量收費(fèi)等傳統(tǒng)方式
向SaaS訂閱模式等應(yīng)用場(chǎng)景更靈活的方式拓展。AIGC讓AI公司為
更多中小型企、業(yè)甚至個(gè)人提供服務(wù),可規(guī)?;亟的驹鲂В瑸锳I行
業(yè)帶來(lái)一種全新的可能性和商業(yè)模式。
1)按量收費(fèi):AI技術(shù)傳統(tǒng)應(yīng)用模式主要以API接口對(duì)外開(kāi)放,以實(shí)
際使用量/訓(xùn)練量計(jì)算收費(fèi),如OpenAI的GPT3語(yǔ)言模型服務(wù)以每
千tokens定價(jià)(OpenAI使用的字符計(jì)算單位,一千tokens約等于
750個(gè)單詞),Ada/Babbage/Curie/Davinci四種模型的能力和產(chǎn)出
速度不同,單價(jià)也有所不同,分別為$0.0004/0.0005/0.0020/0.0200
每千tokens。圖像生成方面,DALL'E模型同樣按次收費(fèi),不同尺寸
的圖像收費(fèi)不同,生成一張256x256/512x512/1024x1024像素的圖
片,單次收費(fèi)$0016/0.018/0.020。
2)SaaS模式:AIGC為B端及C端用戶(hù)提供了會(huì)員SaaS收費(fèi)的
模式,降低了傳統(tǒng)AI公司的客戶(hù)服務(wù)規(guī)?;碾y度。據(jù)OpenAI官
網(wǎng),2023年OpenAI推出付費(fèi)版本的ChatGPTPIus,起價(jià)為每月20
美元,提供更快的響應(yīng)速度,以及新功能和更新的有限使用權(quán)。美國(guó)
AIGC公司Jasper主打AI生成文案服務(wù),以類(lèi)SaaS服務(wù)收費(fèi),2021
年成立當(dāng)年?duì)I收達(dá)4,500萬(wàn)美元,以其Starter模式為例,基礎(chǔ)收費(fèi)
是24美元/月,可以使用不超過(guò)2萬(wàn)字;最高332美元/月,可以使
用32萬(wàn)字。
3)其他:通過(guò)降本增效來(lái)增利、定制化服務(wù)付費(fèi)、個(gè)性化產(chǎn)品銷(xiāo)售
等。市場(chǎng)積極探索其他場(chǎng)景商業(yè)化:在廣告營(yíng)銷(xiāo)、影視、音樂(lè)、游戲、
藝術(shù)品等領(lǐng)域AIGC有望繼續(xù)拓展更多樣化的商業(yè)化形式。藍(lán)色光標(biāo)
推出的“銷(xiāo)博特”發(fā)布AIGC“創(chuàng)策圖文'營(yíng)銷(xiāo)套件,該套件的定制版服務(wù)
將銷(xiāo)博特營(yíng)銷(xiāo)能力服務(wù)部署為企業(yè)自有云服務(wù),并根據(jù)企?業(yè)個(gè)性化需
求進(jìn)行二次開(kāi)發(fā),構(gòu)建企業(yè)內(nèi)部營(yíng)銷(xiāo)創(chuàng)意基礎(chǔ)設(shè)施平臺(tái),為企業(yè)提供
專(zhuān)屬營(yíng)銷(xiāo)策劃和創(chuàng)意內(nèi)容。AIGC的商業(yè)模式同樣處于持續(xù)探索的階
段,由按量收費(fèi)等傳統(tǒng)方式向SaaS訂閱模式等應(yīng)用場(chǎng)景更靈活的方
式拓展。AIGC讓AI公司為更多中小型企業(yè)甚至個(gè)人提供服務(wù),可規(guī)
?;亟当驹鲂?,為AI行業(yè)帶來(lái)一種全新的可能性和商業(yè)模式。
AIGC多場(chǎng)景快速落地,文本/圖像關(guān)注度較高
文本:ChatGPT引領(lǐng)熱潮,大廠加碼布局交互式文本
據(jù)量子位,AI文本生成分為交互式與非交互式。非交互式包括結(jié)構(gòu)
化寫(xiě)作,非結(jié)構(gòu)化寫(xiě)作和輔助性寫(xiě)作,其中結(jié)構(gòu)化寫(xiě)作指基于數(shù)據(jù)或
規(guī)范格式,在特定情況下生成的文本,如新聞、簡(jiǎn)訊等;非結(jié)構(gòu)化寫(xiě)
作以創(chuàng)作型文本生成為主,具備更高的開(kāi)放度。作為AIGC最早發(fā)展
的技術(shù),AI文本生成已經(jīng)在新聞報(bào)道、商業(yè)營(yíng)銷(xiāo)、客服機(jī)器人等領(lǐng)
域廣泛落地。2022年11月30口,OpenAI推出的智能聊天工具
ChatGPT引入RLHF機(jī)制,降低訓(xùn)練成本且效果優(yōu)化,不僅能夠?qū)?/p>
問(wèn)題作出回答,還能完成短文和詩(shī)歌創(chuàng)作、代碼寫(xiě)作、數(shù)學(xué)和邏輯運(yùn)
算等任務(wù),據(jù)Similarweb,ChatGPT推出僅2月平均日活超1,300
萬(wàn),引發(fā)社會(huì)廣泛關(guān)注??萍季揞^亦加碼布局交互式文本,微軟在
2023年1月追加投資OpenAI,未來(lái)還計(jì)劃將ChatGPT整合到旗下
的搜索引擎Bing中;谷歌通過(guò)內(nèi)部研發(fā)與投資ChatGPT的競(jìng)品
Anthropic來(lái)應(yīng)對(duì)挑戰(zhàn),23年2月6日公布了與ChatGPT類(lèi)似的對(duì)
話服務(wù)Bard;據(jù)彭博社,百度計(jì)劃將ChatGPT類(lèi)似程序嵌入搜索服
務(wù)中。
■AS:
辦4會(huì)■Mt,向*??1
—contMnoteVftCf
Aiat??十4。去?筌不以人久????角
XaftormgM-AAM40KSA.S*“人??耳74574?于
4.444.刁?的4鳥(niǎo)?。。邸?,?*4?
AulomaMins9ht94*WordSmflh
Narrabv*Seme*4*Oufl
Phraee94*PhrmeeScore■逢一子彳伶一???*?萬(wàn)角8
Pmado4*Pmado
AX*a-1-<M?APP.已人”4,獨(dú),
4*Oramalron一盤(pán)Af¥,。望?????,?。???UI.,?畀2?畔?
tMAlCA17K-b*2n.Witt
,<f*q?|幺字內(nèi)*?寫(xiě)為?*俊H
4*
,“人AIMAXA.?MAA?n.
??RM人"冷件“?久?(?¥”黃??
AI1T,¥伸角S3?片?工■
—▲——
4*WOOBH&tUMOA?|?.?圖,八。匕
SuaowntB4*SudowmeIHAtBKa.?0?????t??
OpenAI4*ChatGPT人Xlrd?氏*”人.■件.0.Ct.?語(yǔ).代
BardUMDA<?.舄
v<2rflH2023434?^<<?<<19
UMudt4*AlOun^^onHRTGPT^<?.久”?戶(hù)?入土救44st字?*4*.
#1交互式文本
在交互式文本當(dāng)中,最近熱度較高的ChatGPT是代表性應(yīng)用,展現(xiàn)
出較強(qiáng)的智能水平。ChatGPT是OpenAI在2022年11月30日推
出的人工智能聊天工具,其不僅能夠模仿人類(lèi)的風(fēng)格作出問(wèn)題回答,
還能完成短文和詩(shī)歌創(chuàng)作、代碼寫(xiě)作、數(shù)學(xué)和邏輯運(yùn)算等任務(wù)。據(jù)騰
訊研究院,ChatGPT目前可以駕馭各種風(fēng)格和文體,能夠做到回答
后續(xù)問(wèn)題、承認(rèn)錯(cuò)誤、質(zhì)疑不正確的前提和拒絕不適當(dāng)?shù)恼?qǐng)求等。
ChatGPT的內(nèi)容輸出質(zhì)量、內(nèi)容覆蓋維度,已經(jīng)可以直面“搜索引擎”
與“問(wèn)答社區(qū)”。據(jù)CNBC,ChatGPT通過(guò)了Google3級(jí)工程師的編
碼面試,據(jù)NBCNews,沃頓商學(xué)院教授ChristianTerwiesch發(fā)現(xiàn)
ChatGPT能夠以B-到B的成績(jī)通過(guò)該校MBA核心課程運(yùn)營(yíng)管理的
期末考試,展現(xiàn)出較強(qiáng)的智能水平。
ChatGPT的出現(xiàn)迅速引起廣泛關(guān)注,僅推出2月平均日活超1,300
萬(wàn),成為一款現(xiàn)象級(jí)的產(chǎn)品。ChatGPT用戶(hù)數(shù)在5天內(nèi)突破了100
萬(wàn),據(jù)Similarweb,2023年1月每天平均有1,300萬(wàn)獨(dú)立訪客使用
ChatGPT,超12月的2倍,而這距離ChatGPT的推出僅2個(gè)月。
ChatGPT強(qiáng)大的性能引發(fā)了社會(huì)的廣泛關(guān)注,特斯拉CEO馬斯克在
Twiter上表示“許多人已經(jīng)陷入了ChatGPT的瘋狂循環(huán)中”,“我們離
強(qiáng)大到危險(xiǎn)的AI不遠(yuǎn)r';2023年2月,微軟創(chuàng)始人比爾蓋茨接受
Forbes采訪時(shí)表示'Al將成為2023年最熱門(mén)的話題,ChatGPT這種
人工智能技術(shù)出現(xiàn)的意義不亞于互聯(lián)網(wǎng)和PC的誕生:ChatGPT引
入RLHF機(jī)制,通過(guò)引入人類(lèi)反饋,持續(xù)優(yōu)化模型效果。據(jù)OpenAI
官網(wǎng),ChatGPT的模型在GPT-3.5的基礎(chǔ)上引入了RLHF
(ReinforcementLearningfromHumanFeedback,人類(lèi)反饋強(qiáng)化學(xué)
習(xí))機(jī)制,這一模式增強(qiáng)了人類(lèi)對(duì)于模型輸出結(jié)果的調(diào)整,對(duì)結(jié)果進(jìn)
行更具理解性的排序,并提升訓(xùn)練效率,加速模型收斂。
圖表10:歷代GPT模型參數(shù)對(duì)比
GPT-1GPT-2GPT-3ChatGPT
發(fā)布時(shí)間2018年6月2019年2月2020年5月2022年11月
參數(shù)量1.17億15億1,750億
預(yù)訓(xùn)練數(shù)據(jù)量約5GB40G45TB
ChatGPT再獲微軟投資,合作持續(xù)加深,未來(lái)將集成至Bing搜索引
擎與Edge瀏覽器中。據(jù)路透社,OpenAI在2019年獲得微軟10億
美元的投資,2021年微軟對(duì)OpenAI追加了投資。據(jù)微軟官網(wǎng),微
軟在2023年1月表示,作為兩家公司合作的第三階段,微軟將加大
對(duì)supercomputingsystems的投資以支持OpenAI的發(fā)展。此外微
軟未來(lái)會(huì)把自己的消費(fèi)者和企業(yè)產(chǎn)品中部署OpenAI的模型,并為客
戶(hù)引入基于OpenAI技術(shù)的體驗(yàn),將OpenAI的技術(shù)構(gòu)建到GitHub
Copilot和MicrosoftDesigner等,同時(shí)微軟仍然為OpenAI的獨(dú)家云
提供商。從具體的落地層面看,2023年1月微軟CEO薩提亞?納德
拉表示微軟旗下的Azure云服務(wù)即將整合ChatGPT技術(shù),2023年2
月,微軟旗下的Teams推出嵌入ChatGPT的高級(jí)服務(wù),同時(shí)微軟
宣布將OpenAI的語(yǔ)言模型整合到Bing搜索引擎和Edge瀏覽器中。
據(jù)Theinformation,截至2023年1月,OpenAI估值達(dá)290億美元。
ChatGPT在商業(yè)化路徑上持續(xù)探索,推出付費(fèi)版本ChatGPTPIuSo
OpenAI的CEOSamAltman在Twitter上表示,ChatGPT平均一次
聊天成本在個(gè)位數(shù)美分,除了API外,公司正在探索更多的商業(yè)化變
現(xiàn)模式,而ChatGPTPIus便是其中之一。據(jù)OpenAI官網(wǎng),2023年
OpenAI推出付費(fèi)版木的ChatGPTPIus,起價(jià)為每月20美元,目前
只對(duì)美國(guó)的用戶(hù)開(kāi)放。據(jù)OpenAI官網(wǎng),ChatGPTPIus即使在高峰
時(shí)段也可以訪問(wèn),有更快的響應(yīng),可以?xún)?yōu)先使用新功能和改進(jìn)。
谷歌通過(guò)內(nèi)部研發(fā)與投資應(yīng)對(duì)ChatGPT或帶來(lái)的顛覆性挑戰(zhàn)。據(jù)
Insider,2022年12月,谷歌為ChatGPT帶來(lái)的威脅發(fā)布了“紅色警
報(bào)”,著手進(jìn)行緊急應(yīng)對(duì)。應(yīng)對(duì)措施方面,谷歌一方面加快內(nèi)部研發(fā),
據(jù)谷歌官網(wǎng),美國(guó)時(shí)間2023年2月6日,谷歌發(fā)布了與ChatGPT
類(lèi)似的對(duì)話服務(wù)Bard,目前Bard向測(cè)試人員開(kāi)放,未來(lái)幾周將持續(xù)
向公眾開(kāi)放該服務(wù),Bard基于谷歌的LaMDA模型(LanguageModel
forDialogueApplications,用于對(duì)話場(chǎng)景的語(yǔ)言模型),能夠利用網(wǎng)
絡(luò)上的信息提供最新的、高質(zhì)量的回答。此外,據(jù)Thelndependent,
谷歌或?qū)⒃?023年通過(guò)子公司DeepMind推出聊天機(jī)器人Sparrow,
可通過(guò)谷歌搜索引用特定的信息源,準(zhǔn)確性更強(qiáng)。谷歌也在通過(guò)投資
持續(xù)布局相關(guān)領(lǐng)域。據(jù)金融時(shí)報(bào),2023年2月,谷歌投資AIGC初
創(chuàng)公司Anthropic超3億美元,獲得了約10%股份。據(jù)Anthropic官
網(wǎng),谷歌已經(jīng)與Anthroic簽署了一份大型云計(jì)算合同,Anthropic從
谷歌云購(gòu)買(mǎi)計(jì)算資源,谷歌提供AI模型算力。Anthropic在2021年
由前OpenAI研究副總裁DarioAmodei建立,核心產(chǎn)品是與ChatGPT
類(lèi)似的聊天機(jī)器人Claude。
國(guó)內(nèi)大廠對(duì)于ChatGPT的發(fā)展持樂(lè)觀態(tài)度,百度將集成文心一言至
搜索引擎。騰訊研究院在2023年1月發(fā)布《AIGC趨勢(shì)報(bào)告2023》,
對(duì)于ChatGPT的發(fā)展持樂(lè)觀態(tài)度,指出AIGC有望作為數(shù)據(jù)與內(nèi)容
的強(qiáng)大生產(chǎn)引擎,升級(jí)甚至重塑內(nèi)容工具,申請(qǐng)的“人機(jī)對(duì)話方法、
裝置、設(shè)備及計(jì)算機(jī)可讀存儲(chǔ)介質(zhì)”專(zhuān)利可實(shí)現(xiàn)人機(jī)順暢溝通;京東
集團(tuán)副總裁何曉冬表示京東會(huì)不斷結(jié)合ChatGPT的方法和技術(shù)點(diǎn),
融入到產(chǎn)品服務(wù)中推動(dòng)人工智能的產(chǎn)業(yè)落地;據(jù)百度官網(wǎng),2023年
2月7日,百度公布了大模型新項(xiàng)目文心一言(ERNIEBot),據(jù)彭
博社,百度計(jì)劃在2023年3月將最初的版本將內(nèi)嵌到搜索服務(wù)中;
阿里巴巴達(dá)摩院申請(qǐng)了“人機(jī)對(duì)話及預(yù)訓(xùn)練語(yǔ)言模型訓(xùn)練方法、系統(tǒng)
及電子設(shè)備”的專(zhuān)利,積極布局AIGC。
圖表‘QiAnthropic宣布使用谷歌云訓(xùn)練模型
Anthiopic9AnthropicA]?Feb4???
We,reexcitedtouseGoogleCloudtotrainourAlsystems,including
Claude!/news/dnnourKem
4ThomasKurianO「TfwiasOtIKFvb4
Today'sannouncementwith9AnthfopicAIisanothergreatexample
oftheecosystemofAlstartupsleveragingGoogleCloud'sreliableand
openInfrastructuretobuildtheirbusinesses.goo.gle/3JiAWem
GogleCloudANTHROPXC
#2非交互式文本
結(jié)構(gòu)化寫(xiě)作已經(jīng)在新聞寫(xiě)作、公司財(cái)報(bào)、客服類(lèi)聊天問(wèn)答等場(chǎng)景廣泛
應(yīng)用。國(guó)外方面,代表性的垂直公司Automatedlnsights成立于2007
年,旗下的Wordsmith是一個(gè)自然語(yǔ)言生成平臺(tái),能夠借助NLP技
術(shù)將數(shù)據(jù)轉(zhuǎn)化成描述性的語(yǔ)言,據(jù)公司官網(wǎng),目前Automatedlnsights
已經(jīng)在新聞寫(xiě)作中具有較廣泛的應(yīng)用,下游的客戶(hù)包括雅虎、美聯(lián)社
等主流媒體。國(guó)內(nèi)方面,小冰公司、騰訊、百度、字節(jié)、瀾舟科技等
公司均有布局。瀾舟科技成立于2021年,主要產(chǎn)品是基于“孟子輕量
化預(yù)訓(xùn)練模型”打造的一系列SaaS功能引擎,被廣泛應(yīng)用于包括搜
索、生成、翻譯、對(duì)話等領(lǐng)域。字節(jié)推出的Xiaomingbot是新聞寫(xiě)作
機(jī)器人,該機(jī)器人在里約奧運(yùn)會(huì)上,共撰寫(xiě)了457篇關(guān)于羽毛球、
乒乓球、網(wǎng)球的消息簡(jiǎn)訊和賽事報(bào)道。整體來(lái)看,目前結(jié)構(gòu)化寫(xiě)作已
具備較成熟的應(yīng)用,長(zhǎng)期來(lái)看,NarrativeScience創(chuàng)始人預(yù)測(cè)到2030
年90%以上的新聞將有AI寫(xiě)作完成。
非結(jié)構(gòu)化寫(xiě)作開(kāi)放度和技術(shù)要求更高,主要運(yùn)用在營(yíng)銷(xiāo)和劇情寫(xiě)作領(lǐng)
域。據(jù)量子位,非結(jié)溝化寫(xiě)作主要運(yùn)用在劇情寫(xiě)作、營(yíng)銷(xiāo)文本等領(lǐng)域,
開(kāi)放度和自由度更高,對(duì)于生成技術(shù)亦有更高的要求,而目前長(zhǎng)篇文
字在內(nèi)部邏輯上仍然有較明顯的問(wèn)題,暫不適合直接使用,預(yù)計(jì)未來(lái)
的4-5年或取得一定的突破。國(guó)外方面,代表性的公司包括谷歌、
Anyword、Pencil、Copy.ai、Jasper等,其中Jasper成立于2021
年,基于GPT-3訓(xùn)練模型,通過(guò)AI技術(shù)幫助企業(yè)完成社交媒體、廣
告營(yíng)銷(xiāo)、電子郵件等多種內(nèi)容,2022年10月,Jasper宣布獲得1.25
億美元的A輪融資,估值達(dá)15億美元;谷歌的AI劇本寫(xiě)作模型
Dramatron則能夠自動(dòng)產(chǎn)生人物、位置、情節(jié)的描述并生成對(duì)話.國(guó)
內(nèi)代表性公司為中文在線、彩云小夢(mèng)等,在彩云小夢(mèng)App中創(chuàng)作頁(yè)
面輸入一段文字,便能夠生成三條不同的故事走向,用戶(hù)可以點(diǎn)擊選
擇繼續(xù)或者讓彩云小夢(mèng)重新續(xù)寫(xiě),從而讓故事走向更加符合用戶(hù)的設(shè)
定。中文在線的AI文字創(chuàng)作功能已在17K小說(shuō)上線,作者在使用該
功能時(shí),通過(guò)針對(duì)不同的描寫(xiě)場(chǎng)景填寫(xiě)關(guān)鍵詞和輔助短語(yǔ),即可生成
對(duì)應(yīng)的文字內(nèi)容描寫(xiě)為作品使用。
圖像:預(yù)訓(xùn)練模型迭代升級(jí),AI圖像生成迎機(jī)遇
據(jù)量子位,AIGC圖像包括文字生成圖像、圖像屬性編輯、圖像部分
編輯與圖像端到端生成,其中由文字到圖像的跨模態(tài)生成成為重點(diǎn)探
索方向。從底層技術(shù)上看,Diffusion逐漸取代GAN成為圖像生成的
主流模型,助推了AIGC圖像的發(fā)展。2022年8月,由Midjourney
生成的《太空歌劇院》出圈,引發(fā)AI圖像生成的熱潮;2022年8月,
StabilityAl推出StableDiffusion模型,成為Al圖像生成的里程碑,
為后續(xù)圖像模型的更迭打下基礎(chǔ)。此外,OpenAI、谷歌在圖像模型
上亦持續(xù)迭代;百度文心?一格則支持中國(guó)風(fēng)AI創(chuàng)作。據(jù)6pen,未
來(lái)5年全球10-30%的圖像有望由AI生成或輔助生成,AI圖像領(lǐng)域
展現(xiàn)出較大的潛力°
??
MdJounwyUb4*MejoumayDttcord紇"“人,?人■—(Prompt*)WTA1
角幺*4假?K
w<?M如"?itERN€-ViLG20.OltlHNK.?*.
SteMtyAI4*StoMOmiMntila筌用”野,人內(nèi)*?夕.做其篇?****1*0★*舄?量立?0?AU
川?埠?GtHub上Q等
OpenAl4*DAU€23S:上餐■女4華國(guó)
”包.國(guó).HHXttRV.KK<4?^t<C:
4*imagenMMtXe.fem^n
AAexvy4*Pnwi>?八金*■■12憶■戶(hù)4500裊”久叁.*MPnsme0Al?<!<??.1**
4*R>wNeRF<*ftW2D?M>A3O<t#fV9AA
??4■Al纖或?6?tdtAttMC.A?H<.S?iX?|.■?!<<M入SJ戶(hù)也“工霰
??x?.定
冷?CyctoGAN??#一4?片,?,§-4?*?■內(nèi),?修■子■角
Mataphywc.4*MeUphytc立恰?.??“?!(
萬(wàn)??APPI.*AI幡改?????a"人才“*!<?<aax
DMptMP*4*OMpMieLHAIM*
MxeefM內(nèi)工■?做紂本?匕&?*X<t,i4僦討,??41^HCftt<8000a4?ttH
?H41tM?Al.■討f6?侵?易.一?久文或1M*?海
公蜂CtwvwraPamtor統(tǒng)?口”■今■■■<■■?人????
AdbfMtecBd4*Adbreeder
RoyudAl4*RoMbud.
VancaAl4*VanaPonretas>內(nèi)米?4,??
早期AIGC圖像主要基于GAN模型,但生成效果欠佳。GAN模型主
要由生成器(Generator)和判別器(Discriminator)兩部分組成,
生成器負(fù)責(zé)模擬出與真實(shí)訓(xùn)練樣本類(lèi)似的假數(shù)據(jù),并將假數(shù)據(jù)混入原
始數(shù)據(jù)交由判別器區(qū)分,兩個(gè)模型相互博弈,直到生成器的假數(shù)據(jù)能
夠以假亂真。早期的AIGC圖像主要基于GAN模型生產(chǎn),但是GAN
存在訓(xùn)練難以收斂、模型坍塌、梯度消失等問(wèn)題,造成訓(xùn)練結(jié)果冗余、
圖像生成質(zhì)量差。
Diffusion模型逐漸取代GAN成為主流模型,推動(dòng)圖像生成技術(shù)的發(fā)
展。D訐fussion受熱力學(xué)模型啟發(fā),通過(guò)增加高斯噪聲破壞訓(xùn)練數(shù)據(jù),
然后通過(guò)反轉(zhuǎn)噪聲來(lái)恢復(fù)學(xué)習(xí)的數(shù)據(jù),經(jīng)過(guò)訓(xùn)練的模型便能夠應(yīng)用去
噪方法來(lái)生成干凈的數(shù)據(jù)。Diffussion相對(duì)于GAN具有更靈活的模
型框架和精確的對(duì)數(shù)似然,所需數(shù)據(jù)更少,但圖像生成效果較更佳,
目前逐漸取代GAN成為新一代圖像生成的主流模型。
#1文字生成圖像
由Midjoumey生成的《太空歌劇院》出圈,引發(fā)社會(huì)廣泛討論。
Midjourney是一款搭載在Discord上的聊天機(jī)器人,玩家只需要@機(jī)
器人并輸入相關(guān)的提示詞(Prompts)即可在1分鐘以?xún)?nèi)生成4張圖
片。憑借著極低的上手門(mén)檻和Discord社區(qū)加持,截至2023年2月
4日,Discord數(shù)據(jù)顯示Midjourney在Discord約有980萬(wàn)成員。2022
年8月,由Midjourney生成的《太空歌劇院》在美國(guó)科羅拉多州藝
術(shù)博覽會(huì)上獲得“數(shù)字藝術(shù)”類(lèi)別的冠軍,使得AI繪畫(huà)引發(fā)了廣泛的關(guān)
注,圍繞AI能夠替代藝術(shù)創(chuàng)作的討論熱度較高。
StableDiffusion模型成為AI圖像領(lǐng)域的里程碑,Stability估值達(dá)10
億美元。2022年8月,StabihtyAI推出StableDiffusion模型,隨著
算法和模型的持續(xù)優(yōu)化,StableDiffusion的運(yùn)行速度快、消費(fèi)資源及
內(nèi)容較少,使用消費(fèi)級(jí)顯卡即可迅速生成高質(zhì)量的圖像,且該模型完
全免費(fèi)開(kāi)源,所有的代碼均在GitHub上公開(kāi),因此也為后續(xù)整個(gè)圖
像模型的更迭打下基礎(chǔ)。據(jù)TechCrunch,截至2022年10月,己有
超20萬(wàn)開(kāi)發(fā)者下載和獲得StableDiffusion的授權(quán),各渠道的累計(jì)日
活已經(jīng)超過(guò)[000萬(wàn);STStableDiffusion,面向消費(fèi)者的Al智能
繪圖軟件DreamStudio用戶(hù)數(shù)超150萬(wàn),已生成1.7億張圖片。2022
年10月,StabiltyAI宣布獲得Coatue、LightspeedVenturePartners
和O'ShaughnessyVenturesLLC投資的1.01億美元,估值達(dá)10億
美元,躋身獨(dú)角獸行業(yè)。
困表25:Midjourney搭載在Discord社區(qū)
OpenAI持續(xù)迭代DALL?E模型,圖片畫(huà)質(zhì)、生成效率均有提升。2021
年1月OpenAI發(fā)布模型DALL?E,能夠根據(jù)文本描述生成圖像,2022
年4月,OpenAI公布了DALL-E2研發(fā)進(jìn)展。據(jù)量子位,從原理上
看,DALL-E2是CLIP與Diffusion模型的結(jié)合,其中CLIP將文本嵌
入轉(zhuǎn)變?yōu)閳D像嵌入,而圖像嵌入將通過(guò)調(diào)節(jié)擴(kuò)散(DiffusionDecoder)
生成最終的圖像。DALL-E2與前一代相比圖像質(zhì)量提升了3倍,
DALL-E2生成圖像畫(huà)質(zhì)為1024x1024,DALL-E畫(huà)質(zhì)為256x256,
且生成的速度更快°此外DALL-E2能夠在更細(xì)的顆粒度上實(shí)現(xiàn)文本
到圖像的轉(zhuǎn)化,能夠根據(jù)自然語(yǔ)言進(jìn)行P圖,同時(shí)會(huì)反饋陰影、紋
理等元素的變化。
谷歌的Imagen在寫(xiě)實(shí)場(chǎng)景表現(xiàn)優(yōu)秀,Muse圖像生成效率更高。2022
年5月,Google公布了自研的Imagen模型。據(jù)量子位,從技術(shù)上
看,該模型并未采用CLIP+GAN或CLIP+DHfusion的常規(guī)做法,語(yǔ)
言模型采用谷歌的T5-XXL,并僅負(fù)責(zé)編碼文本特征,圖像生成由一
系列D訐fusion模型構(gòu)成;從效果上看,Imagen在寫(xiě)實(shí)場(chǎng)景中表現(xiàn)更
加優(yōu)秀。2023年1月,Google發(fā)布了從文本生成圖像的Transformer
模型Muse,與Imagen和DALL?E2等Diffusion模型相比,Muse
由于采用離散標(biāo)記且需要更少的采樣迭代,生成效率顯著提升,據(jù)
GoogleResearch與Dataconomy,在TPUv4芯片上,Muse生成
512x512分辨率的圖像僅需1.3秒,較StableDiffusion1.4的3.7秒
更快。
百度推出國(guó)產(chǎn)基礎(chǔ)模型ERNIE-ViLG2.0,文心?一格支持中國(guó)風(fēng)AI
創(chuàng)作。伴隨AI繪圖的火熱,國(guó)內(nèi)也出現(xiàn)了眾
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 如何提高信息系統(tǒng)項(xiàng)目管理師考試中的回答準(zhǔn)確性試題及答案
- 西方立法機(jī)關(guān)的功能與作用試題及答案
- 軟考網(wǎng)絡(luò)工程師學(xué)習(xí)資源分享試題及答案
- 公共政策危機(jī)溝通策略研究試題及答案
- 計(jì)算機(jī)三級(jí)軟件測(cè)試在政策中的應(yīng)用試題及答案
- 機(jī)電工程的職業(yè)發(fā)展路徑試題及答案
- 網(wǎng)絡(luò)安全態(tài)勢(shì)感知技術(shù)試題及答案
- 網(wǎng)絡(luò)工程師全面準(zhǔn)備試題及答案
- 前沿公共政策研究熱點(diǎn)試題及答案
- 軟件設(shè)計(jì)師考試心理調(diào)適方法與試題與答案
- 消防水管道改造應(yīng)急預(yù)案
- 2021城鎮(zhèn)燃?xì)庥枚酌褢?yīng)用技術(shù)規(guī)程
- 【保安服務(wù)】服務(wù)承諾
- 07第七講 發(fā)展全過(guò)程人民民主
- 弱電智能化系統(tǒng)施工方案
- 對(duì)外派人員的員工幫助計(jì)劃以華為公司為例
- 2020-2021學(xué)年浙江省寧波市鎮(zhèn)海區(qū)七年級(jí)(下)期末數(shù)學(xué)試卷(附答案詳解)
- GB/T 9162-2001關(guān)節(jié)軸承推力關(guān)節(jié)軸承
- GB/T 34560.2-2017結(jié)構(gòu)鋼第2部分:一般用途結(jié)構(gòu)鋼交貨技術(shù)條件
- 閱讀繪本《小種子》PPT
- 醫(yī)院清潔消毒與滅菌課件
評(píng)論
0/150
提交評(píng)論