傳媒行業(yè)AIGC市場(chǎng)分析_第1頁(yè)
傳媒行業(yè)AIGC市場(chǎng)分析_第2頁(yè)
傳媒行業(yè)AIGC市場(chǎng)分析_第3頁(yè)
傳媒行業(yè)AIGC市場(chǎng)分析_第4頁(yè)
傳媒行業(yè)AIGC市場(chǎng)分析_第5頁(yè)
已閱讀5頁(yè),還剩32頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

傳媒行業(yè)AIGC市場(chǎng)分析

技術(shù)助力AIGC發(fā)展,長(zhǎng)期看大模型+多模態(tài)成趨勢(shì)

AI由分析轉(zhuǎn)向創(chuàng)造,22年AIGC產(chǎn)品集中發(fā)布

AI技術(shù)逐漸實(shí)現(xiàn)從分析到創(chuàng)造的迭代。Al(ArtificialIntelligence)即

人工智能,傳統(tǒng)的AI技術(shù)被稱(chēng)為分析式Al(AnalyticalAI),偏向于

分析數(shù)據(jù)并總結(jié)規(guī)律,同時(shí)將規(guī)律運(yùn)用到其他用途,比如運(yùn)用AI技

術(shù)進(jìn)行垃圾郵件檢測(cè)、向用戶(hù)推薦感興趣的短視頻等。但隨著技術(shù)的

迭代,AI已經(jīng)不僅僅局限于分析已有事物,而是開(kāi)始創(chuàng)造有意義、

具備美感的東西,即完成感知世界到創(chuàng)造世界的變遷,這種新型的技

術(shù)被稱(chēng)為生成式A(GenerativeAl)o從定義上看,AIGC既是一種

內(nèi)容形態(tài),也是一種內(nèi)容生成的技術(shù)合集,即生成式AI。從狹義上

看,AIGC(AlGeneratedContent)是繼PGC(Professional

GeneratedContent)與UGC(UserGeneratedContent)之后的一

種內(nèi)容形式,即利用人工智能技術(shù)生成的內(nèi)容。從廣義上看,AIGC

指的是自動(dòng)化內(nèi)容生成的技術(shù)合集,基于生成算法、訓(xùn)練數(shù)據(jù)、芯片

算力,生成包括文本、音樂(lè)、圖片、代碼、視頻等多樣化內(nèi)容。

AIGC起源于20世紀(jì)50年代,經(jīng)過(guò)多年發(fā)展,在2022年AIGC產(chǎn)

品集中發(fā)布,多款產(chǎn)品出圈,引發(fā)社會(huì)廣泛關(guān)注。據(jù)中國(guó)信通院,

AIGC起源于20世紀(jì)50年代,萊杰倫?希勒和倫納德?艾薩克森完成

歷史上第一只由計(jì)算機(jī)創(chuàng)作的音樂(lè)作品《依利亞克組曲》,但受制于

技術(shù)水平,截至1990年,AIGC均僅限于小范圍實(shí)驗(yàn)。1990-2010

年是AIGC的沉淀積累階段,AIGC逐漸從實(shí)驗(yàn)向?qū)嵱棉D(zhuǎn)變,但受限

于算法瓶頸,效果仍有待提升。2010年以來(lái),伴隨著生成算法、預(yù)

訓(xùn)練模型、多模態(tài)技術(shù)的迭代,AIGC快速發(fā)展,2022年多款產(chǎn)品

出圈。

S<1:什么是AIGC

分析式AIAIGC《生成式Al)

懂訓(xùn)練模型

□詐聯(lián)信息識(shí)別

生成算法多模態(tài)技術(shù)

□垃圾郵件檢測(cè)Si

□情測(cè)外賣(mài)時(shí)間0

□推薦感興短的視效

□M

2022年8月,Stabi代yAI發(fā)布StableD用usion模型,為后續(xù)AI繪

圖模型的發(fā)展奠定基礎(chǔ),由Midjourney繪制的《太空歌劇院》在美

國(guó)科羅拉多州藝術(shù)博覽會(huì)上獲得“數(shù)字藝術(shù)’類(lèi)別的冠軍,引發(fā)社會(huì)廣

泛關(guān)注。2022年11月OpenAI推出基于GPT-3.5與RLHF

(ReinforcementLearningfromHumanFeedback,人類(lèi)反饋強(qiáng)化學(xué)

習(xí))機(jī)制的ChatGPT,推出僅2月日活超1,300萬(wàn),據(jù)Forbes,2023

年1月OpenAI的估值從2021年的140億美元提升到2023年1月

的290億美元。此外,科技巨頭亦加碼布局AIGC,如微軟表示將自

己的消費(fèi)者和企業(yè)產(chǎn)品中部署OpenAI的模型,宣布將OpenAI語(yǔ)言

模型整合到Bing引擎和Edge瀏覽器中;谷歌在ChatGPT發(fā)布后亦

加快AI自研,2023年2月7日正式發(fā)布下一代AI對(duì)話系統(tǒng)Bard,

此外谷歌還投資ChatGPT的競(jìng)品Anthropic;國(guó)內(nèi)方面,據(jù)百度官網(wǎng),

2023年2月7日,百度公布了大模型新項(xiàng)目文心一言(ERNIEBot),

據(jù)彭博社,百度計(jì)劃在2023年3月將最初的版本將內(nèi)嵌到搜索服務(wù)

中。

生成算法、預(yù)訓(xùn)練模型、多模態(tài)技術(shù)成為AIGC發(fā)展的關(guān)鍵

從技術(shù)上看,生成算法、預(yù)訓(xùn)練模型、多模態(tài)技術(shù)是AIGC發(fā)展的關(guān)

鍵。從流程上看,算法接收數(shù)據(jù),進(jìn)行運(yùn)算并生成預(yù)訓(xùn)練模型,多模

態(tài)技術(shù)則是將不同模型融合的關(guān)鍵。長(zhǎng)期看大模型+多模態(tài)將成為趨

勢(shì):

#1生成算法持續(xù)優(yōu)化

算法即解決問(wèn)題的策略和機(jī)制,2014年伊恩?古德費(fèi)洛提出的GAN

(GenrativeAdversarialNetwork,生成對(duì)抗網(wǎng)絡(luò))成為最早的AI

生成算法。隨后Diffusion、Transformer^基于流的生成模型

(Flow-basedmodels)、CLIP(ContrastiveLanguageImage

Pre-Training)等深度學(xué)習(xí)算法相繼被推出,其中DHfusion逐漸代替

GAN成為圖像生成的主流模型,Transformer的推出為預(yù)訓(xùn)練模型奠

定了基礎(chǔ),CLIP則廣泛應(yīng)用在多模態(tài)技術(shù)中。

#2預(yù)訓(xùn)練模型持續(xù)完善

2015年以前,小模型一度被認(rèn)為是行.業(yè)發(fā)展的方向,但這些小模型

更偏向處理分析性任務(wù),生成能力較弱。2017年谷歌研究院在

《AttentionisAllYouNeed》中提出Transformer算法的概念,而

Transformer能夠有效提取長(zhǎng)序列特征,具備較高的計(jì)算效率和可擴(kuò)

展性,大大降低訓(xùn)練時(shí)間。2018年谷歌發(fā)布基于Transformer的NLP

(NaturalLanguageProcessing,自然語(yǔ)言處理)預(yù)處理模型BERT,

標(biāo)志著人工智能進(jìn)入預(yù)訓(xùn)練模型時(shí)代。

從流程上看,預(yù)訓(xùn)練模型采用兩階段學(xué)習(xí)法,即首先在大量的通用數(shù)

據(jù)上訓(xùn)練并具備基礎(chǔ)能力,再結(jié)合多樣的垂直行業(yè)和場(chǎng)景對(duì)預(yù)訓(xùn)練模

型進(jìn)行微調(diào),從而有效提升開(kāi)發(fā)效率。隨著參數(shù)規(guī)模的擴(kuò)大,預(yù)訓(xùn)練

模型在語(yǔ)言理解,圖像識(shí)別等領(lǐng)域迅速取得突破,所需的計(jì)算量也急

劇增長(zhǎng)。據(jù)紅杉資本,2015-2020年,用于模型訓(xùn)練的計(jì)算量增加了

6個(gè)數(shù)量級(jí)。據(jù)騰訊研究院,按照類(lèi)型分類(lèi),預(yù)訓(xùn)練模型包括:1)

NLP(自然語(yǔ)言處理)模型,使得人與計(jì)算機(jī)能夠用自然語(yǔ)言有效通

信,包括OpenAI的GPT系歹人Facebook的M2M100;2)CV模

型(Computervision,計(jì)算機(jī)視覺(jué)),運(yùn)用計(jì)算機(jī)及相關(guān)設(shè)備對(duì)生物

視覺(jué)進(jìn)行模擬,比如微軟的Florence;3)多模態(tài)預(yù)訓(xùn)練模型,包含

圖像、文字、視頻等多種形式,如谷歌的Image、StabilityAI的

StableDuffusion等。

?<4:AIGC主要用調(diào)修模型杭理

金或應(yīng)M?盤(pán)量**

答就BERT4810億NLP

LaMDANLP

PaLM沿*及*與幺*、?Jt.代g生*5400化NLP

Imagen沿土及修與圖像110億多幔金

Part4*JIM與曲像文板200億S幔鳥(niǎo)

Florence64億CV

Turing-NLG170億NLP

FacebookOPT-175B訃*饅皂1750化NLP

M2M-100100Hiitl.il150億NLP

DeepMindGato多面手的1T鮑體12億多幔3

Gopher通才及3與生成2800化NLP

AJphaCode代馬立成414億NLP

OpenAlGPT3通*及”與文*.按及等1750億NLP

CLIPADALL-E號(hào)幔3陵去120億5根金

Codex代嗎生?120億NLP

ChatGPT通*及薪與上*、NLP

StabilityAIStableDiffusion*方及解與配像生*多慢島

關(guān)件達(dá)Meaatron-TuringNLG播方理解與文*、拉及5300億NLP

#3多模態(tài)技術(shù)快速發(fā)展

多模態(tài)技術(shù)(MultimodalTechnology)即將圖像、語(yǔ)音、視頻、文

字等多模態(tài)融合的機(jī)器學(xué)習(xí)技術(shù),而CLIP(ContrastiveLanguage-

ImagePre-training)的推出成為跨模態(tài)應(yīng)用生成的重要節(jié)點(diǎn)。CLIP

在2021年由OpenAI開(kāi)源推出,能夠?qū)⑽淖趾蛨D像進(jìn)行關(guān)聯(lián).且關(guān)聯(lián)

特征豐富,后續(xù)“CLIP+其他模型”成為跨模態(tài)生成領(lǐng)域的較通用的做

法,如DiscoDiffusion便是將CLIP與Diffusion模型進(jìn)行關(guān)聯(lián),用

戶(hù)輸入文字指令便能夠生成相關(guān)的圖片。在多模態(tài)技術(shù)的加持下,預(yù)

訓(xùn)練模型已經(jīng)從早期單一的NLP、CV向多模態(tài)、跨模態(tài)的方向發(fā)展。

AIGC產(chǎn)業(yè)鏈基礎(chǔ)層/中間層/應(yīng)用層,中外差距約3年

從產(chǎn)業(yè)鏈結(jié)構(gòu)來(lái)看,AIGC主要包括基礎(chǔ)層、中間層和應(yīng)用層,中外

差距在3年左右。由于技術(shù)與投資環(huán)境差異,AIGC在我國(guó)大多作為

公司的部分業(yè)務(wù)進(jìn)行開(kāi)發(fā),獨(dú)立的初創(chuàng)公司數(shù)量較少,導(dǎo)致AIGC實(shí)

際的場(chǎng)景開(kāi)發(fā)較國(guó)外仍有差距。據(jù)量子位,中外公司的整體差距在3

年左右,底層技術(shù)是核心原因。

#1基礎(chǔ)層

基礎(chǔ)層即預(yù)訓(xùn)練模型,構(gòu)成了AIGC的基礎(chǔ)。隨著預(yù)訓(xùn)練模型參數(shù)的

增加,預(yù)訓(xùn)練所需要的數(shù)據(jù)量同樣快速提升,帶來(lái)較高的成木投入。

據(jù)中國(guó)信通院與京東探索研究院發(fā)布的《人工智能生成內(nèi)容白皮書(shū)

2022》,模型參數(shù)量已從最初的千萬(wàn)級(jí)發(fā)展到了千億級(jí)別,訓(xùn)練代

價(jià)也從數(shù)十天增長(zhǎng)到幾十萬(wàn)天(按在單張V100GPU計(jì)算)。據(jù)北京

智源人工智能研究院,2020年OpenAI發(fā)布的NLP模型GPT-3的

參數(shù)量約1,750億,訓(xùn)練數(shù)據(jù)量達(dá)45TB,模型訓(xùn)練成本近1,200萬(wàn)

美元。因此該領(lǐng)域的參與者主要是科技巨頭與頭部的研究機(jī)構(gòu),如

OpenAL谷歌、微軟、Meta,百度等。

#2中間層

中間層即垂直化、場(chǎng)景化、個(gè)性化的模型。在預(yù)訓(xùn)練模型的基礎(chǔ)上,

能夠快速生成垂直化的小模型,實(shí)現(xiàn)流水線式的開(kāi)發(fā),降低開(kāi)發(fā)成本,

提升效率。如StableDiffusion開(kāi)源后多個(gè)繪畫(huà)模型基于

StableDiffusion開(kāi)發(fā),二次元繪畫(huà)領(lǐng)域包括知名的NovelAL而昆侖

萬(wàn)維的天工巧繪SkyPaint模型則采用全球第一款多語(yǔ)言

StableD附usion分支模型,兼容StableDiffusion。據(jù)騰訊研究院,隨

著大模型+多模態(tài)加速成長(zhǎng)為通用性技術(shù)平臺(tái),模型即服務(wù)

(Model-as-a-Service,MaaS)逐漸實(shí)現(xiàn),通過(guò)API授權(quán)有望助力

AIGC變現(xiàn)。

#3應(yīng)用層

應(yīng)用層即面向C端的AIGC應(yīng)用。從模態(tài)上看,應(yīng)用層包括圖像、

音頻、文本、視頻等,其中圖像領(lǐng)域代表產(chǎn)品包括MidJourney、

DreamStudio等;音頻包括DeepMusic等;文本包括ChatGPT、

Sudowrite等;視頻包括Runway等。從形式上看,應(yīng)用層包括App、

網(wǎng)頁(yè)、小程序、聊天機(jī)器人等,將C端用戶(hù)與模型聯(lián)通,已經(jīng)逐漸

滲透到生活中的各個(gè)領(lǐng)域,如MidJourney搭載在聊天軟件Discord

中推出,ChatGPT則支持網(wǎng)頁(yè)直接登錄,國(guó)內(nèi)的如昆侖萬(wàn)維的天工

巧繪SkyPaint能夠通過(guò)微信小程序登錄,滿(mǎn)足用戶(hù)的多樣化需求。

S<5:AJGC產(chǎn)業(yè)保站構(gòu)

修訓(xùn)“B■宣化、埸霞生個(gè)性化■更研10文字與成?

抒的AJGCBflg

AIGC顛覆傳統(tǒng)生產(chǎn)模式,掀起全場(chǎng)景內(nèi)容生產(chǎn)力革命

AIGC從效率、質(zhì)量、多樣性為內(nèi)容生產(chǎn)帶來(lái)革命

AIGC技術(shù)的突破性進(jìn)展引發(fā)內(nèi)容生產(chǎn)方式變革,內(nèi)容生產(chǎn)由PGC

(專(zhuān)業(yè)制作)和UGC(用戶(hù)創(chuàng)作)時(shí)代逐漸步入AIGC時(shí)代。AIGC

順應(yīng)了內(nèi)容行業(yè)發(fā)展的內(nèi)在需求,一方面內(nèi)容消費(fèi)量增加,急需降低

生產(chǎn)門(mén)檻,提升生產(chǎn)效率;另一方面用戶(hù)端表達(dá)意愿明顯上升,消費(fèi)

者對(duì)內(nèi)容形態(tài)要求更高,內(nèi)容生成個(gè)性化和開(kāi)放化趨勢(shì)明顯。

AIGC通過(guò)其強(qiáng)大的生成能力廣泛服務(wù)于內(nèi)容生產(chǎn)的各類(lèi)場(chǎng)景和內(nèi)容

生產(chǎn)者,在內(nèi)容行業(yè)的應(yīng)用場(chǎng)景不斷增加和拓展,將在內(nèi)容生產(chǎn)中產(chǎn)

生變革性影響。具體來(lái)看主要有以下三點(diǎn):1)自動(dòng)內(nèi)容生成,提升

內(nèi)容生產(chǎn)效率,降低內(nèi)容生產(chǎn)門(mén)檻和內(nèi)容制作成本。當(dāng)前大量文本、

圖像、音頻、視頻等內(nèi)容都可以通過(guò)AIGC技術(shù)自動(dòng)生成,高效的智

能創(chuàng)作工具可以輔助藝術(shù)、影視、廣告、游戲、編程等創(chuàng)意行業(yè)從業(yè)

者提升日常內(nèi)容生產(chǎn)效率。此外,自動(dòng)內(nèi)容生成可以降低內(nèi)容生產(chǎn)門(mén)

檻和內(nèi)容制作成本,例如,借助AI編曲軟件可以自動(dòng)生成編曲,而

人為創(chuàng)作大概需要7-10年的經(jīng)驗(yàn)積累。2)提升內(nèi)容質(zhì)量,增加內(nèi)容

多樣性。AIGC生成的內(nèi)容可能比普通的人類(lèi)創(chuàng)建的內(nèi)容質(zhì)量更高,

大量數(shù)據(jù)學(xué)習(xí)積累的知識(shí)可以產(chǎn)生更準(zhǔn)確和信息更豐富的內(nèi)容,谷歌

的Imagen生成的AI繪畫(huà)作品效果已經(jīng)接近中等畫(huà)師水平。而且

AIGC可以幫助企業(yè)和專(zhuān)業(yè)人士創(chuàng)建更多樣化、更有趣的內(nèi)容,

VQGAN可以生成抽象繪畫(huà)作品,不咕剪輯Cooclip內(nèi)置豐富的貼紙、

音頻、經(jīng)典“?!彼夭牡?,可以增加視頻本身的玩法與樂(lè)趣。3)助力

內(nèi)容創(chuàng)新,實(shí)現(xiàn)個(gè)性化內(nèi)容生成。AIGC將內(nèi)容創(chuàng)作中的創(chuàng)意和實(shí)現(xiàn)

分離,替代創(chuàng)作者的可重復(fù)勞動(dòng),可以幫助有經(jīng)驗(yàn)的創(chuàng)作者捕捉靈感,

創(chuàng)新互動(dòng)形式,助刀內(nèi)容創(chuàng)新。例如AICG在設(shè)計(jì)初期生成大量草圖

可以幫助美術(shù)創(chuàng)作者生成更多創(chuàng)作靈感。根據(jù)個(gè)人用戶(hù)的喜好生成個(gè)

性化內(nèi)容,也有利于多種創(chuàng)意落地。

AIGC發(fā)展中仍面臨法律、安全、倫理和環(huán)境等問(wèn)題。首先,AIGC

引發(fā)了新型版權(quán)侵權(quán)風(fēng)險(xiǎn),因版權(quán)爭(zhēng)議,國(guó)外藝術(shù)作品平臺(tái)Artstation

上的畫(huà)師們掀起了抵制AIGC生成圖像的活動(dòng)。其次,AIGC濫用容

易引發(fā)信息內(nèi)容安全、內(nèi)生安全、詐騙違法犯罪行為等安全隱患,詐

騙團(tuán)隊(duì)利用AIGC換臉偽造埃隆?馬斯克的視頻,半年詐騙價(jià)值超過(guò)2

億人民幣的數(shù)字貨幣。再次,算法歧視等倫理問(wèn)題依然存在,人工智

能大規(guī)模替代人類(lèi)勞動(dòng)引發(fā)爭(zhēng)議。最后,AIGC模型訓(xùn)練消耗大量算

力,碳排放量巨大,對(duì)環(huán)境保護(hù)造成壓力。

a<6:內(nèi)容生產(chǎn)方式的b個(gè)&A院段

H

i

匕a宓:

文本、音頻和圖像生成等落地相對(duì)較快,游戲等方向仍待成熟

細(xì)分場(chǎng)景眾多,文本、音頻、圖像領(lǐng)域發(fā)展較快?;谀B(tài),我們認(rèn)

為目前AIGC下游落地場(chǎng)景有文本、音頻、圖像、視頻、游戲、代碼、

3D生成等。較之國(guó)外,我國(guó)AIGC行業(yè)仍處于剛起步階段,體系化

發(fā)展等仍待完善。

文本生成:AIGC目前可以較好地完成新聞播報(bào)等結(jié)構(gòu)化寫(xiě)作、推薦

相關(guān)內(nèi)容、幫助潤(rùn)色等非結(jié)構(gòu)化內(nèi)容,同時(shí)在虛擬男/女友、心理咨

詢(xún)等閑聊機(jī)器人中應(yīng)用較為廣泛。劇情續(xù)寫(xiě)、營(yíng)銷(xiāo)文本等非結(jié)構(gòu)化寫(xiě)

作與文本交互游戲等應(yīng)用尚未實(shí)現(xiàn)規(guī)?;瘧?yīng)用,未來(lái)或可實(shí)現(xiàn)文本生

成的終稿達(dá)到人類(lèi)平均水平甚至專(zhuān)業(yè)水平。圖像生成:隨著算法模型

的不斷迭代,AI作畫(huà)水平不斷提高。在圖像編輯工具上,去除水印、

提高分辨率、特點(diǎn)濾鏡等已較廣泛應(yīng)用。根據(jù)隨機(jī)或按照特點(diǎn)屬性生

成畫(huà)作等的創(chuàng)意圖像生成,與根據(jù)指定要求生成營(yíng)銷(xiāo)類(lèi)海報(bào)、模特圖

等的功能性圖像生成發(fā)展接近成熟。當(dāng)前圖像生成水平與專(zhuān)職藝術(shù)家、

設(shè)計(jì)師和攝影師的產(chǎn)品設(shè)計(jì)作品存在一定差距。

音頻生成:發(fā)展較為成熟,消費(fèi)與企業(yè)級(jí)的應(yīng)用正在鋪開(kāi)。AIGC目

前在語(yǔ)音克隆、生成虛擬人的特定歌聲/播報(bào)等的文本生成特定語(yǔ)言、

包含作曲與編曲的樂(lè)曲/歌曲生成上得到廣泛應(yīng)用,代表企業(yè)和應(yīng)用

的有倒映有聲、Deepmusic,網(wǎng)易■有靈智能創(chuàng)作平臺(tái)等。AI降噪去

除壓縮和采樣中的噪音仍需改善,AI作曲小冉機(jī)械化與人類(lèi)創(chuàng)作音

樂(lè)水平相仿,在未來(lái)值得期待。視頻生成:AIGC目前對(duì)于刪除特定

主體、生成特效、跟蹤剪輯等的視頻屬性編輯已較廣泛應(yīng)用,視頻換

臉等的視頻部分剪輯預(yù)計(jì)不久將規(guī)?;瘧?yīng)用,對(duì)特定片段進(jìn)行檢測(cè)與

合成的視頻自動(dòng)剪輯發(fā)展仍不完善。當(dāng)前,全自動(dòng)生成長(zhǎng)時(shí)間的視頻

作品還不能實(shí)現(xiàn),距離依個(gè)人夢(mèng)想定制電影和劇集還較為遙遠(yuǎn)。其他

(游戲/代碼/3D):代碼補(bǔ)全生成來(lái)替代程序員重復(fù)性勞動(dòng)的發(fā)展較

為成熟,大量應(yīng)用已落地。游戲中游戲操作策略生成和NPC邏輯及

劇情生成尚需進(jìn)一步完善,3D生成尚處于早期階段,3D模型、3D

角色制作和3D場(chǎng)景尚未實(shí)現(xiàn)規(guī)?;瘧?yīng)用。3D、游戲、代碼自動(dòng)生成

更加智能將成為未來(lái)的增長(zhǎng)方向。

AIGC的商業(yè)模式同樣處于持續(xù)探索的階段,由按量收費(fèi)等傳統(tǒng)方式

向SaaS訂閱模式等應(yīng)用場(chǎng)景更靈活的方式拓展。AIGC讓AI公司為

更多中小型企、業(yè)甚至個(gè)人提供服務(wù),可規(guī)?;亟的驹鲂В瑸锳I行

業(yè)帶來(lái)一種全新的可能性和商業(yè)模式。

1)按量收費(fèi):AI技術(shù)傳統(tǒng)應(yīng)用模式主要以API接口對(duì)外開(kāi)放,以實(shí)

際使用量/訓(xùn)練量計(jì)算收費(fèi),如OpenAI的GPT3語(yǔ)言模型服務(wù)以每

千tokens定價(jià)(OpenAI使用的字符計(jì)算單位,一千tokens約等于

750個(gè)單詞),Ada/Babbage/Curie/Davinci四種模型的能力和產(chǎn)出

速度不同,單價(jià)也有所不同,分別為$0.0004/0.0005/0.0020/0.0200

每千tokens。圖像生成方面,DALL'E模型同樣按次收費(fèi),不同尺寸

的圖像收費(fèi)不同,生成一張256x256/512x512/1024x1024像素的圖

片,單次收費(fèi)$0016/0.018/0.020。

2)SaaS模式:AIGC為B端及C端用戶(hù)提供了會(huì)員SaaS收費(fèi)的

模式,降低了傳統(tǒng)AI公司的客戶(hù)服務(wù)規(guī)?;碾y度。據(jù)OpenAI官

網(wǎng),2023年OpenAI推出付費(fèi)版本的ChatGPTPIus,起價(jià)為每月20

美元,提供更快的響應(yīng)速度,以及新功能和更新的有限使用權(quán)。美國(guó)

AIGC公司Jasper主打AI生成文案服務(wù),以類(lèi)SaaS服務(wù)收費(fèi),2021

年成立當(dāng)年?duì)I收達(dá)4,500萬(wàn)美元,以其Starter模式為例,基礎(chǔ)收費(fèi)

是24美元/月,可以使用不超過(guò)2萬(wàn)字;最高332美元/月,可以使

用32萬(wàn)字。

3)其他:通過(guò)降本增效來(lái)增利、定制化服務(wù)付費(fèi)、個(gè)性化產(chǎn)品銷(xiāo)售

等。市場(chǎng)積極探索其他場(chǎng)景商業(yè)化:在廣告營(yíng)銷(xiāo)、影視、音樂(lè)、游戲、

藝術(shù)品等領(lǐng)域AIGC有望繼續(xù)拓展更多樣化的商業(yè)化形式。藍(lán)色光標(biāo)

推出的“銷(xiāo)博特”發(fā)布AIGC“創(chuàng)策圖文'營(yíng)銷(xiāo)套件,該套件的定制版服務(wù)

將銷(xiāo)博特營(yíng)銷(xiāo)能力服務(wù)部署為企業(yè)自有云服務(wù),并根據(jù)企?業(yè)個(gè)性化需

求進(jìn)行二次開(kāi)發(fā),構(gòu)建企業(yè)內(nèi)部營(yíng)銷(xiāo)創(chuàng)意基礎(chǔ)設(shè)施平臺(tái),為企業(yè)提供

專(zhuān)屬營(yíng)銷(xiāo)策劃和創(chuàng)意內(nèi)容。AIGC的商業(yè)模式同樣處于持續(xù)探索的階

段,由按量收費(fèi)等傳統(tǒng)方式向SaaS訂閱模式等應(yīng)用場(chǎng)景更靈活的方

式拓展。AIGC讓AI公司為更多中小型企業(yè)甚至個(gè)人提供服務(wù),可規(guī)

?;亟当驹鲂?,為AI行業(yè)帶來(lái)一種全新的可能性和商業(yè)模式。

AIGC多場(chǎng)景快速落地,文本/圖像關(guān)注度較高

文本:ChatGPT引領(lǐng)熱潮,大廠加碼布局交互式文本

據(jù)量子位,AI文本生成分為交互式與非交互式。非交互式包括結(jié)構(gòu)

化寫(xiě)作,非結(jié)構(gòu)化寫(xiě)作和輔助性寫(xiě)作,其中結(jié)構(gòu)化寫(xiě)作指基于數(shù)據(jù)或

規(guī)范格式,在特定情況下生成的文本,如新聞、簡(jiǎn)訊等;非結(jié)構(gòu)化寫(xiě)

作以創(chuàng)作型文本生成為主,具備更高的開(kāi)放度。作為AIGC最早發(fā)展

的技術(shù),AI文本生成已經(jīng)在新聞報(bào)道、商業(yè)營(yíng)銷(xiāo)、客服機(jī)器人等領(lǐng)

域廣泛落地。2022年11月30口,OpenAI推出的智能聊天工具

ChatGPT引入RLHF機(jī)制,降低訓(xùn)練成本且效果優(yōu)化,不僅能夠?qū)?/p>

問(wèn)題作出回答,還能完成短文和詩(shī)歌創(chuàng)作、代碼寫(xiě)作、數(shù)學(xué)和邏輯運(yùn)

算等任務(wù),據(jù)Similarweb,ChatGPT推出僅2月平均日活超1,300

萬(wàn),引發(fā)社會(huì)廣泛關(guān)注??萍季揞^亦加碼布局交互式文本,微軟在

2023年1月追加投資OpenAI,未來(lái)還計(jì)劃將ChatGPT整合到旗下

的搜索引擎Bing中;谷歌通過(guò)內(nèi)部研發(fā)與投資ChatGPT的競(jìng)品

Anthropic來(lái)應(yīng)對(duì)挑戰(zhàn),23年2月6日公布了與ChatGPT類(lèi)似的對(duì)

話服務(wù)Bard;據(jù)彭博社,百度計(jì)劃將ChatGPT類(lèi)似程序嵌入搜索服

務(wù)中。

■AS:

辦4會(huì)■Mt,向*??1

—contMnoteVftCf

Aiat??十4。去?筌不以人久????角

XaftormgM-AAM40KSA.S*“人??耳74574?于

4.444.刁?的4鳥(niǎo)?。。邸?,?*4?

AulomaMins9ht94*WordSmflh

Narrabv*Seme*4*Oufl

Phraee94*PhrmeeScore■逢一子彳伶一???*?萬(wàn)角8

Pmado4*Pmado

AX*a-1-<M?APP.已人”4,獨(dú),

4*Oramalron一盤(pán)Af¥,。望?????,?。???UI.,?畀2?畔?

tMAlCA17K-b*2n.Witt

,<f*q?|幺字內(nèi)*?寫(xiě)為?*俊H

4*

,“人AIMAXA.?MAA?n.

??RM人"冷件“?久?(?¥”黃??

AI1T,¥伸角S3?片?工■

—▲——

4*WOOBH&tUMOA?|?.?圖,八。匕

SuaowntB4*SudowmeIHAtBKa.?0?????t??

OpenAI4*ChatGPT人Xlrd?氏*”人.■件.0.Ct.?語(yǔ).代

BardUMDA<?.舄

v<2rflH2023434?^<<?<<19

UMudt4*AlOun^^onHRTGPT^<?.久”?戶(hù)?入土救44st字?*4*.

#1交互式文本

在交互式文本當(dāng)中,最近熱度較高的ChatGPT是代表性應(yīng)用,展現(xiàn)

出較強(qiáng)的智能水平。ChatGPT是OpenAI在2022年11月30日推

出的人工智能聊天工具,其不僅能夠模仿人類(lèi)的風(fēng)格作出問(wèn)題回答,

還能完成短文和詩(shī)歌創(chuàng)作、代碼寫(xiě)作、數(shù)學(xué)和邏輯運(yùn)算等任務(wù)。據(jù)騰

訊研究院,ChatGPT目前可以駕馭各種風(fēng)格和文體,能夠做到回答

后續(xù)問(wèn)題、承認(rèn)錯(cuò)誤、質(zhì)疑不正確的前提和拒絕不適當(dāng)?shù)恼?qǐng)求等。

ChatGPT的內(nèi)容輸出質(zhì)量、內(nèi)容覆蓋維度,已經(jīng)可以直面“搜索引擎”

與“問(wèn)答社區(qū)”。據(jù)CNBC,ChatGPT通過(guò)了Google3級(jí)工程師的編

碼面試,據(jù)NBCNews,沃頓商學(xué)院教授ChristianTerwiesch發(fā)現(xiàn)

ChatGPT能夠以B-到B的成績(jī)通過(guò)該校MBA核心課程運(yùn)營(yíng)管理的

期末考試,展現(xiàn)出較強(qiáng)的智能水平。

ChatGPT的出現(xiàn)迅速引起廣泛關(guān)注,僅推出2月平均日活超1,300

萬(wàn),成為一款現(xiàn)象級(jí)的產(chǎn)品。ChatGPT用戶(hù)數(shù)在5天內(nèi)突破了100

萬(wàn),據(jù)Similarweb,2023年1月每天平均有1,300萬(wàn)獨(dú)立訪客使用

ChatGPT,超12月的2倍,而這距離ChatGPT的推出僅2個(gè)月。

ChatGPT強(qiáng)大的性能引發(fā)了社會(huì)的廣泛關(guān)注,特斯拉CEO馬斯克在

Twiter上表示“許多人已經(jīng)陷入了ChatGPT的瘋狂循環(huán)中”,“我們離

強(qiáng)大到危險(xiǎn)的AI不遠(yuǎn)r';2023年2月,微軟創(chuàng)始人比爾蓋茨接受

Forbes采訪時(shí)表示'Al將成為2023年最熱門(mén)的話題,ChatGPT這種

人工智能技術(shù)出現(xiàn)的意義不亞于互聯(lián)網(wǎng)和PC的誕生:ChatGPT引

入RLHF機(jī)制,通過(guò)引入人類(lèi)反饋,持續(xù)優(yōu)化模型效果。據(jù)OpenAI

官網(wǎng),ChatGPT的模型在GPT-3.5的基礎(chǔ)上引入了RLHF

(ReinforcementLearningfromHumanFeedback,人類(lèi)反饋強(qiáng)化學(xué)

習(xí))機(jī)制,這一模式增強(qiáng)了人類(lèi)對(duì)于模型輸出結(jié)果的調(diào)整,對(duì)結(jié)果進(jìn)

行更具理解性的排序,并提升訓(xùn)練效率,加速模型收斂。

圖表10:歷代GPT模型參數(shù)對(duì)比

GPT-1GPT-2GPT-3ChatGPT

發(fā)布時(shí)間2018年6月2019年2月2020年5月2022年11月

參數(shù)量1.17億15億1,750億

預(yù)訓(xùn)練數(shù)據(jù)量約5GB40G45TB

ChatGPT再獲微軟投資,合作持續(xù)加深,未來(lái)將集成至Bing搜索引

擎與Edge瀏覽器中。據(jù)路透社,OpenAI在2019年獲得微軟10億

美元的投資,2021年微軟對(duì)OpenAI追加了投資。據(jù)微軟官網(wǎng),微

軟在2023年1月表示,作為兩家公司合作的第三階段,微軟將加大

對(duì)supercomputingsystems的投資以支持OpenAI的發(fā)展。此外微

軟未來(lái)會(huì)把自己的消費(fèi)者和企業(yè)產(chǎn)品中部署OpenAI的模型,并為客

戶(hù)引入基于OpenAI技術(shù)的體驗(yàn),將OpenAI的技術(shù)構(gòu)建到GitHub

Copilot和MicrosoftDesigner等,同時(shí)微軟仍然為OpenAI的獨(dú)家云

提供商。從具體的落地層面看,2023年1月微軟CEO薩提亞?納德

拉表示微軟旗下的Azure云服務(wù)即將整合ChatGPT技術(shù),2023年2

月,微軟旗下的Teams推出嵌入ChatGPT的高級(jí)服務(wù),同時(shí)微軟

宣布將OpenAI的語(yǔ)言模型整合到Bing搜索引擎和Edge瀏覽器中。

據(jù)Theinformation,截至2023年1月,OpenAI估值達(dá)290億美元。

ChatGPT在商業(yè)化路徑上持續(xù)探索,推出付費(fèi)版本ChatGPTPIuSo

OpenAI的CEOSamAltman在Twitter上表示,ChatGPT平均一次

聊天成本在個(gè)位數(shù)美分,除了API外,公司正在探索更多的商業(yè)化變

現(xiàn)模式,而ChatGPTPIus便是其中之一。據(jù)OpenAI官網(wǎng),2023年

OpenAI推出付費(fèi)版木的ChatGPTPIus,起價(jià)為每月20美元,目前

只對(duì)美國(guó)的用戶(hù)開(kāi)放。據(jù)OpenAI官網(wǎng),ChatGPTPIus即使在高峰

時(shí)段也可以訪問(wèn),有更快的響應(yīng),可以?xún)?yōu)先使用新功能和改進(jìn)。

谷歌通過(guò)內(nèi)部研發(fā)與投資應(yīng)對(duì)ChatGPT或帶來(lái)的顛覆性挑戰(zhàn)。據(jù)

Insider,2022年12月,谷歌為ChatGPT帶來(lái)的威脅發(fā)布了“紅色警

報(bào)”,著手進(jìn)行緊急應(yīng)對(duì)。應(yīng)對(duì)措施方面,谷歌一方面加快內(nèi)部研發(fā),

據(jù)谷歌官網(wǎng),美國(guó)時(shí)間2023年2月6日,谷歌發(fā)布了與ChatGPT

類(lèi)似的對(duì)話服務(wù)Bard,目前Bard向測(cè)試人員開(kāi)放,未來(lái)幾周將持續(xù)

向公眾開(kāi)放該服務(wù),Bard基于谷歌的LaMDA模型(LanguageModel

forDialogueApplications,用于對(duì)話場(chǎng)景的語(yǔ)言模型),能夠利用網(wǎng)

絡(luò)上的信息提供最新的、高質(zhì)量的回答。此外,據(jù)Thelndependent,

谷歌或?qū)⒃?023年通過(guò)子公司DeepMind推出聊天機(jī)器人Sparrow,

可通過(guò)谷歌搜索引用特定的信息源,準(zhǔn)確性更強(qiáng)。谷歌也在通過(guò)投資

持續(xù)布局相關(guān)領(lǐng)域。據(jù)金融時(shí)報(bào),2023年2月,谷歌投資AIGC初

創(chuàng)公司Anthropic超3億美元,獲得了約10%股份。據(jù)Anthropic官

網(wǎng),谷歌已經(jīng)與Anthroic簽署了一份大型云計(jì)算合同,Anthropic從

谷歌云購(gòu)買(mǎi)計(jì)算資源,谷歌提供AI模型算力。Anthropic在2021年

由前OpenAI研究副總裁DarioAmodei建立,核心產(chǎn)品是與ChatGPT

類(lèi)似的聊天機(jī)器人Claude。

國(guó)內(nèi)大廠對(duì)于ChatGPT的發(fā)展持樂(lè)觀態(tài)度,百度將集成文心一言至

搜索引擎。騰訊研究院在2023年1月發(fā)布《AIGC趨勢(shì)報(bào)告2023》,

對(duì)于ChatGPT的發(fā)展持樂(lè)觀態(tài)度,指出AIGC有望作為數(shù)據(jù)與內(nèi)容

的強(qiáng)大生產(chǎn)引擎,升級(jí)甚至重塑內(nèi)容工具,申請(qǐng)的“人機(jī)對(duì)話方法、

裝置、設(shè)備及計(jì)算機(jī)可讀存儲(chǔ)介質(zhì)”專(zhuān)利可實(shí)現(xiàn)人機(jī)順暢溝通;京東

集團(tuán)副總裁何曉冬表示京東會(huì)不斷結(jié)合ChatGPT的方法和技術(shù)點(diǎn),

融入到產(chǎn)品服務(wù)中推動(dòng)人工智能的產(chǎn)業(yè)落地;據(jù)百度官網(wǎng),2023年

2月7日,百度公布了大模型新項(xiàng)目文心一言(ERNIEBot),據(jù)彭

博社,百度計(jì)劃在2023年3月將最初的版本將內(nèi)嵌到搜索服務(wù)中;

阿里巴巴達(dá)摩院申請(qǐng)了“人機(jī)對(duì)話及預(yù)訓(xùn)練語(yǔ)言模型訓(xùn)練方法、系統(tǒng)

及電子設(shè)備”的專(zhuān)利,積極布局AIGC。

圖表‘QiAnthropic宣布使用谷歌云訓(xùn)練模型

Anthiopic9AnthropicA]?Feb4???

We,reexcitedtouseGoogleCloudtotrainourAlsystems,including

Claude!/news/dnnourKem

4ThomasKurianO「TfwiasOtIKFvb4

Today'sannouncementwith9AnthfopicAIisanothergreatexample

oftheecosystemofAlstartupsleveragingGoogleCloud'sreliableand

openInfrastructuretobuildtheirbusinesses.goo.gle/3JiAWem

GogleCloudANTHROPXC

#2非交互式文本

結(jié)構(gòu)化寫(xiě)作已經(jīng)在新聞寫(xiě)作、公司財(cái)報(bào)、客服類(lèi)聊天問(wèn)答等場(chǎng)景廣泛

應(yīng)用。國(guó)外方面,代表性的垂直公司Automatedlnsights成立于2007

年,旗下的Wordsmith是一個(gè)自然語(yǔ)言生成平臺(tái),能夠借助NLP技

術(shù)將數(shù)據(jù)轉(zhuǎn)化成描述性的語(yǔ)言,據(jù)公司官網(wǎng),目前Automatedlnsights

已經(jīng)在新聞寫(xiě)作中具有較廣泛的應(yīng)用,下游的客戶(hù)包括雅虎、美聯(lián)社

等主流媒體。國(guó)內(nèi)方面,小冰公司、騰訊、百度、字節(jié)、瀾舟科技等

公司均有布局。瀾舟科技成立于2021年,主要產(chǎn)品是基于“孟子輕量

化預(yù)訓(xùn)練模型”打造的一系列SaaS功能引擎,被廣泛應(yīng)用于包括搜

索、生成、翻譯、對(duì)話等領(lǐng)域。字節(jié)推出的Xiaomingbot是新聞寫(xiě)作

機(jī)器人,該機(jī)器人在里約奧運(yùn)會(huì)上,共撰寫(xiě)了457篇關(guān)于羽毛球、

乒乓球、網(wǎng)球的消息簡(jiǎn)訊和賽事報(bào)道。整體來(lái)看,目前結(jié)構(gòu)化寫(xiě)作已

具備較成熟的應(yīng)用,長(zhǎng)期來(lái)看,NarrativeScience創(chuàng)始人預(yù)測(cè)到2030

年90%以上的新聞將有AI寫(xiě)作完成。

非結(jié)構(gòu)化寫(xiě)作開(kāi)放度和技術(shù)要求更高,主要運(yùn)用在營(yíng)銷(xiāo)和劇情寫(xiě)作領(lǐng)

域。據(jù)量子位,非結(jié)溝化寫(xiě)作主要運(yùn)用在劇情寫(xiě)作、營(yíng)銷(xiāo)文本等領(lǐng)域,

開(kāi)放度和自由度更高,對(duì)于生成技術(shù)亦有更高的要求,而目前長(zhǎng)篇文

字在內(nèi)部邏輯上仍然有較明顯的問(wèn)題,暫不適合直接使用,預(yù)計(jì)未來(lái)

的4-5年或取得一定的突破。國(guó)外方面,代表性的公司包括谷歌、

Anyword、Pencil、Copy.ai、Jasper等,其中Jasper成立于2021

年,基于GPT-3訓(xùn)練模型,通過(guò)AI技術(shù)幫助企業(yè)完成社交媒體、廣

告營(yíng)銷(xiāo)、電子郵件等多種內(nèi)容,2022年10月,Jasper宣布獲得1.25

億美元的A輪融資,估值達(dá)15億美元;谷歌的AI劇本寫(xiě)作模型

Dramatron則能夠自動(dòng)產(chǎn)生人物、位置、情節(jié)的描述并生成對(duì)話.國(guó)

內(nèi)代表性公司為中文在線、彩云小夢(mèng)等,在彩云小夢(mèng)App中創(chuàng)作頁(yè)

面輸入一段文字,便能夠生成三條不同的故事走向,用戶(hù)可以點(diǎn)擊選

擇繼續(xù)或者讓彩云小夢(mèng)重新續(xù)寫(xiě),從而讓故事走向更加符合用戶(hù)的設(shè)

定。中文在線的AI文字創(chuàng)作功能已在17K小說(shuō)上線,作者在使用該

功能時(shí),通過(guò)針對(duì)不同的描寫(xiě)場(chǎng)景填寫(xiě)關(guān)鍵詞和輔助短語(yǔ),即可生成

對(duì)應(yīng)的文字內(nèi)容描寫(xiě)為作品使用。

圖像:預(yù)訓(xùn)練模型迭代升級(jí),AI圖像生成迎機(jī)遇

據(jù)量子位,AIGC圖像包括文字生成圖像、圖像屬性編輯、圖像部分

編輯與圖像端到端生成,其中由文字到圖像的跨模態(tài)生成成為重點(diǎn)探

索方向。從底層技術(shù)上看,Diffusion逐漸取代GAN成為圖像生成的

主流模型,助推了AIGC圖像的發(fā)展。2022年8月,由Midjourney

生成的《太空歌劇院》出圈,引發(fā)AI圖像生成的熱潮;2022年8月,

StabilityAl推出StableDiffusion模型,成為Al圖像生成的里程碑,

為后續(xù)圖像模型的更迭打下基礎(chǔ)。此外,OpenAI、谷歌在圖像模型

上亦持續(xù)迭代;百度文心?一格則支持中國(guó)風(fēng)AI創(chuàng)作。據(jù)6pen,未

來(lái)5年全球10-30%的圖像有望由AI生成或輔助生成,AI圖像領(lǐng)域

展現(xiàn)出較大的潛力°

??

MdJounwyUb4*MejoumayDttcord紇"“人,?人■—(Prompt*)WTA1

角幺*4假?K

w<?M如"?itERN€-ViLG20.OltlHNK.?*.

SteMtyAI4*StoMOmiMntila筌用”野,人內(nèi)*?夕.做其篇?****1*0★*舄?量立?0?AU

川?埠?GtHub上Q等

OpenAl4*DAU€23S:上餐■女4華國(guó)

”包.國(guó).HHXttRV.KK<4?^t<C:

4*imagenMMtXe.fem^n

AAexvy4*Pnwi>?八金*■■12憶■戶(hù)4500裊”久叁.*MPnsme0Al?<!<??.1**

4*R>wNeRF<*ftW2D?M>A3O<t#fV9AA

??4■Al纖或?6?tdtAttMC.A?H<.S?iX?|.■?!<<M入SJ戶(hù)也“工霰

??x?.定

冷?CyctoGAN??#一4?片,?,§-4?*?■內(nèi),?修■子■角

Mataphywc.4*MeUphytc立恰?.??“?!(

萬(wàn)??APPI.*AI幡改?????a"人才“*!<?<aax

DMptMP*4*OMpMieLHAIM*

MxeefM內(nèi)工■?做紂本?匕&?*X<t,i4僦討,??41^HCftt<8000a4?ttH

?H41tM?Al.■討f6?侵?易.一?久文或1M*?海

公蜂CtwvwraPamtor統(tǒng)?口”■今■■■<■■?人????

AdbfMtecBd4*Adbreeder

RoyudAl4*RoMbud.

VancaAl4*VanaPonretas>內(nèi)米?4,??

早期AIGC圖像主要基于GAN模型,但生成效果欠佳。GAN模型主

要由生成器(Generator)和判別器(Discriminator)兩部分組成,

生成器負(fù)責(zé)模擬出與真實(shí)訓(xùn)練樣本類(lèi)似的假數(shù)據(jù),并將假數(shù)據(jù)混入原

始數(shù)據(jù)交由判別器區(qū)分,兩個(gè)模型相互博弈,直到生成器的假數(shù)據(jù)能

夠以假亂真。早期的AIGC圖像主要基于GAN模型生產(chǎn),但是GAN

存在訓(xùn)練難以收斂、模型坍塌、梯度消失等問(wèn)題,造成訓(xùn)練結(jié)果冗余、

圖像生成質(zhì)量差。

Diffusion模型逐漸取代GAN成為主流模型,推動(dòng)圖像生成技術(shù)的發(fā)

展。D訐fussion受熱力學(xué)模型啟發(fā),通過(guò)增加高斯噪聲破壞訓(xùn)練數(shù)據(jù),

然后通過(guò)反轉(zhuǎn)噪聲來(lái)恢復(fù)學(xué)習(xí)的數(shù)據(jù),經(jīng)過(guò)訓(xùn)練的模型便能夠應(yīng)用去

噪方法來(lái)生成干凈的數(shù)據(jù)。Diffussion相對(duì)于GAN具有更靈活的模

型框架和精確的對(duì)數(shù)似然,所需數(shù)據(jù)更少,但圖像生成效果較更佳,

目前逐漸取代GAN成為新一代圖像生成的主流模型。

#1文字生成圖像

由Midjoumey生成的《太空歌劇院》出圈,引發(fā)社會(huì)廣泛討論。

Midjourney是一款搭載在Discord上的聊天機(jī)器人,玩家只需要@機(jī)

器人并輸入相關(guān)的提示詞(Prompts)即可在1分鐘以?xún)?nèi)生成4張圖

片。憑借著極低的上手門(mén)檻和Discord社區(qū)加持,截至2023年2月

4日,Discord數(shù)據(jù)顯示Midjourney在Discord約有980萬(wàn)成員。2022

年8月,由Midjourney生成的《太空歌劇院》在美國(guó)科羅拉多州藝

術(shù)博覽會(huì)上獲得“數(shù)字藝術(shù)”類(lèi)別的冠軍,使得AI繪畫(huà)引發(fā)了廣泛的關(guān)

注,圍繞AI能夠替代藝術(shù)創(chuàng)作的討論熱度較高。

StableDiffusion模型成為AI圖像領(lǐng)域的里程碑,Stability估值達(dá)10

億美元。2022年8月,StabihtyAI推出StableDiffusion模型,隨著

算法和模型的持續(xù)優(yōu)化,StableDiffusion的運(yùn)行速度快、消費(fèi)資源及

內(nèi)容較少,使用消費(fèi)級(jí)顯卡即可迅速生成高質(zhì)量的圖像,且該模型完

全免費(fèi)開(kāi)源,所有的代碼均在GitHub上公開(kāi),因此也為后續(xù)整個(gè)圖

像模型的更迭打下基礎(chǔ)。據(jù)TechCrunch,截至2022年10月,己有

超20萬(wàn)開(kāi)發(fā)者下載和獲得StableDiffusion的授權(quán),各渠道的累計(jì)日

活已經(jīng)超過(guò)[000萬(wàn);STStableDiffusion,面向消費(fèi)者的Al智能

繪圖軟件DreamStudio用戶(hù)數(shù)超150萬(wàn),已生成1.7億張圖片。2022

年10月,StabiltyAI宣布獲得Coatue、LightspeedVenturePartners

和O'ShaughnessyVenturesLLC投資的1.01億美元,估值達(dá)10億

美元,躋身獨(dú)角獸行業(yè)。

困表25:Midjourney搭載在Discord社區(qū)

OpenAI持續(xù)迭代DALL?E模型,圖片畫(huà)質(zhì)、生成效率均有提升。2021

年1月OpenAI發(fā)布模型DALL?E,能夠根據(jù)文本描述生成圖像,2022

年4月,OpenAI公布了DALL-E2研發(fā)進(jìn)展。據(jù)量子位,從原理上

看,DALL-E2是CLIP與Diffusion模型的結(jié)合,其中CLIP將文本嵌

入轉(zhuǎn)變?yōu)閳D像嵌入,而圖像嵌入將通過(guò)調(diào)節(jié)擴(kuò)散(DiffusionDecoder)

生成最終的圖像。DALL-E2與前一代相比圖像質(zhì)量提升了3倍,

DALL-E2生成圖像畫(huà)質(zhì)為1024x1024,DALL-E畫(huà)質(zhì)為256x256,

且生成的速度更快°此外DALL-E2能夠在更細(xì)的顆粒度上實(shí)現(xiàn)文本

到圖像的轉(zhuǎn)化,能夠根據(jù)自然語(yǔ)言進(jìn)行P圖,同時(shí)會(huì)反饋陰影、紋

理等元素的變化。

谷歌的Imagen在寫(xiě)實(shí)場(chǎng)景表現(xiàn)優(yōu)秀,Muse圖像生成效率更高。2022

年5月,Google公布了自研的Imagen模型。據(jù)量子位,從技術(shù)上

看,該模型并未采用CLIP+GAN或CLIP+DHfusion的常規(guī)做法,語(yǔ)

言模型采用谷歌的T5-XXL,并僅負(fù)責(zé)編碼文本特征,圖像生成由一

系列D訐fusion模型構(gòu)成;從效果上看,Imagen在寫(xiě)實(shí)場(chǎng)景中表現(xiàn)更

加優(yōu)秀。2023年1月,Google發(fā)布了從文本生成圖像的Transformer

模型Muse,與Imagen和DALL?E2等Diffusion模型相比,Muse

由于采用離散標(biāo)記且需要更少的采樣迭代,生成效率顯著提升,據(jù)

GoogleResearch與Dataconomy,在TPUv4芯片上,Muse生成

512x512分辨率的圖像僅需1.3秒,較StableDiffusion1.4的3.7秒

更快。

百度推出國(guó)產(chǎn)基礎(chǔ)模型ERNIE-ViLG2.0,文心?一格支持中國(guó)風(fēng)AI

創(chuàng)作。伴隨AI繪圖的火熱,國(guó)內(nèi)也出現(xiàn)了眾

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論