具身智能行業(yè)深度:技術(shù)路線、市場機遇、產(chǎn)業(yè)鏈及相關(guān)公司深度梳理_第1頁
具身智能行業(yè)深度:技術(shù)路線、市場機遇、產(chǎn)業(yè)鏈及相關(guān)公司深度梳理_第2頁
具身智能行業(yè)深度:技術(shù)路線、市場機遇、產(chǎn)業(yè)鏈及相關(guān)公司深度梳理_第3頁
具身智能行業(yè)深度:技術(shù)路線、市場機遇、產(chǎn)業(yè)鏈及相關(guān)公司深度梳理_第4頁
具身智能行業(yè)深度:技術(shù)路線、市場機遇、產(chǎn)業(yè)鏈及相關(guān)公司深度梳理_第5頁
已閱讀5頁,還剩58頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

行業(yè)|深度|研究報告 行業(yè)研究報告慧博智能投研隨著人工智能技術(shù)的飛速發(fā)展,具身智能正逐漸成為科技領(lǐng)域的前沿熱點。具身智能融合了人工智能、機器人技術(shù)、機器學習、感知科學等多學科知識,通過物理載體與環(huán)境的交互,實現(xiàn)自主學習與智能決策,展現(xiàn)出巨大的應(yīng)用潛力和商業(yè)價值。從工業(yè)自動化到家庭服務(wù),從醫(yī)療康復(fù)到公共安全,具身智能的應(yīng)用場景不斷拓展,推動著人類社會向更加智能化的方向邁進。本報告深入剖析了具身智能行業(yè)的全貌,報告從行業(yè)概述出發(fā),詳細梳理了具身智能的定義、核心要素、發(fā)展歷程,進一步分析了推動其快速發(fā)展的關(guān)鍵驅(qū)動因素。同時,報告深入探討了具身智能的行業(yè)現(xiàn)狀、市場規(guī)模預(yù)測、技術(shù)路線選擇,以及產(chǎn)業(yè)鏈上下游的構(gòu)成與發(fā)展趨勢。此外,報告還聚焦于具身智能領(lǐng)域的相關(guān)企業(yè),分析其業(yè)務(wù)布局、技術(shù)優(yōu)勢與市場表現(xiàn),并探討了行業(yè)面臨的挑戰(zhàn)與未來技術(shù)趨勢。為讀者提供一份全面、深入的參考。一、行業(yè)概述 1二、驅(qū)動因素 6三、行業(yè)現(xiàn)狀及規(guī)模預(yù)測 8四、具身智能技術(shù)路線 11五、產(chǎn)業(yè)鏈分析 22六、市場機遇 28七、相關(guān)公司 35八、發(fā)展挑戰(zhàn)及技術(shù)趨勢 39九、參考研報 41具身智能(EmbodiedArtificialIntelligence,EAI)是指有物理載體的智能體,在與物理世界的交互過程中,通過感知、控制和自主學習來積累知識和技能,形成智能并影響物理世界的能力。具身智能的實現(xiàn)方式多種多樣,可以根據(jù)具體任務(wù)和環(huán)境需求選擇合適的智能實體形態(tài),其中人形機器人作為具身智能的典型代表,被視為實現(xiàn)具身智能的最佳載體之一。1/42行業(yè)|深度|研究報告 具身智能由四個核心要素組成:本體、智能體、數(shù)據(jù)和學習進化框架。具身智能指的是那些能夠感知周圍環(huán)境、進行智能交流以及規(guī)劃行動的智能系統(tǒng)。從機器人的角度出發(fā),具身智能在機器人上的應(yīng)用體現(xiàn)可以劃分為三階段:感知、推理、執(zhí)行。機器人需要具備環(huán)境感知能力,依據(jù)感知對象的不同,可以分為四類:物體感知、場景感知、行為感知、表達感知。具身感知的過程主要包括以下幾步:2/42行業(yè)|深度|研究報告 具身感知的過程主要包括以下幾步:任務(wù)規(guī)劃、導(dǎo)航、具身問答。任務(wù)規(guī)劃:任務(wù)規(guī)劃(TaskPlanning)是具身智能的核心任務(wù)之一,將抽象的非可執(zhí)行人類指令轉(zhuǎn)換為具體的可執(zhí)行技能。這一步驟的完成需要兩步:1)將人類指令分解為機器人可執(zhí)行的技能,2)執(zhí)行技結(jié)合大模型的任務(wù)規(guī)劃:大模型作為轉(zhuǎn)換器、大模型作為分解器。作為轉(zhuǎn)換器:LLM+P,用LLM將狀態(tài)信息描述成PDDL語言再進行規(guī)劃,取代以往需要人工針對實際問題書寫PDDL語言對任務(wù)進行建模;作為規(guī)劃器:可以zero-shot進行任務(wù)規(guī)劃。具身導(dǎo)航(EmbodiedNavigation):智能體在3D環(huán)境中移動完成導(dǎo)航目標。早期的具身導(dǎo)航,通過構(gòu)建一系列基于規(guī)則的組件和算法,實現(xiàn)有效的環(huán)境感知、定位、路徑規(guī)劃和避障。而基于學習的導(dǎo)航則利用深度學習與強化學習技術(shù),提高模型對復(fù)雜環(huán)境和新場景的泛化能力。不同于傳統(tǒng)算法依賴預(yù)定義的規(guī)則和手工設(shè)計的特征,基于學習的導(dǎo)航算法從大量數(shù)據(jù)中學習環(huán)境特征和導(dǎo)航策略,實現(xiàn)強自適應(yīng)性和高靈活性。視覺導(dǎo)航:基于學習的導(dǎo)航的一個重要分支,它依靠計算機視覺來理解環(huán)境信息并做出導(dǎo)航?jīng)Q策。視覺語言導(dǎo)航:通過自然語言指令和視覺圖像進行導(dǎo)航的任務(wù),其目標是開發(fā)一種能夠與人類進行自然語言交流并在現(xiàn)實3D環(huán)境中導(dǎo)航的具身智能體。1)大模型出現(xiàn)之前:主要通過RNN,LSTM,Transformer等網(wǎng)絡(luò)來提取命令中的語義信息;2)大模型出現(xiàn)后:利用大模型作為輔助來幫助規(guī)劃器輸出規(guī)劃或者大模型直接作為規(guī)劃器來輸出規(guī)劃。3/42具身問答:機器人需要主動探索環(huán)境,定位目標物體或位置獲取環(huán)境中的信息,然后基于獲取的信息回答問題。該任務(wù)可視為導(dǎo)航、VQA任務(wù)的結(jié)合。相比于VQA等已有問答任務(wù),具身問答的特點在于機器人具有主動行動能力。具身執(zhí)行,就是把任務(wù)具體執(zhí)行出來,其中最重要的環(huán)節(jié)就是技能學習。技能學習:以技能描述、環(huán)境觀察為輸入,輸出完成技能所需的7Dof軌跡(主要指人手腕或者機械臂末端執(zhí)行器的位置、朝向、末端狀態(tài))。技能學習主要有兩類方法:模仿學習:收集專家演示數(shù)據(jù),用神經(jīng)網(wǎng)絡(luò)擬合。強化學習:設(shè)計獎勵函數(shù),機器人通過交互學習行為策略。兩者的差別在于:模仿學習是從樣例中學習,機器人學習過程中不與環(huán)境進行交互;而強化學習從交互中學習,機器人學習過程中與環(huán)境進行交互。4/42行業(yè)|深度|研究報告 技能學習+大模型:通用執(zhí)行模型結(jié)構(gòu):具身智能經(jīng)歷5個發(fā)展階段,正步入應(yīng)用階段;1950-1980年,為具身智能概念萌芽階段,圖靈在其論文中提出了人工智能可能的發(fā)展方向,為具身智能的概念奠定了基礎(chǔ)。1980-1990年,為早期探索與理論發(fā)展,羅德尼··普費弗等人的研究為具身智能提供了重要理論支撐。2000-2010年,為跨學科融合與技術(shù)突破階段,具身智能研究開始融合跨學科的方法和技術(shù),如機構(gòu)學、機器學習、機器人學等,形成了相對完整的學科分支。2011-2020年,深度學習技術(shù)的快速發(fā)展為其注入了新的發(fā)展動力。2021年至今,為產(chǎn)業(yè)應(yīng)用階段。具身智能受到科技界和產(chǎn)業(yè)界的廣泛關(guān)注,眾多科技巨頭及高等學府紛紛投入相關(guān)研究。如今,具身智能作為人工智能的重要分支,正逐步走向產(chǎn)業(yè)應(yīng)用,推動專用機器人向通用機器人發(fā)展。5/42行業(yè)|深度|研究報告 具身智能機器人是我國發(fā)展新質(zhì)生產(chǎn)力的未來產(chǎn)業(yè)新賽道,集成了AI、先進制造、新材料等先進技術(shù),將對社會產(chǎn)業(yè)變革和全球競爭格局產(chǎn)生顛覆性影響。無處不在的應(yīng)用潛力預(yù)示著龐大的市場需求、國家與地方長期的政策規(guī)劃支持、核心零部件供應(yīng)鏈完善形成集群效應(yīng)、以及健康良好的人才和創(chuàng)業(yè)生態(tài),多方面因素推動我國成為具身智能技術(shù)發(fā)展的沃土。當前,國內(nèi)的高校院所、科技大廠、初創(chuàng)企業(yè)均在布局以AI大模型和人形機器人為代表的前沿領(lǐng)域,我國在具身智能領(lǐng)域已經(jīng)走在國際前列。政府工作報告首提具身智能:2025年3月5日,十四屆人大三次會議開幕,國務(wù)院總理李強作政府工作報告。在《2025年政府工作報告》中提到,建立未來產(chǎn)業(yè)投入增長機制,培育生物制造、量子科技、具身智能、6G等未來產(chǎn)業(yè)。同時還提到,大力發(fā)展智能網(wǎng)聯(lián)新能源汽車、人工智能手機和電腦、智能機器人等新一代智能終端以及智能制造裝備。具身智能和智能機器人是首次出現(xiàn)在《政府工作報告》當6/42行業(yè)|深度|研究報告 2023年11月,工信部發(fā)布《人形機器人創(chuàng)新發(fā)展指導(dǎo)意見》,提出到2025年,人形機器人創(chuàng)新體系初步建立;到2027年,綜合實力達到世界先進水平,成為重要的經(jīng)濟增長新引擎。2024年1月,《工業(yè)和信息化部等七部門關(guān)于推動未來產(chǎn)業(yè)創(chuàng)新發(fā)展的實施意見》中,提出要突破人形機器人等高端裝備產(chǎn)品。突破機器人高轉(zhuǎn)矩密度伺服電機、高動態(tài)運動規(guī)劃與控制、仿生感知與認知、智能靈巧手、電子皮膚等核心技術(shù),重點推進智能制造、家庭服務(wù)、特殊環(huán)境作業(yè)等領(lǐng)域產(chǎn)品的研制及多地開始打造人形機器人產(chǎn)業(yè)創(chuàng)新中心,推動具身智能基礎(chǔ)模型、仿真應(yīng)用等發(fā)展。具身智能是上?!澳K苌瓿恰狈桨肝宕箨P(guān)鍵領(lǐng)域之一。2024年5月,國家地方共建人形機器人創(chuàng)新中心落地上海。在不到一年的時間里,已發(fā)布了全球首臺全尺寸人形機器人公版機“青龍”,建立了OpenLoong人形機器人開源社區(qū),聯(lián)合15家企業(yè)構(gòu)建了“十八金剛”人形機器人陣列,圍繞人形機器人場景應(yīng)用、具身智能分級分類等領(lǐng)域,制定了全國首批團體標準,開設(shè)了全國首個異構(gòu)人形機器人訓練場。同時,上海正在實施“模塑申城”方案,重點在智能終端、科學智能、在線新經(jīng)濟、自動駕駛、具身智能等五大關(guān)鍵領(lǐng)域,對制造、金融、教育、醫(yī)療、文旅、城市治理等六大重點行業(yè)開展供需聯(lián)合攻關(guān),以超級場景牽引應(yīng)用迭代。7/42全球主要經(jīng)濟體均高度重視具身智能的發(fā)展,不斷提升細分領(lǐng)域關(guān)注度。具身智能技術(shù)不斷創(chuàng)新,國內(nèi)外知名企業(yè)積極布局。具身智能在各大企業(yè)的推動下正快速發(fā)展,技術(shù)不斷創(chuàng)新,應(yīng)用場景日益廣泛。從軟硬件解耦技術(shù)到人形機器人的研發(fā)與應(yīng)用,再到與大模型的深度融合,具身智能正逐步成為人工智能領(lǐng)域的重要分支。特斯拉、谷歌、英偉達、Figureone、宇樹科技、智元、小米、優(yōu)必選、華為、科大訊飛等國內(nèi)外多家知名企業(yè)均在具身智能領(lǐng)域積極布局,并已取得顯著進展。8/42行業(yè)|深度|研究報告 國內(nèi)數(shù)量眾多的創(chuàng)業(yè)公司們正將最前沿術(shù)研究與產(chǎn)品研發(fā)相結(jié)合,為具身智能市場釋放無限想象力。技術(shù)發(fā)展一脈相承,車企加速部署人形機器人。自動駕駛是具身智能的一個重要場景,都具備“感知-決策-規(guī)劃-控制”的算法架構(gòu),具身智能和自動駕駛在技術(shù)實現(xiàn)路徑上是一脈相承的,且算法與零部件可實現(xiàn)高度復(fù)用,這是Tesla給業(yè)界帶來的啟示。當下,智能輔助駕駛已經(jīng)跑通商業(yè)化路徑,進入卷交付、卷規(guī)模、卷性價比的階段,這為具身智能未來的技術(shù)打磨路徑和商業(yè)化提供了一些參考。同時,汽車行業(yè)從主機廠到供應(yīng)商,從投資人到創(chuàng)業(yè)者,都在從自動駕駛轉(zhuǎn)向追求更多場景的具身智能:主機廠或自研或投資具身智能公司,而人形機器人企業(yè)也在尋求機器人“進場打工”的機會。如果說OpenAI的ChatGPT引爆了2023年對大語言模型的投資熱潮,那么Tesla入局人形機器人和黃仁勛的“AI的下一個浪潮是具身智能”,則徹底帶火了具身智能與人形機器人領(lǐng)域的投資熱潮,成為2024年科技產(chǎn)業(yè)投資的最大熱點。9/42行業(yè)|深度|研究報告 從投資角度看,頭部人形機器人的本體研發(fā)集成廠商已經(jīng)歷多輪融資,估值較高,行業(yè)整體投資熱點正從人形機器人本體向具身智能模型和其他上游零部件遷移。自動駕駛載具和機器人構(gòu)成兩大主要載體,根據(jù)36氪測算,國內(nèi)具身智能行業(yè)規(guī)模2027年有望突破1.25萬億元,2018-2027年CAGR達17.6%。10/42行業(yè)|深度|研究報告 四、具身智能技術(shù)路線具身智能系統(tǒng)通過“大腦”(感知、理解和規(guī)劃,基于大語言和視覺語言模型)、“小腦”(運動控制和動作生成,基于運動控制算法和反饋控制系統(tǒng))和“身體”(動作執(zhí)行,由機器人本體支持)三個層級協(xié)同工作。讓機器人“大腦”實現(xiàn)突破最核心的推動力是大模型實現(xiàn)涌現(xiàn)、成為真正的生產(chǎn)力。大模型的能力與機器人的需求十分契合,只需要告訴機器人它要做的任務(wù)是什么,機器人就會理解需要做的事情,拆分任務(wù)動作,生成應(yīng)用層控制指令,并根據(jù)任務(wù)過程反饋修正動作,最終完成人類交給的任務(wù),整個過程基本不需要或者僅需少量人類的介入和確認,基本實現(xiàn)了機器人自主化運行,無需掌握機器人專業(yè)操作知識的機器人應(yīng)用工程師介入。11/42行業(yè)|深度|研究報告 目前,具身大模型可以分為兩大流派。一類是端到端大模型,一類是分層具身大模型。從人體“大腦-小腦-肢體”的架構(gòu)來看,分層大模型通過不同層次模型協(xié)作,利用底層硬件層和中間響應(yīng)快的小模型彌補上層大語言模型的不足,推動機器人在實際場景的應(yīng)用,并越來越多地采用基于學習的控制方法。VLA等端到端模型能夠直接實現(xiàn)從人類指令到機械臂執(zhí)行,即輸入圖像及文本指令,輸出夾爪末端動作。分層式路線一度是主流選擇,因為端到端路線受數(shù)據(jù)制約難以達到性能要求;機器人數(shù)據(jù)正在逐步積累,端到端路線在未來可能成為主流。端到端大模型可實現(xiàn)直接端到端地從人類指令到機械臂執(zhí)行,即輸入是圖像及文本指令,輸出是夾爪末端動作。以谷歌的RT-1到RT-2的進化迭代為例:谷歌RT-1——關(guān)注泛化能力:2022年,谷歌機器人研究團隊歷時17個月基于13個機器人得到了130kepisodes以及超過700個任務(wù)的數(shù)據(jù),在該數(shù)據(jù)集的基礎(chǔ)之上,基于模仿學習中行為克隆學習范式,把Transformer應(yīng)用機器人的操縱任務(wù)上,提出了RT-1模型。RT-1的輸入由圖片序列、自然語言指令構(gòu)成,輸出由機械臂運動的目標位姿(Toll,pitchgaw,gripperstαtus)、基座的運動、模式轉(zhuǎn)換指令構(gòu)成。谷歌RT-2——獲得涌現(xiàn)能力:2023年,Google的DeepMind團隊基于互聯(lián)網(wǎng)上數(shù)據(jù)訓練視覺-語言模型(VLM),使其能夠?qū)W習到更多關(guān)于視覺和語言之間映射關(guān)系的知識后,在機器人操縱任務(wù)上微調(diào),提出了RT-2。RT-2的目標是訓練一個學習機器人觀測到動作的端到端模型,且能夠利用大規(guī)模預(yù)訓練視覺語言模型的益處,經(jīng)測評,這類學習方法產(chǎn)生的Vision-Language-Action(VLA)模型獲得了涌現(xiàn)能力。端到端大模型2.0階段:VLA。以谷歌RT-2發(fā)布為標志,VLA模型正式進入人們的視野中并快速發(fā)展。12/42行業(yè)|深度|研究報告 VLA模型是在視覺語言模型(VLM)的基礎(chǔ)上發(fā)展而來的。在VLM基礎(chǔ)上,它還利用了機器人或汽車運動軌跡的數(shù)據(jù),進一步訓練這些現(xiàn)有的VLM,以輸出可用于機器人或汽車控制的動作序列。通過這種方式,VLA可以解釋復(fù)雜的指令并在物理世界中執(zhí)行相應(yīng)的動作。VLA大模型結(jié)合了視覺、語言和動作三種能力。端到端大模型的主要優(yōu)缺點:優(yōu)點(以VLA為例):1)端到端架構(gòu):VLA是一個端到端的大模型,這意味著它可以簡化傳統(tǒng)上需要多個獨立模塊才能完成的任務(wù)流程。這不僅可以提高系統(tǒng)的效率,還能增強其靈活性和適應(yīng)性。2)泛化能力:VLA具有強大的泛化能力。以谷歌DeepMind推出的RT-2為例,該模型可以在新的物體、背景和環(huán)境中表現(xiàn)出顯著改善的性能。它可以理解并響應(yīng)那些在訓練數(shù)據(jù)集中未曾出現(xiàn)過的命令,并基于底層語言模型提供的思路鏈進行推理,從而做出合理的決策。3)通用性:VLA具備高度的通用性。由于它是建立在一個通用的大規(guī)模預(yù)訓練基礎(chǔ)上,因此理論上幾乎所有的“智能機器設(shè)備”都可以使用這套算法。無論是汽車、飛行器還是其他類型的機器人,只需要經(jīng)過適當?shù)奈⒄{(diào)就能滿足特定應(yīng)用場景的需求。13/42行業(yè)|深度|研究報告 缺點:1)數(shù)據(jù)來源非常有限:谷歌在MountainVillage(美國加州)辦公室的廚房里采集了17個月,得到13萬條數(shù)據(jù),使得其機器人在谷歌的廚房里表現(xiàn)可以非常好。但一旦出了這個廚房,需要考察其環(huán)境泛化性,它的成功率就從97%驟降到30%左右。并且這種泛化是有選擇的泛化,不是將其直接放到施工工地、非常嘈雜的后廚等場景中。2)推理、響應(yīng)速度仍有待提升:RT-2大模型中包含了谷歌上一代大模型PaLM-E,它的速度只能達到1~3Hz,對應(yīng)機器人的反射弧長達0.3秒甚至1秒。分層決策模型通過將感知、規(guī)劃決策、控制和執(zhí)行各模塊分解為多個層級,分別突破“大腦”和“小腦”,利用不同的神經(jīng)網(wǎng)絡(luò)進行訓練,最終再整合起來。一個典型案例如Figure02。Figure02采用三層級方案:1)頂層集成了OpenAI的大模型,負責視覺推理和語言理解;2)中間層是神經(jīng)網(wǎng)絡(luò)策略(NNP),負責快速、靈巧的操作,將視覺信息直接轉(zhuǎn)換為動作指令,并輸出這些指令;3)底層是全身控制器,負責提供穩(wěn)定的基礎(chǔ)控制,在接收NNP的動作指令后,輸出各關(guān)節(jié)的扭矩指令。另一典例如銀河通用的三層級大模型方案。1)底層是硬件層,2)中間層是通過仿真合成數(shù)據(jù)不用任何真實世界數(shù)據(jù)訓練的泛化的技能,3)最上層是大模型,可以調(diào)度中間技能API,來實現(xiàn)完整的從任務(wù)的感知、規(guī)劃到執(zhí)行的全流程。分層模型中,大模型為“大腦”。在分層端到端模型方案中,機器人的四大板塊(感知、規(guī)劃決策、控制和執(zhí)行逐漸被類人化地劃分為負責解決高層次認知或決策問題(highlevel)的“大腦”,以及負責基礎(chǔ)層面的功能性問題(lowlevel)的“小腦”。兩大系統(tǒng)各司其職又互相合作,“大腦”負責解析任務(wù)需求,整合來自傳感器的信息,進行任務(wù)的細化和策略規(guī)劃;“小腦”則專注于精細的運動控制,確保在“大腦”制定的策略指導(dǎo)下,機器人能夠準確無誤地執(zhí)行動作并進行必要的調(diào)整。目前較為普遍的方向是,機器人的“大腦”由大模型來擔任,“小腦”則依然為底層控制算法。大腦:負責highlevel的感知和規(guī)劃決策系統(tǒng),是多模態(tài)大模型?;诙嗄B(tài)大模型,機器人能學習、理解、融合和對齊各傳感器采集而來的跨模態(tài)信息,實現(xiàn)對復(fù)雜環(huán)境的魯棒建模與更精準、通用的感知,并根據(jù)環(huán)境情況,自主拆解任務(wù)、規(guī)劃動作。目前基于大模型的“大腦”技術(shù)路線正處在并行探索階段,并逐漸向端到端的大模型演進?,F(xiàn)階段主要是4條技術(shù)路線:1)LLM(大語言模型)+VFM(視覺基礎(chǔ)模型實現(xiàn)人機語言交互、任務(wù)理解、推理和規(guī)劃,目前最為成熟。主要代表是谷歌的SayCan模型。2)VLM(視覺-語言模型):彌合語言與視覺理解間的差距,實現(xiàn)更準確的任務(wù)規(guī)劃和決策,主要代表是清華大學的CoPa模型,利用嵌入在基礎(chǔ)模型(比如視覺語言模型的代表GPT-4V)中的常識知識為開放世界機器人操控生成一系列的自由度14/42行業(yè)|深度|研究報告 末端執(zhí)行器姿勢,生成的操控任務(wù)分為任務(wù)導(dǎo)向抓取和感知運動規(guī)劃。3)VLA(視覺-語言-動作模型):在VLM基礎(chǔ)上增加運動控制,解決機器人運動軌跡決策問題。主要代表是谷歌RT-H模型,學習語言和運動,并使用視覺上下文,通過利用語言-視覺-動作結(jié)合的多任務(wù)數(shù)據(jù)集學習更強大和靈活的動作策略。4)多模態(tài)大模型:實現(xiàn)對物理世界環(huán)境的全面感知,是未來的主要研究方向。主要代表是麻省理工、IBM等共同研究的MultiPLY模型,將視覺、觸覺、語音等3D環(huán)境的各類特征作為輸入,以形成場景外觀的初步印象,并通過多視圖關(guān)聯(lián)將印象中的輸出融合到3D,最終得到以對象為中心的場景特征?!靶∧X”:加載人工智能技術(shù),運動方式更加擬人。“小腦”的運動規(guī)劃與控制是人形機器人實現(xiàn)自然和流暢動作的關(guān)鍵。目前,“小腦”運動控制包括基于模型的控制方法和基于學習的控制方式兩個大類。傳統(tǒng)的基于模型的控制方法:通過建立機器人的運動學和動力學模型,進行運動軌跡規(guī)劃和平衡控制。這一類方法的特點是身體控制穩(wěn)健,但步頻較慢,且整體開發(fā)較為復(fù)雜,成本高,不利于產(chǎn)品快速迭代。基于模型的控制方法具體包括ZMP判據(jù)及預(yù)觀控制、混雜零動態(tài)規(guī)劃方法、虛擬模型解耦控制、模型預(yù)測控制+全身控制(MPC+WBC)等?;趯W習的控制方法:使用端到端的人工智能技術(shù),代替復(fù)雜的運動學模型,大幅度降低了“小腦”開發(fā)難度、提升了迭代速度,一般通過人類示教或自主學習建立運動執(zhí)行策略,其中通過人類示教的方式也稱為模仿學習,效果依賴高質(zhì)量示范數(shù)據(jù);通過自主學習的方式也稱為強化學習(ReinforcementLearning,RL),指通過精心設(shè)計學習目標,機器人不斷在環(huán)境中探索逐漸發(fā)現(xiàn)最大化獎勵的方式學習到最優(yōu)的執(zhí)行策略,效果依賴于仿真環(huán)境。通往One-Model端到端大模型是個循序漸進的過程。根據(jù)智元機器人定義的路線圖,當前具身智能大腦已經(jīng)具備認知、推理、規(guī)劃的能力,且而小腦層面機器人技能任務(wù)的訓練也是通過深度學習以驅(qū)動的。隨著場景、數(shù)據(jù)的增多,多個特定小模型會逐漸泛化為通用操作大模型,并最終實現(xiàn)與上層模型的融合。15/42行業(yè)|深度|研究報告 當前的具身智能是通過深度學習技術(shù)(模仿學習、強化學習等)從大量數(shù)據(jù)中學習并實現(xiàn)的,巨量的、優(yōu)質(zhì)的、多樣的數(shù)據(jù),是具身智能機器人能夠?qū)崿F(xiàn)各種各樣自主操作的基礎(chǔ)。數(shù)據(jù)采集方式呈現(xiàn)多元化,遠程操作、機器人自主探索、仿真合成數(shù)據(jù)等方式各有優(yōu)劣,為具身智能訓練數(shù)據(jù)集添磚加瓦。自動駕駛的數(shù)據(jù)采集方式具備借鑒意義:在規(guī)模化部署以后,機器人在影子模式下自主探索,通過與環(huán)境互動收集多元數(shù)據(jù),在云端形成數(shù)據(jù)閉環(huán),再反哺模型的調(diào)整與訓練,這也是具身感知、學習的具體遠程操作,即由實驗人員操作機械手柄,遠程控制機器人做出相同動作,以此來積累數(shù)據(jù)。近期的研究通過多個操作員協(xié)作收集了大規(guī)模多樣化的數(shù)據(jù)集,結(jié)果表明,基于這些數(shù)據(jù)集訓練的機器人表現(xiàn)出色,甚至能夠在不同環(huán)境中泛化。然而,數(shù)據(jù)采集是這一方法更廣泛應(yīng)用的主要瓶頸。在單臂機器人任務(wù)中,數(shù)據(jù)采集通常需要多個操作員、機器人以及數(shù)月的人力投入。針對類人機器人的數(shù)據(jù)采集則更具挑戰(zhàn)性,因為同時控制多只手臂和多指靈巧手的復(fù)雜性較高。為了實現(xiàn)類人機器人的實時遠程操作,研究人員開發(fā)了專門的遠程操作界面,但這些界面的成本高昂,難以實現(xiàn)規(guī)模化。類人機器人的任務(wù)復(fù)雜性也更高,因此數(shù)據(jù)需求更大,但由于操作員需同時控制多臂和多指手,工作負擔大幅增加,數(shù)據(jù)采集也更加困難。所謂仿真,即通過海量算力進行模擬運算,計算得出海量機器人訓練數(shù)據(jù)集。仿真可能是目前最有可能做到規(guī)模化數(shù)據(jù)生成的路徑,不過其背后需要巨大的算力支持。2024年11月,來自英偉達、UTAustin和UCSD的研究人員推出了一種大規(guī)模自動化數(shù)據(jù)生成系統(tǒng)——DexMimicGen。它可基于少量人類演示合成類人機器人的靈巧手運動軌跡,幫助實現(xiàn)在更少人工干預(yù)下擴大類人數(shù)據(jù)的采集。DexMimicGen的核心思想是利用一小組人類演示,并通過在物理仿真中進行演示轉(zhuǎn)換和重放,自動生成大量適用于雙手靈巧操作場景中模仿學習的訓練數(shù)據(jù)。例如,從僅5個源人類演示開始,DexMimicGen可以生成1000個雙手靈巧任務(wù)的演示。研究團隊從60個源人類演示中總共生成了21000個演示,涵蓋了9種不同的任務(wù)。研究團隊發(fā)現(xiàn),相較僅依賴源演示,DexMimicGen16/42行業(yè)|深度|研究報告 大幅提升了策略成功率,所有任務(wù)中基于DexMimicGen數(shù)據(jù)集訓練的機器人表現(xiàn)明顯優(yōu)于僅基于少量源數(shù)據(jù)訓練的機器人。且隨著DexMimicGen數(shù)據(jù)量的增加,策略的性能也隨之提升。在一項名為《ExplainableHuman-RobotTrainingandCooperationwithAugmentedReality》的研究中,研究人員通過AR(增強現(xiàn)實)技術(shù)讓人機交互過程具備更強的可解釋性,從而進行數(shù)據(jù)積累。2024年10月,斯坦福李飛飛團隊發(fā)表論文《ARCap:CollectingHigh-qualityHumanDemonstrationsforRobotLearningwithAugmentedRealityFeedback》,提出了ARCap系統(tǒng)。ARCap是一種便攜式數(shù)據(jù)收集系統(tǒng),它通過增強現(xiàn)實(AR)和觸覺警告提供視覺反饋,以指導(dǎo)用戶收集高質(zhì)量的演示。ARCap使新手用戶能夠收集與機器人運動學相匹配的機器人可執(zhí)行數(shù)據(jù),并避免與場景發(fā)生碰撞。利用從ARCap收集的數(shù)據(jù),機器人可以執(zhí)行具有挑戰(zhàn)性的任務(wù),例如在雜亂的環(huán)境中進行操作和長視野跨具身操作。ARCap完全開源且易于標定;所有組件均由現(xiàn)成的產(chǎn)品構(gòu)建。視頻學習,即通過多模態(tài)大模型,直接讓機器人通過視頻學習人類動作,從而積累訓練數(shù)據(jù)。考慮到直接學習人類操作、人類遠程操控等方式的示教成本較高,“從人類視頻中學習”已成為機器人的主流訓練方法之一,如直接通過YouTube視頻進行策略學習。但視頻學習同樣有自己難以解決的問題:1)控制上:不同于以往的示教方法(如遙操作示教及拖動示教),視頻示教沒有提供機器人本體的motion數(shù)據(jù),agent需要僅根據(jù)演示視頻生成action。2)感知方面,讓機器人理解人類演示視頻也具有很大挑戰(zhàn),機器人與人類的視角不同,并且人類演示視頻中,每一幀是人手臂的運動圖像,而機器人捕獲的圖像是機械臂的運動圖像,這些原因?qū)е铝搜菔疽曨l與機器人感知的圖像之間存在gap。17/42行業(yè)|深度|研究報告 2024年12月,宇樹開源了一系列數(shù)據(jù)采集工具和數(shù)據(jù)集。數(shù)據(jù)采集工具包括但不限于:1)針對開源機器人系統(tǒng)R(obot)OS推出的模擬包,包含宇樹系列機器人的質(zhì)量、慣量、力矩等參數(shù);2)使用蘋果VisionPro對G1進行遙操作控制的倉庫,可以用于數(shù)據(jù)采集;3)RLGYM,用于機器人仿真訓練,之前開源了英偉達IssacGym平臺上的訓練代碼,這次新增了對MuJoCo模擬仿真的支持。數(shù)據(jù)集:包含五種操作,使用配備有三指靈巧手的宇樹G1人形機器人收集,每張圖分辨率為640×480,每個手臂和靈巧手的狀態(tài)和動作維度為7,可使機器人完成擰瓶蓋倒水、疊放積木等操作。在數(shù)據(jù)采集環(huán)節(jié),宇樹運用了蘋果VisionPro進行G1的遙操作控制,該數(shù)據(jù)集采用640x480分辨率的圖像,并記錄了機器人手臂和靈巧手的七維狀態(tài)和動作數(shù)據(jù)。特斯拉在AI系統(tǒng)訓練中采取的是以真實數(shù)據(jù)為驅(qū)動的策略。為訓練Optimus機器人執(zhí)行類人動作,特斯拉大量招募“數(shù)據(jù)收集操作員”,要求其穿戴動作捕捉服、VR頭顯等設(shè)備,模擬機器人需完成的動作(如行走、搬運物品)。Optimus的核心亮點之一在于其利用動作捕捉技術(shù),以及VR和AR技術(shù)的融合應(yīng)用,以實現(xiàn)更為真實的人類動作模擬。18/42以波士頓動力的Atlas人形機器人為例,Atlas依靠其視覺系統(tǒng)進行任務(wù)排序的推理,低層控制器進行行動規(guī)劃。而不管是“大腦”視覺系統(tǒng)還是“小腦”控制系統(tǒng),都離不開數(shù)據(jù)訓練。Atlas的訓練過程融合了多個數(shù)據(jù)來源,包括真實工廠部署數(shù)據(jù)、實驗室測試數(shù)據(jù)以及仿真環(huán)境中的模擬數(shù)據(jù)。通過對這些數(shù)據(jù)進行強化學習,不斷訓練、調(diào)優(yōu)規(guī)控算法,Atlas能夠逐步掌握類似人類的精細操作技能。(4)FigureAIFigureAI創(chuàng)建于2022年,相較于國內(nèi)外幾家知名機器人公司成立時間較晚,側(cè)重于研究具身人工智能FigureAI基于端到端運動控制算法,結(jié)合OpenAI的GPT,先于特斯拉公開展示了人形機器人在無需預(yù)設(shè)程序的情況下的高度自主性和智能化交互,形成模型訓練-云端設(shè)施-車廠落地的閉環(huán)。19/42行業(yè)|深度|研究報告 近期,結(jié)束與OpenAI的合作后,F(xiàn)igureAI實現(xiàn)將首個自研具身模型Helix裝入機器人Figure。預(yù)告中展示了通過通用的“視覺-語言-感知”(VLA)模型Helix訓練機器人,將感知、語言理解和學習控制統(tǒng)一起來,展示出較大的多機協(xié)作與強大的泛化功能。其原理包括雙系統(tǒng)建構(gòu)、端到端訓練、解耦架構(gòu)、優(yōu)化推理部署。Helix是一個通用的“視覺-語言-感知”(VLA)模型,將感知、語言理解和學習控制統(tǒng)一起來,可以通過自然語言直接控制人形機器人整個上半身。Helix是首創(chuàng)的“系統(tǒng)1、系統(tǒng)2”VLA模型,用于對整個仿人上半身進行高速、靈巧的控制。之前的方法面臨著一個基本的權(quán)衡:VLM骨架通用但不快速,而機器人視覺運動策略快速但不通用。Helix通過兩個互補系統(tǒng)解決了這一問題,這兩個系統(tǒng)經(jīng)過端對端訓練,可以進行通信:系統(tǒng)1:快速反應(yīng)視覺運動策略,將系統(tǒng)2生成的潛在語義表征轉(zhuǎn)化為200Hz的精確連續(xù)機器人動作。系統(tǒng)2:經(jīng)過互聯(lián)網(wǎng)訓練的板載VLM,工作頻率為7-9Hz,用于場景理解和語言理解,可廣泛應(yīng)用于各種物體和環(huán)境。這種解耦架構(gòu)允許每個系統(tǒng)以其最佳時間尺度運行,系統(tǒng)2可以“慢思考”高層次目標,而系統(tǒng)1則可以“快思考”實時執(zhí)行和調(diào)整動作。在訓練效率方面,Helix以極少的資源實現(xiàn)了強大的對象泛化能力。研究團隊總共使用了約500小時的高質(zhì)量監(jiān)督數(shù)據(jù)對Helix進行訓練,其規(guī)模僅為之前收集的VLA數(shù)據(jù)集的一小部分(<5%),并且不依賴于多機器人-具身收集或多階段訓練。同時,Helix只需一個統(tǒng)一的模型,就能在不同任務(wù)中實現(xiàn)強大的性能。Helix的系統(tǒng)2參數(shù)量為7B,系統(tǒng)1則為8000萬。20/42行業(yè)|深度|研究報告 銀河通用機器人有限公司成立于2023年,專注于通用具身多模態(tài)大模型機器人研發(fā),并與北京大學等多所高校成立了具身智能相關(guān)聯(lián)合實驗室。銀河通用研發(fā)的端到端具身抓取基礎(chǔ)大模型GraspVLA及基于仿真數(shù)據(jù)驅(qū)動的訓練范式,能夠顯著提升機器人在復(fù)雜環(huán)境下的操作精度與適應(yīng)性,尤其在處理多變材質(zhì)、動態(tài)工況等挑戰(zhàn)場景中展現(xiàn)出卓越優(yōu)勢。GraspVLA的訓練包含預(yù)訓練和后訓練兩部分。其中預(yù)訓練完全基于合成大數(shù)據(jù),訓練數(shù)據(jù)達到了十億幀“視覺-語言-動作”對,掌握泛化閉環(huán)抓取能力、達成基礎(chǔ)模型。而針對特別需求,后訓練僅需小樣本學習即可遷移基礎(chǔ)能力到特定場景,維持高泛化性的同時形成符合產(chǎn)品需求的專業(yè)技能。整個開發(fā)過程無需大規(guī)模真實數(shù)據(jù)、僅通過合成數(shù)據(jù)達到基礎(chǔ)模型,開創(chuàng)了VLA領(lǐng)域發(fā)展的全新范式。在優(yōu)必選內(nèi)部,人形機器人訓練的數(shù)據(jù)的收集有這樣一個“二八定律”:用于人形機器人訓練的20%的數(shù)據(jù),由真實的機器人在實際場景中進行遙操作收集而來,80%的數(shù)據(jù)則是在仿真環(huán)境下生成而來。因此,優(yōu)必選搭建了人形機器人智能仿真系統(tǒng)UNDERS2,可以低成本地為人形機器人模擬和生成多樣化的場同時,優(yōu)必選通過與比亞迪、吉利、東風柳汽等車企合作,將人形機器人(如WalkerS系列)部署在總裝車間實訓,打造人形機器人與無人物流車等協(xié)同作業(yè)的工業(yè)場景解決方案。目前優(yōu)必選正在人形機器人應(yīng)用場景中驗證DeepSeek技術(shù)的有效性,如多模態(tài)人機交互、復(fù)雜環(huán)境中的指令理解、工業(yè)場景中的任務(wù)分解與規(guī)劃等,有望利用推理大模型的深度思考能力解決復(fù)雜任務(wù)中的21/42行業(yè)|深度|研究報告 GR-1:VR動作捕捉,實現(xiàn)Sim2Real。傅利葉研發(fā)團隊率先在安全可控、低成本的仿真環(huán)境中訓練GR-1,再將訓練好的模型遷移到現(xiàn)實世界(Sim2Real)。這種方式大幅提升了算法的迭代開發(fā)效率,降低了算法開發(fā)的總體成本。研發(fā)人員穿戴VR和動作捕捉設(shè)備,遙操控制GR-1完成各種任務(wù),記錄動作數(shù)據(jù),用于訓練和改進仿真模型,優(yōu)化機器人運動控制策略,增強在現(xiàn)實中的表現(xiàn),像人類一樣靈活決策,完成各種任務(wù)。利用NVIDIAIsaacGym開發(fā)人形機器人GR-2:傅利葉團隊采用了NVIDIAIsaacGym(現(xiàn)已棄用)進行強化學習,利用NVIDIAIsaacGym開發(fā)人形機器人GR-2,目前正在將其工作流遷移到NVIDIAIsaacLab。同時利用IsaacGym對抓取算法進行預(yù)訓練,在實際部署前,對成功率進行仿真測算。這種方法顯著減少了真實世界中的試錯,節(jié)省了時間和資源。GR-2支持VR遙操作控制、拖拽示教、上位機末端控制等多種上肢示教方式。具身智能產(chǎn)業(yè)是一個融合了先進技術(shù)、復(fù)雜系統(tǒng)集成和多元化應(yīng)用場景的綜合性產(chǎn)業(yè)。其產(chǎn)業(yè)鏈結(jié)構(gòu)可清晰劃分為上游、中游和下游三個部分。22/42行業(yè)|深度|研究報告 上游環(huán)節(jié)是具身智能產(chǎn)業(yè)的基礎(chǔ),主要包括芯片、傳感器、控制器、電機(含伺服電機)、通信模組、能源管理等。這些核心組件是構(gòu)建具身智能所必需的“硬件”基礎(chǔ)。其中,芯片作為具身智能的“心臟”,主要提供強大的計算能力,支持復(fù)雜的算法運行。傳感器則負責收集外部環(huán)境的多維數(shù)據(jù),如視覺、聽覺、觸覺等,是實現(xiàn)具身智能感知功能的基礎(chǔ)??刂破鲗鞲衅魇占臄?shù)據(jù)進行高效處理,并發(fā)出精確的控制指令,指導(dǎo)執(zhí)行機構(gòu)完成相應(yīng)的任務(wù)動作。電機是將電能轉(zhuǎn)化為機械能的關(guān)鍵部件,驅(qū)動各種執(zhí)行機構(gòu)的運動,其中伺服電機作為核心部件,根據(jù)控制器指令實現(xiàn)對運動的精確控制,完成精準定位和操作。通信模組負責設(shè)備之間的數(shù)據(jù)傳輸和通信,確保系統(tǒng)各部分之間的協(xié)同工作,實現(xiàn)信息的無縫流轉(zhuǎn)。能源管理為整個系統(tǒng)提供穩(wěn)定的能源供應(yīng),包括高性能電池、先進的電源管理系統(tǒng)等。上游環(huán)節(jié)是整個產(chǎn)業(yè)鏈的基礎(chǔ),為中游和下游提供了必要的硬件支撐。這些基礎(chǔ)設(shè)施的質(zhì)量、性能和可靠性直接影響到中游產(chǎn)品的整體性能和下游應(yīng)用的實際效果。中游環(huán)節(jié)是產(chǎn)業(yè)鏈的技術(shù)核心,涉及AI算法、操作系統(tǒng)、云服務(wù)以及中間件的開發(fā)與集成。這一環(huán)節(jié)的工作是將上游的硬件組件“激活”,通過編程和系統(tǒng)集成,使其能夠執(zhí)行復(fù)雜的智能任務(wù)。AI算法是具身智能的“大腦”,負責處理和分析數(shù)據(jù),做出決策;操作系統(tǒng)為智能設(shè)備提供統(tǒng)一的軟件平臺,支持各種應(yīng)用程序的運行和管理;云計算提供數(shù)據(jù)存儲、處理和分析能力,支持大規(guī)模的數(shù)據(jù)處理和智能應(yīng)用;中間件則起到連接不同系統(tǒng)和組件的橋梁作用。中游環(huán)節(jié)是整個產(chǎn)業(yè)鏈的技術(shù)核心,不僅負責實現(xiàn)智能設(shè)備的各項功能,還為下游應(yīng)用提供技術(shù)支持和解決方案,推動整個產(chǎn)業(yè)鏈的創(chuàng)新和發(fā)展。下游環(huán)節(jié)是產(chǎn)業(yè)鏈的最終輸出端,涵蓋了機器人、自動駕駛載具等主要產(chǎn)品,以及這些產(chǎn)品在工業(yè)制造、服務(wù)業(yè)、醫(yī)療康復(fù)、教育娛樂、交通出行、公共安全等領(lǐng)域的多元化應(yīng)用場景。這一環(huán)節(jié)直接面向市場和消費者,是產(chǎn)業(yè)鏈價值實現(xiàn)的最終體現(xiàn)。23/42行業(yè)|深度|研究報告 具身智能的物理載體形態(tài)呈現(xiàn)多樣性,根據(jù)其移動特性或方式,可以分為固定底座機器人、輪式(履帶式》機器人、足式機器人、仿生機器人等,其中近期火爆的人形機器人屬雙足人形。具身智能具體形態(tài)的選擇上需要洞察場景實際的需求,并不存在“最佳形態(tài)”的單一解,但人形機器人具備多場景的“泛用性”,在具身智能的驗證、以及特定場景中的最終應(yīng)用有既定優(yōu)勢。在實際應(yīng)用場景中,不同形態(tài)的機器人可以進行有機地組合以滿足具體的場景需求,如在輪式機器人上配備機械臂或靈巧手,配備輪式底座的機械臂既具備了輪式機器人移動迅速、能效高的特點,也兼?zhèn)錂C械臂和靈巧手精細操作的優(yōu)勢。AI助力機器人泛化性能提升,突破能力三角制約,進入更多場景。基于人工預(yù)先編程的自動化設(shè)備,機器人已經(jīng)被廣泛用于工業(yè)制造領(lǐng)域并且已經(jīng)相當成熟,但受限于預(yù)編程(或反復(fù)示教)的時間成本、機器人的智能化水平等原因的限制,機器人的應(yīng)用仍然受限于“任務(wù)自主性”“任務(wù)復(fù)雜度”“變化適應(yīng)性”組成的能力三角形。大模型技術(shù)的快速發(fā)展,為具身智能技術(shù)的進步與應(yīng)用提供了歷史性的突破機遇,在提升機器人智能化水平的過程中,機器人將更全面、精準、敏捷的進行環(huán)境感知、任務(wù)理解和準確執(zhí)行,不斷提升機器人在復(fù)雜環(huán)境中處理復(fù)雜任務(wù)的能力,泛化水平將不斷提升。24/42行業(yè)|深度|研究報告 從專用到通用,從ToB到ToC,具身智能機器人應(yīng)用場景持續(xù)拓寬。作為人工智能與機器人技術(shù)的最前沿,具身智能的應(yīng)用場景會極度多元化,極具想象空間。在工業(yè)制造場景,機器人的任務(wù)執(zhí)行和流程和任務(wù)本身有高度規(guī)則性(可通過編程和訓練來高效完成重復(fù)性高和強度大的任務(wù))。其中,人類不愿意做的臟活、累活、危險任務(wù),機器人具備極高的勞動力替代性。而服務(wù)場景更加開放,相關(guān)任務(wù)更加多樣化,更加不可預(yù)測,需要機器人具備更強的自主決策能力與泛化適應(yīng)性。工業(yè)制造是具身智能率先落地的場景。工業(yè)制造流程的特點使得該場景在具身智能技術(shù)落地應(yīng)用方面占據(jù)先發(fā)優(yōu)勢,如柔性生產(chǎn)需求迫切、工作環(huán)境結(jié)構(gòu)化程度高、成本效益優(yōu)勢突出等需求特點,刺激著工業(yè)制造場景客戶對工業(yè)具身智能的應(yīng)用更加期待。從工業(yè)制造的確定性走向家庭服務(wù)的靈活性,具身智能價值極具想象力。機器人在C端的應(yīng)用最具想象力,但短期來看,任務(wù)相對聚焦,對泛化能力要求不高工業(yè)制造場景下的任務(wù)正在更快進入商業(yè)化階段。在工業(yè)制造場景實現(xiàn)商業(yè)化落地之后,海量機器人的具身數(shù)據(jù)疊加算力技術(shù)的進步,機器人的能力將循序漸進逐步解鎖,并向商用服務(wù)、家庭服務(wù)等更開放的場景進行延伸。25/42行業(yè)|深度|研究報告 人形機器人方面:特斯拉optimus量產(chǎn)在即。Optimus已經(jīng)在特斯拉工廠內(nèi)承擔起了一些簡單的任務(wù),例如無需人工干預(yù)地分類4680電池單元。2025年年初進行小批量生產(chǎn),率先在特斯拉內(nèi)部使用;當年年底,特斯拉工廠將應(yīng)用數(shù)千臺Optimus;2026年,特斯拉將大幅度提高Optimus產(chǎn)量,并向外部出售。華為賦能產(chǎn)業(yè)鏈創(chuàng)新。2024年11月,華為(深圳)全球具身智能產(chǎn)業(yè)創(chuàng)新中心宣布正式運營,首批與樂聚機器人、兆威機電、深圳市大族機器人、墨影科技、拓斯達、自變量機器人、華龍訊達、中堅科技、埃夫特、北京創(chuàng)新樂知信息技術(shù)、北京中軟國際教育、浙江強腦科技、佛山奧卡機器人、禾川人形機器人等16家企業(yè)簽署合作備忘錄。26/42行業(yè)|深度|研究報告 四足機器人(機器狗):應(yīng)用場景拓寬,出貨量有望高增。宇樹、云深處等頭部公司已在科研、教育、工廠等場景落地。2023年宇樹的高性能四足機器人占據(jù)全球銷售份額的69.75%。預(yù)計2025年宇樹出貨量有望實現(xiàn)50%以上增長。云深處自研的X30四足機器人和數(shù)字化技術(shù),已經(jīng)成功交付新加坡能源集團電力隧道巡檢解決方案。軍用場景持續(xù)拓展。2022年,軍用國產(chǎn)機器狗在珠海航展首次亮相,2024年珠海航展上,中國兵器裝備集團有限公司展出了自主研制的機器狼,未來四足機器人有望在軍用領(lǐng)域拓展更多品類和應(yīng)用場景。預(yù)計隨著下游應(yīng)用場景拓寬,機器狗產(chǎn)業(yè)鏈需求有望高增。具身智能產(chǎn)業(yè)未來發(fā)展重點有所改變,將推動人類社會進一步邁向智能化新時代。傳感器領(lǐng)域的發(fā)展,主要圍繞著提高精度展開,未來傳感器領(lǐng)域的重點將從追求高精度轉(zhuǎn)向追求高魯棒性發(fā)展。目前人工智能芯片的主要應(yīng)用在云計算場景,未來人工智能芯片將被集成到機器人本體中,使其具備端側(cè)計算能力。算法研究主要圍繞著構(gòu)建高質(zhì)量的模型展開,未來數(shù)據(jù)收集和質(zhì)量將成為重點,驅(qū)動模型向多模態(tài)融合方向發(fā)展。機器人的設(shè)計和制造通常采用垂直一體化的模式,未來模塊化設(shè)計將成為主流趨勢,實現(xiàn)產(chǎn)業(yè)分工和專業(yè)化發(fā)展,人機協(xié)作有望成為機器人設(shè)計的核心理念,進而提高其智能水平。當下工業(yè)機器人一直是機器人市場的主力軍,未來服務(wù)型機器人的市場規(guī)模有望超過工業(yè)機器人,迎來爆發(fā)式增長,并且隨著需求的多樣化,跨界融合正成為機器人應(yīng)用的新趨勢。具身智能使信息域和物理世界深度融通,進一步拓展人工智能發(fā)展邊界,不斷提升機器人的智能和自主行動能使其更好地理解世界、自然化人機交互和高效執(zhí)行任務(wù)。思維智能和行動智能的有機融合將推動人類社會進一步邁向智能化新時代,加速通用人工智能(AGI)的到來。27/42行業(yè)|深度|研究報告 軟件、算法是決定一臺符合消費者需求具身智能落地的必要條件,而量產(chǎn)后硬件是人形機器人滲透率提升的關(guān)鍵。然而,部分環(huán)節(jié)存在較高的技術(shù)壁壘,這對相關(guān)企業(yè)提出了嚴峻的挑戰(zhàn)。2025年,需密切關(guān)注那些有望突破技術(shù)壁壘、進入頭部主機廠供應(yīng)鏈的國產(chǎn)廠商。力傳感器能夠測量智能體與環(huán)境的接觸力和力矩,六維力傳感器技術(shù)壁壘和價值量高。2020年全球力/力矩傳感器市場規(guī)模合計達到88.9億美元。根據(jù)MordorIntelligence數(shù)據(jù),2020年力傳感器市場價值為21.6億美元,預(yù)計到2026年將達到28.4億美元,在2021-2026年預(yù)測期間的復(fù)合年增長率為4.68%;2020年全球力矩傳感器市場價值為67.3億美元,預(yù)計到2026年將達到116.3億美元,在2021-2026年預(yù)測期間的復(fù)合年增長率為9.68%。28/42行業(yè)|深度|研究報告 六維力傳感器當前市場規(guī)模較小,2026年后或出現(xiàn)爆發(fā)式增長。根據(jù)MIR睿工業(yè)數(shù)據(jù),2023年我國六維力傳感器的出貨量及市場規(guī)模分別為9450臺和2.35億元,根據(jù)MIR預(yù)測,六維力傳感器的發(fā)展將分為兩個階段。2020-2026年:這一階段六維力傳感器應(yīng)用場景少,價格昂貴。柔性化生產(chǎn)的需求是推動六維力傳感器出貨量提升的主要原因,出貨量和市場規(guī)模增速呈穩(wěn)定增長狀態(tài),期間復(fù)合增長率小于20%。2023年人形機器人概念的火熱催動更多廠商布局六維力傳感器,行業(yè)競爭逐漸激烈,廠商不斷開發(fā)新的應(yīng)用2027-2030年:隨著人形機器人規(guī)模化量產(chǎn)落地,六維力傳感器的出貨量和市場規(guī)模將快速增加,期間復(fù)合增長率超過100%。原材料成本的下降以及生產(chǎn)工藝的進步有望帶動傳感器價格的快速降低。29/42六維力傳感器市場集中度較高。根據(jù)MIR數(shù)據(jù),2023年我國六維力傳感器市場集中度較高,TOP10用戶占據(jù)接近70%的份額,國內(nèi)廠商宇立儀器、藍點觸控分居第二第四位,兩家公司在國內(nèi)廠商中的合計市占率超過50%。行業(yè)整體目前仍以外資品牌為主,市占率前十其中有7家屬于外資品牌,外資品牌在產(chǎn)品和應(yīng)用上占有較大先發(fā)優(yōu)勢。隨著人形機器人技術(shù)不斷成熟,逐步實現(xiàn)批量化生產(chǎn),頭部廠商有望占據(jù)優(yōu)勢,憑借領(lǐng)先的產(chǎn)品性能率先獲得應(yīng)用機會。隨著六維傳感器的應(yīng)用深化,國產(chǎn)品牌的市場份額有望持續(xù)提升。根據(jù)MIR數(shù)據(jù),2023年我國六維力傳感器市場內(nèi)資出貨量占比為32.1%,長遠來看內(nèi)資市場份額有望持續(xù)提升,2030年達到81.7%。從產(chǎn)品性能看,以宇立儀器、藍點觸控為代表的國產(chǎn)廠商不斷進行技術(shù)深耕,實現(xiàn)產(chǎn)品的選代更新,部分核心技術(shù)已趕超外資品牌;從性價比看,內(nèi)資品牌能夠憑借供應(yīng)鏈優(yōu)勢進一步降低成本,保持性能的同時能提供價格更低的產(chǎn)品;從服務(wù)能力看,國產(chǎn)品牌普遍針對客戶的反饋服務(wù)效率更高,目前大多數(shù)外資品牌在中國只有辦事處或只依靠代理商,服務(wù)能力相對較差。國產(chǎn)廠商目前逐漸在縮小與外資品牌的差距,未來國產(chǎn)品牌的性價比將穩(wěn)定優(yōu)于外資品牌,國產(chǎn)品牌也將不斷探素應(yīng)用場景,向外資品牌的應(yīng)用場景滲透,助力市場份額持續(xù)提升。30/42行業(yè)|深度|研究報告 慣導(dǎo)系統(tǒng)是一種完全自主的導(dǎo)航方式。慣導(dǎo)系統(tǒng)的核心是慣性測量單元(Inertiameasurementunit,IMU),利用物體在慣性空間的線速度和角速度,進而解算出物體的姿態(tài)、位置、速度信息。IMU通常包含陀螺儀和加速度計,根據(jù)傳感器配置差異,可分為六軸(3軸加速度計+3軸陀螺儀)與九軸(增加3軸磁力計,即AHRS)兩類,后者融合磁場數(shù)據(jù)提升姿態(tài)角精度。機器人等消費類產(chǎn)品多采用MEMSIMU,具有體積小、成本低、功耗低、易于集成和智能化的特點,而航天、軍工等高精度領(lǐng)域多采用光纖、機械陀螺等制成的IMU。當前慣導(dǎo)已在消費電子、汽車、工業(yè)、國防場景中有了廣泛應(yīng)用。具身智能對IMU的需求有望快速增長。根據(jù)Yole測算,2023年全球MEMSIMU市場中,消費電子、汽車、國防、工業(yè)場景的占比分別為47%、29%、19%、5%。隨著具身智能的發(fā)展,IMU有望迎來新的應(yīng)用領(lǐng)域。在具身智能中,IMU單元同時起到了自主導(dǎo)航與姿態(tài)平衡的作用,助力具身智能更好地適應(yīng)非平坦復(fù)雜路面,并增強抗干擾行走、跌倒檢測、動態(tài)平衡控制等能力。豐田Asimo、波士頓動力Atlas、AgilityDigit、優(yōu)必選WalkerX等人形機器人產(chǎn)品均至少搭載了1個IMU單元,能夠認為IMU單元有望成為具身智能提高運動性能所必備的傳感器之一。31/42行業(yè)|深度|研究報告 據(jù)Yole數(shù)據(jù),2022年全球出貨的MEMSIMU數(shù)量為15億個,市場規(guī)模19億美元,預(yù)計到2028年市場將增長至21億個,規(guī)模達26億美元,CAGR達5%,且在MEMS慣性傳感器市場中的占比逐步上行業(yè)集中度較高,海外廠商先發(fā)優(yōu)勢明顯。海外廠商慣性技術(shù)積累深厚,產(chǎn)品系列更為齊全,掌握高端產(chǎn)品的自主研發(fā)與開發(fā)能力,在市場中占有主導(dǎo)地位。根據(jù)Yole統(tǒng)計,2023年全球高端慣性傳感器市場中,CR3(美國Honeywell、德國NorthropGrummanLitef、法國Safran)合計占有67%市場份額;聚焦MEMS慣性傳感器,2021年全球高端MEMS慣性傳感器市場CR3(美國Honeywell、美國ADI、32/42行業(yè)|深度|研究報告 德國NorthropGrummanLitef)占據(jù)55%市場份額。中國本土IMU廠商大多定位于消費級產(chǎn)品,技術(shù)水平整體與海外差距較大,僅少數(shù)企業(yè)掌握高端慣性傳感器設(shè)計工藝,國產(chǎn)化仍有長足的發(fā)展空間。靈巧手是人形機器人成本占比最高的零部件。不同人形機器人的方案不同,靈巧手的成本占比也有波動。目前靈巧手價格占人形機器人整機成本約20%-30%,是占比最高的零部件。當前階段,靈巧手存在較大的升級優(yōu)化空間,是產(chǎn)業(yè)鏈瓶頸環(huán)節(jié)。當前靈巧手還只能完成人手的部分功能,軟硬件均有較大提升空間,是當前階段人形機器人硬件上的最大瓶頸。馬斯克也曾坦言,靈巧手的研發(fā)難度和工程量可能占到整機開發(fā)的一半。靈巧手對空間要求苛刻,一般使用微型電機。目前主流方案包括空心杯電機和無刷直流電機??招谋姍C屬于直流永磁電機,與普通有刷、無刷直流電機的主要區(qū)別是采用無鐵芯轉(zhuǎn)子,也叫空心杯型轉(zhuǎn)子。由于轉(zhuǎn)子結(jié)構(gòu)變化,空心杯電機體積小巧,重量和轉(zhuǎn)動慣量大幅降低,具備了鐵芯電機所無法達到的控制和拖動特性。此外轉(zhuǎn)子結(jié)構(gòu)徹底消除了因為鐵芯形成渦流而造成的電能損耗,具有突出的節(jié)空心杯電機也可以細分為無刷空心杯電機和有刷空心杯電機。兩者在轉(zhuǎn)向方式、轉(zhuǎn)子構(gòu)成、壽命、轉(zhuǎn)速、抗干擾等方面性能存在差異。33/42行業(yè)|深度|研究報告 全球空心杯電機以海外企業(yè)為主導(dǎo),市場集中度高。空心杯電機技術(shù)含量高、生產(chǎn)難度大,同時下游應(yīng)用領(lǐng)域不斷擴大,對產(chǎn)品的性能存在差異,制造廠商需具備一定的定制化生產(chǎn)能力予以應(yīng)對。此外,由于技術(shù)更新迭代迅速,空心杯電機廠商需及時對產(chǎn)品進行迭代及優(yōu)化。目前來看,全球空心杯市場仍以海外廠商為主導(dǎo),2023年國外制造商市占率為85.00%。由于海外頭部企業(yè)技術(shù)累積深厚,2022年全球空心杯電機市場CR5為67.00%,全球前五企業(yè)分別為Faulhaber、Portescap、AlliedMotionTechnologies、MaxonMotor、NidecCopalCorporation??招谋姍C:降本&國產(chǎn)替代關(guān)鍵在于繞線環(huán)節(jié)突破。繞線環(huán)節(jié)式空心杯電機生產(chǎn)的關(guān)鍵技術(shù)壁壘,也是降本以及國產(chǎn)化替代的核心。工藝方面,目前國產(chǎn)廠商普遍使用半自動化的卷繞生產(chǎn),工藝繁瑣,耗時較長,良品率低且線圈直徑較小,限制其成本及性能,Maxon等海外領(lǐng)先廠商多使用高度自動化的一次成型生產(chǎn),隨著國產(chǎn)廠商技術(shù)突破與改進,有望大幅提升生產(chǎn)效率,實現(xiàn)降本;設(shè)備方面,我國自主生產(chǎn)的空心杯電機繞線設(shè)備相對空缺,多為外采海外設(shè)備,固定成本較高。隨著中特科技、勤聯(lián)科技等國產(chǎn)設(shè)備廠商產(chǎn)品應(yīng)用,有望降低空心杯電機廠商的生產(chǎn)成本。34/42行業(yè)|深度|研究報告 空心杯電機市場規(guī)模穩(wěn)步增長,其中中國市場增速較快。根據(jù)中商產(chǎn)業(yè)研究院相關(guān)數(shù)據(jù),2023年全球空心杯電機市場規(guī)模為8.1億美元,2024年全球市場規(guī)模達到8.7億美元,2028年將增至11.9億美元,CAGR為9.4%。國內(nèi)市場方面,2023年中國空心杯電機市場規(guī)模為2.9億美元,2024年中國市場規(guī)模達到3.2億美元,2028年將增至4.7億美元,CAGR為12.4%。緊抓具身智能產(chǎn)業(yè)化浪潮,機器人、核心供應(yīng)鏈、具身智能+應(yīng)用場景值得關(guān)注。全球3D視覺感知龍頭,機器人突破有望帶動業(yè)績上漲。奧比中光主要產(chǎn)品包括3D視覺傳感器、消費級應(yīng)用設(shè)備和工業(yè)級應(yīng)用設(shè)備,已實現(xiàn)六大3D視覺感知技術(shù)全面布局,產(chǎn)品主要應(yīng)用領(lǐng)域為生物識別、AIOT、消費電子、工業(yè)等。分產(chǎn)品看,公司主營業(yè)務(wù)收入主要來自于銷售3D視覺傳感器。公司已實施多期員工激勵計劃、確認大額股份支付費用,近五年研發(fā)費用率持續(xù)高于50%,導(dǎo)致凈利潤尚未轉(zhuǎn)正。當前公司在機器人領(lǐng)域中,產(chǎn)品持續(xù)放量,將有望拉動公司營收實現(xiàn)高速增長,帶動公司逐步扭虧。公司面向服務(wù)、工業(yè)、人形等多類型機器人領(lǐng)域,構(gòu)建了覆蓋深度相機(單目結(jié)構(gòu)光、雙目結(jié)構(gòu)光、iToF)、激光雷達等全技術(shù)路線3D視覺傳感器體系。在人形機器人領(lǐng)域,公司3D視覺傳感器能夠為人形機器人與現(xiàn)實世界交互提供重要支撐,目前公司Femto系列iToF深度相機Gemini335/336等系列35/42行業(yè)|深度|研究報告 結(jié)構(gòu)光深度相機等產(chǎn)品已與人形機器人客戶進行適配。此外,斯坦福大學李飛飛教授團隊使用了奧比中光深度相機FemtoBolt實現(xiàn)機器人動作優(yōu)化和復(fù)雜交互。公司2024全年實現(xiàn)營業(yè)收入5.64億元,同比增速56.79%;實現(xiàn)歸母凈利潤實現(xiàn)-0.63億元,同比增速77.20%;實現(xiàn)扣非歸母凈利潤-1.12億元,同比增速65.35%。2025年1季度實現(xiàn)營業(yè)收入1.91億元,同比增速105.63%;實現(xiàn)歸母凈利潤0.24億元,同比增速184.48%;實現(xiàn)扣非歸母凈利潤0.03億元,同比108.38%;業(yè)績表現(xiàn)亮眼,未來趨勢向好。索辰科技成立于2006年,是一家專注于CAE軟件研發(fā)、銷售和服務(wù)的高新技術(shù)企業(yè)。公司目前已形成流體、結(jié)構(gòu)、電磁、聲學、光學等多個學科方向的核心算法,并開發(fā)出多類型工程仿真軟件。可滿足航空航天、國防裝備、船舶海洋、重型機械、核工業(yè)、電子電器、地面交通等復(fù)雜產(chǎn)品或工程領(lǐng)域的仿真發(fā)布國產(chǎn)物理AI系列產(chǎn)品,賦能千行百業(yè)AI產(chǎn)品落地。2025年3月,公司基于CAE軟件開發(fā)在跨學科能力和工程經(jīng)驗的積累發(fā)布物理AI系列產(chǎn)品:索辰物理AI應(yīng)用開發(fā)平臺(天工?開物)及機器人設(shè)計訓練平臺、面向工業(yè)裝備的設(shè)計優(yōu)化與物理AI訓練平臺等。其物理AI訓練平臺能夠使得大模型輸出兼具創(chuàng)新性與物理一致性,支持客戶輕松開發(fā)和部署應(yīng)用,加速設(shè)計與制造,有助于推動機器人等應(yīng)用場景快速落地。2024年以來,公司通過戰(zhàn)略并購不斷完善產(chǎn)業(yè)鏈布局。2024年12月,公司戰(zhàn)略投資8,800萬元并購麥思捷,借助麥思捷在大氣、海洋環(huán)境等領(lǐng)域的專家級經(jīng)驗解決相關(guān)工程問題;2025年2月,公司籌劃并購力控科技,擬取得其51%股權(quán),為物理AI實時孿生體提供環(huán)境感知、數(shù)據(jù)傳遞等技術(shù),提高物理AI應(yīng)用的準確性和可靠性。2024年,公司還投資了索辰仿真、焜原光電、富迪廣通等公司,通過整合優(yōu)勢資源進一步提升公司競爭力。公司近日發(fā)布2024年年報和2025年第一季度報告,2024年公司實現(xiàn)營業(yè)收入3.79億元,YoY+18.24%;實現(xiàn)歸母凈利潤0.41億元,YoY-27.89%;毛利率71.86%,同比提升2.42pct。2025Q1公司實現(xiàn)營業(yè)收入0.39億元,YoY+21.73%;實現(xiàn)歸母凈利潤-0.16億元,YoY+26.51%;毛利率37.73%,同比降低6.03pct。收入端保持增長態(tài)勢。公司是全球領(lǐng)先的全棧式智能操作系統(tǒng)及端側(cè)智能產(chǎn)品和技術(shù)提供商,深耕智能操作系統(tǒng)領(lǐng)域16年。三大核心業(yè)務(wù):智能軟件、智能汽車以及智能物聯(lián)網(wǎng)協(xié)同發(fā)展并駕齊驅(qū)。中科創(chuàng)達發(fā)布的整車操作系統(tǒng)“滴水OS”,滴水OS積極拓展全球生態(tài)合作,與Dirac、火山引擎、大眾旗下CARIAD等企業(yè)建立深度合作,共建聯(lián)合實驗室,賦能車端智能發(fā)展。盡管汽車業(yè)務(wù)增速暫時放緩,但隨著智能座艙業(yè)務(wù)持續(xù)發(fā)力,未來可期。同時,公司發(fā)力端側(cè)智能創(chuàng)新賽道,旗下創(chuàng)通聯(lián)達推出輕量化AI眼鏡SmartGlasses和混合現(xiàn)實MRHMDPro,搭載高通驍龍平臺,樹立行業(yè)標桿。此外,公司還為高通面向Windows的驍龍開發(fā)套件提供一站式服務(wù),并推出四款A(yù)IMiniPC參考設(shè)計,助力AIPC市場發(fā)展,開辟新增長點。具身智能機器人實現(xiàn)突破。2023年9月,公司的機器人團隊-曉悟智能成立。目前,公司已發(fā)布了面向倉儲物流、生產(chǎn)制造場景的智能移動機器人,可完成自動化入庫、揀選、分撥以及自動生產(chǎn)設(shè)備的對接等,36/42行業(yè)|深度|研究報告 從而實現(xiàn)高效的柔性制造。自動駕駛汽車與機器人同為具身智能載體,公司在智能汽車視覺領(lǐng)域具備多年積累,Rubik大模型作為機器人“大腦”提供更高效的理解能力,核心技術(shù)有望在機器人感知、理解方面實現(xiàn)深度賦能。2024年,曉悟智能的子公司西安龍行智巡科技有限公司在西安正式揭牌成立。另外,公司多款智能機器人新品亮相CeMATASIA。公司的工業(yè)智能移動機器人產(chǎn)品在汽車及零部件、鋰電、3C、食品及飲料等行業(yè)形成落地應(yīng)用。2024年年報。2024年,公司實現(xiàn)營業(yè)收入53.85億元,同比增長2.72%;實現(xiàn)歸母凈利潤4.07億元,同比下降12.60%;實現(xiàn)扣非歸母凈利潤1.75億元,同比下降48.49%。2024年,公司重點布局機器人等端側(cè)智能領(lǐng)域,研發(fā)費用同比增長8.16%。能科科技成立于2006年,2016年在滬市主板上市,是國內(nèi)領(lǐng)先的智能制造與工業(yè)數(shù)字化轉(zhuǎn)型服務(wù)商,聚焦工業(yè)互聯(lián)網(wǎng)、數(shù)字孿生、AI算力底座等核心領(lǐng)域,深度服務(wù)國防軍工、汽車、半導(dǎo)體等高端制造業(yè)。企業(yè)聚焦工業(yè)軟件與智能制造領(lǐng)域,形成了以核心業(yè)務(wù)為基石、新興業(yè)務(wù)為增長引擎的多元化布局。核心業(yè)務(wù)方面,工業(yè)軟件與云服務(wù)是重要支柱,旗下“樂系列”產(chǎn)品(如樂倉生產(chǎn)力中臺、樂造企業(yè)應(yīng)用等)表現(xiàn)亮眼,2024年云產(chǎn)品與服務(wù)收入達4.58億元,占總營收的30.34%,毛利率高達53.83%;智能制造系統(tǒng)集成業(yè)務(wù)則覆蓋了研發(fā)設(shè)計、生產(chǎn)制造全生命周期,2024年軟件系統(tǒng)與服務(wù)收入3.16億元,并成功服務(wù)中國商飛、中航工業(yè)等知名客戶。新興業(yè)務(wù)方面,企業(yè)積極擁抱前沿技術(shù),AI算力與Agent應(yīng)用業(yè)務(wù)爆發(fā)式增長,2024年收入2.73億元,同比激增1256%,推出的“靈系列”AIAgent產(chǎn)品已應(yīng)用于機器人訓推、汽車工藝優(yōu)化等場景,并中標1.24億、1.45億元大模型項目;具身智能與特種裝備領(lǐng)域,布局了機器狗、機器狼等智能設(shè)備,2024年已簽訂2.68億元特種行業(yè)合同。此外,該企業(yè)還緊密圍繞工業(yè)互聯(lián)網(wǎng)、AI算力、數(shù)字孿生、國產(chǎn)替代、軍工信息化等熱點概念進行戰(zhàn)略布局,未來發(fā)展?jié)摿δ芸瓶萍紤{借領(lǐng)先的技術(shù)實力與創(chuàng)新能力,打造了極具競爭力的核心產(chǎn)品與解決方案。其核心產(chǎn)品包括樂倉生產(chǎn)力中臺和高壓變頻器系統(tǒng)。樂倉生產(chǎn)力中臺能夠適配華為云、西門子等主流生態(tài),為企業(yè)數(shù)字化轉(zhuǎn)型提供強有力的支撐,預(yù)計2024年將服務(wù)超過3000家客戶;高壓變頻器系統(tǒng)則實現(xiàn)了重大突破,于2024年中標徐大堡核電站價值1.5億元的主泵變頻器項目,成功打破了外資在該領(lǐng)域的長期壟斷。在技術(shù)水平方面,擁有251項專利,并主導(dǎo)制定了5項國家標準,彰顯了其深厚的技術(shù)積淀。此外,公司還與華為合作開發(fā)了工業(yè)數(shù)字模型驅(qū)動引擎(iDME),并自研了適配昇騰芯片的AI大模型平臺,將該平臺的訓練效率提升了40%,同時獲得了GRS全球回收標準認證,進一步鞏固了其在行業(yè)內(nèi)的技術(shù)領(lǐng)先地位。公司2024年全年實現(xiàn)營收15.10億元,同比增長7.47%,但凈利潤為1.92億元,同比下降15.17%。業(yè)績下滑的主要原因是研發(fā)投入增長導(dǎo)致費用率達到12.88%,以及傳統(tǒng)業(yè)務(wù)出現(xiàn)收縮。進入2025年,一季度營收為3.37億元,同比下降16.65%,凈利潤0.49億元,同比下降12.07%,主要受工業(yè)電氣產(chǎn)品交付節(jié)奏的影響。軟通動力是國內(nèi)IT服務(wù)領(lǐng)軍企業(yè),收購?fù)接嬎銠C后開啟“軟硬一體”戰(zhàn)略,在鴻蒙加速發(fā)展、信創(chuàng)政策落地、人形機器人訓練速度有望加快的背景下,軟通動力有望迎來較大發(fā)展機遇。37/42行業(yè)|深度|研究報告 公司在AllinAI的基礎(chǔ)上,發(fā)布軟硬全棧AI戰(zhàn)略,業(yè)務(wù)范圍涵蓋AI工作站、AI服務(wù)器、AIPC、具身智能機器人等多個新興領(lǐng)域,并持續(xù)深化華為生態(tài)合作。基礎(chǔ)軟件領(lǐng)域,公司重點圍繞開源鴻蒙、鴻蒙操作系統(tǒng)、開源歐拉、開源高斯數(shù)據(jù)庫開展產(chǎn)品研發(fā),有望受益鴻蒙生態(tài)繁榮發(fā)展。據(jù)上海證券報,截至2025年3月原生鴻蒙已上線2萬+應(yīng)用,微信、抖音、支付寶等頭部應(yīng)用超200萬次下載;據(jù)PConline太平洋科技數(shù)據(jù),截至2025年2月全國已有數(shù)千個政企內(nèi)部辦公應(yīng)用完成對鴻蒙系統(tǒng)適配,覆蓋金融、能源、礦產(chǎn)等30余個關(guān)鍵行業(yè)。2025年4月,國務(wù)院新聞辦公室表示“推動更多APP上架鴻蒙應(yīng)用商店”;2025年5月8日,鴻蒙PC正式發(fā)布,華為終端全面進入鴻蒙時代。投入布局機器人業(yè)務(wù),打造通用場景機器人產(chǎn)品。2024年,公司成立人形機器人公司總部,同時與智元機器人達成戰(zhàn)略合作,打造通用場景人形機器人。能力打造上,公司自研星云具身智能計算平臺,并深度融合公司自研的天鶴操作系統(tǒng)及星云機器人智能操作系統(tǒng);同時公司研發(fā)大小腦算法,深度集成已有的天璇大模型服務(wù)平臺,支持人形機器人擁有多模態(tài)感知、自主學習、規(guī)劃與決策等能力。具體機器人產(chǎn)品包括:1)軟通天擎AD01輪式機器人,定位工業(yè)柔性制造實現(xiàn)高危用工替代;2)軟通天擎LC01雙足人形機器人,聚焦展廳/博物館等交互場景和科研院校教育行業(yè);3)軟通天擎LA01全尺寸雙足人形機器人,聚焦大型公共展廳專業(yè)講解與智能問答等交互場景;4)軟通天匯巡檢復(fù)合機器人,面向工農(nóng)業(yè)領(lǐng)域中設(shè)備巡檢處置場景。2024年公司實現(xiàn)營收313.16億元,同比增長78.13%;實現(xiàn)歸母凈利潤1.80億元,同比下滑66.21%;實現(xiàn)扣非歸母凈利潤0.72億元,同比下滑84.31%。2025年Q1公司實現(xiàn)營收70.11億元,同比增長28.65%;歸母凈利潤虧損1.98億元,上年同期虧損2.77億元;扣非歸母凈利潤虧損2.16億元,上年同期虧損2.84億元。海外業(yè)務(wù)產(chǎn)品及營銷服體系持續(xù)完善,有望繼續(xù)保持穩(wěn)健增長。公司業(yè)務(wù)已覆蓋180多個國家和地區(qū),采取“一國一策,一品一策”的營銷戰(zhàn)略,基于國家業(yè)務(wù)發(fā)展階段的不同,因地制宜推進本地化營銷戰(zhàn)略的落地,持續(xù)提升海外產(chǎn)品的競爭力和適配度。在海外市場,公司以圖像技術(shù)、人工智能技術(shù)、多維感知技術(shù)為核心,不斷完善符合海外需求的AIoT產(chǎn)品家族,基于??涤^瀾大模型,公司首次推出面向海外的大模型產(chǎn)品,如DeepinView相機、DeepinMind后端產(chǎn)品,在周界防范等場景上極

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論