




已閱讀5頁(yè),還剩70頁(yè)未讀, 繼續(xù)免費(fèi)閱讀
版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
ArtificialIntelligence(AI)人工智能,第七章:機(jī)器學(xué)習(xí),內(nèi)容提要,第七章:機(jī)器學(xué)習(xí)系統(tǒng),1.機(jī)器學(xué)習(xí)的基本概念,2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu),3.歸納學(xué)習(xí),4.類比學(xué)習(xí),5.解釋學(xué)習(xí),6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),8.其他,7.知識(shí)發(fā)現(xiàn),阿法狗通過(guò)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)所有高水平圍棋棋譜,大概是歷史上有的20萬(wàn)個(gè)左右職業(yè)棋譜,從而獲得了在盤(pán)面上如何落子的直覺(jué)。,類似的深度學(xué)習(xí)是在近幾年出現(xiàn)的,目前,這項(xiàng)科技也有了一些應(yīng)用,最簡(jiǎn)單的例子就是通過(guò)深度學(xué)習(xí)識(shí)別貓。通過(guò)這項(xiàng)識(shí)別驗(yàn)證,已經(jīng)引申出了更多具有實(shí)際意義的應(yīng)用,比如識(shí)別某一個(gè)圖片中是否有癌細(xì)胞,某一個(gè)鐵路沿線上的軌道是否存在磨損,甚至軍事作戰(zhàn)中,對(duì)方的視線中是否有坦克,都可以通過(guò)深度學(xué)習(xí)實(shí)現(xiàn)。谷歌的自動(dòng)駕駛,其中很重要的就是識(shí)別道路、交通信號(hào)燈、路標(biāo)等,這都是通過(guò)深度學(xué)習(xí)獲得。,阿法狗走的是通用學(xué)習(xí)的道路。它的估值函數(shù),不是專家攻關(guān)搗哧出來(lái)的。它的作者只是搭了一個(gè)基本的框架(一個(gè)多層的神經(jīng)網(wǎng)絡(luò)),除了圍棋最基本的規(guī)則外,沒(méi)有任何先驗(yàn)知識(shí)。你可以把它想象成一個(gè)新生兒的大腦,一張白紙。然后,直接用人類高手對(duì)局的3000萬(wàn)個(gè)局面訓(xùn)練它,自動(dòng)調(diào)節(jié)它的神經(jīng)網(wǎng)絡(luò)參數(shù),讓它的行為和人類高手接近。這樣,阿法狗就具有了基本的棋感,看到一個(gè)局面大致就能知道好還是不好。阿法狗的核心技術(shù)還包括策略網(wǎng)絡(luò)的訓(xùn)練和蒙特卡洛樹(shù)搜索。,內(nèi)容提要,第七章:機(jī)器學(xué)習(xí)系統(tǒng),1.機(jī)器學(xué)習(xí)的基本概念,2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu),3.歸納學(xué)習(xí),4.類比學(xué)習(xí),5.解釋學(xué)習(xí),6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),8.其他,7.知識(shí)發(fā)現(xiàn),機(jī)器學(xué)習(xí)是人工智能的核心,通過(guò)使機(jī)器模擬人類學(xué)習(xí)行為,智能化地從過(guò)去的經(jīng)歷中獲得經(jīng)驗(yàn),從而改善其整體性能,重組內(nèi)在知識(shí)結(jié)構(gòu),并對(duì)未知事件進(jìn)行準(zhǔn)確的推斷。機(jī)器學(xué)習(xí)在科學(xué)和工程諸多領(lǐng)域都有著非常廣泛的應(yīng)用,例如金融分析、數(shù)據(jù)挖掘、生物信息學(xué)、醫(yī)學(xué)診斷等。生活中常見(jiàn)的一些智能系統(tǒng)也廣泛使用機(jī)器學(xué)習(xí)算法,例如電子商務(wù)、手寫(xiě)輸入、郵件過(guò)濾等。,人類的未來(lái)生活和工作,還將有機(jī)器人參與。機(jī)器人的自主學(xué)習(xí),更離不開(kāi)人臉識(shí)別技術(shù)。,2015年3月16日,馬云在德國(guó)參加活動(dòng)時(shí),為嘉賓演示了一項(xiàng)“SmiletoPay”的掃臉技術(shù)。在網(wǎng)購(gòu)后的支付認(rèn)證階段,通過(guò)掃臉取代傳統(tǒng)的密碼,實(shí)現(xiàn)“刷臉支付”。,機(jī)器學(xué)習(xí)的基本概念,機(jī)器學(xué)習(xí)的兩大學(xué)派機(jī)器學(xué)習(xí):人工智能的重要分支構(gòu)造具有學(xué)習(xí)能力的智能系統(tǒng)知識(shí)、推理、學(xué)習(xí)手段:統(tǒng)計(jì),邏輯,代數(shù)統(tǒng)計(jì)機(jī)器學(xué)習(xí)從大量樣本出發(fā),運(yùn)用統(tǒng)計(jì)方法,發(fā)現(xiàn)統(tǒng)計(jì)規(guī)律有監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)問(wèn)題:分類,聚類,回歸,機(jī)器學(xué)習(xí)的基本概念,機(jī)器學(xué)習(xí)的定義西蒙(Simon,1983):學(xué)習(xí)就是系統(tǒng)中的適應(yīng)性變化,這種變化使系統(tǒng)在重復(fù)同樣工作或類似工作時(shí),能夠做得更好。明斯基(Minsky,1985):學(xué)習(xí)是在人們頭腦里(心理內(nèi)部)有用的變化。學(xué)習(xí)是一個(gè)有特定目的知識(shí)獲取和能力增長(zhǎng)過(guò)程,其內(nèi)在行為是獲得知識(shí)、積累經(jīng)驗(yàn)、發(fā)現(xiàn)規(guī)律等,其外部表現(xiàn)是改進(jìn)性能、適應(yīng)環(huán)境、實(shí)現(xiàn)自我完善等。機(jī)器學(xué)習(xí)是研究如何使用機(jī)器來(lái)模擬人類學(xué)習(xí)活動(dòng)的一門學(xué)科。,機(jī)器學(xué)習(xí)的基本概念,機(jī)器學(xué)習(xí)的任務(wù)根據(jù)有限樣本集Q,推算這個(gè)世界W的模型,使得其對(duì)這個(gè)世界為真。,機(jī)器學(xué)習(xí)的基本概念,機(jī)器學(xué)習(xí)的三要素一致性假設(shè):假設(shè)世界W與樣本集Q具有某種相同性質(zhì)機(jī)器學(xué)習(xí)的條件。樣本空間劃分:將樣本集放到一個(gè)n維空間,尋找一個(gè)決策面(等價(jià)關(guān)系),使得問(wèn)題決定的不同對(duì)象被劃分在不相交的區(qū)域。泛化能力:從有限樣本集合中獲得的規(guī)律是否對(duì)學(xué)習(xí)集以外的數(shù)據(jù)仍然有效。泛化能力決定模型對(duì)世界的有效性。,內(nèi)容提要,第七章:機(jī)器學(xué)習(xí)系統(tǒng),1.機(jī)器學(xué)習(xí)的基本概念,2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu),3.歸納學(xué)習(xí),4.類比學(xué)習(xí),5.解釋學(xué)習(xí),6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),8.其他,7.知識(shí)發(fā)現(xiàn),機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu),機(jī)器學(xué)習(xí)的主要策略:按照學(xué)習(xí)中使用推理的多少,機(jī)器學(xué)習(xí)所采用的策略大體上可分為4種機(jī)械學(xué)習(xí):記憶學(xué)習(xí)方法,即把新的知識(shí)存儲(chǔ)起來(lái),供需要時(shí)檢索調(diào)用,而不需要計(jì)算和推理。示教學(xué)習(xí):外界輸入知識(shí)與內(nèi)部知識(shí)的表達(dá)不完全一致,系統(tǒng)在接受外部知識(shí)時(shí)需要推理、翻譯和轉(zhuǎn)化。類比學(xué)習(xí):需要發(fā)現(xiàn)當(dāng)前任務(wù)與已知知識(shí)的相似之處,通過(guò)類比給出完成當(dāng)前任務(wù)的方案。示例學(xué)習(xí):需要從一組正例和反例中分析和總結(jié)出一般性的規(guī)律,在新的任務(wù)中推廣、驗(yàn)證、修改規(guī)律。,機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu),學(xué)習(xí)系統(tǒng)的基本結(jié)構(gòu)影響學(xué)習(xí)系統(tǒng)設(shè)計(jì)的要素環(huán)境:環(huán)境向系統(tǒng)提供信息的水平(一般化程度)和質(zhì)量(正確性)知識(shí)庫(kù):表達(dá)能力,易于推理,容易修改,知識(shí)表示易于擴(kuò)展。,內(nèi)容提要,第七章:機(jī)器學(xué)習(xí)系統(tǒng),1.機(jī)器學(xué)習(xí)的基本概念,2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu),3.歸納學(xué)習(xí),4.類比學(xué)習(xí),5.解釋學(xué)習(xí),6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),8.其他,7.知識(shí)發(fā)現(xiàn),歸納學(xué)習(xí),歸納學(xué)習(xí)(InductionLearning)歸納學(xué)習(xí)是應(yīng)用歸納推理進(jìn)行學(xué)習(xí)的一種方法。歸納學(xué)習(xí)的模式:,實(shí)驗(yàn)規(guī)劃過(guò)程通過(guò)對(duì)實(shí)例空間的搜索完成實(shí)例選擇,并將這些選中拿到的活躍實(shí)例提交給解釋過(guò)程。解釋過(guò)程對(duì)實(shí)例加以適當(dāng)轉(zhuǎn)換,把活躍實(shí)例變換為規(guī)則空間中的特定概念,以引導(dǎo)規(guī)則空間的搜索。,歸納學(xué)習(xí),歸納學(xué)習(xí)(InductionLearning)歸納學(xué)習(xí)是目前研究得最多的學(xué)習(xí)方法,其學(xué)習(xí)目的是為了獲得新概念、構(gòu)造新規(guī)則或發(fā)現(xiàn)新理論。根據(jù)歸納學(xué)習(xí)有無(wú)教師指導(dǎo),可把它分為示例學(xué)習(xí):給學(xué)習(xí)者提供某一概念的一組正例和反例,學(xué)習(xí)者歸納出一個(gè)總的概念描述(規(guī)則),并使這個(gè)描述適合于所有的正例,排除所有的反例。觀察發(fā)現(xiàn)學(xué)習(xí):概念聚類:按照一定的方式和準(zhǔn)則分組,歸納概念機(jī)器發(fā)現(xiàn):從數(shù)據(jù)和事例中發(fā)現(xiàn)新知識(shí),內(nèi)容提要,第七章:機(jī)器學(xué)習(xí)系統(tǒng),1.機(jī)器學(xué)習(xí)的基本概念,2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu),3.歸納學(xué)習(xí),4.類比學(xué)習(xí),5.解釋學(xué)習(xí),6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),8.其他,7.知識(shí)發(fā)現(xiàn),類比學(xué)習(xí),類比推理和類比學(xué)習(xí)方式類比學(xué)習(xí)(learningbyanalogy)就是通過(guò)類比,即通過(guò)對(duì)相似事物加以比較所進(jìn)行的一種學(xué)習(xí)。類比學(xué)習(xí)是利用二個(gè)不同領(lǐng)域(源域、目標(biāo)域)中的知識(shí)相似性,可以通過(guò)類比,從源域的知識(shí)(包括相似的特征和其它性質(zhì))推導(dǎo)出目標(biāo)域的相應(yīng)知識(shí),從而實(shí)現(xiàn)學(xué)習(xí)。例如:1.一個(gè)從未開(kāi)過(guò)truck的司機(jī),只要他有開(kāi)car的知識(shí)就可完成開(kāi)truck的任務(wù)。2.若把某個(gè)人比喻為消防車,則可通過(guò)觀察消防車的行為,推斷出這個(gè)人的性格。,類比學(xué)習(xí),類比推理和類比學(xué)習(xí)方式類比學(xué)習(xí)系統(tǒng)可以使一個(gè)已有的計(jì)算機(jī)應(yīng)用系統(tǒng)轉(zhuǎn)變?yōu)檫m應(yīng)于新的領(lǐng)域,來(lái)完成原先沒(méi)有設(shè)計(jì)的相類似的功能。類比推理過(guò)程:回憶與聯(lián)想:找出當(dāng)前情況的相似情況選擇:選擇最相似的情況及相關(guān)知識(shí)建立對(duì)應(yīng)關(guān)系:建立相似元素之間的映射轉(zhuǎn)換:求解問(wèn)題或產(chǎn)生新的知識(shí),類比學(xué)習(xí),類比學(xué)習(xí)研究類型問(wèn)題求解型的類比學(xué)習(xí):求解一個(gè)新問(wèn)題時(shí),先回憶以前是否求解過(guò)類似問(wèn)題,若是,則以此為依據(jù)求解新問(wèn)題。預(yù)測(cè)推理型的類比學(xué)習(xí)傳統(tǒng)的類比法:用來(lái)推斷一個(gè)不完全確定的事物可能還有的其他屬性因果關(guān)系型:已知因果關(guān)系S1:A-B,如果有AA,則可能有B滿足A-B,內(nèi)容提要,第七章:機(jī)器學(xué)習(xí)系統(tǒng),1.機(jī)器學(xué)習(xí)的基本概念,2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu),3.歸納學(xué)習(xí),4.類比學(xué)習(xí),5.解釋學(xué)習(xí),6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),8.其他,7.知識(shí)發(fā)現(xiàn),解釋學(xué)習(xí),解釋學(xué)習(xí)(Explanation-basedlearning,EBL)解釋學(xué)習(xí)興起于20世紀(jì)80年代中期,根據(jù)任務(wù)所在領(lǐng)域知識(shí)和正在學(xué)習(xí)的概念知識(shí),對(duì)當(dāng)前實(shí)例進(jìn)行分析和求解,得出一個(gè)表征求解過(guò)程的因果解釋樹(shù),以獲取新的知識(shí)。例如:學(xué)生根據(jù)教師提供的目標(biāo)概念、該概念的一個(gè)例子、領(lǐng)域理論及可操作準(zhǔn)則,首先構(gòu)造一個(gè)解釋來(lái)說(shuō)明為什么該例子滿足目標(biāo)概念,然后將解釋推廣為目標(biāo)概念的一個(gè)滿足可操作準(zhǔn)則的充分條件。,解釋學(xué)習(xí),解釋學(xué)習(xí)過(guò)程和算法米切爾提出了一個(gè)解釋學(xué)習(xí)的統(tǒng)一算法EBG,建立了基于解釋的概括過(guò)程,并用知識(shí)的邏輯表示和演繹推理進(jìn)行問(wèn)題求解。其一般性描述為:給定:領(lǐng)域知識(shí)DT目標(biāo)概念TC訓(xùn)練實(shí)例TE操作性準(zhǔn)則OC找出:滿足OC的關(guān)于TC的充分條件,解釋學(xué)習(xí),EBG算法可概括為兩步:1.構(gòu)造解釋:運(yùn)用領(lǐng)域知識(shí)進(jìn)行演繹,證明提供給系統(tǒng)的訓(xùn)練實(shí)例為什么是滿足目標(biāo)概念的一個(gè)實(shí)例。例如:設(shè)要學(xué)習(xí)的目標(biāo)概念是“一個(gè)物體(Obj1)可以安全地放置在另一個(gè)物體(Obj2)上”,即:Safe-To-Stack(Obj1,obj2)領(lǐng)域知識(shí)是把一個(gè)物體放置在另一個(gè)物體上面的安全性準(zhǔn)則:,解釋學(xué)習(xí),EBG算法可概括為兩步:領(lǐng)域知識(shí):Fragile(y)Safe-To-Stack(x,y):如果y不是易碎的,則x可以安全地放到y(tǒng)的上面Lighter(x,y)Safe-To-Stack(x,y):如果x比y輕,則x可以安全地放到y(tǒng)的上面Volume(p,v)Density(p,d)*(v,d,w)Weight(p,w):如果p的體積是v、密度是d、v乘以d的積是w,則p的重量是wIsa(p,table)Weight(p,15):若p是桌子,則p的重量是15Weight(p1,w1)Weight(p2,w2)Smaller(w1,w2)Lighter(p1,p2):如果p1的重量是w1、p2的重量是w2、w1比w2小,則p1比p2輕,解釋學(xué)習(xí),EBG算法可概括為兩步:Safe-To-Stack(Obj1,obj2)解釋結(jié)構(gòu):,解釋學(xué)習(xí),EBG算法可概括為兩步:2.獲取一般性的知識(shí):任務(wù):對(duì)上一步得到的解釋結(jié)構(gòu)進(jìn)行一般化的處理,從而得到關(guān)于目標(biāo)概念的一般性知識(shí)。方法:將常量換成變量,并把某些不重要的信息去掉,只保留求解問(wèn)題必須的關(guān)鍵信息。例如:Volume(O1,v1)Density(O1,d1)*(v1,d1,w1)Isa(O2,table)Smaller(w1,15)Safe-To-Stack(Obj1,obj2),解釋學(xué)習(xí),EBG算法可概括為兩步:Safe-To-Stack(O1,O2)一般化解釋結(jié)構(gòu),以后求解類似問(wèn)題時(shí),就可以直接利用這個(gè)知識(shí)進(jìn)行求解,提到了系統(tǒng)求解問(wèn)題的效率。,內(nèi)容提要,第七章:機(jī)器學(xué)習(xí)系統(tǒng),1.機(jī)器學(xué)習(xí)的基本概念,2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu),3.歸納學(xué)習(xí),4.類比學(xué)習(xí),5.解釋學(xué)習(xí),6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),8.其他,7.知識(shí)發(fā)現(xiàn),神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),神經(jīng)生理學(xué)研究表明,人腦的神經(jīng)元既是學(xué)習(xí)的基本單位,同是也是記憶的基本單位。目前,關(guān)于人腦學(xué)習(xí)和記憶機(jī)制的研究有兩大學(xué)派:化學(xué)學(xué)派:認(rèn)為人腦經(jīng)學(xué)習(xí)所獲得的信息是記錄在某些生物大分子之上的。例如,蛋白質(zhì)、核糖核酸、神經(jīng)遞質(zhì),就像遺傳信息是記錄在DNA(脫氧核糖核酸)上一樣。突觸修正學(xué)派:認(rèn)為人腦學(xué)習(xí)所獲得的信息是分布在神經(jīng)元之間的突觸連接上的。,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),按照突觸修正學(xué)派的觀點(diǎn),人腦的學(xué)習(xí)和記憶過(guò)程實(shí)際上是一個(gè)在訓(xùn)練中完成的突觸連接權(quán)值的修正和穩(wěn)定過(guò)程。其中,學(xué)習(xí)表現(xiàn)為突觸連接權(quán)值的修正,記憶則表現(xiàn)為突觸連接權(quán)值的穩(wěn)定。突觸修正假說(shuō)已成為人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)和記憶機(jī)制研究的心理學(xué)基礎(chǔ),與此對(duì)應(yīng)的權(quán)值修正學(xué)派也一直是人工神經(jīng)網(wǎng)絡(luò)研究的主流學(xué)派。突觸修正學(xué)派認(rèn)為,人工神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程就是一個(gè)不斷調(diào)整網(wǎng)絡(luò)連接權(quán)值的過(guò)程。按照學(xué)習(xí)規(guī)則,神經(jīng)學(xué)習(xí)可分為:Hebb學(xué)習(xí)、糾錯(cuò)學(xué)習(xí)、競(jìng)爭(zhēng)學(xué)習(xí)及隨機(jī)學(xué)習(xí)等。,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),Hebb學(xué)習(xí)Hebb學(xué)習(xí)的基本思想:如果神經(jīng)網(wǎng)絡(luò)中某一神經(jīng)元同另一直接與它連接的神經(jīng)元同時(shí)處于興奮狀態(tài),那么這兩個(gè)神經(jīng)元之間的連接強(qiáng)度將得到加強(qiáng),反之應(yīng)該減弱。Hebb學(xué)習(xí)對(duì)連接權(quán)值的調(diào)整可表示為:wij(t+1)表示對(duì)時(shí)刻t的權(quán)值修正一次后所得到的新的權(quán)值;取正值,稱為學(xué)習(xí)因子,它取決于每次權(quán)值的修正量;xi(t)、xj(t)分別表示t時(shí)刻第i個(gè)和第j個(gè)神經(jīng)元的狀態(tài)。,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),糾錯(cuò)學(xué)習(xí)糾錯(cuò)學(xué)習(xí)的基本思想:利用神經(jīng)網(wǎng)絡(luò)的期望輸出與實(shí)際輸出之間的偏差作為連接權(quán)值調(diào)整的參考,并最終減少這種偏差。糾錯(cuò)學(xué)習(xí)是一種有導(dǎo)師的學(xué)習(xí)過(guò)程。最基本的誤差修正規(guī)則為:連接權(quán)值的變化與神經(jīng)元希望輸出和實(shí)際輸出之差成正比。其聯(lián)結(jié)權(quán)值的計(jì)算公式為:yj(t)為神經(jīng)元j的實(shí)際輸出;dj(t)為神經(jīng)元j的希望輸出;,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),競(jìng)爭(zhēng)學(xué)習(xí)基本思想:網(wǎng)絡(luò)中某一組神經(jīng)元相互競(jìng)爭(zhēng)對(duì)外界刺激模式響應(yīng)的權(quán)力,在競(jìng)爭(zhēng)中獲勝的神經(jīng)元,其連接權(quán)會(huì)向著對(duì)這一刺激模式競(jìng)爭(zhēng)更為有利的方向發(fā)展。隨機(jī)學(xué)習(xí)基本思想:結(jié)合隨機(jī)過(guò)程、概率和能量(函數(shù))等概念來(lái)調(diào)整網(wǎng)絡(luò)的變量,從而使網(wǎng)絡(luò)的目標(biāo)函數(shù)達(dá)到最大(或最?。?。他不僅可以接受能量函數(shù)減少(性能得到改善)的變化,而且還可以以某種概率分布接受使能量函數(shù)增大(性能變差)的變化。,感知器學(xué)習(xí)單層感知器學(xué)習(xí)算法單層感知器學(xué)習(xí)的例子BP網(wǎng)絡(luò)學(xué)習(xí)Hopfield網(wǎng)絡(luò)學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),單層感知器學(xué)習(xí)實(shí)際上是一種基于糾錯(cuò)學(xué)習(xí)規(guī)則,采用迭代的思想對(duì)連接權(quán)值和閾值進(jìn)行不斷調(diào)整,直到滿足結(jié)束條件為止的學(xué)習(xí)算法。假設(shè)X(k)和W(k)分別表示學(xué)習(xí)算法在第k次迭代時(shí)輸入向量和權(quán)值向量,為方便,把閾值作為權(quán)值向量W(k)中的第一個(gè)分量,對(duì)應(yīng)地把“-1”固定地作為輸入向量X(k)中的第一個(gè)分量。即W(k)和X(k)可分別表示如下:X(k)=-1,x1(k),x2(k),xn(k)W(k)=(k),w1(k),w2(k),wn(k)即x0(k)=-1,w0(k)=(k)。單層感知器學(xué)習(xí)是一種有導(dǎo)師學(xué)習(xí),它需要給出輸入樣本的期望輸出。假設(shè)一個(gè)樣本空間可以被劃分為A、B兩類,定義:功能函數(shù):若輸入樣本屬于A類,輸出為+1,否則其輸出為-1。期望輸出:若輸入樣本屬于A類,期望輸出為+1,否則為-1。,單層感知器學(xué)習(xí)算法算法思想,單層感知器學(xué)習(xí)算法可描述如下:(1)設(shè)t=0,初始化連接權(quán)和閾值。即給wi(0)(i=1,2,n)及(0)分別賦予一個(gè)較小的非零隨機(jī)數(shù),作為初值。其中,wi(0)是第0次迭代時(shí)輸入向量中第i個(gè)輸入的連接權(quán)值;(0)是第0次迭代時(shí)輸出節(jié)點(diǎn)的閾值;(2)提供新的樣本輸入xi(t)(i=1,2,n)和期望輸出d(t);(3)計(jì)算網(wǎng)絡(luò)的實(shí)際輸出:,單層感知器學(xué)習(xí)算法算法描述,(4)若y(t)=d(t),不需要調(diào)整連接權(quán)值,轉(zhuǎn)(6)。否則,需要調(diào)整權(quán)值(5)調(diào)整連接權(quán)值其中,是一個(gè)增益因子,用于控制修改速度,其值如果太大,會(huì)影響wi(t)的收斂性;如果太小,又會(huì)使wi(t)的收斂速度太慢;(6)判斷是否滿足結(jié)束條件,若滿足,算法結(jié)束;否則,將t值加1,轉(zhuǎn)(2)重新執(zhí)行。這里的結(jié)束條件一般是指wi(t)對(duì)一切樣本均穩(wěn)定不變。若輸入的兩類樣本是線性可分的,則該算法就一定會(huì)收斂。否則,不收斂。,單層感知器學(xué)習(xí)算法算法描述,例用單層感知器實(shí)現(xiàn)邏輯“與”運(yùn)算。解:根據(jù)“與”運(yùn)算的邏輯關(guān)系,可將問(wèn)題轉(zhuǎn)換為:輸入向量:X1=0,0,1,1X2=0,1,0,1輸出向量:Y=0,0,0,1為減少算法的迭代次數(shù),設(shè)初始連接權(quán)值和閾值取值如下:w1(0)=0.5,w2(0)=0.7,(0)=0.6并取增益因子=0.4。算法的學(xué)習(xí)過(guò)程如下:設(shè)兩個(gè)輸入為x1(0)=0和x2(0)=0,其期望輸出為d(0)=0,實(shí)際輸出為:y(0)=f(w1(0)x1(0)+w2(0)x2(0)-(0)=f(0.5*0+0.7*0-0.6)=f(-0.6)=0實(shí)際輸出與期望輸出相同,不需要調(diào)節(jié)權(quán)值。,單層感知器學(xué)習(xí)的例子學(xué)習(xí)例子(1/4),再取下一組輸入:x1(0)=0和x2(0)=1,期望輸出d(0)=0,實(shí)際輸出:y(0)=f(w1(0)x1(0)+w2(0)x2(0)-(0)=f(0.5*0+0.7*1-0.6)=f(0.1)=1實(shí)際輸出與期望輸出不同,需要調(diào)節(jié)權(quán)值,其調(diào)整如下:(1)=(0)+(d(0)-y(0)*(-1)=0.6+0.4*(0-1)*(-1)=1w1(1)=w1(0)+(d(0)-y(0)x1(0)=0.5+0.4*(0-1)*0=0.5w2(1)=w2(0)+(d(0)-y(0)x2(0)=0.7+0.4*(0-1)*1=0.3取下一組輸入:x1(1)=1和x2(1)=0,其期望輸出為d(1)=0,實(shí)際輸出為:y(1)=f(w1(1)x1(1)+w2(1)x2(1)-(1)=f(0.5*1+0.3*0-1)=f(-0.51)=0實(shí)際輸出與期望輸出相同,不需要調(diào)節(jié)權(quán)值。,單層感知器學(xué)習(xí)的例子學(xué)習(xí)例子(2/4),再取下一組輸入:x1(1)=1和x2(1)=1,其期望輸出為d(1)=1,實(shí)際輸出為:y(1)=f(w1(1)x1(1)+w2(1)x2(1)-(1)=f(0.5*1+0.3*1-1)=f(-0.2)=0實(shí)際輸出與期望輸出不同,需要調(diào)節(jié)權(quán)值,其調(diào)整如下:(2)=(1)+(d(1)-y(1)*(-1)=1+0.4*(1-0)*(-1)=0.6w1(2)=w1(1)+(d(1)-y(1)x1(1)=0.5+0.4*(1-0)*1=0.9w2(2)=w2(1)+(d(1)-y(1)x2(1)=0.3+0.4*(1-0)*1=0.7取下一組輸入:x1(2)=0和x2(2)=0,其期望輸出為d(2)=0,實(shí)際輸出為:y(2)=f(0.9*0+0.7*0-0.6)=f(-0.6)=0實(shí)際輸出與期望輸出相同,不需要調(diào)節(jié)權(quán)值.,單層感知器學(xué)習(xí)的例子學(xué)習(xí)例子(3/4),再取下一組輸入:x1(2)=0和x2(2)=1,期望輸出為d(2)=0,實(shí)際輸出為:y(2)=f(0.9*0+0.7*1-0.6)=f(0.1)=1實(shí)際輸出與期望輸出不同,需要調(diào)節(jié)權(quán)值,其調(diào)整如下:(3)=(2)+(d(2)-y(2)*(-1)=0.6+0.4*(0-1)*(-1)=1w1(3)=w1(2)+(d(2)-y(2)x1(2)=0.9+0.4*(0-1)*0=0.9w2(3)=w2(2)+(d(2)-y(2)x2(2)=0.7+0.4*(0-1)*1=0.3實(shí)際上,由與運(yùn)算的閾值條件可知,此時(shí)的閾值和連接權(quán)值以滿足結(jié)束條件,算法可以結(jié)束。對(duì)此,可檢驗(yàn)如下:對(duì)輸入:“00”有y=f(0.9*0+0.3*0-1)=f(-1)=0對(duì)輸入:“01”有y=f(0.9*0+0.3*0.1-1)=f(-0.7)=0對(duì)輸入:“10”有y=f(0.9*1+0.3*0-1)=f(-0.1)=0對(duì)輸入:“11”有y=f(0.9*1+0.3*1-1)=f(0.2)=1,單層感知器學(xué)習(xí)的例子學(xué)習(xí)例子(4/4),多層感知器可以解決非線性可分問(wèn)題,但其隱層神經(jīng)元的期望輸出卻不易給出。而單層感知器學(xué)習(xí)是一種有導(dǎo)師指導(dǎo)的學(xué)習(xí)過(guò)程,因此其學(xué)習(xí)算法無(wú)法直接用于多層感知器。由于多層感知器和BP網(wǎng)絡(luò)都屬于前向網(wǎng)絡(luò),并能較好解決多層前饋網(wǎng)絡(luò)的學(xué)習(xí)問(wèn)題.因此,可用BP學(xué)習(xí)來(lái)解決多層感知器學(xué)習(xí)問(wèn)題。,多層感知器學(xué)習(xí)問(wèn)題,BP網(wǎng)絡(luò)學(xué)習(xí)的網(wǎng)絡(luò)基礎(chǔ)是具有多層前饋結(jié)構(gòu)的BP網(wǎng)絡(luò)。為討論方便,采用如下圖所示的三層BP網(wǎng)絡(luò)。,BP網(wǎng)絡(luò)學(xué)習(xí)的基礎(chǔ)1.三層BP網(wǎng)絡(luò),對(duì)上述三層BP網(wǎng)絡(luò),分別用I,j,k表示輸入層、隱含層、輸出層節(jié)點(diǎn),且以以下符號(hào)表示:Oi,Oj,Ok分別表示輸入層節(jié)點(diǎn)i、隱含層節(jié)點(diǎn)j,輸出層節(jié)點(diǎn)k的輸出;Ii,Ij,Ik,分別表示輸入層節(jié)點(diǎn)i、隱含層節(jié)點(diǎn)j,輸出層節(jié)點(diǎn)k的輸入;wij,wjk分別表示從輸入層節(jié)點(diǎn)i到隱含層節(jié)點(diǎn)j,從隱含層節(jié)點(diǎn)j輸出層節(jié)點(diǎn)k的輸入節(jié)點(diǎn)j的連接權(quán)值;j、k分別表示隱含層節(jié)點(diǎn)j、輸出層節(jié)點(diǎn)k的閾值;對(duì)輸入層節(jié)點(diǎn)i有:,BP網(wǎng)絡(luò)學(xué)習(xí)的基礎(chǔ)2.網(wǎng)絡(luò)節(jié)點(diǎn)的輸入/輸出關(guān)系(1/2),(7.1),對(duì)輸出層節(jié)點(diǎn)有:,BP網(wǎng)絡(luò)學(xué)習(xí)的基礎(chǔ)2.網(wǎng)絡(luò)節(jié)點(diǎn)的輸入/輸出關(guān)系(2/2),(7.5),(7.4),對(duì)隱含層節(jié)點(diǎn)有:,(7.2),(7.3),BP網(wǎng)絡(luò)學(xué)習(xí)的方式,BP網(wǎng)絡(luò)學(xué)習(xí)的基礎(chǔ)BP網(wǎng)絡(luò)的激發(fā)函數(shù)和學(xué)習(xí)方式,BP網(wǎng)絡(luò)的激發(fā)函數(shù),(7.3),通常采用連續(xù)可微的S函數(shù),包括單極,BP網(wǎng)絡(luò)學(xué)習(xí)過(guò)程是一個(gè)對(duì)給定訓(xùn)練模式,利用傳播公式,沿著減小誤差的方向不斷調(diào)整網(wǎng)絡(luò)聯(lián)結(jié)權(quán)值和閾值的過(guò)程。設(shè)樣本集中的第r個(gè)樣本,其輸出層結(jié)點(diǎn)k的期望輸出用drk表示,實(shí)際輸出用yrk表示。其中,drk由訓(xùn)練模式給出,yrk由7.5式計(jì)算得出。即有yrk=Ork如果僅針對(duì)單個(gè)輸入樣本,其實(shí)際輸出與期望輸出的誤差為,BP算法的傳播公式誤差,上述誤差定義是針對(duì)單個(gè)訓(xùn)練樣本的誤差計(jì)算公式,它適用于網(wǎng)絡(luò)的順序?qū)W習(xí)方式。若采用批處理學(xué)習(xí)方式,需要定義其總體誤差。假設(shè)樣本集中有R個(gè)樣本,則對(duì)整個(gè)樣本集的總體誤差定義為,(7.6),(7.7),針對(duì)順序?qū)W習(xí)方式,其聯(lián)結(jié)權(quán)值的調(diào)整公式為,BP算法的傳播公式權(quán)值變化量(1/2),(7.8),(7.9),式中,為增益因子,取0,1區(qū)間的一個(gè)正數(shù),其取值與算法的收斂速度有關(guān);由下式計(jì)算,式中,wjk(t)和wjk(t+1)分別是第t次迭代和t+1次迭代時(shí),從結(jié)點(diǎn)j到結(jié)點(diǎn)k的聯(lián)結(jié)權(quán)值;wjk是聯(lián)結(jié)權(quán)值的變化量。為了使聯(lián)結(jié)權(quán)值能沿著E的梯度下降的方向逐漸改善,網(wǎng)絡(luò)逐漸收斂,權(quán)值變化量wjk的計(jì)算公式如下:,(7.10),根據(jù)7.2式,可得到輸出層節(jié)點(diǎn)k的Ik為,BP算法的傳播公式權(quán)值變化量(1/2),(7.11),(7.12),令局部梯度,(7.13),對(duì)該式求偏導(dǎo)數(shù)有,將7.10式、7.11式和7.12式代入7.9式有,對(duì)k的計(jì)算,須區(qū)分k是輸出層上還是隱含層上的結(jié)點(diǎn)。下面分別討論。,如果結(jié)點(diǎn)k是輸出層上的結(jié)點(diǎn),則有Ok=yk,因此,BP算法的傳播公式節(jié)點(diǎn)k是輸出層節(jié)點(diǎn)(1/3),(7.14),(7.15),由7.6式,有,即,而,(7.16),將7.15式和7.16式代入7.14式,有,BP算法的傳播公式節(jié)點(diǎn)k是輸出層節(jié)點(diǎn)(2/3),(7.17),(7.15),由于f(Ik)=f(Ik)1-f(Ik),且f(Ik)=yk,因此有,再將7.18式代入7.13式,有,根據(jù)7.8,對(duì)輸出層有,(7.20),(7.18),如果k不是輸出層結(jié)點(diǎn)它表示聯(lián)結(jié)權(quán)值是作用于隱含層上的結(jié)點(diǎn),此時(shí),有k=j,j按下式計(jì)算,BP算法的傳播公式節(jié)點(diǎn)k是隱含層節(jié)點(diǎn)(1/3),(7.22),由7.3式,Oj=f(Ij-j),因此有,式中,,(7.21),是一個(gè)隱函數(shù)求導(dǎo)問(wèn)題,其推導(dǎo)過(guò)程為,由7.12式有,BP算法的傳播公式節(jié)點(diǎn)k是隱含層節(jié)點(diǎn)(2/3),(7.24),將7.23式代入7.22式,有,它說(shuō)明,低層結(jié)點(diǎn)的值是通過(guò)上一層結(jié)點(diǎn)的值來(lái)計(jì)算的。這樣,我們就可以先計(jì)算出輸出層上的值,然后把它返回到較低層上,并計(jì)算出各較低層上結(jié)點(diǎn)的值。由于f(Ij)=f(Ij)1-f(Ij),故由7.24可得,(7.23),(7.25),再將7.25式代入7.13式,并將其轉(zhuǎn)化為隱函數(shù)的變化量,有,7.3.2BP算法的傳播公式節(jié)點(diǎn)k是隱含層節(jié)點(diǎn)(3/3),再由7.1式和7.3式,有,根據(jù)7.8,對(duì)隱含層有,(7.26),(7.28),(7.27),對(duì)三層BP網(wǎng)絡(luò),設(shè)wij是輸入層到隱層,wjk是隱層到輸出層的聯(lián)結(jié)權(quán)值;R是樣本個(gè)數(shù),其計(jì)數(shù)器為r;T是訓(xùn)練過(guò)程的最大迭代數(shù),其計(jì)數(shù)器為t。(1)初始化網(wǎng)絡(luò)及學(xué)習(xí)參數(shù):將wij、wjk、j、k均賦以較小的隨機(jī)數(shù);設(shè)置為0,1區(qū)間的數(shù);置訓(xùn)練樣本計(jì)數(shù)器r=0,誤差E=0、誤差閾值為很小的正數(shù)。(2)隨機(jī)輸入一個(gè)訓(xùn)練樣本,r=r+1,t=0。(3)按7.1-7.5式計(jì)算隱層神經(jīng)元的狀態(tài)和輸出層每個(gè)節(jié)點(diǎn)的實(shí)際輸出yk,按7.6式計(jì)算該樣本的誤差E。,BP網(wǎng)絡(luò)學(xué)習(xí)算法算法描述,(4)檢查E?若是,執(zhí)行下一步;否則,轉(zhuǎn)(8)。(5)t=t+1。(6)檢查tT?若是,執(zhí)行下一步;否則,轉(zhuǎn)(8)。(7)按7.18式計(jì)算輸出層結(jié)點(diǎn)k的k,按7.25式計(jì)算隱層結(jié)點(diǎn)j的j,按7.20式計(jì)算wjk(t+1),按7.28式計(jì)算wij(t+1),返回(3)。其中,對(duì)閾值按聯(lián)結(jié)權(quán)值的學(xué)習(xí)方式修正,即把閾值設(shè)想為神經(jīng)元的聯(lián)結(jié)權(quán)值,并假定其輸入信號(hào)值總是為1。(8)檢查r=R?若是,執(zhí)行下一步;否則,轉(zhuǎn)(2)。(9)結(jié)束。,BP網(wǎng)絡(luò)學(xué)習(xí)算法算法描述,BP網(wǎng)絡(luò)學(xué)習(xí)算法算法流程,隨機(jī)輸入一個(gè)訓(xùn)練樣本,置r=r+1,t=0,初始化網(wǎng)絡(luò)及學(xué)習(xí)參數(shù)wij,wjk,j,k,R,T,置E=0,r=0,對(duì)輸入樣本,計(jì)算該樣本的每一個(gè)yk,計(jì)算該樣本的誤差E,E?,t=t+1,tT?,計(jì)算輸出層結(jié)點(diǎn)k的k修正各層的wjk(t),wij(t),E?,結(jié)束,是,否,是,否,否,是,BP網(wǎng)絡(luò)模型是目前使用較多的一種神經(jīng)網(wǎng)絡(luò),其主要優(yōu)、缺點(diǎn)如下。優(yōu)點(diǎn)(1)算法的優(yōu)點(diǎn)是算法推導(dǎo)清楚,學(xué)習(xí)精度較高;(2)從理論上說(shuō),多層前饋網(wǎng)絡(luò)可學(xué)會(huì)任何可學(xué)習(xí)的東西;(3)經(jīng)過(guò)訓(xùn)練后的BP網(wǎng)絡(luò),運(yùn)行速度極快,可用于實(shí)時(shí)處理。缺點(diǎn)(1)由于其數(shù)學(xué)基礎(chǔ)是非線性優(yōu)化問(wèn)題,因此可能陷入局部最小區(qū)域;(2)算法收斂速度很慢,通常需要數(shù)千步或更長(zhǎng),甚至還可能不收斂;(3)網(wǎng)絡(luò)中隱含結(jié)點(diǎn)的設(shè)置無(wú)理論指導(dǎo)。上述缺點(diǎn)的解決辦法對(duì)于局部最小區(qū)域問(wèn)題,通常需要采用模擬退火算法或遺傳算法。對(duì)于算法收斂慢的問(wèn)題,其主要原因在于誤差是時(shí)間的復(fù)雜非線性函數(shù)。為提高算法收斂速度,可采用逐次自動(dòng)調(diào)整增益因子,或修改激活函數(shù)f(x)的方法來(lái)解決。,BP網(wǎng)絡(luò)學(xué)習(xí)的討論,Hopfield網(wǎng)絡(luò)學(xué)習(xí),Hopfield網(wǎng)絡(luò)學(xué)習(xí)的過(guò)程實(shí)際上是一個(gè)從網(wǎng)絡(luò)初始狀態(tài)向其穩(wěn)定狀態(tài)過(guò)渡的過(guò)程。而網(wǎng)絡(luò)的穩(wěn)定性又是通過(guò)能量函數(shù)來(lái)描述的。這里主要針對(duì)離散Hopfield網(wǎng)絡(luò)討論其能量函數(shù)和學(xué)習(xí)算法。,Hopfield網(wǎng)絡(luò)的能量函數(shù)Hopfield網(wǎng)絡(luò)學(xué)習(xí)算法,式中,n是網(wǎng)絡(luò)中的神經(jīng)元個(gè)數(shù),wij是神經(jīng)元i和神經(jīng)元j之間的連接權(quán)值,且有wij=wji;vi和vj分別是神經(jīng)元i和神經(jīng)元j的輸出;i是神經(jīng)元i的閾值??梢宰C明,對(duì)Hopfield網(wǎng)絡(luò),無(wú)論其神經(jīng)元的狀態(tài)由“0”變?yōu)椤?”,還是由“1”變?yōu)椤?”,始終有其網(wǎng)絡(luò)能量的變化:E0,Hopfield的能量函數(shù)能量函數(shù)定義及性質(zhì),能量函數(shù)用于描述Hopfield網(wǎng)絡(luò)的穩(wěn)定性。其定義為:,對(duì)網(wǎng)絡(luò)能量變化的這一結(jié)論,我們可以從網(wǎng)絡(luò)能量的構(gòu)成形式進(jìn)行分析。如果假設(shè)某一時(shí)刻網(wǎng)絡(luò)中僅有神經(jīng)元k的輸出發(fā)生了變化,而其它神經(jīng)元的輸出沒(méi)有變化,則可把上述能量函數(shù)分作三部分來(lái)討論。其中,第一部分是i=1,k-1;第二部分是i=k;第三部分是i=k+1,n。,即網(wǎng)絡(luò)能量函數(shù)可寫(xiě)成如下形式:,Hopfield的能量函數(shù)能量函數(shù)定義及性質(zhì)(2/7),在這種形式中,可以引起網(wǎng)絡(luò)能量變化的僅有公式中的如下部分:,i=1,k-1,jk,這部分能量與k的輸出無(wú)關(guān),i=1,k-1,j=k,這部分能量與k的輸出有關(guān),i=k,jk,這部分能量與k的輸出有關(guān),i=k+1,n,jk,這部分能量與k的輸出無(wú)關(guān),i=k+1,n,jk,這部分能量與k的輸出有關(guān),Hopfield的能量函數(shù)能量函數(shù)定義及性質(zhì)(3/7),又由于,即:,再根據(jù)連接權(quán)值的對(duì)稱性,即wij=wji,有:,Hopfield的能量函數(shù)能量函數(shù)定義及性質(zhì)(4/7),即可以引起網(wǎng)絡(luò)能量變化的部分為,為了更清晰地描述網(wǎng)絡(luò)能量的變化,我們引入時(shí)間概念。假設(shè)t表示當(dāng)前時(shí)刻,t+1表示下一時(shí)刻,時(shí)刻t和t+1的網(wǎng)絡(luò)能量分別為E(t)和E(t+1),神經(jīng)元i和神經(jīng)元j在時(shí)刻t和t+1的輸出分別為vi(t)、vj(t)和vj(t+1)、vj(t+1)。由時(shí)刻t到t+1網(wǎng)絡(luò)能量的變化為:E=E(t+1)-E(t),當(dāng)網(wǎng)絡(luò)中僅有神經(jīng)元k的輸
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 車輛股權(quán)轉(zhuǎn)讓與改裝升級(jí)服務(wù)合同
- 出租車司機(jī)聘用及服務(wù)質(zhì)量保障合同
- 項(xiàng)目中止后采購(gòu)合同數(shù)量變更及取消協(xié)議
- 老妖精咨詢工程師課件
- 美術(shù)紅色文化課件設(shè)計(jì)
- 安全生產(chǎn)方針五要素
- 物業(yè)消防工作計(jì)劃
- 安全生產(chǎn)管理制度及處罰條例
- 水電安全操作規(guī)程
- 安全生產(chǎn)提升活動(dòng)總結(jié)
- 辦公室副主任考試試題及答案詳解
- 克拉瑪依市公安局招聘警務(wù)輔助人員考試真題2024
- 2024年石家莊市市屬國(guó)有企業(yè)招聘考試真題
- 醫(yī)院火災(zāi)的應(yīng)急預(yù)案及處理流程
- 醫(yī)院呼吸機(jī)操作評(píng)分表
- 2025年天津市河北區(qū)普通高中學(xué)業(yè)水平合格性模擬檢測(cè)數(shù)學(xué)試題(含答案)
- 2025-2030中國(guó)物理氣相沉積(PVD)涂層系統(tǒng)行業(yè)市場(chǎng)發(fā)展趨勢(shì)與前景展望戰(zhàn)略研究報(bào)告
- 2025河南省豫地科技集團(tuán)社會(huì)招聘169人筆試參考題庫(kù)附帶答案詳解
- 人教版(2024)七年級(jí)下冊(cè)英語(yǔ)期末模擬測(cè)試卷(含答案)
- 兵團(tuán)開(kāi)放大學(xué)2025年春季《公共關(guān)系學(xué)》終結(jié)考試答案
- 電線電纜出入庫(kù)管理制度
評(píng)論
0/150
提交評(píng)論