




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
人工智能核心算法模擬練習(xí)題+參考答案一、單選題(共44題,每題1分,共44分)1.在不考慮標(biāo)記樣本時,支持向量機(jī)試圖找到(___)間隔劃分超平面A、最小B、最長C、最短D、最大正確答案:D2.關(guān)于神經(jīng)網(wǎng)絡(luò)中經(jīng)典使用的優(yōu)化器,以下說法正確的是?A、Adam的收斂速度比RMSprop慢B、相比于SGD或RMSprop等優(yōu)化器,Adam的收斂效果是最好的C、對于輕量級神經(jīng)網(wǎng)絡(luò),使用Adam比使用RMSprop更合適D、相比于Adam或RMSprop等優(yōu)化器,SGD的收斂效果是最好的正確答案:D3.假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會得到輸出「-0.0001」。X可能是以下哪一個激活函數(shù)?A、ReLUB、tanhC、SIGMOIDD、以上都不是正確答案:B4.關(guān)于boosting下列說法錯誤的是()A、測試時,根據(jù)各層分類器的結(jié)果的加權(quán)得到最終結(jié)果。B、boosting方法的主要思想是迭代式學(xué)習(xí)。C、基分類器層層疊加,每一層在訓(xùn)練時,對前一層基分類器分錯的樣本給予更高的權(quán)值。D、訓(xùn)練基分類器時采用并行的方式。正確答案:D5.下列哪些項目是在圖像識別任務(wù)中使用的數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentationtechnique)?1水平翻轉(zhuǎn)(Horizontalflipping)2隨機(jī)裁剪(Randomcropping)3隨機(jī)放縮(Randomscaling)4顏色抖動(Colorjittering)5隨機(jī)平移(Randomtranslation)6隨機(jī)剪切(Randomshearing)A、1,3,5,6B、1,2,4C、2,3,4,5,6D、所有項目正確答案:D6.下面哪項操作能實現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果?()A、BoostingB、BaggingC、StackingD、Mapping正確答案:B7.混淆矩陣中TP=16,FP=12,FN=8,TN=4,準(zhǔn)確率是()。A、1/2B、4/7C、2/3D、1/4正確答案:A8.LSTM是一個非常經(jīng)典的面向序列的模型,可以對自然語言句子或是其他時序信號進(jìn)行建模,是一種()。A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、樸素貝葉斯C、卷積神經(jīng)網(wǎng)絡(luò)D、深度殘差網(wǎng)絡(luò)正確答案:A9.ROIAlign在哪個模型被采用()A、fastRCNNB、fasterRCNNC、maskRCNND、YOLOv3正確答案:C10.在分類學(xué)習(xí)中,提升方法通過反復(fù)修改訓(xùn)練數(shù)據(jù)的(),構(gòu)建一系列基本分類器并將它們線性組合,形成一個強(qiáng)分類器。A、權(quán)值分布B、方差C、偏差D、采樣樣本正確答案:A11.下面關(guān)于隨機(jī)森林和集成學(xué)習(xí)的說法,正確的是()A、隨機(jī)森林只能用于解決分類問題B、集成學(xué)習(xí)通過構(gòu)建多個模型,并將各個模型的結(jié)果使用求平均數(shù)的方法集成起來,作為最終的預(yù)測結(jié)果,提高分類問題的準(zhǔn)確率C、隨機(jī)森林由隨機(jī)數(shù)量的決策樹組成D、隨機(jī)森林的弱分類器(基分類器)的特征選擇不是隨機(jī)的正確答案:B12.下列哪項不屬于集成學(xué)習(xí)A、隨機(jī)森林B、AdaboostC、kNND、XGBoost正確答案:C13.rcnn網(wǎng)絡(luò)用()結(jié)構(gòu)生成候選框?A、RPNB、NMSC、SelectiveSearchD、RCNN正確答案:C14.每一棵決策樹擬合的是之前迭代得到的模型的()A、標(biāo)準(zhǔn)差B、均方差C、殘差D、方差正確答案:C15.為應(yīng)對卷積網(wǎng)絡(luò)模型中大量的權(quán)重存儲問題,研究人員在適量犧牲精度的基礎(chǔ)上設(shè)計出一款超輕量化模型()A、KNNB、RNNC、BNND、VGG正確答案:C16.以下關(guān)于算法的說法中,不正確的是A、機(jī)器學(xué)習(xí)算法分為有監(jiān)督、半監(jiān)督和無監(jiān)督三種B、K-Means是屬于無監(jiān)督學(xué)習(xí)算法C、卷積神經(jīng)網(wǎng)絡(luò)是重要的遷移學(xué)習(xí)算法D、決策樹算法屬于監(jiān)督學(xué)習(xí)類別正確答案:C17.下面哪個/些超參數(shù)的增加可能會造成隨機(jī)森林?jǐn)?shù)據(jù)過擬合?1樹的數(shù)量2樹的深度3學(xué)習(xí)速率A、只有2B、只有1C、都正確D、只有3正確答案:A18.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)以下說法錯誤的是?A、循環(huán)神經(jīng)網(wǎng)絡(luò)可以簡寫為RNNB、循環(huán)神經(jīng)網(wǎng)絡(luò)可以根據(jù)時間軸展開C、LSTM無法解決梯度消失的問題D、LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡(luò)正確答案:C19.()是一種基于樹結(jié)構(gòu)進(jìn)行決策的算法。A、K近鄰算法B、決策樹C、數(shù)據(jù)挖掘D、軌跡跟蹤正確答案:B20.獨(dú)熱編碼的英文是:A、twohotB、onehotC、onecoldD、twocold正確答案:B21.在RNN中,目前使用最廣泛的模型便是()模型,該模型能夠更好地建模長序列。A、LSMTB、LSTMC、SLMTD、SLTM正確答案:B22.下列關(guān)于特征選擇的說法錯誤的是(___)A、可以提高特征關(guān)聯(lián)性B、可以降低學(xué)習(xí)任務(wù)的難度C、可以減輕維數(shù)災(zāi)難問題D、特征選擇和降維具有相似的動機(jī)正確答案:A23.機(jī)器學(xué)習(xí)的算法中,以下哪個不是無監(jiān)督學(xué)習(xí)?A、聚類B、GMMC、XgboostD、關(guān)聯(lián)規(guī)則正確答案:C24.閔可夫斯基距離表示為曼哈頓距離時,p為()。A、1B、2C、3D、4正確答案:A25.Boosting的本質(zhì)實際上是一個加法模型,通過改變訓(xùn)練樣本()學(xué)習(xí)多個分類器并進(jìn)行一些線性組合A、權(quán)重B、分布C、概率D、數(shù)量正確答案:A26.關(guān)于貝葉斯網(wǎng)描述錯誤的是(___)A、借助有向無環(huán)圖刻畫屬性之間的關(guān)系;B、也稱為信念網(wǎng);C、借助無向無環(huán)圖刻畫屬性之間的關(guān)系;D、用條件概率表來描述屬性的聯(lián)合概率分布;正確答案:C27.下列關(guān)于隨機(jī)變量的分布函數(shù),分布律,密度函數(shù)的理解描述不正確的是?A、分布律只能描述離散型隨機(jī)變量的取值規(guī)律B、分布函數(shù)描述隨機(jī)變量的取值規(guī)律C、密度函數(shù)只能描述連續(xù)型隨機(jī)變量的取值規(guī)律。D、離散型隨機(jī)變量沒有分布函數(shù)正確答案:D28.關(guān)于聚類說法錯誤的是()A、在無監(jiān)督學(xué)習(xí)任務(wù)中,研究最多、應(yīng)用最廣的是聚類B、聚類可作為一個單獨(dú)過程,用于找尋數(shù)據(jù)內(nèi)在的分布結(jié)構(gòu),但不能作為其他學(xué)習(xí)任務(wù)的前驅(qū)過程C、聚類分析的目標(biāo)是組內(nèi)的對象之間是相似的,不同組中的對象是不同的D、組內(nèi)的相似性越大,組間差別越大,聚類就越好正確答案:B29.在ε-greedy策略當(dāng)中,ε的值越大,表示采用隨機(jī)的一個動作的概率越(),采用當(dāng)前Q函數(shù)值最大的動作的概率越()。A、小;大B、小;小C、大;小D、大;大正確答案:C30.下列有關(guān)決策樹說法錯誤的是A、是一個分類模型B、是一個回歸模型C、是一個監(jiān)督學(xué)習(xí)算法D、主要用來處理時間序列數(shù)據(jù)樣本正確答案:D31.神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個神經(jīng)元接受一個輸入,對輸入進(jìn)行處理后給出一個輸出。請問下列關(guān)于神經(jīng)元的描述中,哪一項是正確的?A、上述都正確B、每個神經(jīng)元可以有一個輸入和一個輸出C、每個神經(jīng)元可以有多個輸入和多個輸出D、每個神經(jīng)元可以有多個輸入和一個輸出正確答案:A32.DSSM模型總的來說可以分成哪幾層結(jié)構(gòu),分別是()A、表示層、匹配層B、輸入層、匹配層C、輸入層、表示層D、輸入層、表示層和匹配層。正確答案:D33.下列哪個神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會發(fā)生權(quán)重共享?()A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、選項A和B正確答案:D34.在主成分分析中,將幾個主分量經(jīng)過線性組合構(gòu)造為一個綜合評價函數(shù)時,每個主分量的權(quán)數(shù)為()。A、每個主分量的標(biāo)準(zhǔn)差B、每個主分量的方差貢獻(xiàn)率C、每個主分量的方差D、每個主分量的貢獻(xiàn)率正確答案:B35.NaveBayes(樸素貝葉斯)是一種特殊的Bayes分類器,特征變量是X,類別標(biāo)簽是C,它的一個假定是()A、各類別的先驗概率P(C)是相等的B、以0為均值,sqr(2)/2為標(biāo)準(zhǔn)差的正態(tài)分布C、特征變量X的各個維度是類別條件獨(dú)立隨機(jī)變量D、P(X|C)是高斯分布正確答案:C36.ResNet-50:depth=[3,4,6,3]代表()A、C3有3個殘差塊B、C4有4個殘差塊C、C5有4個殘差塊D、C2有3個殘差塊正確答案:D37.關(guān)于線性回歸的描述,以下正確的有()A、基本假設(shè)包括隨機(jī)干擾項是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布B、基本假設(shè)包括隨機(jī)干擾項是均值為0的同方差正態(tài)分布C、多重共線性會使得參數(shù)估計值方差減小D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項正確答案:B38.圖像數(shù)字化分為兩個步驟:一為取樣,二為()。A、清洗B、數(shù)字化C、量化D、去噪聲正確答案:C39.關(guān)于常用評分函數(shù)描述錯誤的為(___)A、編碼位數(shù)僅為自身所需的編碼位數(shù);B、學(xué)習(xí)目標(biāo)為以最短編碼長度描述訓(xùn)練數(shù)據(jù)模型;C、學(xué)習(xí)問題看做為數(shù)據(jù)壓縮任務(wù);D、基于信息論準(zhǔn)則;正確答案:A40.產(chǎn)生式系統(tǒng)的推理不包括A、雙向推理B、簡單推理C、正向推理D、逆向推理正確答案:B41.OCR是指對文本書面資料(印刷字體、手寫字體)的圖像文件進(jìn)行分析識別處理,獲取文字及版面信息的過程,其中文全程是()。A、光學(xué)字符識別B、文字識別C、字符識別D、書面識別正確答案:A42.下述()不是人工智能中常用的知識格式化表示方法。A、產(chǎn)生式表示法B、形象描寫表示法C、語義網(wǎng)絡(luò)表示法D、框架表示法正確答案:B43.代碼arr3=np.array([[1,2,3],[4,5,6]]).transpose();print(arr3[1,1])的輸出結(jié)果是()?A、4B、5C、3D、2正確答案:B44.下列哪些沒有使用Anchorbox?()A、FasterRCNNB、YOLOv1C、YOLOv2D、YOLOv3正確答案:B二、多選題(共24題,每題1分,共24分)1.圖像平滑目的是()。A、減小突變梯度;B、突出圖像的窄小區(qū)域C、改善圖像質(zhì)量;D、使圖像亮度平緩漸變;正確答案:ACD2.關(guān)于對數(shù)幾率回歸,以下說法正確的是()A、對數(shù)幾率回歸是可得到近似概率預(yù)測B、對數(shù)幾率回歸是一種分類學(xué)習(xí)方法C、對數(shù)幾率回歸任意階可導(dǎo)的凸函數(shù)D、對數(shù)幾率回歸無需事先假設(shè)數(shù)據(jù)分布正確答案:ABCD3.目標(biāo)檢測的應(yīng)用場景有()A、廠區(qū)安防B、智慧醫(yī)療C、生產(chǎn)質(zhì)檢D、智慧交通正確答案:ABCD4.以下算法中可以用于圖像處理中去噪的是()。A、中值濾波B、均值濾波C、最小值濾波D、最大值濾波正確答案:ABCD5.以下哪些是屬于深度學(xué)習(xí)算法的激活函數(shù)?A、SinB、TanhC、ReLUD、Sigmoid正確答案:BCD6.下列哪些網(wǎng)用到了殘差連接()A、FastTextB、BERTC、GoogLeNetD、ResNet正確答案:BD7.在隨機(jī)森林中,最終的集成模型是通過什么策略決定模型結(jié)果的?A、累加制B、求平均數(shù)C、投票制D、累乘制正確答案:BC8.關(guān)于線性回歸說法正確的是()A、輸入特征是非隨機(jī)的且互不相關(guān)的B、隨機(jī)誤差具有零均值,同方差的特點(diǎn)C、隨機(jī)誤差彼此間不相關(guān)D、輸入特征于隨機(jī)誤差不相關(guān)正確答案:ABCD9.關(guān)于k折交叉驗證,下列說法正確的是?A、選擇更大的k值,會讓偏差更小,因為k值越大,訓(xùn)練集越接近整個訓(xùn)練樣本B、選擇合適的k值,能減小驗方差C、k值并不是越大越好,k值過大,會降低運(yùn)算速度D、k折交叉驗證能夠有效提高模型的學(xué)習(xí)能力正確答案:ABCD10.以下屬于梯度下降的是A、BGDB、SGDC、Mini-BatchD、dropout正確答案:ABC11.在Skip-gram的實際實現(xiàn)中,vocab_size通常很大,導(dǎo)致W非常大。為了緩解這個問題,通常采?。ǎ┑姆绞絹斫颇M()任務(wù)。A、負(fù)采樣B、正采樣C、單分類D、多分類正確答案:AD12.決策樹分為兩大類()。A、森林B、交叉樹C、回歸樹D、分類樹正確答案:CD13.以下哪些操作常被用于目標(biāo)檢測的骨干網(wǎng)絡(luò):A、分組卷積B、轉(zhuǎn)置卷積C、池化D、深度可分離卷積正確答案:ACD14.卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸。常見的池化有A、最小地化層B、乘積池化層C、最大池化層D、平均池化層正確答案:CD15.以下哪些機(jī)器學(xué)習(xí)算法可以不對特征做歸一化處理()A、隨機(jī)森林B、邏輯回歸C、SVMD、GBDT正確答案:AD16.降維的重要特征提取技術(shù)()A、PCAB、KPCAC、ICAD、AA正確答案:ABC17.關(guān)于歸一化描述正確的是()。A、歸一化可以預(yù)防過擬合B、歸一化沒有實質(zhì)作用C、歸一化將所有數(shù)據(jù)樣本之縮放到0-1之間D、歸一化是一種激活函數(shù)正確答案:AC18.強(qiáng)化學(xué)習(xí)中的兩種免模型學(xué)習(xí)是()、()。A、蒙特卡羅強(qiáng)化學(xué)習(xí)B、逆強(qiáng)化學(xué)習(xí)C、時序差分學(xué)習(xí)D、模仿學(xué)習(xí)正確答案:AC19.神經(jīng)網(wǎng)絡(luò)可以按()A、網(wǎng)絡(luò)的活動方式分類B、網(wǎng)絡(luò)的協(xié)議類型分類C、網(wǎng)絡(luò)結(jié)構(gòu)分類D、學(xué)習(xí)方式分類正確答案:ACD20.關(guān)于線性回歸說法正確的是()A、日常生活中,收入預(yù)測可以作為線性回歸問題來解決B、商品庫存預(yù)測,是一種典型的有監(jiān)督學(xué)習(xí)方法C、線性回歸是簡單的方法"D、常用的回歸模型有線性回實用歸和非線性回歸正確答案:ABCD21.下列哪些技術(shù)能被用于計算兩個詞向量之間的距離?A、詞形還原(Lemmatization)B、歐氏距離(EuclideanDistance)C、余弦相似度(CosineSimilarity)D、N-grams正確答案:BC22.SVM中常用的核函數(shù)包括哪些?A、高斯核函數(shù)B、線性核函數(shù)C、多項式核函數(shù)D、Sigmiod核函數(shù)正確答案:ABCD23.EM算法每次迭代包括哪些步驟?A、求極大值B、求期望C、求標(biāo)準(zhǔn)差D、求方差正確答案:AB24.如果深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)出現(xiàn)了梯度消失或梯度爆炸問題我們常用的解決方法為.A、隨機(jī)欠采樣B、正則化C、使用Relu激活函數(shù)D、梯度剪切正確答案:BCD三、判斷題(共36題,每題1分,共36分)1.感受野是輸出特征圖上的像素點(diǎn)所能感受到的輸入數(shù)據(jù)的范圍A、正確B、錯誤正確答案:A2.KNN不需要進(jìn)行訓(xùn)練A、正確B、錯誤正確答案:A3.Mapreduce適用于可以串行處理的應(yīng)用程序A、正確B、錯誤正確答案:B4.用多個小卷積核串聯(lián)可以有大卷積核同樣的能力,2個3*3卷積核可以代替一個7*7卷積核,參數(shù)更少;A、正確B、錯誤正確答案:B5.目標(biāo)檢測位置的準(zhǔn)確度可以用IOU值評估,IOU的計算方法是求檢測結(jié)果和真實標(biāo)注的并集和交集的比值。A、正確B、錯誤正確答案:B6.可用作數(shù)據(jù)挖掘分析中的關(guān)聯(lián)規(guī)則算法有Apriori算法、FP-Tree算法、K均值法、SOM神經(jīng)網(wǎng)絡(luò)A、正確B、錯誤正確答案:B7.正則化是解決過擬合的方法之一()A、正確B、錯誤正確答案:A8.卷積神經(jīng)網(wǎng)絡(luò)的常用模塊包括:卷積、池化、激活函數(shù)、批歸一化、丟棄法A、正確B、錯誤正確答案:A9.聚類分析當(dāng)中,簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越差A(yù)、正確B、錯誤正確答案:B10.()模擬退火算法結(jié)合了爬山法和隨機(jī)行走方法的優(yōu)點(diǎn)。A、正確B、錯誤正確答案:A11.embedding就是獨(dú)熱。A、正確B、錯誤正確答案:B12.基于規(guī)則的AI系統(tǒng)由一連串的if-then-else規(guī)則來進(jìn)行推斷或行動決策。()A、正確B、錯誤正確答案:A13.邏輯回歸是一種用于有監(jiān)督學(xué)習(xí)的回歸任務(wù)的簡單算法A、正確B、錯誤正確答案:B14.一個循環(huán)神經(jīng)網(wǎng)絡(luò)可以被展開成為一個完全連接的、具有無限長度的普通神經(jīng)網(wǎng)絡(luò)A、正確B、錯誤正確答案:A15.訓(xùn)練集分割為小一點(diǎn)的子集訓(xùn)練,這些子集被取名為mini-batch。A、正確B、錯誤正確答案:A16.廣度優(yōu)先搜索方法的原理是:從樹的根節(jié)點(diǎn)開始,在樹中一層一層的查找,當(dāng)找到目標(biāo)節(jié)點(diǎn)時,搜索結(jié)束()A、正確B、錯誤正確答案:A17.樹形模型不需要?dú)w一化,它們不關(guān)心變量的值,如決策樹、隨機(jī)森林(RandomForest)A、正確B、錯誤正確答案:A18.由于卷積核比較小,可以堆疊更多的卷積層,加深網(wǎng)絡(luò)的深度,這對于圖像分類任務(wù)來說是不利的。A、正確B、錯誤正確答案:B19.廣度優(yōu)先搜索方法的原理是:從樹的根節(jié)點(diǎn)開始,在樹中一層一層的查找,當(dāng)找到目標(biāo)節(jié)點(diǎn)時,搜索結(jié)束()。A、正確B、錯誤正確答案:A20.數(shù)據(jù)集太小,數(shù)據(jù)樣本不足時,深度學(xué)習(xí)相對其它機(jī)器學(xué)習(xí)算法,
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 中產(chǎn)階級與社會變化的動態(tài)分析試題及答案
- 廈門公證服務(wù)協(xié)議書
- 雙馬化工就業(yè)協(xié)議書
- 2025年工程法規(guī)的重要定義與解讀試題及答案
- 單位電路改造協(xié)議書
- 2025年農(nóng)業(yè)產(chǎn)業(yè)結(jié)構(gòu)調(diào)整與新型經(jīng)營主體培育策略分析報告
- 2025年工程法規(guī)考試認(rèn)知誤區(qū)剖析試題及答案
- 糧食儲備庫項目建設(shè)的可行性分析
- 經(jīng)濟(jì)法概論考試備考試題及答案
- 鎖定目標(biāo)2025年中級經(jīng)濟(jì)師試題及答案
- 幼兒園課題-基于商城游戲室的大班幼兒分享交流的策略研究
- 《運(yùn)輸管理實訓(xùn)指導(dǎo)書》(學(xué)生)
- GB/T 33084-2016大型合金結(jié)構(gòu)鋼鍛件技術(shù)條件
- GB/T 23703.1-2009知識管理第1部分:框架
- 12摻合料試驗記錄(礦渣粉)帶數(shù)據(jù)
- 春天就是我童聲合唱簡譜
- 普安金橋百匯項目經(jīng)理變更申請書
- (新版)國家統(tǒng)計執(zhí)法證資格考試備考題庫(含答案)
- 《有趣的推理》課件公開課
- 工作單位接收函
- 研究生英語綜合教程上-課文 翻譯
評論
0/150
提交評論