人工智能算法知識考試題庫500題_第1頁
人工智能算法知識考試題庫500題_第2頁
人工智能算法知識考試題庫500題_第3頁
人工智能算法知識考試題庫500題_第4頁
人工智能算法知識考試題庫500題_第5頁
已閱讀5頁,還剩148頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

人工智能算法知識考試題庫500題(供參考)

一、單選題

1.循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個32*32*3的圖像,3表示RGB三通道,卷積

核的結(jié)構(gòu)是5*5*3,共6個不同的卷積核,一個卷積核產(chǎn)生一個featuremap,則

輸出的featuremap矩陣的結(jié)構(gòu)是()。

A、27*27*3

B、28*28*3

C、27*27*6

D、28*28*6

答案:D

解析:循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個32*32*3的圖像,3表示RGB三通道,

卷積核的結(jié)構(gòu)是5*5*3,共6個不同的卷積核,一個卷積核產(chǎn)生一個featurema

P,則輸出的featuremap矩陣的結(jié)構(gòu)是28*28*6。

2.fromskIearnimportIinear_modeIreg=Iinear_modeI.Lasso,其中Lasso是用

來擬合什么樣的線性模型的?

A、稀疏數(shù)據(jù)

B、稀疏系數(shù)

C'稀疏標(biāo)簽

答案:B

3.如果問題存在最優(yōu)解,則下面幾種搜索算法中,哪一個必然可以得到該最優(yōu)解

A、廣度優(yōu)先搜索

B、深度優(yōu)先搜索

C、有界深度優(yōu)先搜索

D、啟發(fā)式搜索

答案:A

解析:廣度優(yōu)先搜索搜索的范圍最廣

4.在強(qiáng)化學(xué)習(xí)過程中,()表示隨機(jī)地采取某個動作,以便于嘗試各種結(jié)果;()表示

采取當(dāng)前認(rèn)為最優(yōu)的動作,以便于進(jìn)一步優(yōu)化評估當(dāng)前認(rèn)為最優(yōu)的動作的值。

A、探索

B、開發(fā)

C、開發(fā)

D、探索

E、探索

答案:A

5.對于一個分類任務(wù),如果開始時神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)成

0,下面哪個敘述是正確的?

A、其他選項都不對

B、沒啥問題,神經(jīng)網(wǎng)絡(luò)會正常開始訓(xùn)練

C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會變成識別同樣的東西

D、神經(jīng)網(wǎng)絡(luò)不會開始訓(xùn)練,因為沒有梯度改變

答案:C

6.下列哪些不是“子集搜索”中的搜索方式(_)

A、單向搜索

B、雙向搜索

C、前向搜索

D、后向搜索

答案:A

解析:見算法解析

7.LARS屬于哪種特征選擇方法(一)

A、包裹式

B、啟發(fā)式

C、嵌入式

D、過濾式

答案:C

解析:見算法解析

8.生成式方法是直接基于(_)的方法?

A、生成式學(xué)習(xí)

B、生成式場景

C、生成式數(shù)據(jù)

D、生成式模型

答案:D

解析:見算法解析

9,下面哪個敘述是對的?Dropout對一個神經(jīng)元隨機(jī)屏蔽輸入權(quán)重Dropconnect

對一個神經(jīng)元隨機(jī)屏蔽輸入和輸出權(quán)重

A、1是對的,2是錯的

B、都是對的

C、1是錯的,2是對的

D、都是錯的

答案:D

10.機(jī)器學(xué)習(xí)中做特征選擇時,下面方法或信息不一定有用的是

A、卡方檢驗

B、信息增益

C、數(shù)據(jù)采樣

D、期望交叉熠

答案:C

11,下列關(guān)于特征選擇的說法錯誤的是(_)

A、可以提高特征關(guān)聯(lián)性

B、可以減輕維數(shù)災(zāi)難問題

C、可以降低學(xué)習(xí)任務(wù)的難度

D、特征選擇和降維具有相似的動機(jī)

答案:A

解析:見算法解析

12.全局梯度下降算法、隨機(jī)梯度下降算法和批量梯度下降算法均屬于梯度下降

算法,以下關(guān)于其有優(yōu)缺點說法錯誤的是:

A、全局梯度算法可以找到損失函數(shù)的最小值

B、批量梯度算法可以解決局部最小值問題

C、隨機(jī)梯度算法可以找到損失函數(shù)的最小值

D、全局梯度算法收斂過程比較耗時

答案:C

13.下面的問題,屬于分類問題的是;

A、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測

員工在接下來一段時間內(nèi)的工資漲幅

B、根據(jù)員工的薪水、工作壓力,成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測

員工下一季度的績效考核分?jǐn)?shù)

C、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測

員工是否可能會在接下來的一段時間內(nèi)離職

D、根據(jù)員工的薪水、工作壓力,成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測

員工下一季度的銷售額

答案:C

14.關(guān)于精度與錯誤率的說法中錯誤的是()。

A、精度與錯誤率的和為1

B、精度與錯誤率都可以反映模型的好壞

C、精度與錯誤率都可以用概率密度函數(shù)表示

D、精度是評價模型的唯一標(biāo)準(zhǔn)

答案:D

解析:精度是不是評價模型的唯一標(biāo)準(zhǔn)

15.如果問題存在最優(yōu)解,則下面幾種搜索算法中,廣度優(yōu)先搜索必然可以得到

該最優(yōu)解,()可以認(rèn)為是“智能程度相對比較高”的算法。

A、無界深度優(yōu)先搜索

B、深度優(yōu)先搜索

C、有界深度優(yōu)先搜索

D、啟發(fā)式搜索

答案:D

16.下列哪個函數(shù)不可以做非線性激活函數(shù)?()

A、y=tanh(x)

B\y=sin(x)

Gy=max(x,0)

D\y=2x

答案:D

17.Softmax算法中溫度趨近于0時Softmax將趨于(_)

A、僅探索

B、僅利用

C、全探索

D、全利用

答案:B

解析:見算法解析

18.閔可夫斯基距離表示為曼哈頓距離時,p為()。

A、1

B、2

C、3

D、4

答案:A

解析:閔可夫斯基距離定義為:該距離最常用的P是2和1,前者是歐幾里得距

離),后者是曼哈頓距離。

19.下面的問題,哪一個屬于分類問題的是()

A、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測

員工下一季度的銷售額

B、根據(jù)員工的薪水、工作壓力,成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測

員工下一季度的績效考核分?jǐn)?shù)

C、根據(jù)員工的薪水、工作壓力、成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測

員工在接下來一段時間內(nèi)的工資漲幅

D、根據(jù)員工的薪水、工作壓力,成長環(huán)境、工作年限、績效考核等數(shù)據(jù),預(yù)測

員工是否可能會在接下來的一段時間內(nèi)離職

答案:D

20.Relief屬于哪種特征選擇方法(一)

A、包裹式

B、啟發(fā)式

C、嵌入式

D、過濾式

答案:D

解析:見算法解析

21.哪種聚類方法采用概率模型來表達(dá)聚類()

A、K-means

B、LVQ

GDBSCAN

D、高斯混合聚類

答案:D

22.faster-rcnn回歸分支采用()Ioss

A、L1

B、L2

C、SmoothLI

D\nan

答案:C

解析:見算法解析

23.在一個神經(jīng)網(wǎng)絡(luò)中,知道每一個神經(jīng)元的權(quán)重和偏差是最重要的一步。如果

知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個神經(jīng)的

權(quán)重和偏移呢?

A、搜索每個可能的權(quán)重和偏差組合,直到得到最佳值

B、賦予一個初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重

C、隨機(jī)賦值,聽天由命

D、以上都不正確的

答案:B

24.卷積神經(jīng)網(wǎng)絡(luò)中的局部連接是指:在進(jìn)行圖像識別的時候,不需要對整個圖

像進(jìn)行處理,只需要關(guān)注圖像中某些()的區(qū)域。

A\一般

B、特殊

C、連續(xù)

D\重點

答案:B

解析:見算法解析

25.下列人工神經(jīng)網(wǎng)絡(luò)屬于反饋網(wǎng)絡(luò)的是()

A、HopfieId網(wǎng)

B、BP網(wǎng)絡(luò)

C、多層感知器

D、LVQ網(wǎng)絡(luò)

答案:A

解析:$BP網(wǎng)絡(luò)'多層感知器、LVQ網(wǎng)絡(luò)屬于前饋網(wǎng)絡(luò)

26.下列關(guān)于K-Means聚類說法錯誤的是()

A、聚類的簇個數(shù)會由模型自動給出

B、可以使用多組隨機(jī)的初始中心點進(jìn)行計算

C、聚類前應(yīng)當(dāng)進(jìn)行維度分析

D、聚類前應(yīng)當(dāng)進(jìn)行數(shù)據(jù)標(biāo)準(zhǔn)化

答案:A

解析:聚類的簇個數(shù)由人為確定。

27.LSTM是一種什么網(wǎng)絡(luò)?

A、卷積神經(jīng)網(wǎng)

B、前饋神經(jīng)網(wǎng)

C\循環(huán)神經(jīng)網(wǎng)

D\攣生網(wǎng)絡(luò)

答案:C

解析:LSTM是一種循環(huán)神經(jīng)網(wǎng)絡(luò)

28.在經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型中,Softmax函數(shù)是跟在什么隱藏層后面的?

A、卷積層

B、池化層

C、全連接層

D、以上都可以

答案:C

29.回歸分析中定義的()

A、解釋變量和被解釋變量都是隨機(jī)變量

B、解釋變量為非隨機(jī)變量,被解釋變量為隨機(jī)變量

C、解釋變量和被解釋變量都為非隨機(jī)變量

D、解釋變量為隨機(jī)變量,被解釋變量為非隨機(jī)變量

答案:B

30.如果強(qiáng)行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會導(dǎo)致某些特征模式的丟失,

所以在標(biāo)準(zhǔn)化之后,BatchNorm會緊接著對數(shù)據(jù)做縮放和()

A\平移

B、刪除

C、移動

D、收斂

答案:A

解析:如果強(qiáng)行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會導(dǎo)致某些特征模式的丟失,

所以在標(biāo)準(zhǔn)化之后,BatchNorm會緊接著對數(shù)據(jù)做縮放和平移

31.關(guān)于MNIST,下列說法錯誤的是0。

A、是著名的手寫體數(shù)字識別數(shù)據(jù)集

B、有訓(xùn)練集和測試集兩部分

C、訓(xùn)練集類似人學(xué)習(xí)中使用的各種考試試卷

D、測試集大約包含10000個樣本和標(biāo)簽

答案:C

32.Reiu在零點不可導(dǎo),那么在反向傳播中怎么處理()

A、設(shè)為0

B、設(shè)為無窮大

C、不定義

D、設(shè)為任意值

答案:A

解析:Relu在零點不可導(dǎo),那么在反向傳播中設(shè)為0

33.神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個神經(jīng)元接受一個輸入,對輸入

進(jìn)行處理后給出一個輸出。請問下列關(guān)于神經(jīng)元的描述中,哪一項是正確的?

A、每個神經(jīng)元可以有一個輸入和一個輸出

B、每個神經(jīng)元可以有多個輸入和一個輸出

C、每個神經(jīng)元可以有多個輸入和多個輸出

D、上述都正確

答案:D

解析:每個神經(jīng)元可以有一個或多個輸入,和一個或多個輸出。如圖所示的神經(jīng)

網(wǎng)絡(luò)結(jié)構(gòu)中,隱藏層的每一個神經(jīng)元都是多輸入多輸出。若將輸出層改為一個神

經(jīng)元,則隱藏層每個神經(jīng)元都是一個輸出;若將輸入層改為一個神經(jīng)元,則隱藏

層每個神經(jīng)元都是一個輸入。

34.神經(jīng)網(wǎng)絡(luò)中Dropout的作用()

A、防止過擬合

B、減小誤差

C、增加網(wǎng)絡(luò)復(fù)雜度

答案:A

解析:dropout是指在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過程中,對于神經(jīng)網(wǎng)絡(luò)單元,按照一

定的概率將其暫時從網(wǎng)絡(luò)中丟棄。

35.人工神經(jīng)網(wǎng)絡(luò)與生物神經(jīng)網(wǎng)絡(luò)的關(guān)系:

A、完全拷貝

B、一點點關(guān)系都沒有

C、人工神經(jīng)網(wǎng)絡(luò)受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)

D、同一事物的兩個名稱

答案:C

解析:人工神經(jīng)網(wǎng)絡(luò)受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)

36.模型有效的基本條件是能夠()已知的樣本

A、結(jié)合

B、擬合

C、聯(lián)合

D、聚集

答案:B

解析:模型有效的基本條件是能夠擬合已知的樣本

37.如果我們希望預(yù)測n個類(p1,p2...pk)的概率使得所有n的p的和等于1,

那么下列哪個函數(shù)可以用作輸出層中的激活函數(shù)?

A、Softmax

B、ReLu

C、Sigmoid

D、Tanh

答案:A

38.在人臉檢測算法中,不屬于該算法難點的是()

A、出現(xiàn)人臉遮擋

B、人臉角度變化大

C、需要檢測分辨率很小的人臉

D、需要檢測不同性別的人臉

答案:D

解析:在人臉檢測算法中,不屬于該算法難點的是需要檢測不同性別的人臉

39.機(jī)器執(zhí)行學(xué)習(xí)的框架體現(xiàn)了其學(xué)習(xí)的本質(zhì)是()

A、參數(shù)預(yù)估

B、機(jī)器翻譯

C、圖像識別

D、參數(shù)估計

答案:D

解析:機(jī)器執(zhí)行學(xué)習(xí)的框架體現(xiàn)了其學(xué)習(xí)的本質(zhì)是參數(shù)估計

40.假設(shè)在龐大的數(shù)據(jù)集上使用Logistic回歸模型。可能遇到一個問題,logis

tics回歸需要很長時間才能訓(xùn)練。如何提高訓(xùn)練速度?()

A、降低學(xué)習(xí)率,減少迭代次數(shù)

B、降低學(xué)習(xí)率,增加迭代次數(shù)

C、提高學(xué)習(xí)率,增加迭代次數(shù)

D、增加學(xué)習(xí)率,減少迭代次數(shù)

答案:D

41.0是使用某一位置的相鄰輸出的總體統(tǒng)計特征來代替網(wǎng)絡(luò)在該位置的輸出

A、卷積

B、約化

C、池化

D、批歸一化

答案:C

解析:池化是使用某一位置的相鄰輸出的總體統(tǒng)計特征來代替網(wǎng)絡(luò)在該位置的輸

42.圖計算中圖數(shù)據(jù)往往是()和不規(guī)則的,在利用分布式框架進(jìn)行圖計算時,

首先需要對圖進(jìn)行劃分,將負(fù)載分配到各個節(jié)點上

A、結(jié)構(gòu)化

B、非結(jié)構(gòu)化

C\對稱化

D、規(guī)則化

答案:B

解析:圖計算中圖數(shù)據(jù)往往是非結(jié)構(gòu)化和不規(guī)則的,在利用分布式框架進(jìn)行圖計

算時,首先需要對圖進(jìn)行劃分,將負(fù)載分配到各個節(jié)點上

43.在CNN中,梯度下降法的作用是()。

A、線性變換

B、非線性變換

C、求函數(shù)最小值

D、加速訓(xùn)練

答案:C

解析:在CNN中,梯度下降法的作用是求函數(shù)最小值。

44.Y0L0v3網(wǎng)格數(shù)為輸出特征圖[N,C,H,W]的0

A、C

B、C*H

C、H*W

D、nan

答案:c

解析:見算法解析

45.目標(biāo)檢測常用性能指標(biāo)的是()

A、信噪比

B、平方誤差

C、mAP

D、分辨率

答案:C

解析:mAP表示算法處理每張照片時間。

46.在選擇神經(jīng)網(wǎng)絡(luò)的深度時,下面哪些參數(shù)需要考慮?1神經(jīng)網(wǎng)絡(luò)的類型(如M

LP,CNN)2輸入數(shù)據(jù)3計算能力(硬件和軟件能力決定)4學(xué)習(xí)速率5映射的輸出函

數(shù)

A、1,2,4,5

B、2,3,4,5

C、都需要考慮

Dx1,3,4,5

答案:C

47.以下關(guān)于降維,表述錯誤的是:()

A、降維過程中可以保留原始數(shù)據(jù)的所有信息。

B、多維縮放的目標(biāo)是要保證降維后樣本之間的距離不變。

C、線性降維方法目標(biāo)是要保證降維到的超平面能更好的表示原始數(shù)據(jù)。

D、核線性降維方法目標(biāo)是通過核函數(shù)和核方法來避免采樣空間投影到高維空間

再降維之后的低維結(jié)構(gòu)丟失。

答案:A

48.NaveBayes(樸素貝葉斯)是一種特殊的Bayes分類器,特征變量是X,類別

標(biāo)簽是C,它的一個假定是()

A、各類別的先驗概率P(C)是相等的

B、以0為均值,sqr(2)/2為標(biāo)準(zhǔn)差的正態(tài)分布

C、特征變量X的各個維度是類別條件獨立隨機(jī)變量

D、P(X|C)是高斯分布

答案:C

49.獨熱編碼的缺點是:①.過于稀疏②.詞與詞的相關(guān)性比較?、?易于編碼④.

容易存儲

A、③④

B、①②

C、①③

D、②④

答案:B

解析:獨熱編碼的缺點是:①.過于稀疏②.詞與詞的相關(guān)性比較小

50.從一個初始策略出發(fā),不斷迭代進(jìn)行策略評估和改進(jìn),直到策略收斂、不再

改變?yōu)橹梗@樣的作法稱為(_)

A、策略迭代

B、值迭代

C、策略改進(jìn)

D、最優(yōu)值函數(shù)

答案:A

解析:見算法解析

51.以下屬于回歸算法的評價指標(biāo)是?

A、召回率

B、混淆矩陣

C、均方誤差

D、準(zhǔn)確率

答案:C

52.在下列人工神經(jīng)學(xué)習(xí)算法中,哪種是能夠根據(jù)期望的和實際的網(wǎng)絡(luò)輸出之間

的差來調(diào)整神經(jīng)元之間連接的強(qiáng)度或權(quán)。()

A、有師學(xué)習(xí)

B、無師學(xué)習(xí)

C、強(qiáng)化學(xué)習(xí)

D、都不是

答案:A

53.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)以下說法錯誤的是?

A、循環(huán)神經(jīng)網(wǎng)絡(luò)可以根據(jù)時間軸展開

B、LSTM無法解決梯度消失的問題

C、LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡(luò)

D、循環(huán)神經(jīng)網(wǎng)絡(luò)可以簡寫為RNN

答案:B

54.()常做為CNN網(wǎng)絡(luò)的最后一層。

A、卷積層

B、池化層

C、全連接層

D、歸一化層

答案:c

解析:全連接層常做為CNN網(wǎng)絡(luò)的最后一層。

55.為了對某圖像中的目標(biāo)進(jìn)行分析和識別,一般需要對圖像進(jìn)行()處理。

A、圖像加噪

B、圖像采集

C、圖像壓縮

D、圖像分割

答案:D

解析:為了對某圖像中的目標(biāo)進(jìn)行分析和識別,一般需要對圖像進(jìn)行圖像分割處

理。

56.以下關(guān)于算法的說法中,不正確的是

A、機(jī)器學(xué)習(xí)算法分為有監(jiān)督'半監(jiān)督和無監(jiān)督三種

B、卷積神經(jīng)網(wǎng)絡(luò)是重要的遷移學(xué)習(xí)算法

C、決策樹算法屬于監(jiān)督學(xué)習(xí)類別

D、“Means是屬于無監(jiān)督學(xué)習(xí)算法

答案:B

57.VGG-19中卷積核的大小為

A、3x3

B、5x5

C、3x3,5x5

D、不確定

答案:A

解析:VGG-19中卷積核的大小為3x3

58.在卷積操作過程中計算featuremap的尺寸:設(shè)圖像大小為300*300,卷積核

大小為3*3,卷積窗口移動的步長為1,則featuremaps的大小是()個元素?

A、78400

B、88804

G91204

D、99856

答案:B

解析:見算法解析

59.Inception模塊采用()的設(shè)計形式,每個支路使用。大小的卷積核。

A、多通路,不同

B、單通路,不同

C、多通路,相同

D、單通路,相同

答案:A

解析:Inception模塊采用多通路,不同的設(shè)計形式,每個支路使用多通路,不

同大小的卷積核。

60.xgboost在代價函數(shù)里加入了(),用于控制模型的復(fù)雜度

A、正則項

B、非線性

C、激活函數(shù)

D、特征變換

答案:A

解析:xgboost在代價函數(shù)里加入了正則項,用于控制模型的復(fù)雜度

61.CRF(條件隨機(jī)場)和HMM(隱馬爾可夫模型)之間的主要區(qū)別是什么?

A、CRF是生成式的,而HMM是判別式模型

B、CRF是判別式模型,HMM是生成式模型。

C、CRF和HMM都是生成式模型

D、CRF和HMM都是判別式模型。

答案:B

62.在K-搖臂賭博機(jī)中,若嘗試次數(shù)非常大,在一段時間后,搖臂的獎賞能很好

的近似出來,不再需要探索,則可讓E隨著嘗試次數(shù)增加而(—)

A、增大

B、置為無窮

C、置為0

D、減少

答案:D

解析:見算法解析

63.關(guān)于聚類說法錯誤的是()

A、在無監(jiān)督學(xué)習(xí)任務(wù)中,研究最多、應(yīng)用最廣的是聚類

B、聚類可作為一個單獨過程,用于找尋數(shù)據(jù)內(nèi)在的分布結(jié)構(gòu),但不能作為其他

學(xué)習(xí)任務(wù)的前驅(qū)過程

C、聚類分析的目標(biāo)是組內(nèi)的對象之間是相似的,不同組中的對象是不同的

D、組內(nèi)的相似性越大,組間差別越大,聚類就越好

答案:B

解析:聚類可作為一個單獨過程,用于找尋數(shù)據(jù)內(nèi)在的分布結(jié)構(gòu),可以作為其他

學(xué)習(xí)任務(wù)的前驅(qū)過程

64.學(xué)習(xí)器的實際預(yù)測輸出與樣本的真實輸出之間的差異稱為(_)。

A、錯誤率

B、精度

C、誤差

D、查準(zhǔn)率

答案:C

解析:見算法解析

65.下列可以用于聚類問題的機(jī)器學(xué)習(xí)算法有()

A、決策樹

B、k-means

C、隨機(jī)森林

D、邏輯回歸

答案:B

66.使用交叉驗證最簡單的方法是在估計器和數(shù)據(jù)集上調(diào)用什么輔助函數(shù)?

A、cross_val_score

B、cross_vaI%

C、val_score

D、cross_score

答案:A

67.以下關(guān)于隨機(jī)森林算法的描述中錯誤的是

A、可以處理高維度的屬性,并且不用做特征選擇

B、隨機(jī)森林的預(yù)測能力不受多重共線性影響

C、也擅長處理小數(shù)據(jù)集和低維數(shù)據(jù)集的分類問題

D、能應(yīng)對正負(fù)樣本不平衡問題

答案:C

68.根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無環(huán)圖

表示變量間的依賴關(guān)系,稱為(—);第二類是使用無向圖表示變量間的相關(guān)關(guān)

系,稱為無向圖模型或馬爾可夫網(wǎng)(Markovnetwork)。

A、貝葉斯網(wǎng)

B、拉普拉斯網(wǎng)

C、帕斯卡網(wǎng)

D、塞繆爾網(wǎng)

答案:A

解析:見算法解析

69.對不具備泛化能力的規(guī)則轉(zhuǎn)變?yōu)楦话愕囊?guī)則的最基礎(chǔ)的技術(shù)為(一)

A、最大一般泛化

B、最小一般泛化

C、最大一般特化

D、最小一般特化

答案:B

解析:見算法解析

70.長短期記憶LSTM的核心貢獻(xiàn)是引入了()的巧妙構(gòu)思,該構(gòu)思中的權(quán)重視上下

文而定,而不是固定的。

A、自增加

B、自循環(huán)

C、自遞歸

D、自減少

答案:B

解析:長短期記憶LSTM的核心貢獻(xiàn)是引入了自循環(huán)的巧妙構(gòu)思,該構(gòu)思中的權(quán)重

視上下文而定,而不是固定的。

71.半監(jiān)督支持向量機(jī)中最著名的是TSVM(TransductiveSupportVectorMachin

e)o與標(biāo)準(zhǔn)SVM一樣,TSVM也是針對(一)問題的學(xué)習(xí)方法?

A、分類

B、回歸

C、聚類

D、二分類

答案:D

解析:見算法解析

72.協(xié)同訓(xùn)練(co-training)是針對(__)數(shù)據(jù)設(shè)計?

A、多角度

B、多視圖

C、多環(huán)境

D、多版本

答案:B

解析:見算法解析

73.哪個不是常用的聚類算法()。

A、K-Means

B、DBSCAN

GGMMs

DvSoftmax

答案:D

解析:Softmax不是常用的聚類算法。

74.高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來越(),也即

越來越能表現(xiàn)語義或者意圖。

A、具體和形象化

B、抽象和概念化

C、具體和概念化

D、抽象和具體化

答案:B

解析:高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來越抽象和概

念化,也即越來越能表現(xiàn)語義或者意圖。

75.以才哪種組合在CNN不常見

Avconv+reIu

B、conv+reIu+pooI

C、conv+reIu+pooI+fc

D、conv+k-means

答案:D

解析:conv+k-means組合在CNN不常見

76.我們可以將深度學(xué)習(xí)看成一種端到端的學(xué)習(xí)方法,這里的端到端指的是

A、輸入端-輸出端

B、輸入端-中間端

C、輸出端-中間端

D、中間端-中間端

答案:A

77.標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)隱含層的輸入對于網(wǎng)絡(luò)輸出的影響隨時間

A、不斷遞歸而衰退

B、不斷遞歸而增強(qiáng)

C、先增強(qiáng)后減弱

D、先減弱后增強(qiáng)

答案:A

78.GBDT算法相比于隨機(jī)森林算法,以下哪種表述是錯誤的?

A、GBDT算法比隨機(jī)森林容易欠擬合

B、隨機(jī)森林是并行計算的,而GBDT不能

C、GBDT算法比隨機(jī)森林容易過擬合

DxGBDT與隨機(jī)森林都是建立在CART樹的基礎(chǔ)之上的

答案:C

79.LVW屬于哪種特征選擇方法(一)

A、包裹式

B、啟發(fā)式

C、嵌入式

D、過濾式

答案:A

解析:見算法解析

80.LSTM單元中引入了哪些門來更新當(dāng)前時刻的單元狀態(tài)向量?

A、輸入門、遺忘門

B、任意門、輸入門

C、輸出門、任意門

D、遺忘門、任意門

答案:A

解析:LSTM單元中引入了哪些門來更新當(dāng)前時刻的單元狀態(tài)向量?

81.下列神經(jīng)網(wǎng)絡(luò)特點描述錯誤的是(_)

A、適應(yīng)性

B、由簡單單元組成

C、廣泛并行互連的網(wǎng)絡(luò)

D、線性特性

答案:D

解析:見算法解析

82.代碼arr1=np.array([[1,2,3],[4,5,6]]);arr2=2*np.ones([2,3],dtype

=np.int64);print((arr1*arr2)[1][2])的輸出結(jié)果是()?注:(已導(dǎo)入

numpy庫)importnumpyasnp

A、6

B、8

C、10

D、12

答案:D

解析:見算法解析

83.下列選項中,哪個不是關(guān)鍵詞提取常用的算法()

A、TF-IDF

B、TextRank

C、SSA

D、LDA

答案:C

解析:SSA(SaIpSwarmAIgorithm)是一種元啟發(fā)式算法

84.如果在大型數(shù)據(jù)集上訓(xùn)練決策樹。為了花費更少的時間來訓(xùn)練這個模型,下

列哪種做法是正確的?

A、增加樹的深度

B、增加學(xué)習(xí)率

C、減小樹的深度

D、減少樹的數(shù)量

答案:c

85.支持向量機(jī)(SVM)中的代價參數(shù)C表示什么?()

A、交叉驗證的次數(shù)

B、用到的核函數(shù)

C、在分類準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡

D、以上都不對

答案:C

86.在深度學(xué)習(xí)網(wǎng)絡(luò)中,反向傳播算法用于尋求最優(yōu)參數(shù),在反向傳播算法中使

用的什么法則進(jìn)行逐層求導(dǎo)的?

A、鏈?zhǔn)椒▌t

B、累加法則

C、對等法則

D、歸一法則

答案:A

87.以下說法正確的是()。

A、聚類是非監(jiān)督學(xué)習(xí)

B、分類是非監(jiān)督學(xué)習(xí)

C、聚類是監(jiān)督學(xué)習(xí)

D、以上都不對

答案:A

88.以下算法中可以用于圖像平滑的是0。

A、均值濾波;

B、對比度增強(qiáng)

C、二值化

D、動態(tài)范圍壓縮

答案:A

解析:以下算法中可以用于圖像平滑的是均值濾波;。

89.在20K文檔的輸入數(shù)據(jù)上為機(jī)器學(xué)習(xí)模型創(chuàng)建了文檔-詞矩陣(document-te

rmmatrix)o以下哪項可用于減少數(shù)據(jù)維度?(1)關(guān)鍵詞歸一化(KeywordNor

maIization)(2)潛在語義索引(LatentSemanticIndexing)(3)隱狄利克雷

分布(LatentDirichletAIlocation)

A、只有(1)

B、⑵、(3)

C、⑴、(3)

D、⑴、⑵、(3)

答案:D

90.下列哪項不屬于集成學(xué)習(xí)

A、隨機(jī)森林

B\Adaboost

C、kNN

D、XGBoost

答案:C

解析:集成方法分類為:Bagging(并行訓(xùn)練):隨機(jī)森林,Boosting(串行訓(xùn)練):

Adaboost,GBDT:XgBoost,Stacking,BIending

91.隨著句子的長度越來越多,神經(jīng)翻譯機(jī)器將句意表征為固定維度向量的過程

將愈加困難,為了解決這類問題,下面哪項是我們可以采用的?

A、使用遞歸單元代替循環(huán)單元

B、使用注意力機(jī)制(attentionmechanism)

C\使用字符級別翻譯(characterIeveItransIation)

D、所有選項均不對

答案:B

92.符號集a、b、c、d,它們相互獨立,相應(yīng)概率為1/2、1/4、1/8、1/16,其

中包含信息量最小的符號是()

A、a

B、b

C、c

D、d

答案:A

93.數(shù)據(jù)科學(xué)家經(jīng)常使用多個算法進(jìn)行預(yù)測,并將多個機(jī)器學(xué)習(xí)算法的輸出(稱

為“集成學(xué)習(xí)”)結(jié)合起來,以獲得比所有個體模型都更好的更健壯的輸出。則

下列說法正確的是?()

A、基本模型之間相關(guān)性高。

B、基本模型之間相關(guān)性低。

C、集成方法均使用加權(quán)平均代替投票方法。

D、基本模型都來自于同一算法。

答案:B

94.DBSCAN在最壞情況下的時間復(fù)雜度是()。

A、0(m)

B、0(m2)

G0(Iogm)

D、0(m*logm)

答案:B

95.在數(shù)據(jù)挖掘中,比較成熟的預(yù)測算法包括Logistic回歸模型、()、決策樹'

神經(jīng)網(wǎng)絡(luò)等

A、線性回歸

B、時間序列

C、灰色模型

D、貝葉斯網(wǎng)絡(luò)

答案:D

96.在下列哪些應(yīng)用中,我們可以使用深度學(xué)習(xí)來解決問題?

A、蛋白質(zhì)結(jié)構(gòu)預(yù)測

B、化學(xué)反應(yīng)的預(yù)測

C、外來粒子的檢測

D、所有這些

答案:D

97.梯度爆炸問題是指在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時候,梯度變得過大而損失函數(shù)變

為無窮。在RNN中,下面哪種方法可以較好地處理梯度爆炸問題?

A、用改良的網(wǎng)絡(luò)結(jié)構(gòu)比如LSTM和GRUs

B、梯度裁剪

C、Dropout

D、所有方法都不行

答案:B

98.EM算法是()

A、有監(jiān)督

B、無監(jiān)督

C、半監(jiān)督

D、都不是

答案:B

99.啟發(fā)式搜索是尋求問題()解的一種方法

A、最優(yōu)

B、一般

C、滿意

D、最壞

答案:C

100.馬爾可夫預(yù)測模型是將時間序列看作一個過程,通過對事物不同狀態(tài)的()

與狀態(tài)之間轉(zhuǎn)移概率的研究,確定狀態(tài)變化趨勢,預(yù)測事物的未來。

A、初始概率

B、結(jié)果概率

C、形成概率

答案:A

101.常見的圖像預(yù)處理方法不包括(一)。

A、圖像降噪

B、圖像增強(qiáng)

C、圖像尺寸歸一化

D、圖像標(biāo)注

答案:D

解析:常見的圖像預(yù)處理方法不包括圖像標(biāo)注。

102.在處理序列數(shù)據(jù)時,較容易出現(xiàn)梯度消失現(xiàn)象的深度學(xué)習(xí)模型是

A、CNN

B、LSTM

C、GRU

D、RNN

答案:D

解析:RNN(RecurrentNeuraINetwork)是一類用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。RN

N存在一些問題梯度較容易出現(xiàn)衰減或爆炸(BPTT)-梯度爆炸

103.前饋神經(jīng)網(wǎng)絡(luò)通過誤差后向傳播(BP算法)進(jìn)行參數(shù)學(xué)習(xí),這是一種()

機(jī)器學(xué)習(xí)手段

A、監(jiān)督學(xué)習(xí)

B、無監(jiān)督學(xué)習(xí)

C、半監(jiān)督學(xué)習(xí)

D、無監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)的結(jié)合

答案:A

104.在強(qiáng)化學(xué)習(xí)的過程中,學(xué)習(xí)率a越大,表示采用新的嘗試得到的結(jié)果比例越

(),保持舊的結(jié)果的比例越0。

A、大

B、小

C、大

D、大

E、小

答案:A

105.L1和L2正則化是傳統(tǒng)機(jī)器學(xué)習(xí)常用來減少泛化誤差的方法,以下關(guān)于兩者

的說法正確的是:

A、L1正則化可以做特征選擇

B、L1和L2正則化均可做特征選擇

C、L2正則化可以做特征選擇

D、L1和L2正則化均不可做特征選擇

答案:A

106.規(guī)則生成本質(zhì)上是一個貪心搜索的過程,須有一定的機(jī)制來緩解過擬合的風(fēng)

險,最常見的做法是(_)

A、序列化

B、剪枝

C、去重

D、重組

答案:B

解析:見算法解析

107.機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?

A、Boosting

B、Stacking

C、Bagging

D、Marking

答案:D

108.使用決策樹分類時,如果輸入的某個特征的值是連續(xù)的,通常使用二分法對

連續(xù)屬性離散化,即根據(jù)是否大于/小于某個閾值進(jìn)行劃分。如果采用多路劃分,

每個出現(xiàn)的值都劃分為一個分支,這種方式的最大問題是

A、計算量太大

B、驗證集和測試集表現(xiàn)很差

C、驗證集表現(xiàn)良好,測試集表現(xiàn)很差

D、驗證集表現(xiàn)很差,測試集表現(xiàn)很好

答案:C

109.給定一個長度為n的不完整單詞序列,我們希望預(yù)測下一個字母是什么。比

如輸入是“predicts”(9個字母組成),希望預(yù)測第十個字母是什么。下面哪

種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)適用于解決這個工作?

A、循環(huán)神經(jīng)網(wǎng)絡(luò)

B、全連接神經(jīng)網(wǎng)絡(luò)

C、受限波爾茲曼機(jī)

D、卷積神經(jīng)網(wǎng)絡(luò)

答案:A

110.關(guān)于梯度下降算法描述正確的是:

A、梯度下降算法就是不斷的更新w和b的值

B、梯度下降算法就是不斷的更新w和b的導(dǎo)數(shù)值

C、梯度下降算法就是不斷尋找損失函數(shù)的最大值

D、梯度下降算法就是不斷更新學(xué)習(xí)率

答案:A

解析:梯度下降算法就是不斷的更新w和b的值

111.MatplotIib是一個主要用于繪制()維圖形的Python庫,用途:繪圖、可

視化。

A、—

B、二

C、三

D、四

答案:B

解析:見算法解析

112.GooLeNet中使用較多小tricks,其中全局平局池化GAP就是一個,使用GA

P的優(yōu)點是()

A、提供更好的分類

B、減少參數(shù)量,實現(xiàn)任意大小的輸入

C、加速模型收斂

D、增加網(wǎng)絡(luò)深度

答案:B

解析:GooLeNet中使用較多小tricks,其中全局平局池化GAP就是一^使用

GAP的優(yōu)點是減少參數(shù)量,實現(xiàn)任意大小的輸入

113.不屬于深度學(xué)習(xí)模型的選項是?

A、樸素貝葉斯

B、深度殘差網(wǎng)絡(luò)

C、卷積神經(jīng)網(wǎng)絡(luò)CNN

D、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN

答案:A

解析:樸素貝葉斯算法是基于貝葉斯定理與特征條件獨立假設(shè)的分類算法不屬于

深度學(xué)習(xí)模型。

114.對于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是()

A、增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會增加測試數(shù)據(jù)集的分類錯誤率

B、減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯誤率

C、增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯誤率

D、1、2都對

答案:A

115.CascadeRCNN中使用了()個BBOXHead完成目標(biāo)檢測

A、1

B、2

C、3

D、4

答案:c

解析:見算法解析

116.下列關(guān)于長短期記憶網(wǎng)絡(luò)LSTM和循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的關(guān)系描述正確的是。。

A、LSTM是簡化版的RNN

B、LSTM是雙向的RNN

GLSTM是多層的RNN

DvLSTM是RNN的擴(kuò)展,通過特殊的結(jié)構(gòu)設(shè)計來避免長期依賴問題

答案:D

解析:LSTM是RNN的擴(kuò)展,通過特殊的結(jié)構(gòu)設(shè)計來避免長期依賴問題

117.邏輯回歸的損失函數(shù)是下列哪一種?()

A、平方損失函數(shù)

B、對數(shù)損失函數(shù)

GHingeLossOT損失函數(shù)

D、絕對值損失函數(shù)

答案:B

118.當(dāng)采用K-距離的方法選擇DBSCAN的Eps和MinPts參數(shù)時,如果設(shè)置的K

的值太大,則小簇(尺寸小于K的簇)可能會被標(biāo)記為

A、噪聲

B、核心簇

C、邊界簇

D、以上都不對

答案:A

119.卷積神經(jīng)網(wǎng)絡(luò)的英文縮寫是:

A、DNN

B、CNN

C、RNN

D\Tanh

答案:B

解析:卷積神經(jīng)網(wǎng)絡(luò)的英文縮寫是CNN

120.深度學(xué)習(xí)中的不同最優(yōu)化方式,如SGD,ADAM下列說法中正確的是

A、在實際場景下,應(yīng)盡量使用ADAM,避免使用SGD

B、同樣的初始學(xué)習(xí)率情況下,ADAM的收斂速度總是快于SGD方法

C、相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動調(diào)節(jié)通

常會取得更好效果

D、同樣的初始學(xué)習(xí)率情況下,ADAM比SGD容易過擬合

答案:C

解析:相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動調(diào)節(jié)

通常會取得更好效果

121.下列屬于特征降維的方法有

A、主成分分析PCA

B、數(shù)據(jù)采樣

G正則化

D、最小二乘法

答案:A

122.下列選項中,不屬于深度學(xué)習(xí)模型的是?

A、線性回歸

B、深度殘差網(wǎng)絡(luò)

C、卷積神經(jīng)網(wǎng)絡(luò)CNN

D、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN

答案:A

解析:線性回歸是傳統(tǒng)統(tǒng)計學(xué)系呢絨

123.關(guān)于GoogLeNet描述正確的有:

A、GoogLeNet僅僅是在寬度上進(jìn)行了探索,所以它是一個很淺的網(wǎng)絡(luò)

B、GoogLeNet在寬度上進(jìn)行了探索,為后人設(shè)計更加復(fù)雜的網(wǎng)絡(luò)打開了思路

C\GoogLeNet使用了Inception結(jié)構(gòu),Inception結(jié)構(gòu)只有V1這一^"b版本

DxGoogLeNet結(jié)合多種網(wǎng)絡(luò)設(shè)計結(jié)構(gòu)所以是到目前為止分類效果最好的網(wǎng)絡(luò)結(jié)

構(gòu)

答案:B

解析:GoogLeNet在寬度上進(jìn)行了探索,為后人設(shè)計更加復(fù)雜的網(wǎng)絡(luò)打開了思路

124.下列哪一項在神經(jīng)網(wǎng)絡(luò)中引入了非線性?

A、隨機(jī)梯度下降

B、修正線性單元(ReLU)

C、卷積函數(shù)

D、以上都不正確

答案:B

解析:修正線性單元是非線性的激活函數(shù)

125.強(qiáng)化學(xué)習(xí)的基礎(chǔ)模型是()模型

A、馬可夫決策

B、貝葉斯

C、HMM

D、最大后驗概率

答案:A

解析:見算法解析

126.在£-greedy策略當(dāng)中,E的值越大,表示采用隨機(jī)的一個動作的概率越(),

采用當(dāng)前Q函數(shù)值最大的動作的概率越()。

A、大

B、小

C、大

D、大

E、小

答案:A

127.()反映的是模型每一次輸出結(jié)果與模型輸出期望之間的誤差,即模型的穩(wěn)

定性。反應(yīng)預(yù)測的波動情況。

A、標(biāo)準(zhǔn)差

B、方差

C、偏差

D、平方差

答案:B

解析:方差反映的是模型每一次輸出結(jié)果與模型輸出期望之間的誤差,即模型的

穩(wěn)定性。反應(yīng)預(yù)測的波動情況。

128.K-Means算法無法聚以下哪種形狀的樣本

A、圓形分布

B、螺旋分布

C、帶狀分布

D、凸多邊形分布

答案:B

129.()是一種基于樹結(jié)構(gòu)進(jìn)行決策的算法。

A、軌跡跟蹤

B、決策樹

C、數(shù)據(jù)挖掘

D、K近鄰算法

答案:B

解析:軌跡跟蹤又稱為前輪反饋控制法(FrontwheeIfeedback),核心在于基于

前輪中心的路徑跟蹤偏差量對方向盤轉(zhuǎn)向控制量進(jìn)行計算。決策樹算法是一種逼

近離散函數(shù)值的方法,它是一種典型的分類方法,首先對數(shù)據(jù)進(jìn)行處理,利用歸

納算法生成可讀的規(guī)則和決策樹,然后使用決策對新數(shù)據(jù)進(jìn)行分析。數(shù)據(jù)挖掘是

指從大量的數(shù)據(jù)中通過算法搜索隱藏于其中信息的過程。K近鄰算法,即是給定

一個訓(xùn)練數(shù)據(jù)集,對新的輸入實例,在訓(xùn)練數(shù)據(jù)集中找到與該實例最鄰近的K

個實例,這K個實例的多數(shù)屬于某個類,就把該輸入實例分類到這個類中。符合

題意的為B項決策樹。答案選B

130.關(guān)于bagging下列說法錯誤的是:()

A、各基分類器之間有較強(qiáng)依賴,不可以進(jìn)行并行訓(xùn)練。

B、最著名的算法之一是基于決策樹基分類器的隨機(jī)森林。

C、當(dāng)訓(xùn)練樣本數(shù)量較少時,子集之間可能有重疊。

D、為了讓基分類器之間互相獨立,需要將訓(xùn)練集分為若干子集。

答案:A

131.數(shù)據(jù)在完成特征工程的操作后,在構(gòu)建模型的過程中,以下哪個選項不屬于

決策樹構(gòu)建過程當(dāng)中的步驟?

A、剪枝

B、特征選取

C、數(shù)據(jù)清理

D、決策樹生成

答案:C

132.通過以下哪些指標(biāo)我們可以在層次聚類中尋找兩個集群之間的差異?()

A、單鏈接

B、全鏈接

C、均鏈接

D、以上都行

答案:D

133.下述()不是人工智能中常用的知識格式化表示方法。

A、框架表示法

B、產(chǎn)生式表示法

C\語乂網(wǎng)絡(luò)表K法

D、形象描寫表示法

答案:D

134.比較成熟的分類預(yù)測模型算法包括Logistic回歸模型、廣義線性模型、。、

神經(jīng)網(wǎng)絡(luò)

A、決策樹

B、arima模型

C、holt-winter模型

D、k-means模型

答案:A

135.在pytorch中,設(shè)模型變量名為modeI,則對modeI.evaI()的描述正確的是

A、modeI.eval()可以在模型訓(xùn)練階段使用

B、modeI.eval0只能在模型測試階段使用

C、model,eval()在模型驗證,模型測試階段都可以使用

D、model,eval()在模型訓(xùn)練'模型驗證、模型測試階段都可以使用

答案:C

解析:在pytorch中,model.eval在模型驗證、模型測試階段都可以使用

136.()控制著整個LSTM單元的狀態(tài)或者記憶,它會根據(jù)每個時刻的輸入進(jìn)行

更新。

A、隱狀態(tài)向量

B、狀態(tài)向量

C、顯狀態(tài)向量

D、以上都不對

答案:B

解析:狀態(tài)向量控制著整個LSTM單元的狀態(tài)或者記憶,它會根據(jù)每個時刻的輸

入進(jìn)行更新。

137.早期圖像識別技術(shù)中存在的主要問題是()。

A、全局特征丟掉了圖像細(xì)節(jié)

B、提取不到主要特征

C、存儲效率低下

D、太多的錯誤匹配

答案:A

解析:早期圖像識別技術(shù)中存在的主要問題是全局特征丟掉了圖像細(xì)節(jié)。

138.FPN中根據(jù)ROI的()來分配所屬層級?

A、分類分?jǐn)?shù)

B、最大邊長度

C、面積

D、nan

答案:C

解析:見算法解析

139.隨機(jī)森林是一種集成學(xué)習(xí)算法,是()算法的具體實現(xiàn)。

AvBoosting

B、Bagging

C、Stacking

DvDropping

答案:B

解析:隨機(jī)森林是一種集成學(xué)習(xí)算法,是Bagging算法的具體實現(xiàn)。

140.深度學(xué)習(xí)是當(dāng)前很熱門的機(jī)器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到大量的矩陣

相乘,現(xiàn)在需要計算三個稠密矩陣A,B,C的乘積ABC,假設(shè)三個矩陣的尺寸分別

為m*n,n*p,p*q,且m〈n

A、(AB)C

B、AC(B)

C、A(BC)

D、所有效率都相同

答案:A

141.對完成特定任務(wù)的卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練采用的是監(jiān)督學(xué)習(xí)方法。在這個過程中,

通過誤差后向傳播來優(yōu)化調(diào)整網(wǎng)絡(luò)參數(shù),請問下面哪個參數(shù)不是通過誤差后向傳

播來優(yōu)化的

A、卷積濾波矩陣中的參數(shù)

B、全連接層的鏈接權(quán)重

C、激活函數(shù)中的參數(shù)

D、模型的隱藏層數(shù)目

答案:D

142.下列不屬于樹模型的是

A、GBDT梯度提升樹

B、XGBoost

C、RF隨機(jī)森林

D、LR線性回歸

答案:D

143.fasterRCNN用于生成候選框proposaI的模塊名稱()

A、RPN

B、CNN

C\ResNet

D、RoIpooIing

答案:A

解析:fasterRCNN用于生成候選框proposal的模塊是RPN

144.LSTM用于文本分類的任務(wù)中,不會出現(xiàn)的網(wǎng)絡(luò)層是()

A、全連接

B、詞嵌入層

C\卷積層

D、以上選項均不正確

答案:C

解析:LSTM中沒有卷積層

145.如果我們希望預(yù)測n個類(p1,p2...pk)的概率使得所有n的p的和等于

1,那么下列哪個函數(shù)可以用作輸出層中的激活函數(shù)?

A、ReLu

B\Softmax

C、Sigmoid

D、Tanh

答案:B

146.假設(shè)你需要調(diào)整超參數(shù)來最小化代價函數(shù)(costfunction),會使用下列哪

項技術(shù)?

A、窮舉搜索

B、隨機(jī)搜索

C、Bayesian優(yōu)化

D、都可以

答案:D

147.ROIPooling在那個模型中被第一次提出()

A、fast-rcnn

B、faster-rcnn

C、mask-rcnn

D、rcnn

答案:A

解析:見算法解析

148.以下關(guān)于特征工程的說法不正確的是

A、特征工程指的是把原始數(shù)據(jù)轉(zhuǎn)變?yōu)槟P偷挠?xùn)練數(shù)據(jù)的過程

B、它的目的就是獲取更好的訓(xùn)練數(shù)據(jù)特征,使得機(jī)器學(xué)習(xí)模型逼近這個上限

C、特征工程在機(jī)器學(xué)習(xí)中占有非常重要的作用,一般認(rèn)為括特征構(gòu)建、特征提

取'特征選擇三個部分。

D、特征提取是從特征集合中挑選一組具有明顯物理或統(tǒng)計意義的特征子集。

答案:D

149.關(guān)于遞歸函數(shù)基例的說明,以下選項中錯誤的是

A、遞歸函數(shù)必須有基例

B、遞歸函數(shù)的基例不再進(jìn)行遞歸

C、每個遞歸函數(shù)都只能有一個基例

D、遞歸函數(shù)的基例決定遞歸的深度

答案:C

150.線性回歸方法是假定條件屬性和決策屬性之間存在線性關(guān)系,然后通過訓(xùn)練

數(shù)據(jù)擬合出一個()方程,并使用該方程去預(yù)測未知的新實例。

A、一元一次

B、線性

C、二元一次

D、多元

答案:B

151.考慮某個具體問題時,你可能只有少量數(shù)據(jù)來解決這個問題。不過幸運的是

你有一個類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)??梢杂孟旅婺姆N方法來利用這個

預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?

A、把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層

B、對新數(shù)據(jù)重新訓(xùn)練整個模型

C、只對最后幾層進(jìn)行調(diào)參(finetune)

D、對每一層模型進(jìn)行評估,選擇其中的少數(shù)來用

答案:C

152.下列關(guān)于XGboost算法描述中錯誤的是

A、由于其特殊原因,無法分布式化

B、xgboost在代價函數(shù)里加入了正則項,用于控制模型的復(fù)雜度

C、可以處理帶有缺失值的樣本

D、允許使用列抽樣來減少過擬合

答案:A

153.神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,一般會遇到停滯期,即神經(jīng)網(wǎng)絡(luò)在進(jìn)入全局最小值之

前陷入局部最小值。以下哪個策略可以避免上述情況?

A、增加參數(shù)數(shù)量

B、減少參數(shù)數(shù)量

C、在開始時將學(xué)習(xí)率降低10倍

D、改變幾個時期的學(xué)習(xí)率

答案:D

154.在CNN構(gòu)建中,指定每次訓(xùn)練或驗證數(shù)據(jù)集圖片多少的變量為()。

A、reIu

B、batch

C、step

D、padding

答案:B

解析:在CNN構(gòu)建中,指定每次訓(xùn)練或驗證數(shù)據(jù)集圖片多少的變量為batch。

155.代碼array=np.arange(10,31,5)中的5代表()?

A、元素的個數(shù)

B、步長

C、第一個元素

D、最后一個元素

答案:B

解析:見算法解析

156.()采用多種樂器的音頻數(shù)據(jù),可融合多種國家、樂曲風(fēng)格和樂器音色的特

征,創(chuàng)作音樂作品。

A、XLNet

B、GoogIeNet

C、MuseNet

D、AlexNet

答案:c

解析:MuseNet采用多種樂器的音頻數(shù)據(jù),可融合多種國家、樂曲風(fēng)格和樂器音

色的特征,創(chuàng)作音樂作品。

157.DSSM經(jīng)典模型的缺點:1.Wordhashing可能造成詞語沖突;2.采用詞袋模型,

損失了上下文語序信息;3.搜索引擎的排序由多種因素決定,用戶點擊時doc

排名越靠前越容易被點擊,僅用點擊來判斷正負(fù)樣本,產(chǎn)生的噪聲較大,模型難

以收斂;4.效果不可控。

A、1.2.3

B、1.3.4

C、2.3.4

D、1.2.3.4

答案:D

解析:DSSM經(jīng)典模型的缺點:1.Wordhashing可能造成詞語沖突;2.采用詞袋模

型,損失了上下文語序信息;3.搜索引擎的排序由多種因素決定,用戶點擊時d

℃排名越靠前越容易被點擊,僅用點擊來判斷正負(fù)樣本,產(chǎn)生的噪聲較大,模

型難以收斂;4.效果不可控。

158.多義現(xiàn)象可以被定義為在文本對象中一個單詞或短語的多種含義共存。下列

哪一種方法可能是解決此問題的最好選擇?

A、隨機(jī)森林分類器

B、卷積神經(jīng)網(wǎng)絡(luò)

C、梯度爆炸

D、上述所有方法

答案:B

159.下列哪個不是激活函數(shù)()。

A、sigmod

B、reIu

C、tanh

D、hidden

答案:D

解析:hidden不是激活函數(shù)。

160.長短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡(luò)相似的控制流,兩者的區(qū)別在于LSTM

中增加了()導(dǎo)致單元內(nèi)的處理過程不同。

A、輸入門

B、記憶門

C、忘記門

D\輸出門

答案:C

解析:長短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡(luò)相似的控制流,兩者的區(qū)別在于LS

TM中增加了忘記門導(dǎo)致單元內(nèi)的處理過程不同。

161.批規(guī)范化(BatchNormaIization)的好處都有啥?

A、讓每一層的輸入的范圍都大致固定

B、它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差

C、它是一種非常有效的反向傳播(BP)方法

D、這些均不是

答案:A

162.如果問題存在最優(yōu)解,則下面幾種搜索算法中,()必然可以得到該最優(yōu)解。

A、廣度優(yōu)先搜索

B、深度優(yōu)先搜索

C、有界深度優(yōu)先搜索

D、啟發(fā)式搜索

答案:A

解析:廣度優(yōu)先搜索會根據(jù)離起點的距離,按照從近到遠(yuǎn)的順序?qū)Ω鞴?jié)點進(jìn)行搜

索。而深度優(yōu)先搜索會沿著一條路徑不斷往下搜索直到不能再繼續(xù)為止,然后再

折返,開始搜索下一條路徑。廣度優(yōu)先搜索可以找出節(jié)點的最短路徑,即可以解

決最短路徑問題。有界深度優(yōu)先搜索為了解決深度有限搜索誤入無窮分支,定出

一個深度界限,在找尋達(dá)到這一深度界限而且還沒有找到目標(biāo)時,即返回重找。

啟發(fā)式搜索是利用問題擁有的啟發(fā)信息來引導(dǎo)搜索,達(dá)到減少搜索范圍、降低問

題復(fù)雜度的目的,可以消除組合爆炸,并得到令人能接受的解(通常并不一定是

最佳解)。所以如果存在最優(yōu)解,廣度優(yōu)先搜索必然可以得到最優(yōu)解,答案選A

163.在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向輸入端進(jìn)

行傳輸?shù)倪^程中,算法會調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)

A、輸入數(shù)據(jù)大小

B、神經(jīng)元和神經(jīng)元之間連接有無

C、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重

D、同一層神經(jīng)元之間的連接權(quán)重

答案:C

164.下列哪個是CNN網(wǎng)絡(luò)的超參數(shù)。

A、權(quán)重

B、偏置

C、激活函數(shù)

D、學(xué)習(xí)率

答案:D

解析:學(xué)習(xí)率是CNN網(wǎng)絡(luò)的超參數(shù)。

165.神經(jīng)元之間的每個連接都有()權(quán)重。

A、一^

B、兩個

C、多個

D\無

答案:A

解析:神經(jīng)元之間的每個連接都有一個權(quán)重。

166.下列哪項不是SVM的優(yōu)勢

A、可以和核函數(shù)結(jié)合

B、通過調(diào)參可以往往可以得到很好的分類效果

C、訓(xùn)練速度快

D、泛化能力好

答案:C

解析:SVM的訓(xùn)練速度不快

167.問答系統(tǒng)中的NLP技術(shù),以下描述不正確的是:

A、問答(QA)系統(tǒng)的想法是直接從文檔、對話、在線搜索和其他地方提取信息,

以滿足用戶的信息需求。QA系統(tǒng)不是讓用戶閱讀整個文檔,而是更喜歡簡短而

簡潔的答案。

B、QA系統(tǒng)相對獨立很難與其他NLP系統(tǒng)結(jié)合使用,現(xiàn)有QA系統(tǒng)只能處理對文

本文檔的搜索,尚且無法從圖片集合中提取信息。

C、大多數(shù)NLP問題都可以被視為一個問題回答問題。范例很簡單:我們發(fā)出查

詢指令,機(jī)器提供響應(yīng)。通過閱讀文檔或一組指令,智能系統(tǒng)應(yīng)該能夠回答各種

各樣的問題。

D、強(qiáng)大的深度學(xué)習(xí)架構(gòu)(稱為動態(tài)內(nèi)存網(wǎng)絡(luò)(DMN))已針對QA問題進(jìn)行了專

門開發(fā)和優(yōu)化。給定輸入序列(知識)和問題的訓(xùn)練集,它可以形成情節(jié)記憶,

并使用它們來產(chǎn)生相關(guān)答案。

答案:B

解析:刪除

168.Word2Vec提出了哪兩個算法訓(xùn)練詞向量?

A、COBWSoftmax

B、SoftmaxyCBOW

C、CBOW、Skip-gramD

D、Skip-gramCOBWC

答案:c

解析:Word2Vec提出了兩個算法訓(xùn)練詞向量

169.Iou表示的是0

A、兩個框之間的重疊程度

B、兩個框的總面積

C、兩個框的相對大小

D、一個框面積與周長比值

答案:A

解析:見算法解析

170.下列哪個神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會發(fā)生權(quán)重共享

A、卷積神經(jīng)網(wǎng)絡(luò)&

B、&循環(huán)神經(jīng)網(wǎng)絡(luò)&

C、&全連接神經(jīng)網(wǎng)絡(luò)&

D、&卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)

答案:D

解析:見算法解析

171.關(guān)于貝葉斯網(wǎng)的學(xué)習(xí)描述錯誤的為(一)

A、貝葉斯的學(xué)習(xí)過程為對訓(xùn)練樣本計數(shù);

B、估計出每個結(jié)點的條件概率;

C、網(wǎng)絡(luò)結(jié)構(gòu)為已知;

D、評分搜索為求解的常用辦法;

答案:C

解析:見算法解析

172.影響基本K-均值算法的主要因素不包括下列哪一個選項?

A、樣本輸入順序

B、模式相似性測度

C、聚類準(zhǔn)則

D、初始類中心的選取

答案:C

173.對于一個圖像識別問題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以

更好地解決這個問題?

A、循環(huán)神經(jīng)網(wǎng)絡(luò)

B、感知機(jī)

C、多層感知機(jī)

D、卷積神經(jīng)網(wǎng)絡(luò)

答案:D

174.主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過()將向量投影到

低維空間。

A、線性變換

B、非線性變換

C、拉布拉斯變換

D、z變換

答案:A

解析:主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過線性變換將向量

投影到低維空間。

175.在主成分分析中,將幾個主分量經(jīng)過線性組合構(gòu)造為一個綜合評價函數(shù)時,

每個主分量的權(quán)數(shù)為0。

A、每個主分量的方差

B、每個主分量的標(biāo)準(zhǔn)差

C、每個主分量的方差貢獻(xiàn)率

D、每個主分量的貢獻(xiàn)率

答案:C

解析:在主成分分析中,將幾個主分量經(jīng)過線性組合構(gòu)造為一個綜合評價函數(shù)時,

每個主分量的權(quán)數(shù)為每個主分量的方差貢獻(xiàn)率。

176.以下關(guān)于Bagging(裝袋法)的說法不正確的是

A、能提升機(jī)器學(xué)習(xí)算法的穩(wěn)定性和準(zhǔn)確性,但難以避免overfitting

B、Bagging(裝袋法)是一個統(tǒng)計重采樣的技術(shù),它的基礎(chǔ)是Bootstrap

C、主要通過有放回抽樣)來生成多個版本的預(yù)測分類器,然后把這些分類器進(jìn)行

組合

D、進(jìn)行重復(fù)的隨機(jī)采樣所獲得的樣本可以得到?jīng)]有或者含有較少的噪聲數(shù)據(jù)

答案:A

177.假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸

入,你會得到輸出「-0.0001」。X可能是以下哪一個激活函數(shù)?

A、ReLU

B、tanh

C、SIGMOID

D、以上都不是

答案:B

178.語音是一種典型的()數(shù)據(jù)。

A、無結(jié)構(gòu)無序列

B、方結(jié)構(gòu)序列

C、無結(jié)構(gòu)序列

D、有結(jié)構(gòu)無序列

答案:C

解析:語音是一種典型的無結(jié)構(gòu)序列數(shù)據(jù)。

179.在RNN中,目前使用最廣泛的模型便是()模型,該模型能夠更好地建模長

序列。

A、SLTM

B、SLMT

C\LSMT

D、LSTM

答案:D

解析:在RNN中,目前使用最廣泛的模型便是LSTM模型,該模型能夠更好地建

模長序列。

180.關(guān)于線性回歸的描述,以下正確的有()

A、基本假設(shè)包括隨機(jī)干擾項是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布

B、基本假設(shè)包括隨機(jī)干擾項是均值為0的同方差正態(tài)分布

C、多重共線性會使得參數(shù)估計值方差減小

D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項

答案:B

解析:線性回歸的基本假設(shè)是隨機(jī)干擾項是均值為0的同方差正態(tài)分布

181.機(jī)器學(xué)習(xí)算法的一般流程是()。

Av1)收集數(shù)據(jù),2)準(zhǔn)備數(shù)據(jù),3)分析數(shù)據(jù),4)訓(xùn)練算法,5)測試算法,6)

使用算法

B、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)準(zhǔn)備數(shù)據(jù),4)訓(xùn)練算法,5)測試算法,6)

使用算法

C、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)準(zhǔn)備數(shù)據(jù),4)測試算法,5)訓(xùn)練算法,6)

使用算法

D、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)測試算法,4)訓(xùn)練算法,5)準(zhǔn)備數(shù)據(jù),6)

使用算法

答案:A

解析:機(jī)器學(xué)習(xí)算法的一般流程⑴收集數(shù)據(jù):可以使用任何方法。(2)準(zhǔn)備數(shù)據(jù):

距離計算所需要的數(shù)值,最好是結(jié)構(gòu)化的數(shù)據(jù)格式。(3)分析數(shù)據(jù):可以使用任

何方法。(4)訓(xùn)練算法:此步驟不適用于k-近鄰算法。(5)測試算法:計算錯誤

率。(6)使用算法:首先需要輸入樣本數(shù)據(jù)和結(jié)構(gòu)化的輸出結(jié)果,然后運行k-近

鄰算法判定輸入數(shù)據(jù)分別屬于哪個分類,最后應(yīng)用對計算出的分類執(zhí)行后續(xù)的處

理。

182.卷積神經(jīng)網(wǎng)絡(luò)(convolu-tionaIneuraInetwork,CNN),是一種專門用來處理

具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。

A、網(wǎng)格結(jié)構(gòu)

B、數(shù)組結(jié)構(gòu)

C、序列結(jié)構(gòu)

D、表格結(jié)構(gòu)

答案:A

解析:卷積神經(jīng)網(wǎng)絡(luò)(convoIu-tionaIneuraInetwork,CNN),是一種專門用來處

理具有類似0的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。

183.語言模型的作用是:

A、查看一句話成為一句“人話”的概率

B、查看一句話是英語的概率

C、查看一句話是漢語的概率

D、查看一句話是否是完整的

答案:A

解析:語言模型的作用是查看一句話成為一句“人話”的概率

184.關(guān)于線性回歸的描述,以下說法正確的有()

A、基本假設(shè)包括隨機(jī)干擾項是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布

B、基本假設(shè)包括隨機(jī)干擾項是均值為0的同方差正態(tài)分布

C、多重共線性會使得參數(shù)估計值方差減小

D、基本假設(shè)包括不服從正態(tài)分布的隨機(jī)干擾項

答案:B

解析:線性回歸基本假設(shè)包括隨機(jī)干擾項是均值為0的同方差正態(tài)分布

185..混沌度(Perplexity)是一種常見的應(yīng)用在使用深度學(xué)習(xí)處理NLP問題過程

中的評估技術(shù),關(guān)于混沌度,哪種說法是正確的?

A、混沌度沒什么影響

B、混沌度越低越好

C、混沌度越高越好

D、混沌度對于結(jié)果的影響不一定

答案:B

186.環(huán)境在接受到個體的行動之后,會反饋給個體環(huán)境目前的狀態(tài)(state)以

及由于上一個行動而產(chǎn)生的()。

A、action

B、reward

Cvstate

Dvagent

答案:B

解析:見算法解析

187.ONE-HOT-ENCODING可用于什么特征處理

A、類別型特征

B、有序性特征

C、數(shù)值型特征

D、字符串型特征

答案:A

188.ResNet-50有多少個卷積層?()

A、48

B、49

C、50

D、51

答案:B

189.語義網(wǎng)絡(luò)表達(dá)知識時,有向弧AK0鏈、ISA鏈?zhǔn)怯脕肀磉_(dá)節(jié)點知識的

A、無悖性

B、可擴(kuò)充性

C、繼承性

D、連貫性

答案:C

解析:語義網(wǎng)絡(luò)表達(dá)知識時,有向弧AKO鏈、ISA鏈?zhǔn)怯脕肀磉_(dá)節(jié)點知識的繼承

190.為了將特征轉(zhuǎn)變成Embedding表示,所有特征均需轉(zhuǎn)變成()

A、數(shù)字

B、字符

C、符號

D、英文

答案:A

解析:為了將特征轉(zhuǎn)變成Embedding表示,所有特征均需轉(zhuǎn)變成數(shù)字

191.感知器在空間中可以展現(xiàn)為?

A、點

B、線

C、平面

D、超平面

答案:A

192.下面算法中哪個不是分類算法

A、決策樹

B、高斯混合模型GMM

C、隨機(jī)森林

D\Xgboost

答案:B

193.Skip-gram在實際操作中,使用一個()(一般情況下,長度是奇數(shù)),從

左到右開始掃描當(dāng)前句子。

A、過濾器

B、滑動窗口

C、篩選器

D、掃描器

答案:B

解析:見算法解析

194.線性回歸在3維以上的維度中擬合面是?

A、曲面

B、平面

C、超平面

D、超曲面

答案:C

195.CNN網(wǎng)絡(luò)設(shè)計中,學(xué)習(xí)率的設(shè)置往往對訓(xùn)練收斂起到關(guān)鍵作用,關(guān)于學(xué)習(xí)率

的說法,錯誤的是()

A、學(xué)習(xí)率太小,更新速度慢

B、學(xué)習(xí)率過大,可能跨過最優(yōu)解

C、學(xué)習(xí)率也是有網(wǎng)絡(luò)學(xué)習(xí)而來

D、學(xué)習(xí)率可在網(wǎng)絡(luò)訓(xùn)練過程中更改

答案:C

解析:CNN網(wǎng)絡(luò)設(shè)計中,學(xué)習(xí)率的設(shè)置往往對訓(xùn)練收斂起到關(guān)鍵作用,關(guān)于學(xué)習(xí)

率的說法,錯誤的是學(xué)習(xí)率也是有網(wǎng)絡(luò)學(xué)習(xí)而來

196.代碼arr1=np.array([[1,2,3],[4,5,6]]);print((arr1**2)[1,1])

的輸出是()?

A、5

B、25

C\6

D、26

答案:B

解析:見算法解析

197.()的核心訓(xùn)練信號是圖片的“可區(qū)分性”。模型需要區(qū)分兩個輸入是來自

于同一圖片的不同視角,還是來自完全不同的兩張圖片。

A、對比學(xué)習(xí)

B、強(qiáng)化學(xué)習(xí)

C、遷移學(xué)習(xí)

D、深度學(xué)習(xí)

答案:A

解析:對比學(xué)習(xí)的核心訓(xùn)練信號是圖片的“可區(qū)分性”。模型需要區(qū)分兩個輸入

是來自于同一圖片的不同視角,還是來自完全不同的兩張圖片。

198.在神經(jīng)網(wǎng)絡(luò)中,我們是通過以下哪個方法在訓(xùn)練網(wǎng)絡(luò)的時候更新參數(shù),從而

最小化損失函數(shù)的?

A、正向傳播算法

B、池化計算

C、卷積計算

D、反向傳播算法

答案:D

199.機(jī)器學(xué)習(xí)的算法中,以下哪個不是無監(jiān)督學(xué)習(xí)?

A、GMM

B、Xgboost

c、聚類

D、關(guān)聯(lián)規(guī)則

答案:B

200.對于線性可分的數(shù)據(jù),支持向量機(jī)的解決方式是()

A、軟間隔

B、硬間隔

C、核函數(shù)

D、以上選項均不正確

答案:B

解析:對于線性可分的數(shù)據(jù),支持向量機(jī)的解決方式是硬間隔

多選題

1.關(guān)于邏輯回歸正確的是()

A、風(fēng)險控制是金融領(lǐng)域最核心的問題,邏輯回歸是在風(fēng)險評估中最經(jīng)典常用的

方法

B、邏輯回歸可以用到互聯(lián)網(wǎng)廣告點擊預(yù)測

C、邏輯回歸只能用于解決二分類問題

D、以上都不對

答案:AB

2.一下哪幾種是常見的激活函數(shù)

A、sigmoid

B、reIu

C、tanh

D、skip

答案:ABC

解析:見算法解析

3.屬于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的有()。

A、VGGNet

B\ResNet

C、AlexNet

D\GoogIeNet

答案:ABCD

4.可以用隨機(jī)梯度下降法求解參數(shù)的模型分別有()

A、線性回歸

B、卷積神經(jīng)網(wǎng)絡(luò)

C、循環(huán)神經(jīng)網(wǎng)絡(luò)

D、LSTM

答案:ABCD

解析:見算法解析

5.假設(shè)我們要解決一個二類分類問題,我們已經(jīng)建立好了模型,輸出是0或1,初

始時設(shè)閾值為0.5,超過0.5概率估計,就判別為1,否則就判別為0;如果我們現(xiàn)

在用另一個大于0.5的閾值,那么現(xiàn)在關(guān)于模型說法,正確的是

A、模型分類的召回率不變

B、模型分類的召回率會升高

C、模型分類準(zhǔn)確率會升高或不變

D、模型分類準(zhǔn)確率降低

答案:AC

解析:準(zhǔn)確率:即預(yù)測結(jié)果正確的百分比。精確率(查準(zhǔn)率):預(yù)測結(jié)果為正例

樣本中真實為正例的比例(查得準(zhǔn))。召回率(查全率):真實為正例的樣本中

預(yù)測結(jié)果為正例的比例(查的全,對正樣本的區(qū)分能力。F-score:在實踐中,

我們定義了新的指標(biāo)去“綜合”這兩個指標(biāo)。具體的定義如公式(3),從數(shù)學(xué)

上來看,它其實是查準(zhǔn)率與查全率的調(diào)和平均數(shù)。對于二元分類問題,F(xiàn)-score

綜合考慮了預(yù)測結(jié)果的查準(zhǔn)率和查全率,是一個比較好的評估指標(biāo)。

6.Embedding編碼有哪些特點?

A、特征稠密

B、特征稀疏

C、能夠表征詞與詞之間的相互關(guān)系(相似度計算)

D、泛化性更好,支持語義運算sim

答案:ACD

解析:見算法解析

7.關(guān)于神經(jīng)網(wǎng)絡(luò)模型的說法,哪些是不正確的()

A、神經(jīng)網(wǎng)絡(luò)的工作原理與生物體內(nèi)的神經(jīng)元是完全一樣的

B、訓(xùn)練神經(jīng)網(wǎng)絡(luò)的實質(zhì)是對復(fù)雜函數(shù)求參數(shù)最優(yōu)解的過程

C、增加神經(jīng)網(wǎng)絡(luò)的層數(shù)和增加每層的神經(jīng)元個數(shù)的效果是一樣的

D、神經(jīng)網(wǎng)絡(luò)只能進(jìn)行二分類,不能進(jìn)行更多種類的分類了

答案:ACD

8.以下算法中可以用于圖像處理中去噪的是0。

A、中值濾波

B、均值濾波

C、最小值濾波

D、最大值濾波

答案:ABCD

解析:見算法解析

9.下列可用于隱馬爾可夫預(yù)測的算法是()。

A、維特比算法

B、Baum-Welch算法

C、前向-后向算法

D、擬牛頓法

答案:ABCD

解析:A是教材原文;B是EM算法,

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論