人工智能??荚囶}及答案_第1頁
人工智能??荚囶}及答案_第2頁
人工智能模考試題及答案_第3頁
人工智能??荚囶}及答案_第4頁
人工智能??荚囶}及答案_第5頁
已閱讀5頁,還剩29頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

人工智能模考試題及答案一、單選題(共103題,每題1分,共103分)1.下列哪個不屬于特征的類型(___)A、相關(guān)特征B、關(guān)鍵特征C、冗余特征D、無關(guān)特征正確答案:B2.下列不屬于樹模型的是A、GBDT梯度提升樹B、XGBoostC、RF隨機(jī)森林D、LR線性回歸正確答案:D3.輸入圖片大小為200×200,依次經(jīng)過一層卷積(kernelsize5×5,padding1,stride2),pooling(kernelsize3×3,padding0,stride1),又一層卷積(kernelsize3×3,padding1,stride1)之后,輸出特征圖大小為A、95B、$98C、96D、97正確答案:D4.生物特征識別技術(shù)不包括()。A、人臉識別B、體感交互C、指紋識別D、虹膜識別正確答案:B5.()庫是一個具有強(qiáng)大圖像處理能力的第三方庫。用途:圖像處理.A、pandasB、PILC、MatplotlibD、numpy正確答案:B6.假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會得到輸出「-0.0001」。X可能是以下哪一個激活函數(shù)?A、ReLUB、tanhC、SIGMOIDD、以上都不是正確答案:B7.以下關(guān)于隨機(jī)森林算法的描述中錯誤的是A、可以處理高維度的屬性,并且不用做特征選擇B、也擅長處理小數(shù)據(jù)集和低維數(shù)據(jù)集的分類問題C、隨機(jī)森林的預(yù)測能力不受多重共線性影響D、能應(yīng)對正負(fù)樣本不平衡問題正確答案:B8.比較成熟的分類預(yù)測模型算法包括Logistic回歸模型、廣義線性模型、()、神經(jīng)網(wǎng)絡(luò)A、決策樹B、arima模型C、k-means模型D、holt-winter模型正確答案:A9.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的隱藏層數(shù)對網(wǎng)絡(luò)的性能有一定的影響,以下關(guān)于其影響說法正確的是:A、隱藏層數(shù)適當(dāng)減少,神經(jīng)網(wǎng)絡(luò)的分辨能力越強(qiáng)B、隱藏層數(shù)適當(dāng)增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越強(qiáng)C、隱藏層數(shù)適當(dāng)減少,神經(jīng)網(wǎng)絡(luò)的分辨能力不變D、隱藏層數(shù)適當(dāng)增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越弱正確答案:B10.向量x=[1,2,3,4,-9,0]的L1范數(shù)是()。A、19B、6C、sqrt(11)D、1正確答案:A11.產(chǎn)生式系統(tǒng)的推理不包括()A、正向推理B、逆向推理C、簡單推理D、雙向推理正確答案:C12.根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無環(huán)圖表示變量間的依賴關(guān)系,稱為有向圖模型或貝葉斯網(wǎng)(Bayesiannetwork);第二類是使用無向圖表示變量間的相關(guān)關(guān)系,稱為(___)。A、赫布網(wǎng)B、拉普拉斯網(wǎng)C、馬爾科夫網(wǎng)D、塞繆爾網(wǎng)正確答案:C13.卷積神經(jīng)網(wǎng)絡(luò)的英文縮寫是:A、DNNB、CNNC、RNND、Tanh正確答案:B14.()就是指分類任務(wù)中不同類別的訓(xùn)練樣例數(shù)目差別很大的情況A、類別不平衡B、類別數(shù)不同C、類別不相同D、類別不對等正確答案:A15.使用了興奮劑被檢測出的概率為95%,沒有使用興奮劑被誤判的可能性10%,實際使用興奮劑的概率0.1%,如果只做1次檢測被檢測服用興奮劑,真實服用興奮劑的概率是多少?A、45%B、0.90%C、7.90%D、95%正確答案:B16.面向?qū)ο蠓椒ㄖ?,繼承是指()。A、—組對象所具有的相似性質(zhì)B、各對象之間的共同性質(zhì)C、—個對象具有另一個對象的性質(zhì)D、類之間共享屬性和操作的機(jī)制正確答案:D17.早期圖像識別技術(shù)中存在的主要問題是()。A、存儲效率低下B、太多的錯誤匹配C、全局特征丟掉了圖像細(xì)節(jié)D、提取不到主要特征正確答案:C18.()是指數(shù)據(jù)減去一個總括統(tǒng)計量或模型擬合值時的殘余部分A、極值B、標(biāo)準(zhǔn)值C、平均值D、殘值正確答案:D19.已知函數(shù)y=f(x)=x^2+1,則在x=2,Δx=0.1時,Δy的值為()A、$0.44B、0.41C、0.43D、0.4正確答案:B20.關(guān)于表述數(shù)據(jù)可視化在數(shù)據(jù)科學(xué)中重要地位說法中,下列不正確的是()。A、數(shù)據(jù)可視化處理可以洞察統(tǒng)計分析無法發(fā)現(xiàn)的結(jié)構(gòu)和細(xì)節(jié)B、可視化能夠幫助人們提高理解與處理數(shù)據(jù)的效率C、視覺是人類獲得信息的最主要途徑D、數(shù)據(jù)可視化處理結(jié)果的解讀對用戶知識水平的要求較高正確答案:D21.下列代碼執(zhí)行結(jié)果是什么?x=1defchange(a):x+=1printxchange(x)A、2B、3C、1D、報錯正確答案:D22.numpy中產(chǎn)生全1的矩陣使用的方法是A、arangeB、onesC、zerosD、empty正確答案:B23.半監(jiān)督學(xué)習(xí)不包括A、圖半監(jiān)督學(xué)習(xí)B、主動學(xué)習(xí)C、直推學(xué)習(xí)D、純半監(jiān)督學(xué)習(xí)正確答案:B24.MapReduce默認(rèn)的分區(qū)函數(shù)是()。A、hashB、mapC、diskD、reduce正確答案:A25.()中往往存在缺失值、噪聲、錯誤或虛假數(shù)據(jù)等質(zhì)量問題。A、二次數(shù)據(jù)B、三次數(shù)據(jù)C、一次數(shù)據(jù)D、零次數(shù)據(jù)正確答案:D26.以下激活函數(shù)中,不具有“正向無邊界”特征的是?A、MishB、ReLUC、SigmoidD、softplus正確答案:C27.關(guān)于SMO神經(jīng)網(wǎng)絡(luò)描述錯誤的是A、一種競爭學(xué)習(xí)型的無監(jiān)督神經(jīng)網(wǎng)絡(luò)B、SMO尋優(yōu)目標(biāo)為每個輸出神經(jīng)元找到合適的權(quán)重C、輸出層神經(jīng)元以矩陣方式排列在二維空間D、將高維輸入數(shù)據(jù)映射到低維空間,保持輸入數(shù)據(jù)在高維空間的拓?fù)浣Y(jié)構(gòu)正確答案:B28.a=np.arange(2),b=np.arange(3,5),print(np.lexsort([a,b]))的輸出結(jié)果是()。A、[0,1,2,3]B、[a,b]C、[0,1]D、[0,1,3,4]正確答案:C29.設(shè)λ0是矩陣A的特征方程的3重根,A的屬于λ0的線性無關(guān)的特征向量的個數(shù)為k,則必有()A、k≤3B、kC、k=3D、k>3正確答案:A30.在Python中,下列哪種說法是錯誤的()。A、除字典類型外,所有標(biāo)準(zhǔn)對象均可以用于布爾測試B、空字符串的布爾值是FalseC、空列表對象的布爾值是FalseD、值為0的數(shù)值型數(shù)據(jù)的布爾值是False正確答案:A31.在線性回歸算法中,我們認(rèn)為誤差項是符合什么分布的()A、高斯分布B、均勻分布C、二項分布D、泊松分布正確答案:A32.數(shù)據(jù)可視化技術(shù)可以將所有數(shù)據(jù)的特性通過()的方式展現(xiàn)出來A、樹B、文字C、圖D、表格正確答案:C33.如果問題存在最優(yōu)解,則下面幾種搜索算法中,()必然可以得到該最優(yōu)解。A、啟發(fā)式搜索B、廣度優(yōu)先搜索C、深度優(yōu)先搜索D、有界深度優(yōu)先搜索正確答案:B34.下列哪種機(jī)器學(xué)習(xí)算法不需要歸一化處理?()A、DecisionTreeB、B.SVMC、KmeansD、LogisticRegression正確答案:A35.RNN引入了循環(huán)的概念,但是在實際過程中卻出現(xiàn)了初始信息隨時間消失的題,即長期依賴(Long-TermDependencies)問題,所以引入()。A、CNNB、LSTMC、GRUD、BERT正確答案:B36.智能語音應(yīng)用中具備辨別聲音來源方向的硬件設(shè)備/技術(shù)是()A、語種識別B、麥克風(fēng)陣列C、說話人識別D、語音識別正確答案:B37.下列哪項不是機(jī)器學(xué)習(xí)中基于實例學(xué)習(xí)的常用方法()A、K近鄰方法B、Find-s算法C、基于案例的推理D、局部加權(quán)回歸法正確答案:B38.獨熱編碼的缺點是:①.過于稀疏②.詞與詞的相關(guān)性比較?、?易于編碼④.容易存儲A、①②B、③④C、②④D、①③正確答案:A39.人工智能的目的是讓機(jī)器能夠()A、模擬、延伸和擴(kuò)展人的智能B、和人一樣工作C、具有智能D、完全代替人的大腦正確答案:A40.關(guān)于神經(jīng)網(wǎng)絡(luò)的說法中,正確的是()A、增加網(wǎng)絡(luò)層數(shù),可能增加測試集錯誤率B、增加網(wǎng)絡(luò)層數(shù),總能減小訓(xùn)練集錯誤率C、減小網(wǎng)絡(luò)層數(shù),總能減小測試集錯誤率正確答案:A41.以下哪些算法是分類算法?A、DBSCANB、C4.5C、K-MeanD、EM正確答案:B42.下列哪個不是激活函數(shù)()。A、tanhB、reluC、hiddenD、sigmod正確答案:C43.已知f=exsiny,則▽f等于()。A、exsinyex+exsinyeyB、exsinyex+excosyeyC、exsiny+excosyD、excosyex+excosyey正確答案:B44.Transformer中拋棄了傳統(tǒng)的CNN和RNN,整個網(wǎng)絡(luò)結(jié)構(gòu)完全是由()機(jī)制組成。A、ActionB、AttentionC、TransformationD、Information正確答案:B45.()函數(shù)一般用在多分類問題中,它是對邏輯斯蒂回歸logistic的一種推廣,也被稱為多項式邏輯斯蒂回歸模型。A、ReluB、softmaxC、TanhD、sigmoid正確答案:B46.圖像數(shù)字化分為兩個步驟:一為取樣,二為()。A、量化B、數(shù)字化C、去噪聲D、清洗正確答案:A47.在目標(biāo)檢測中,以下能產(chǎn)生候選框的算法是()a)SelectiveSearchb)ROIpoolingc)RegionproposallayerA、a)、c)B、a)、b)C、a)D、b)、c)正確答案:A48.關(guān)于人工智能的發(fā)展歷史下列說法中不正確的是()。A、其發(fā)展階段經(jīng)歷了三次大的浪潮。B、第一次是50-60年代注重邏輯推理的機(jī)器翻譯時代。C、人工智能的概念形成于20世紀(jì)40年代。D、第二次是70-80年代依托知識積累構(gòu)建模型的專家系統(tǒng)時代。正確答案:C49.下列選項中昇騰310和昇騰910屬性相同的是?A、最大功率B、7nm制程C、架構(gòu)D、整數(shù)精度正確答案:C50.()曲線以precision、recall為橫縱坐標(biāo)A、AP曲線B、PR曲線C、mAP曲線D、RoI曲線正確答案:B51.以()為中心是數(shù)據(jù)產(chǎn)品區(qū)別于其他類型產(chǎn)品的本質(zhì)特征A、分析B、客戶C、數(shù)據(jù)D、資源正確答案:C52.Google認(rèn)為,響應(yīng)時間每延遲0.5s,查詢數(shù)將會減少()A、0.1B、0.05C、$0.20D、0.15正確答案:C53.邏輯回歸模型是解決什么問題的模型?A、聚類問題B、回歸問題C、分類問題正確答案:C54.C5.0和QUEST決策樹只能處理()目標(biāo)值的問題。A、隨機(jī)型B、連續(xù)型C、離散型D、分類型正確答案:D55.下面關(guān)于最小二乘法(OrdinaryLeastSquares)的說法,正確的是:A、當(dāng)自變量X的特征很多的時候,使用最小二乘法可以求得最優(yōu)解B、最小二乘法是通過最小化預(yù)測值y和真實的y在訓(xùn)練數(shù)據(jù)上的誤差來尋找最優(yōu)解的方法C、最小二乘法是通過求導(dǎo)來找出最優(yōu)解,是一種迭代的方法D、使用最小二乘法求最優(yōu)解比梯度下降方法好正確答案:B56.模型出現(xiàn)過擬合,以下何種措施無法降低過擬合現(xiàn)象A、添加正則化項B、降低模型復(fù)雜度C、減少訓(xùn)練數(shù)據(jù)量D、使用Dropout正確答案:C57.將訓(xùn)練集隨機(jī)等分為k份,選擇其中的1份為測試集,另外k-1份作為訓(xùn)練集進(jìn)行訓(xùn)練,進(jìn)而可以進(jìn)行k次訓(xùn)練和測試,最后返回這k個測試結(jié)果的均值,這種評估模型的方法叫做(____)。A、自助法B、留一交叉驗證C、留出法D、k折交叉驗證正確答案:D58.下列度量不具有反演性的是()A、系數(shù)B、幾率C、Cohen度量D、興趣因子正確答案:D59.梯度下降算法中,損失函數(shù)曲面上軌跡最混亂的算法是以下哪種算法?A、SGDB、BGDC、MGDD、MBGD正確答案:A60.下列哪行python代碼有語法錯誤()A、read_stream=open(src_file,'r')B、withopen(src_file,'r')asread_stream:C、for(subitem:allItems):D、for(key,value)inip_map:正確答案:C61.在人工神經(jīng)網(wǎng)絡(luò)算法中,不屬于實現(xiàn)“人工神經(jīng)元”的方法的有()。A、線性單元B、Untied單元C、感知器D、Sigmoid單元正確答案:B62.人工智能的分類()A、AGN和AGIB、ANI和ANGC、ANG和AGID、ANI和AGI正確答案:D63.執(zhí)行完語句X_train,X_test,y_train,y_test=train_test_split(...iris.data,iris.target,test_size=0.4,random_state=0),訓(xùn)練集占比多少?A、40%B、50%C、60%D、70%正確答案:C64.輸入圖片大小為200×200,依次經(jīng)過一層卷積(kernelsize5×5,padding1,stride2),pooling(kernelsize3×3,padding0,stride1),又一層卷積(kernelsize3×3,padding1,stride1)之后,輸出特征圖大小為?A、96B、97C、95D、$98正確答案:B65.A*搜索算法何時是最優(yōu)的?()A、到目標(biāo)結(jié)點的耗散是一個可采納啟發(fā)式B、到目標(biāo)結(jié)點的耗散可任意選擇C、不存在求解問題的最優(yōu)的a*搜索算法D、以上描述都不對正確答案:A66.下列關(guān)于bootstrap說法正確的是?A、從總的M個特征中,無放回地抽取m個特征(mB、從總的N個樣本中,無放回地抽取n個樣本(nC、從總的N個樣本中,有放回地抽取n個樣本(nD、從總的M個特征中,有放回地抽取m個特征(m正確答案:C67.下列有關(guān)決策樹說法錯誤的是A、是一個監(jiān)督學(xué)習(xí)算法B、主要用來處理時間序列數(shù)據(jù)樣本C、是一個回歸模型D、是一個分類模型正確答案:B68.變量[0,0,1,1,1]的信息熵為()。A、3/5log(2/5)–2/5log(3/5)B、2/5log(3/5)+3/5log(2/5)C、3/5log(3/5)+2/5log(2/5)D、-(3/5log(3/5)+2/5log(2/5))正確答案:D69.設(shè)矩陣A=[3,-1,-2;1,0,-1;-2,1,4],則A的伴隨矩陣(1,2)位置的元素是()。A、-6B、6C、-2D、$2正確答案:B70.強(qiáng)化學(xué)習(xí)在每個時刻環(huán)境和個體都會產(chǎn)生相應(yīng)的交互。個體可以采取一定的(),這樣的行動是施加在環(huán)境中的。A、stateB、agentC、rewardD、action正確答案:D71.下列屬于無監(jiān)督學(xué)習(xí)的是()A、KNNB、k-meansC、SVMD、LogistiRegression正確答案:B72.循環(huán)神經(jīng)網(wǎng)最常常遇到的問題是:①.梯度消失②.詞語依賴位置較遠(yuǎn)③.梯度爆炸④.維數(shù)災(zāi)難A、①②④B、①③④C、①③④D、①②③正確答案:D73.一條規(guī)則形如:,其中“←"右邊的部分稱為(___)A、規(guī)則頭B、規(guī)則長度C、規(guī)則體D、布爾表達(dá)式正確答案:C74.fromsklearnimportlinear_modelreg=linear_model.Lasso,其中Lasso是用來擬合什么樣的線性模型的?A、稀疏系數(shù)B、稀疏標(biāo)簽C、稀疏數(shù)據(jù)正確答案:A75.()問題更接近人類高級認(rèn)知智能,有很多重要的開放問題。A、計算機(jī)視覺B、語音識別C、知識圖譜D、自然語言處理正確答案:D76.已知x=[3,5,7],那么表達(dá)式x[-1::-1]的值為()。A、[5,3]B、[7,5]C、[3]D、[7,5,3]正確答案:D77.回歸分析中定義的()A、解釋變量和被解釋變量都是隨機(jī)變量B、解釋變量為隨機(jī)變量,被解釋變量為非隨機(jī)變量C、解釋變量和被解釋變量都為非隨機(jī)變量D、解釋變量為非隨機(jī)變量,被解釋變量為隨機(jī)變量正確答案:D78.循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrentneuralnetwork,RNN),是一種用于處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。A、網(wǎng)格結(jié)構(gòu)B、表格結(jié)構(gòu)C、數(shù)組結(jié)構(gòu)D、序列結(jié)構(gòu)正確答案:D79.下列核函數(shù)特性描述錯誤的是A、核函數(shù)是一種降維模型B、核函數(shù)將影響支持向量機(jī)的性能C、核函數(shù)選擇作為支持向量機(jī)的最大變數(shù)D、只要一個對稱函數(shù)所對應(yīng)的核矩陣半正定,就能稱為核函數(shù)正確答案:A80.統(tǒng)計描述的種類主要包括均值、百分位數(shù)、中位數(shù)、眾數(shù)、全距和方差等,()是指如果將一組數(shù)據(jù)從小到大排序,并計算相應(yīng)的累計百分位,則某一百分位所對應(yīng)數(shù)據(jù)的值A(chǔ)、均值B、百分位數(shù)C、中位數(shù)D、眾數(shù)正確答案:B81.代碼defa(b,c,d):pass含義是?A、定義一個空的類。B、定義一個函數(shù),并傳遞參數(shù)。C、定義一個列表,并初始化它。D、定義一個函數(shù),但什么都不做。正確答案:D82.語義網(wǎng)絡(luò)表達(dá)知識時,有向弧AKO鏈、ISA鏈表達(dá)節(jié)點知識的()A、無悖性B、可擴(kuò)充性C、繼承性D、完整性正確答案:C83.關(guān)于主成分分析PCA說法不正確的是A、我們必須在使用PCA前規(guī)范化數(shù)據(jù)B、我們應(yīng)該選擇使得模型有最大variance的主成分C、我們應(yīng)該選擇使得模型有最小variance的主成分D、我們可以使用PCA在低緯度上做數(shù)據(jù)可視化正確答案:C84.()是一個具有大量的專門知識與經(jīng)驗的程序系統(tǒng),它應(yīng)用人工智能技術(shù)和計算機(jī)技術(shù),根據(jù)某領(lǐng)域一個或多個專家提供的知識和經(jīng)驗,進(jìn)行推理和判斷,模擬人類專家的決策過程,以便解決那些需要人類專家處理的復(fù)雜問題。A、專家系統(tǒng)B、人機(jī)交互C、智能芯片D、機(jī)器系統(tǒng)正確答案:A85.下列哪個神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會發(fā)生權(quán)重共享A、&卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)B、&循環(huán)神經(jīng)網(wǎng)絡(luò)&C、&全連接神經(jīng)網(wǎng)絡(luò)&D、卷積神經(jīng)網(wǎng)絡(luò)&正確答案:A86.R語言是()發(fā)明的語言。A、數(shù)學(xué)家B、統(tǒng)計學(xué)家C、語言學(xué)家D、物理學(xué)家正確答案:B87.C(B|A)表示于規(guī)則A->B中,證據(jù)A為真的作用下結(jié)論B為真的A、可信度B、信度C、信任增長度D、概率正確答案:B88.將一副圖像進(jìn)行分割后,分割出的區(qū)域彼此之間(____)重疊。A、根據(jù)任務(wù)需要確定是否可以B、根據(jù)分割方法確定是否可以C、可以D、不可以正確答案:D89.當(dāng)需要在字符串中使用特殊字符時,python使用()作為轉(zhuǎn)義字符。A、/B、#C、\D、%正確答案:C90.感知機(jī)由()神經(jīng)元組成。A、一層B、兩層C、四層D、三層正確答案:B91.下列哪個if語句是正確的?A、ifa>=22:&B、&ifa>=22&C、&if(a>=22)D、&if(a=>22)&正確答案:A92.某數(shù)據(jù)框df需要進(jìn)行多條件篩選,其一般性語法為A、df.loc[(篩選條件1)&(篩選條件2)]B、df.loc[(篩選條件1)且(篩選條件2)]C、df.loc[(篩選條件1)and(篩選條件2)]D、df.loc[(篩選條件1)&&(篩選條件2)]正確答案:A93.以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是?A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個分支B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒有關(guān)系D、以上都不對正確答案:A94.DBSCA

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論