柚子快報(bào)邀請碼778899分享:人工智能 【機(jī)器學(xué)習(xí)】習(xí)題集合
柚子快報(bào)邀請碼778899分享:人工智能 【機(jī)器學(xué)習(xí)】習(xí)題集合
文章目錄
第一章 緒論第二章 模型評估與選擇第三章 線性模型第四章 決策樹第五章 神經(jīng)網(wǎng)絡(luò)第六章 支持向量機(jī)第七章 貝葉斯分類器第八章 集成學(xué)習(xí)附加小題
如果需要習(xí)題集合的markdown原文件可以點(diǎn)擊以下資源鏈接下載https://download.csdn.net/download/m0_69310669/88907353
第一章 緒論
單選題
下列有關(guān)機(jī)器學(xué)習(xí)基本術(shù)語說法錯(cuò)誤的是() A 從訓(xùn)練數(shù)據(jù)中學(xué)得模型的過程稱為“學(xué)習(xí)”或“訓(xùn)練” B 訓(xùn)練過程中使用的數(shù)據(jù)稱為“訓(xùn)練數(shù)據(jù)”,每一個(gè)樣本稱為一個(gè)“訓(xùn)練樣本”,訓(xùn)練樣本組成的集合稱為“訓(xùn)練集 C 學(xué)得模型對應(yīng)了關(guān)于數(shù)據(jù)的某種潛在規(guī)律,稱為“假設(shè)” D 學(xué)習(xí)過程就是為了找出數(shù)據(jù)的某種潛在規(guī)律,這個(gè)規(guī)律自身,一般稱為“數(shù)據(jù)特征”
正確答案: D 這個(gè)規(guī)律自身,一般稱為“真相“或“真實(shí)”,學(xué)習(xí)過程就是為了找出或逼近真相
下列不屬于機(jī)器學(xué)習(xí)任務(wù)的是() A 人臉識(shí)別 B 網(wǎng)頁編寫 C 文本分類 D 銷量預(yù)測
正確答案: B 網(wǎng)頁編寫不屬于機(jī)器學(xué)習(xí)
下列說法錯(cuò)誤的是() A 模型是通過學(xué)習(xí)算法得到的 B 機(jī)器學(xué)習(xí)通常解決高度不確定性和復(fù)雜性的問題 C 分類和回歸是監(jiān)督學(xué)習(xí)的代表 D 機(jī)器學(xué)習(xí)一定需要類別標(biāo)記
正確答案: D 機(jī)器學(xué)習(xí)不一定需要類別標(biāo)記,如無監(jiān)督學(xué)習(xí)中聚類的訓(xùn)練樣本不包含標(biāo)記
下列說法錯(cuò)誤的是() A 學(xué)得模型適用于新樣本的能力稱為“泛化”能力 B 機(jī)器學(xué)習(xí)一般有“獨(dú)立同分布” C 機(jī)器學(xué)習(xí)在只要見過的數(shù)據(jù)上做好了就行,未見過樣本的性能不重要 D 半假設(shè)拿到的所有數(shù)據(jù)都來自一個(gè)潛在的分布
正確答案: C 泛化能力很重要
下列說法錯(cuò)誤的是() A 色澤”取值為“青綠”,這里的“青綠”是屬性值 B 輸出是離散值的學(xué)習(xí)任務(wù)為分類任務(wù) C 模型找出的規(guī)律一定是正確的 D 般假設(shè)正類和反類是可交換的
正確答案:C 模型找出的規(guī)律不一定正確
下列關(guān)于歸納偏好的說法錯(cuò)誤的是() A 機(jī)器學(xué)習(xí)算法在學(xué)習(xí)過程中對某種類型假設(shè)的偏好,稱為“歸納偏好”,或簡稱為“偏好 B 一般來說,任何一個(gè)有效的機(jī)器學(xué)習(xí)算法都有其歸納偏好 C “奧卡姆剃刀”原則在某些情況下可以指導(dǎo)選擇偏好 D 在任何情況下,總有一個(gè)最優(yōu)的學(xué)習(xí)算法
正確答案: D
多選題
以下那個(gè)選項(xiàng)不是指“奧卡姆剃刀”原則?( A 若有多個(gè)假設(shè)與觀察一致,則隨機(jī)選一個(gè) B 若有多個(gè)假設(shè)與觀察一致,則選即不簡單又不復(fù)雜的那個(gè) C 若有多個(gè)假設(shè)與觀察一致,則選最簡單的那個(gè) D 若有多個(gè)假設(shè)與觀察一致,則選最復(fù)雜的那個(gè)
正確答案: A,B,D 奧卡姆剃刀是選最簡單,其他都不是
以下關(guān)于機(jī)器學(xué)習(xí)預(yù)測任務(wù)的說法正確的是() A 一般地,預(yù)測任務(wù)是希望對訓(xùn)練集進(jìn)行學(xué)習(xí),建立一個(gè)從輸入空間x 到輸出空間y 的映射f:x →y B 對于二分類任務(wù),一般令y={-1,+1} 或{0,1} C 對于回歸任務(wù),一般y=R D 預(yù)測任務(wù)不需要訓(xùn)練樣本的標(biāo)記信息
正確答案: A,B,C ABC皆為課本P3原話
填空題
把未見過的汽車分為若干組,這是一個(gè)______(分類/回歸/聚類)任務(wù)
正確答案:聚類 沒見過意思是沒有標(biāo)簽信息,因此進(jìn)行聚類分組
根據(jù)訓(xùn)練數(shù)據(jù)是否擁有標(biāo)記信息,我們可以將學(xué)習(xí)任務(wù)分為兩大類,監(jiān)督學(xué)習(xí)和 ______學(xué)習(xí)
正確答案: 無監(jiān)督/非監(jiān)督
學(xué)得模型后,使用其進(jìn)行預(yù)測的過程稱為______
正確答案:測試
算法聚類算法是機(jī)器學(xué)習(xí)中一種典型的______學(xué)習(xí)算法
正確答案:無監(jiān)督/非監(jiān)督
學(xué)出來的模型適用于新樣本的能力,稱為_____能力。該能力越強(qiáng),說明學(xué)得的模型越能很好地適用于整個(gè)樣本空間.
正確答案: 泛化
分類和回歸任務(wù),按照數(shù)據(jù)是否擁有標(biāo)記信息來說,屬于機(jī)器學(xué)習(xí)中的________
正確答案: 監(jiān)督學(xué)習(xí) 按照標(biāo)記信息分為監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí),分類和回歸屬于監(jiān)督學(xué)習(xí)
第二章 模型評估與選擇
在訓(xùn)練集上的誤差被稱為() A 泛化誤差 B 經(jīng)驗(yàn)誤差 C 測試誤差 D 以上三個(gè)選項(xiàng)都不對
正確答案: B
當(dāng)學(xué)習(xí)任務(wù)對數(shù)據(jù)集分布的輕微變化比較魯棒且數(shù)據(jù)量較少時(shí),適合使用什么樣的數(shù)據(jù)集劃分方式?() A 留出法 B 交又驗(yàn)證法 C 自助法 D 以上三個(gè)選項(xiàng)都可以
正確答案: C 本題關(guān)鍵是考慮“數(shù)據(jù)量較少”,此時(shí)無論是使用留出法還是交叉驗(yàn)證法,都會(huì)使得訓(xùn)練集數(shù)據(jù)量進(jìn)一步變少,而使用自助法則不改變樣本數(shù)量(訓(xùn)練集與原樣本集同規(guī)模);其次考慮“對數(shù)據(jù)分布輕微變化比較魯棒”,說明使用自助法時(shí)帶來的訓(xùn)練數(shù)據(jù)分布變化不會(huì)有太多負(fù)面影響。綜上,本題應(yīng)該選C。
兩種算法在某種情況下取得評估結(jié)果后不能直接比較以評判優(yōu)劣的原因中,正確的是() A 測試性能不等于泛化性能 B 測試性能隨著測試集的變化而變化 C 很多機(jī)器學(xué)習(xí)算法本身有一定隨機(jī)性 D 以上均正確
正確答案: D
對于留出法,下列說法正確的是() A 測試集小的時(shí)候,評估結(jié)果的方差較大 B 訓(xùn)練集小的時(shí)候,評估結(jié)果的偏差較大 C 留出法需要對數(shù)據(jù)集進(jìn)行多次切分并將結(jié)果取平均值 D 以上說法均正確
正確答案: D
我們通常將數(shù)據(jù)集劃分為訓(xùn)練集,驗(yàn)證集和測試集進(jìn)行模型的訓(xùn)練,參數(shù)的驗(yàn)證需要在____上進(jìn)行,參數(shù)確定后_____重新訓(xùn)練模型。() A 訓(xùn)練集,需要 B 訓(xùn)練集,不需要 C 驗(yàn)證集,需要 D 驗(yàn)證集,不需要
正確答案: C
當(dāng)西瓜收購公司去瓜攤收購西瓜時(shí)即希望把好瓜都收走又保證收到的瓜中壞瓜盡可能的少,請問他應(yīng)該考慮什么評價(jià)指標(biāo)?() A 精度 B 查全率 C 查準(zhǔn)率 D F1度量
正確答案: D 本題希望“既” 把好瓜都收走,“又”要求壞瓜盡可能的少,所以需要一個(gè)綜合考慮查全率、查準(zhǔn)率的性能度量,而F1度量恰好對查全率、查準(zhǔn)率均有所考慮,因此本題選D。
以下哪些是留出法的注意事項(xiàng)() A需要保持訓(xùn)練集和測試集數(shù)據(jù)分布的一致性 B只需進(jìn)行一次劃分 C測試集不能太大,不能太小 D以上選項(xiàng)都不是
正確答案: A,C 留出法需要進(jìn)行多次劃分
當(dāng)我們使用一個(gè)多項(xiàng)式函數(shù)去逼近數(shù)據(jù)集時(shí),下列哪些說法是錯(cuò)誤的?() A 多項(xiàng)式的次數(shù)時(shí)超參數(shù) B 多項(xiàng)式的系數(shù)是超參數(shù) C 多項(xiàng)式的次數(shù)必須通過數(shù)據(jù)去學(xué)習(xí) D 多項(xiàng)式的次數(shù)可以人工設(shè)置
正確答案: B,C 次數(shù)可以設(shè)置,系數(shù)需要訓(xùn)練求解
Mcnemar檢驗(yàn)基于_____ (成對t檢驗(yàn)/卡方檢驗(yàn))
正確答案:卡方檢驗(yàn)
訓(xùn)練模型時(shí),選擇經(jīng)驗(yàn)誤差最小的模型會(huì)存在什么風(fēng)險(xiǎn)______ (過擬合/欠擬合)
正確答案:過擬合
對于從數(shù)據(jù)(0,1),(1,0),(1,2),(2,1)通過最小二乘擬合的不帶偏置項(xiàng)的線性模型y=x,其訓(xùn)練誤差(均方誤差)為 ______(保留三位小數(shù))
正確答案:1.000
使用留出法對數(shù)據(jù)集進(jìn)行劃分時(shí),為了保持?jǐn)?shù)據(jù)分布的一致性,可以考慮什么采樣_________。
正確答案:分層采樣/分層抽樣
第三章 線性模型
下列關(guān)于對數(shù)幾率回歸的描述中錯(cuò)誤的是? A 無需事先加上數(shù)據(jù)分布 B 使用對數(shù)函數(shù)作為聯(lián)系函數(shù) C 可得到類別的近似概率預(yù)測 D 可直接應(yīng)用現(xiàn)有數(shù)值優(yōu)化算法求取最優(yōu)解
正確答案: B 以對數(shù)函數(shù)作為聯(lián)系函數(shù)的廣義線性模型叫對數(shù)線性回歸;對數(shù)幾率回歸是以sigmoid函數(shù)為聯(lián)系函數(shù)的模型,是分類學(xué)習(xí)方法。書中段落比較靠近,易混淆。
孫悟空想請你幫他預(yù)測下一次妖精會(huì)在多久后出現(xiàn),你會(huì)使用下列哪種方法?() A 使用歷史上妖精出現(xiàn)的時(shí)間以及八戒每日食量數(shù)據(jù)并使用對率回歸模型 B 使用歷史上妖精出現(xiàn)的時(shí)間以及師父念緊箍咒的時(shí)間數(shù)據(jù),并使用指數(shù)線性回歸模型 C 使用歷史上妖精出現(xiàn)的時(shí)間以及師徒四人的前進(jìn)速度數(shù)據(jù),并使用多元線性回歸模型 D 使用歷史上妖精出現(xiàn)的時(shí)間以及沙和尚每日體重?cái)?shù)據(jù).并使用對數(shù)線性回歸模型
正確答案: C
處理類別不平衡問題時(shí),復(fù)制小類樣本不是一種好的過采樣方法,下列哪個(gè)不是其原因?() A 復(fù)制樣本效率低下 B 容易過擬合 C 受噪聲影響大 D 有過擬合噪聲的風(fēng)險(xiǎn)
正確答案: A 復(fù)制小類樣本之后,過擬合的可能性會(huì)大大增加,并且,如果小類樣本中有噪聲,則噪聲的影響會(huì)被成倍放大,模型過擬合噪聲的風(fēng)險(xiǎn)也會(huì)大幅度增加。
Jerry想通過西瓜的重量、西瓜的顏色、西瓜根蒂的長短來判斷一個(gè)西瓜是否是好瓜,Jerry記錄了一些購買西瓜的記錄如下:(5500g,烏黑,長,否),(6000g,青綠,很長,是),(5800g,翠綠,短,是)。如果Jerry想收集更多西瓜數(shù)據(jù)并利用線性模型判斷西瓜好壞.下列哪個(gè)選項(xiàng)是上述三個(gè)記錄的合理表示?() A (5500,1,2),(6000,2,4),(5800,3,1) B (5.5,1,0,0,3),(6,0,0,1,5),(5.8,0,1,0,1) C (5500,1,0,0,5),(6000,0,1,0,3),(5800,0,0,1,1) D (5.5,1,0,0,3),(6,0,1,0,2),(5.8,0,0,1,1)
正確答案: B 用5.5表示5500,6表示6000,對于連續(xù)變量大小表示合理;對于沒有大小關(guān)系的特征采用獨(dú)熱編碼:(1,0,0)表示烏黑,(0,0,1)表示青綠,(0,1,0)表示翠綠。對于有大小關(guān)系的特征值,3表示為長,5表示很長,1表示短也很合理。
小明想利用心率數(shù)據(jù)、運(yùn)動(dòng)與用餐時(shí)間間隔這兩項(xiàng)數(shù)據(jù)來預(yù)測是否會(huì)發(fā)生低血糖,他利用平時(shí)鍛煉數(shù)據(jù)收集了100個(gè)末發(fā)生低血糖的數(shù)據(jù)與3個(gè)發(fā)生低血糖的數(shù)據(jù) 3個(gè)發(fā)生低血糖的數(shù)據(jù)為:(180,比較久),(170,久),(165,非常久)。小明想請你幫他過采樣一些低血糖數(shù)據(jù),你認(rèn)為下列哪個(gè)數(shù)據(jù)是合理的過采樣數(shù)據(jù)?() A (175,比較久) B (200,久) C (150,非常久) D (175,不久)
正確案: A 插值需要在現(xiàn)有數(shù)據(jù)之間插值,排除BC,顯然A比D更加合理。
下列哪個(gè)選項(xiàng)不是多元線性回歸使用正則化的原因?() A 計(jì)算機(jī)數(shù)值精度有限 B 樣例維度大于樣例數(shù) C 樣例的采樣過程存在偏差 D 存在大量線性相關(guān)的樣例
正確答案: C 根據(jù)線性代數(shù)相關(guān)知識(shí)可以知道,B、D選項(xiàng)所描述的兩種情況對應(yīng)的XTX一定不滿秩導(dǎo)致有無限個(gè)解,我們需要引入正則化來表達(dá)我們的歸納偏好。當(dāng)XTX可逆但是病態(tài)矩陣(條件數(shù)很大)時(shí),標(biāo)記微小的誤差都會(huì)導(dǎo)致解產(chǎn)生巨大的變化。 由于計(jì)算機(jī)數(shù)值精度有限,標(biāo)記存儲(chǔ)在計(jì)算機(jī)中的數(shù)值與采樣值很可能并不完全相等,加之計(jì)算時(shí)的舍入誤差、截?cái)嗾`差,最終計(jì)算出的數(shù)值解很可能與理論值相差甚遠(yuǎn),此時(shí)也需要引入正則化。
在求解對率回歸時(shí),下列哪個(gè)選項(xiàng)是極大似然法的優(yōu)勢?() A 優(yōu)化目標(biāo)是凸函數(shù) B 具有閉式解 C 可以使用梯度下降法求解 D 優(yōu)化目標(biāo)連續(xù)可微
正確答案: A,C,D 極大似然法不具有閉式解,只有數(shù)值解(通過數(shù)值逼近等方法獲得),解析求解如最小二乘,當(dāng)
X
T
X
X^TX
XTX為滿秩矩陣或正定矩陣才有閉式解:
w
?
=
(
X
T
X
)
?
1
X
T
y
\^w=(X^TX)^{-1}X^Ty
w?=(XTX)?1XTy
下列關(guān)于梯度下降法描述正確的是?() A 可以用于求解對數(shù)幾率回歸 B 是一種迭代求解的方法 C 可以比較好的并行化 D 可以高效地求解所有凸優(yōu)化問題
正確答案: A,B,C 并不能解決所有
給定數(shù)據(jù)集D={(-1,0),(0,0),(1,1)}最小二乘法學(xué)得的線性模型斜率為______ (保留三位小數(shù))
正確答案: 0.500 根據(jù)
w
?
=
(
X
T
X
)
?
1
X
T
y
\^w=(X^TX)^{-1}X^Ty
w?=(XTX)?1XTy可以算出,建議手算試一試
賣商家想利用天氣來預(yù)測銷售額,已知他只考慮溫度、濕度、降雨量三種天氣特征。若商家使用線性回歸模型預(yù)測,則模型的輸入是__(填寫阿拉伯?dāng)?shù)字) 維度的。
正確答案:3
對率回歸 ______(需要/不需要)事先假設(shè)數(shù)據(jù)分布
正確答案: 不需要
對率回歸可以得到樣例是正類的概率的 _____(精確值/近似估計(jì))。
正確答案:近似估計(jì)
多元線性回歸不滿秩的情況下__(是/否)可以通過加入歸納偏好來選取較好的解
正確答案:是
第四章 決策樹
決策樹劃分時(shí),若當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,則應(yīng)該怎么做?() A 將結(jié)點(diǎn)標(biāo)記為葉結(jié)點(diǎn),其類別標(biāo)記為父結(jié)點(diǎn)中樣本最多的類 B 將結(jié)點(diǎn)標(biāo)記為葉結(jié)點(diǎn),其類別標(biāo)記為父結(jié)點(diǎn)中樣本最少的類 C 將結(jié)點(diǎn)標(biāo)記為葉結(jié)點(diǎn),其類別標(biāo)記為父結(jié)點(diǎn)中任意一個(gè)類 D 從其他結(jié)點(diǎn)獲得樣本,繼續(xù)進(jìn)行劃分
正確答案:A 用父節(jié)點(diǎn)的分布作為當(dāng)前節(jié)點(diǎn)先驗(yàn)分布,一般都標(biāo)記為父節(jié)點(diǎn)最多的類
決策樹劃分時(shí),當(dāng)遇到以下哪種情形時(shí),將結(jié)點(diǎn)標(biāo)記為葉節(jié)點(diǎn),其類別標(biāo)記為當(dāng)前樣本集中樣本數(shù)最多的類? A 當(dāng)前屬性集為空,或所有樣本在所有屬性上取值相同 B 當(dāng)前屬性集不為空,或所有樣本在所有屬性上取值相同 C 當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,或當(dāng)前屬性集為空 D 當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,或所有樣本在所有屬性上取值相同
正確答案:A
隨著決策樹學(xué)習(xí)時(shí)的深度增加,會(huì)發(fā)生人現(xiàn)象?() A 位于葉結(jié)點(diǎn)的樣本越來越少 B 不會(huì)把數(shù)據(jù)中不該學(xué)到的特性學(xué)出來 C 決策樹不會(huì)過擬合 D 葉結(jié)點(diǎn)一定學(xué)到一般規(guī)律
正確答案:A
關(guān)于剪枝,下列說法錯(cuò)誤的是() A 對于同一棵樹,進(jìn)行預(yù)剪枝和后剪枝得到的決策樹是一樣的 B 決策樹的剪枝算法可以分為兩類,分別稱為預(yù)剪枝和后剪枝 C 預(yù)剪枝在樹的訓(xùn)練過程中通過停止分裂對樹的規(guī)模進(jìn)行限制 D 后剪枝先構(gòu)造出一棵完整的樹,然后通過某種規(guī)則消除掉部分節(jié)點(diǎn),用葉子節(jié)點(diǎn)替代
正確答案: A
預(yù)剪枝欠擬合風(fēng)險(xiǎn)(),后剪枝欠擬合風(fēng)險(xiǎn)()。 A 降低;降低 B 增加;基本不變 C 基本不變;基本不變 D 基本不變;增加
正確答案: B 預(yù)剪枝會(huì)提高欠擬合風(fēng)險(xiǎn),后剪枝則不影響
下列說法正確的是() A 信息增益準(zhǔn)則對可取值較少的屬性有所偏好 B C4.5算法并不是直接選擇增益率最大的候選劃分屬性 C 基尼指數(shù)反映了從數(shù)據(jù)集中隨機(jī)抽取兩個(gè)樣本,其類別標(biāo)記不一致的概率 D 基尼指數(shù)越小,數(shù)據(jù)集的純度越高
正確答案: B,C,D C4.5先在劃分屬性選出信息增益高于平均水平的,再從中選擇增益率最高的
下列說法錯(cuò)誤的是() A 決策樹處理缺失值時(shí),僅通過無缺失值的樣例來判斷劃分屬性的優(yōu)劣 B 若數(shù)據(jù)中存在缺失值,決策樹會(huì)僅使用無缺失的樣例 C 若數(shù)據(jù)維度很高,不容易出現(xiàn)大量缺失值 D 對決策樹,給定劃分屬性,若樣本在該屬性上的值缺失,會(huì)隨機(jī)進(jìn)入一個(gè)分支
正確答案: B,C,D 計(jì)算信息熵判斷優(yōu)劣只考慮沒缺失的樣本, 無缺失也會(huì)用, 維度高更容易大量缺失, 不是隨機(jī)進(jìn)一個(gè),是權(quán)重劃分后分別進(jìn)入分支
ID3決策樹劃分時(shí),選擇信息增益最____(大/小)的屬性作為劃分屬性
正確答案:大
若數(shù)據(jù)集的屬性全為離散值,決策樹學(xué)習(xí)時(shí),這______(可以/不可以)把用過的屬性再作為劃分屬性.
正確答案: 不可以 在一顆樹中每個(gè)屬性只用一次
色澤對西瓜數(shù)據(jù)集2.0(《機(jī)器學(xué)習(xí)》教材第76頁),屬性“觸感”和“色澤”,____(觸感/色澤)的增益率更大
正確答案:色澤
對西瓜數(shù)據(jù)集2.0(《機(jī)器學(xué)習(xí)》教材第76頁),屬性“色澤”的基尼指數(shù)為___________(保留2位有效數(shù)字)
正確答案: 0.43
6
/
17
?
(
1
?
(
1
/
2
)
2
?
(
1
/
2
)
2
)
+
6
/
17
?
(
1
?
(
4
/
6
)
2
?
(
2
/
6
)
2
)
+
5
/
17
?
(
1
?
(
1
/
5
)
2
?
(
4
/
5
)
2
)
=
0.4275
6/17?(1?(1/2)^2?(1/2)^2 )+6/17?(1?(4/6) ^2?(2/6) ^2)+5/17?(1?(1/5)^2?(4/5)^2 )=0.4275
6/17?(1?(1/2)2?(1/2)2)+6/17?(1?(4/6)2?(2/6)2)+5/17?(1?(1/5)2?(4/5)2)=0.4275
只學(xué)習(xí)一顆決策樹作為模型時(shí),一般_____(要/不要)選擇剪枝
正確答案: 要 不剪枝容易造成過擬合
第五章 神經(jīng)網(wǎng)絡(luò)
下列哪個(gè)選項(xiàng)是神經(jīng)網(wǎng)絡(luò)萬有逼近的正確表述?() A 僅需一個(gè)包含足夠多神經(jīng)元的隱層,多層前饋神經(jīng)網(wǎng)絡(luò)就能以任意精度逼近任意復(fù)雜度的可測函數(shù) B 僅需一個(gè)包含足夠多神經(jīng)的隱層,多層前饋神經(jīng)網(wǎng)絡(luò)就能完美表示任意復(fù)雜度的連續(xù)函數(shù) C 僅需一個(gè)包含足夠多神經(jīng)元的隱層,多層前饋神經(jīng)網(wǎng)絡(luò)就能以任意精度逼近任意復(fù)雜度的連續(xù)函數(shù) D 僅需一個(gè)包含100000000個(gè)神經(jīng)元的隱層,多前饋神經(jīng)網(wǎng)絡(luò)就能以任意精度逼近任意復(fù)雜度的連續(xù)函數(shù)
正確答案: C 萬有逼近性:僅需一個(gè)包含足夠多神經(jīng)元的隱層,多層前饋神經(jīng)網(wǎng)絡(luò)就能以任意精度逼近任意復(fù)雜度的連續(xù)函數(shù)[Hornik et al.1989]
下列哪個(gè)模型不具備萬有逼近性?() A 線性模型 B 泰勒展開 C 傅里葉變換 D 決策樹
正確答案: A
下列關(guān)于多層前饋神經(jīng)網(wǎng)絡(luò)的描述中錯(cuò)誤的是哪個(gè)?() A 可以使用BP算法優(yōu)化 B 至少包含一個(gè)隱層 C 神經(jīng)元之間不存在同層連接 D 輸入層可以直接連接到輸出層
正確答案: D
下列哪個(gè)選項(xiàng)的步長(學(xué)習(xí)率)調(diào)整方法是給出的四種方案中最好的?( A 先使用較大的步長,后使用較小的步長 B 先使用較小的步長,后使用較大的步長 C 直使用較大的步長 D 直使用較小的步長
正確答案:A
下列哪項(xiàng)使神經(jīng)網(wǎng)絡(luò)具有非線性?() A 隨機(jī)梯度下降 B 激活函數(shù) C 卷積函數(shù) D 權(quán)重矩陣
正確答案: B 跟上面廣義線性模型的內(nèi)容呼應(yīng),目的就是映射到非線性的真實(shí)值
目前神經(jīng)網(wǎng)絡(luò)最常用的網(wǎng)絡(luò)結(jié)構(gòu)是下列哪個(gè)選項(xiàng)?() A 單層后向網(wǎng)絡(luò) B 多層后向網(wǎng)絡(luò) C 單層前饋網(wǎng)絡(luò) D 多層前饋網(wǎng)絡(luò)
正確答案:D
BP算法的每一輪采用的是什么學(xué)習(xí)規(guī)則?() A 廣義感知機(jī)學(xué)習(xí)規(guī)則 B 廣義最小二乘學(xué)習(xí)規(guī)則 C 廣義決策樹學(xué)習(xí)規(guī)則 D 廣義支持向量機(jī)學(xué)習(xí)規(guī)則
正確答案:A
下列關(guān)于BP算法使用小步長優(yōu)化神經(jīng)網(wǎng)絡(luò)的說法中正確的是哪個(gè)?() A 一定能學(xué)到最優(yōu)解 B 可以較好的避免振蕩現(xiàn)象 C 訓(xùn)練速度快 D 學(xué)得的解比使用大步長具有更小的泛化誤差
正確答案: B
使用梯度下降訓(xùn)練Logistic回歸分類器后,如果發(fā)現(xiàn)它對訓(xùn)練集欠擬合,在訓(xùn)練集或驗(yàn)證集上沒有達(dá)到所需的性能,那么以下哪項(xiàng)可能是有希望采取的步驟?() A 采用其他優(yōu)化算法,因?yàn)樘荻认陆捣ǖ玫降目赡苁蔷植繕O小值 B 增加訓(xùn)練樣本 C 增加多項(xiàng)式特征值 D 增加訓(xùn)練集樣本數(shù)在全部數(shù)據(jù)集中的比例
正確答案: B,C
以下哪些函數(shù)可做為神經(jīng)網(wǎng)絡(luò)的激活函數(shù)使用?() A sigmoid B tanh C ReLU D Hinge
正確答案: A,B,C hinge損失函數(shù)是用來作為軟間隔SVM中代替0/1損失的松弛變量的函數(shù)
神經(jīng)網(wǎng)絡(luò)必須包括的結(jié)構(gòu)有() A 輸入層 B 卷積層 C 激活函數(shù) D 輸出層
正確答案: A,C,D
BackPropagationBP算法的英文全稱為____
正確答案: BackPropagation / Back Propagation
Sigmoid函數(shù)在自變量Z=0.5處的導(dǎo)數(shù)值為___
正確答案:0.235
具有10個(gè)隱層結(jié)點(diǎn)的單隱層網(wǎng)絡(luò)在處理輸入維度為6維的三分類任務(wù)時(shí),網(wǎng)絡(luò)中共有多少個(gè)參數(shù)______
正確答案:103 (d +L+1)q +L,d為輸入層神經(jīng)元數(shù)量,L為輸出層神經(jīng)元數(shù)量,q為隱層神經(jīng)元數(shù)量:(6+3+1)10 +3 = 103
第六章 支持向量機(jī)
對于線性可分的二分類任務(wù)樣本集.將訓(xùn)練樣本分開的超平面有很多,支持向量機(jī)試圖尋找滿足什么條件的超平面?() A 在正負(fù)類樣本“正中間”的 B 靠近正類樣本的 C 靠近負(fù)類樣本的 D 以上說法都不對
正確答案: A
下面關(guān)于支持向量機(jī)的說法錯(cuò)誤的是 A 支持向量機(jī)基本型是一個(gè)凸二次規(guī)劃問題 B 將訓(xùn)練樣本分開的超平面僅由支持向量決定 C 支持向量機(jī)的核心思想是最大化間隔 D 支持向量機(jī)更適合做分類任務(wù)
正確答案: D 要看具體問題的效果
下面哪一項(xiàng)不是支持向量機(jī)基本型得到對偶問題的求解步驟( A 引拉格朗日乘子得到拉格朗日函數(shù) B 對拉格朗日函數(shù)求偏導(dǎo)并令其為0 C 回帶變量關(guān)系 D 梯度下降
正確答案: D 對偶問題求解步驟
引拉格朗日乘子得到拉格朗日函數(shù)對拉格朗日函數(shù)求偏導(dǎo)并令其為0回帶變量關(guān)系
支持向量到超平面的距離為() A 1 B 2 C 2/||w|| D 1/||w||
正確答案: D
如果不存在一個(gè)能正確劃分兩類樣本的超平面SVM的做法是() A 將樣本從原始空間映射到一個(gè)更高維的特征空間,使樣本在這個(gè)特征空間內(nèi)線性可分 B 將樣本從原始空間映射到一個(gè)更高維的特征空間,使樣本在這個(gè)特征空間內(nèi)非線性可分 C 將樣本從原始空間映射到一個(gè)更低維的特征空間,使樣本在這個(gè)特征空間內(nèi)線性可分 D 將樣本從原始空間映射到一個(gè)更低維的特征空間,使樣本在這個(gè)特征空間內(nèi)非線性可分
正確答案: A
將樣本映射到高維空間后,支持向量機(jī)問題的表達(dá)式為()
正確答案: A 真實(shí)值與預(yù)測值相乘大于等于1才代表分類正確
采用hinge損失,當(dāng)軟間隔支持向量機(jī)松他變量ξn 滿足什么條件時(shí),樣本位于間隔內(nèi),位于決策邊界的正確一側(cè)? A ξn<0 B ξn=0 C 0<ξn≤1 D ξn>1 本題得分: 1分
正確答案: C
下面有關(guān)軟間隔支持向量機(jī)說法錯(cuò)誤的是 A 軟間隔是支持向量機(jī)緩解過擬合的一種手段 B 軟間隔的基本思路為在最大化間隔的同時(shí),讓不滿足約束的樣本盡可能少。 C 正則化參數(shù)C越小,模型對分類錯(cuò)誤的容忍度越小. D 采用hinge損失函數(shù)后仍保持了SVM解的稀疏性
正確答案: C C越小容忍度越高,因?yàn)镃是ξn求和的系數(shù),C越小說明對ξn的“懲罰力度”很小,容忍度就越大;反之“懲罰力度”大,容忍度就小。
關(guān)于支持向量機(jī)基本型中的間隔、支持向量和超平面wx+b=0 的說法,下列說法正確的是 A 對于線性可分的訓(xùn)練樣本,存在唯一的超平面將訓(xùn)練樣本全部分類正確 B 對于線性可分的訓(xùn)練樣本,支持向量機(jī)算法學(xué)習(xí)得到的能夠?qū)⒂?xùn)練樣本正確分類且具有“最大間隔”的超平面是存在并且唯一的 C 支持向量機(jī)訓(xùn)練完成后,最后的解與所有訓(xùn)練樣本都有關(guān) D 間隔只與w有關(guān),與b無關(guān)
正確答案: B
以下關(guān)于替代函數(shù)的說法錯(cuò)誤的是() A 替代函數(shù)有良好的數(shù)學(xué)性質(zhì) B 替代函數(shù)在最優(yōu)化時(shí),原來的目標(biāo)也在最優(yōu)化 C “0/1”損失函數(shù)是常用的替代損失函數(shù) D 機(jī)器學(xué)習(xí)較少采用替代損失函數(shù)。
正確答案: C,D(少選不得分)
對于SVM回歸中 e-不敏感損失函數(shù)說法正確的是() A 當(dāng)自變量的絕對值小于 e 時(shí)沒有懲罰 B 當(dāng)自變量的絕對值小于e 時(shí),懲罰是線性的 C 當(dāng)自變量的絕對值大于e 時(shí)沒有懲罰 D 當(dāng)自變量的絕對值大于e 時(shí)懲罰是線性的
正確答案: A,D(少選不得分)
考慮兩個(gè)正例樣本(0.0),(1.1)和兩個(gè)負(fù)例樣本(1.0),(0.1這四個(gè)樣本是線性不可分的,通過下列哪些映射函數(shù)可以讓這四樣本線性可分?I(x) 為示性函數(shù),當(dāng)自變量為真時(shí)取值為1,否則取值為0。 A (x,y)→(x,y,I(x+y>1)) B (x,y)→(x,y,I(x+y≤0)) C (x,y)→(x,y,I(x=y)) D (x,y)→(x,y,I(x≠y))
正確答案: A,B,C,D(少選不得分)
支持向量滿足的表達(dá)式為wTx+b=___
正確答案:±1
第七章 貝葉斯分類器
貝葉斯分類器屬于什么模型?() A 判別式 B 生成式 C 判別式和生成式 D 以上都不對
正確答案: B
極大似然中,若直接連乘,易造成什么現(xiàn)象?() A 下溢 B 上溢 C 內(nèi)存不足 D 計(jì)算開銷大
正確答案:A
對數(shù)似然中,一般對概率取對數(shù),然后進(jìn)行以下哪個(gè)的操作?() A 求差 B 求和 C 求積 D 以上都不是
正確答案: B 對數(shù)求和相當(dāng)于概率相乘
貝葉斯公式中,估計(jì)后驗(yàn)概率P(clx)的主要困難在于估計(jì)?() A p(c ) B p(x|c) C p(x) D 以上都是
正確答案: B 屬性上的聯(lián)合概率難以從有限的樣本中獲得
樸素貝葉斯算法是基于()的生成分類器 A 貝葉斯公式 B 特征條件獨(dú)立 C 高斯公式 D 特征條件依賴
正確答案: A,B
當(dāng)訓(xùn)練集變大時(shí),拉普拉斯修正所引入的先驗(yàn)的影響也會(huì)逐漸變_____(大/小)
正確答案: 小 拉普拉斯修正是為了防止未出現(xiàn)的事件概率為零,對分母+N、分子+1,當(dāng)訓(xùn)練集大到一定規(guī)模時(shí),對于沒出現(xiàn)事件賦予的概率也會(huì)接近與零,引入的先驗(yàn)影響會(huì)變小
7.從貝葉斯決策論的角度看,機(jī)器學(xué)習(xí)要實(shí)現(xiàn)的是基于有限的訓(xùn)練樣本盡可能準(zhǔn)確地估計(jì)出后驗(yàn)概率P(c|x),這句話___(正/錯(cuò))
正確答案:正確
8.極大似然估計(jì)中,對數(shù)似然的解與原問題____(一致/不一致)
正確答案:一致
第八章 集成學(xué)習(xí)
下列哪個(gè)關(guān)于集成學(xué)習(xí)的描述是正確的?() A 集成學(xué)習(xí)一定能取得比最好的個(gè)體學(xué)習(xí)器更好的性能 B 集成學(xué)習(xí)的性能可能與個(gè)體學(xué)習(xí)器的平均性能相同 C 集成學(xué)習(xí)的性能一定不差于最差的個(gè)體學(xué)習(xí)器 D 集成學(xué)習(xí)的性能在個(gè)體學(xué)習(xí)器平均性能與個(gè)體學(xué)習(xí)器最佳性能之間
正確答案: B
下列哪個(gè)選項(xiàng)不是集成學(xué)習(xí)在分類任務(wù)中取得好性能的要求?() A 個(gè)體學(xué)習(xí)器犯錯(cuò)的樣本較為分散 B 個(gè)體學(xué)習(xí)器具有較好的性能 C 存在一個(gè)完美的個(gè)體學(xué)習(xí)器 D 個(gè)體學(xué)習(xí)器分對的樣本不完全一致
正確答案: C
下列哪個(gè)算法是并行化集成學(xué)習(xí)方法?() A XGBoost B Random Forest C AdaBoost D LPBoost
正確答案: B
下列關(guān)于Boosting算法的說法中錯(cuò)誤的是哪個(gè)?() A Boosting算法適用于分類、回歸、排序等機(jī)器學(xué)習(xí)問題 B 后一個(gè)基學(xué)習(xí)器更關(guān)注前一個(gè)基學(xué)習(xí)器學(xué)錯(cuò)的樣本 C Boosting算法的輸出是所有基學(xué)習(xí)器的加權(quán)求和 D 不同基學(xué)習(xí)器使用的樣本權(quán)重是相同的
正確答案:D
下列關(guān)于Bagging算法中采樣的描述哪個(gè)是錯(cuò)誤的?() A 可以使用Bootstrap采樣 B 每個(gè)樣本在每個(gè)基學(xué)習(xí)器的數(shù)據(jù)集中只會(huì)出現(xiàn)一次 C 采樣是為了獲得不同的基學(xué)習(xí)器 D 不同基學(xué)習(xí)器的數(shù)據(jù)從相同分布中采樣得到
正確答案: B 跟A矛盾,抽樣是又放回,肯定會(huì)重復(fù)
下列關(guān)于集成學(xué)習(xí)的說法中錯(cuò)誤的是?() A 個(gè)體學(xué)習(xí)器準(zhǔn)確率很高后,要增加多樣性可以不犧牲準(zhǔn)確性 B 當(dāng)基分類器的錯(cuò)誤率相互獨(dú)立時(shí),隨著個(gè)體數(shù)目的增大,集成錯(cuò)誤率將指數(shù)級(jí)下降 C 現(xiàn)實(shí)任務(wù)中,個(gè)體學(xué)習(xí)器很難做到相互獨(dú)立 D 集成學(xué)習(xí)的核心是如何產(chǎn)生并結(jié)合好而不同的個(gè)體學(xué)習(xí)器
正確答案:A 增加多樣性必須犧牲準(zhǔn)確性
多樣性是集成學(xué)習(xí)的關(guān)鍵,現(xiàn)實(shí)任務(wù)中往往會(huì)在學(xué)習(xí)過程中引入隨機(jī)性來增強(qiáng)個(gè)體學(xué)習(xí)器的多樣性,你認(rèn)為下列哪個(gè)做法不是合適的增強(qiáng)多樣性的方法?() A 每個(gè)個(gè)體學(xué)習(xí)器使用不同的數(shù)據(jù)子集 B 生成大量隨機(jī)樣本放入到數(shù)據(jù)集中 C 每個(gè)個(gè)體學(xué)習(xí)器使用不同的輸入屬性子集 D 當(dāng)個(gè)體學(xué)習(xí)器有參數(shù)可以設(shè)置時(shí),對不同個(gè)體學(xué)習(xí)器設(shè)置不同的參數(shù)
正確答案: B 大量隨機(jī)樣本屬于逆天操作
下列關(guān)于Boosting算法中樣本權(quán)重調(diào)整的說法中錯(cuò)誤的是哪個(gè)?() A 所有樣本的權(quán)重和保持不變 B 前一個(gè)基學(xué)習(xí)器分錯(cuò)的樣本會(huì)獲得更大的權(quán)重 C 只要權(quán)重調(diào)整的方向正確,Boosting算法的性能就可以獲得理論保證 D 決策樹可以直接處理帶權(quán)重的樣本
正確答案:C 權(quán)重和為1確實(shí)不變,不是權(quán)重不變;只要……就很有絕對;直接處理帶權(quán)重的樣本是決策樹的特點(diǎn)。
下列關(guān)于集成學(xué)習(xí)描述正確的是?( A 集成學(xué)習(xí)只能使用若千個(gè)相同類型的學(xué)習(xí)器 B 集成學(xué)習(xí)使用多個(gè)學(xué)習(xí)器解決問題 C 集成學(xué)習(xí)在許多比賽中取得了優(yōu)異的成績 D 集成學(xué)習(xí)在分類問題上的性能比不過深度學(xué)習(xí)
正確答案: B,C 可以用不同的組合;不一定比不過深度學(xué)習(xí),要看具體問題
下列哪些學(xué)習(xí)器可以作為集成學(xué)習(xí)中的學(xué)習(xí)器?() A 支持向量機(jī) B 決策樹 C 神經(jīng)網(wǎng)絡(luò) D 邏輯回歸
正確答案: A,B,C,D 都可以
在隨機(jī)森林里生成幾百棵決策樹,然后對這些決策樹的結(jié)果進(jìn)行綜合,下面關(guān)于隨機(jī)森林中每棵決策樹的說法哪些是正確的? A 每棵決策樹都是通過數(shù)據(jù)集的子集構(gòu)建的 B 每棵決策樹都是通過數(shù)據(jù)特征的子集構(gòu)建的 C 每棵決策樹都是通過所有數(shù)據(jù)構(gòu)建的 D 每棵決策樹都是通過所有的數(shù)據(jù)特征構(gòu)建的
正確答案: A,B 每棵樹都是子集的數(shù)據(jù)集和特征構(gòu)建
如果隨機(jī)森林模型現(xiàn)在處于欠擬合狀態(tài),則下列哪些操作可以提升其性能?() A 增大葉了結(jié)點(diǎn)的最小樣本數(shù) B 增大決策樹的最大深度 C 增大中間結(jié)點(diǎn)分裂的最小樣本數(shù) D 減小葉子結(jié)點(diǎn)的最小樣本數(shù)
正確答案: B,D 欠擬合就進(jìn)行可能過擬合的操作,BD就屬于容易過擬合的操作
由若干個(gè)相同類型的學(xué)習(xí)器構(gòu)成的集成學(xué)習(xí)被稱為____(同質(zhì)/異質(zhì))集成學(xué)習(xí)
正確答案:同質(zhì)
Boosting是一種___(同質(zhì)/異質(zhì))集成學(xué)習(xí)方法
正確答案:同質(zhì)
Bagging算法使用的采樣方法是__(有/無)放回采樣
正確答案:有
附加小題
西瓜數(shù)據(jù)集中,“好瓜、壞瓜”是一個(gè)西瓜樣例的什么? A 屬性 B 類別標(biāo)記 C 屬性值 D 數(shù)據(jù)集名稱
正確答案:B
回歸任務(wù)的性能度量之一均方誤差添加系數(shù)后 CE(f; D)(c >0) ,是否會(huì)影響判斷哪個(gè)模型是最好的。__(是/否)
正確答案:否
收購西瓜的公司希望把瓜攤的好瓜都盡量收走,請問他的評價(jià)標(biāo)準(zhǔn)是? A錯(cuò)誤率 B精度 C查準(zhǔn)率 D查全率
正確答案: D
當(dāng)增加L2正則項(xiàng)的超參數(shù)λ時(shí),參數(shù)w的權(quán)重如何變化? A權(quán)重變得更小 B權(quán)重變得更大 C權(quán)重不變 D權(quán)重變化不確定
正確答案:A
最小二乘法的求解步驟是什么? (1)均方誤差對w與b求偏導(dǎo); (2) 令偏導(dǎo)為0; (3)求解線性方程組。 A (1)(2)(3) B (1)(3)(2) C (2)(1)(3) D (3)(1)(2)
答案A
以下線性回歸模型不能用梯度下降算法優(yōu)化求解的是? A 最小二乘回歸 B 嶺回歸 C Lasso回歸 D 彈性網(wǎng)絡(luò)回歸
答案CD,Lasso回歸和彈性網(wǎng)絡(luò)回歸都含有L1正則項(xiàng),L1正則存在不可求導(dǎo)的部分因此沒法使用梯度下降。
當(dāng)下列那個(gè)條件滿足時(shí),多元線性回歸的最小二乘解唯一? A
X
T
X
X^TX
XTX不滿秩 B
X
T
X
X^TX
XTX滿秩 C
X
X
T
XX^T
XXT滿秩 D
X
X
T
XX^T
XXT不滿秩
答案:B,線性代數(shù)知識(shí):滿秩才有唯一解
以下哪個(gè)模型沒有超參數(shù)? A 最小二乘線性回歸 B 嶺回歸 C Lasso回歸 D 彈性網(wǎng)絡(luò)回歸
答案A,最小二乘回歸無正則項(xiàng)
單位階躍函數(shù)的缺點(diǎn)是什么? A 不連續(xù)且不可微 B 單調(diào)增 C 非負(fù) D 最大值為1
答案A
以下那種方法不是常見的類別不平衡學(xué)習(xí)方法? 最小二乘法 過采樣 欠采樣 閩值移動(dòng)
正確答案:A
答案B
在二分類任務(wù)中,若當(dāng)前樣本集合的正類和負(fù)類的數(shù)量剛好各半,此時(shí)信息為[填空1] (保留1位小數(shù))
正確答案: 1.0
在一個(gè)3-5-1的神經(jīng)網(wǎng)絡(luò)中,有多少個(gè)待定參數(shù)? A 9 B 15 C 20 D 26
答案D,需通過學(xué)習(xí)確定的參數(shù)數(shù)目:(d +L+1)q +L,d為輸入層神經(jīng)元數(shù)量,L為輸出層神經(jīng)元數(shù)量,q為隱層神經(jīng)元數(shù)量:(3 +1+1)5 +1=26
下列說法正確的是 A 貝葉斯決策論是概率框架下實(shí)施決策的基本理論 B R(c|x)表示樣本x分到第i類面臨的風(fēng)險(xiǎn) C 如果概率都能拿到真實(shí)值,那么根據(jù)貝葉斯判定準(zhǔn)則做出的決策是理論上最好的決策 D 以上都正確
正確答案: D
柚子快報(bào)邀請碼778899分享:人工智能 【機(jī)器學(xué)習(xí)】習(xí)題集合
相關(guān)閱讀
本文內(nèi)容根據(jù)網(wǎng)絡(luò)資料整理,出于傳遞更多信息之目的,不代表金鑰匙跨境贊同其觀點(diǎn)和立場。
轉(zhuǎn)載請注明,如有侵權(quán),聯(lián)系刪除。