A.構(gòu)造網(wǎng)絡(luò)費時費力
B.對模型的過分問題非常魯棒
C.貝葉斯網(wǎng)絡(luò)不適合處理不完整的數(shù)據(jù)
D.網(wǎng)絡(luò)結(jié)構(gòu)確定后,添加變量相當(dāng)麻煩
您可能感興趣的試卷
你可能感興趣的試題
A.F1度量
B.召回率(recall)
C.精度(precision)
D.真正率(ture positive rate,TPR)
A.預(yù)測準(zhǔn)確度
B.召回率
C.模型描述的簡潔度
D.計算復(fù)雜度
A.其支持度小于閾值
B.都是不讓人感興趣的
C.包含負(fù)模式和負(fù)相關(guān)模式
D.對異常數(shù)據(jù)項敏感
A.支持度閥值
B.項數(shù)(維度)
C.事務(wù)數(shù)
D.事務(wù)平均寬度
A.數(shù)據(jù)的抽取
B.存儲和管理
C.數(shù)據(jù)的表現(xiàn)
D.數(shù)據(jù)倉庫設(shè)計
最新試題
使用偏差較小的模型總是比偏差較大的模型更好。
通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓(xùn)練數(shù)據(jù)的可能性。
由于決策樹學(xué)會了對離散值輸出而不是實值函數(shù)進行分類,因此它們不可能過度擬合。
使決策樹更深將確保更好的擬合度,但會降低魯棒性。
公司內(nèi)部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。
數(shù)據(jù)復(fù)制或者備份均是為了從提高數(shù)據(jù)并發(fā)這個角度來設(shè)計和實現(xiàn)的。
數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個信箱。
小數(shù)據(jù)集的數(shù)據(jù)處理最好也由計算機手段來完成。
當(dāng)數(shù)據(jù)集標(biāo)簽錯誤的數(shù)據(jù)點時,隨機森林通常比AdaBoost更好。
隨機梯度下降每次更新執(zhí)行的計算量少于批梯度下降。