A.二分K均值
B.MST
C.Chameleon
D.組平均
您可能感興趣的試卷
你可能感興趣的試題
A.MIN(單鏈)
B.MAX(全鏈)
C.組平均
D.Chameleon
A.高維性
B.規(guī)模
C.稀疏性
D.噪聲和離群點
A.精度
B.Rand統(tǒng)計量
C.Jaccard系數(shù)
D.召回率
A.輪廓系數(shù)
B.共性分類相關(guān)系數(shù)
C.熵
D.F度量
A.規(guī)則集的表達(dá)能力遠(yuǎn)不如決策樹好
B.基于規(guī)則的分類器都對屬性空間進(jìn)行直線劃分,并將類指派到每個劃分
C.無法被用來產(chǎn)生更易于解釋的描述性模型
D.非常適合處理類分布不平衡的數(shù)據(jù)集
最新試題
公司內(nèi)部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。
當(dāng)數(shù)據(jù)集標(biāo)簽錯誤的數(shù)據(jù)點時,隨機(jī)森林通常比AdaBoost更好。
數(shù)據(jù)收集中的拉模式需要通過定時的方式不斷地觸發(fā),才能源源不斷地獲取對應(yīng)的數(shù)據(jù)。
要將工作申請分為兩類,并使用密度估計來檢測離職申請人,我們可以使用生成分類器。
當(dāng)MAP中使用的先驗是參數(shù)空間上的統(tǒng)一先驗時,MAP估計等于ML估計。
任何對數(shù)據(jù)處理與存儲系統(tǒng)的操作均需要記錄,這符合數(shù)據(jù)安全的要求。
通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓(xùn)練數(shù)據(jù)的可能性。
使決策樹更深將確保更好的擬合度,但會降低魯棒性。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因為SVM通常能夠在訓(xùn)練集上實現(xiàn)更好的分類精度。
根據(jù)數(shù)據(jù)科學(xué)家與數(shù)據(jù)工程師對于問題的理解并相互討論,然后確定需要收集數(shù)據(jù)的范圍以及種類,然后數(shù)據(jù)工程師使用數(shù)據(jù)收集工具,架構(gòu),甚至編程的形式來進(jìn)行數(shù)據(jù)收集的工作,然后并把數(shù)據(jù)收集的數(shù)據(jù)放置到對應(yīng)的存儲系統(tǒng)。