A.上卷(roll-up)
B.選擇(select)
C.切片(slice)
D.轉軸(pivot)
您可能感興趣的試卷
你可能感興趣的試題
A.上卷
B.下鉆
C.切塊
D.轉軸
A.分布的
B.代數(shù)的
C.整體的
D.混合的
A.空缺值
B.噪聲數(shù)據(jù)
C.不一致數(shù)據(jù)
D.敏感數(shù)據(jù)
A.數(shù)據(jù)壓縮
B.數(shù)據(jù)概化
C.維歸約
D.規(guī)范化
A.設備異常
B.命名規(guī)則的不一致
C.與其他已有數(shù)據(jù)不一致而被刪除
D.在輸入時,有些數(shù)據(jù)因為得不到重視而沒有被輸入
最新試題
如果P(A B)= P(A),則P(A∩B)= P(A)P(B)。
數(shù)據(jù)復制或者備份均是為了從提高數(shù)據(jù)并發(fā)這個角度來設計和實現(xiàn)的。
小數(shù)據(jù)集的數(shù)據(jù)處理最好也由計算機手段來完成。
當數(shù)據(jù)集標簽錯誤的數(shù)據(jù)點時,隨機森林通常比AdaBoost更好。
對于文本數(shù)據(jù)和多媒體數(shù)據(jù)進行特征提取是為了方便對于這類數(shù)據(jù)的觀察和理解。
任務調度系統(tǒng)的設計與實現(xiàn)才能使得數(shù)據(jù)收集工作可以不間斷地按照既定的目標從目標源獲取數(shù)據(jù)。
通常,當試圖從大量觀察中學習具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓練數(shù)據(jù)的可能性。
由于決策樹學會了對離散值輸出而不是實值函數(shù)進行分類,因此它們不可能過度擬合。
公司內部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。
當反向傳播算法運行到達到最小值時,無論初始權重是什么,總是會找到相同的解(即權重)。