A.數(shù)據(jù)中的空缺值
B.噪聲數(shù)據(jù)
C.數(shù)據(jù)中的不一致性
D.數(shù)據(jù)中的概念分層
您可能感興趣的試卷
你可能感興趣的試題
A.平滑
B.聚集
C.數(shù)據(jù)概化
D.規(guī)范化
A.數(shù)據(jù)清理
B.數(shù)據(jù)集成
C.數(shù)據(jù)變換
D.數(shù)據(jù)歸約
A.去掉數(shù)據(jù)中的噪聲
B.對數(shù)據(jù)進行匯總和聚集
C.使用概念分層,用高層次概念替換低層次“原始”數(shù)據(jù)
D.將屬性按比例縮放,使之落入一個小的特定區(qū)間
A.填補數(shù)據(jù)種的空缺值
B.集成多個數(shù)據(jù)源的數(shù)據(jù)
C.得到數(shù)據(jù)集的壓縮表示
D.規(guī)范化數(shù)據(jù)
A.概念分層
B.離散化
C.分箱
D.直方圖
最新試題
要將工作申請分為兩類,并使用密度估計來檢測離職申請人,我們可以使用生成分類器。
數(shù)據(jù)存儲體系中并不牽扯計算機網(wǎng)絡(luò)這一環(huán)節(jié)。
如果P(A B)= P(A),則P(A∩B)= P(A)P(B)。
假設(shè)屬性的數(shù)量固定,則可以在時間上以線性方式學習基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。
任何對數(shù)據(jù)處理與存儲系統(tǒng)的操作均需要記錄,這符合數(shù)據(jù)安全的要求。
由于決策樹學會了對離散值輸出而不是實值函數(shù)進行分類,因此它們不可能過度擬合。
訓練神經(jīng)網(wǎng)絡(luò)具有過度擬合訓練數(shù)據(jù)的潛在問題。
通常,當試圖從大量觀察中學習具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓練數(shù)據(jù)的可能性。
數(shù)據(jù)復(fù)制或者備份均是為了從提高數(shù)據(jù)并發(fā)這個角度來設(shè)計和實現(xiàn)的。
隨機梯度下降每次更新執(zhí)行的計算量少于批梯度下降。