A.MIN(單鏈)
B.MAX(全鏈)
C.組平均
D.Ward方法
您可能感興趣的試卷
你可能感興趣的試題
A.MIN(單鏈)
B.MAX(全鏈)
C.組平均
D.Ward方法
A.統(tǒng)計方法
B.鄰近度
C.密度
D.聚類技術(shù)
A.分類器
B.聚類算法
C.關(guān)聯(lián)分析算法
D.特征選擇算法
A.邊界點
B.質(zhì)心
C.離群點
D.核心點
A.曼哈頓距離
B.平方歐幾里德距離
C.余弦距離
D.Bregman散度
最新試題
小數(shù)據(jù)集的數(shù)據(jù)處理最好也由計算機(jī)手段來完成。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個值,并選擇最小化失真度量的值。
無論質(zhì)心的初始化如何,K-Means始終會給出相同的結(jié)果。
當(dāng)數(shù)據(jù)集標(biāo)簽錯誤的數(shù)據(jù)點時,隨機(jī)森林通常比AdaBoost更好。
當(dāng)MAP中使用的先驗是參數(shù)空間上的統(tǒng)一先驗時,MAP估計等于ML估計。
由于決策樹學(xué)會了對離散值輸出而不是實值函數(shù)進(jìn)行分類,因此它們不可能過度擬合。
任何對數(shù)據(jù)處理與存儲系統(tǒng)的操作均需要記錄,這符合數(shù)據(jù)安全的要求。
要將工作申請分為兩類,并使用密度估計來檢測離職申請人,我們可以使用生成分類器。
使決策樹更深將確保更好的擬合度,但會降低魯棒性。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因為SVM通常能夠在訓(xùn)練集上實現(xiàn)更好的分類精度。