A.層次聚類
B.劃分聚類
C.非互斥聚類
D.模糊聚類
您可能感興趣的試卷
你可能感興趣的試題
A.組合(ensemble)
B.聚集(aggregate)
C.合并(combination)
D.投票(voting)
A.0.75
B.0.35
C.0.4678
D.0.5738
A.無序規(guī)則
B.窮舉規(guī)則
C.互斥規(guī)則
D.有序規(guī)則
A.無序規(guī)則
B.窮舉規(guī)則
C.互斥規(guī)則
D.有序規(guī)則
A.無序規(guī)則
B.窮舉規(guī)則
C.互斥規(guī)則
D.有序規(guī)則
最新試題
當(dāng)數(shù)據(jù)集標(biāo)簽錯誤的數(shù)據(jù)點時,隨機森林通常比AdaBoost更好。
數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個信箱。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因為SVM通常能夠在訓(xùn)練集上實現(xiàn)更好的分類精度。
數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。
非結(jié)構(gòu)化數(shù)據(jù)也可以使用關(guān)系型數(shù)據(jù)庫來存儲。
通過統(tǒng)計學(xué)可以推測擲兩個撒子同時選中3點的幾率。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個值,并選擇最小化失真度量的值。
數(shù)據(jù)收集中的拉模式需要通過定時的方式不斷地觸發(fā),才能源源不斷地獲取對應(yīng)的數(shù)據(jù)。
由于決策樹學(xué)會了對離散值輸出而不是實值函數(shù)進(jìn)行分類,因此它們不可能過度擬合。
通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓(xùn)練數(shù)據(jù)的可能性。