A.無(wú)序規(guī)則
B.窮舉規(guī)則
C.互斥規(guī)則
D.有序規(guī)則
您可能感興趣的試卷
你可能感興趣的試題
A.無(wú)序規(guī)則
B.窮舉規(guī)則
C.互斥規(guī)則
D.有序規(guī)則
A.基于類的排序方案
B.基于規(guī)則的排序方案
C.基于度量的排序方案
D.基于規(guī)格的排序方案
A.冗余屬性不會(huì)對(duì)決策樹(shù)的準(zhǔn)確率造成不利的影響
B.子樹(shù)可能在決策樹(shù)中重復(fù)多次
C.決策樹(shù)算法對(duì)于噪聲的干擾非常敏感
D.尋找最佳決策樹(shù)是NP完全問(wèn)題
A.KNN
B.SVM
C.Bayes
D.神經(jīng)網(wǎng)絡(luò)
A.DBSCAN
B.C4.5
C.K-Mean
D.EM
最新試題
當(dāng)反向傳播算法運(yùn)行到達(dá)到最小值時(shí),無(wú)論初始權(quán)重是什么,總是會(huì)找到相同的解(即權(quán)重)。
隨機(jī)梯度下降每次更新執(zhí)行的計(jì)算量少于批梯度下降。
管理員不需要驗(yàn)證就可以訪問(wèn)數(shù)據(jù)存儲(chǔ)系統(tǒng)中的任何數(shù)據(jù),這符合數(shù)據(jù)安全的要求。
完整性,一致性,時(shí)效性,唯一性,有效性,準(zhǔn)確性是衡量數(shù)據(jù)質(zhì)量的六個(gè)維度指標(biāo)。
使用偏差較小的模型總是比偏差較大的模型更好。
小數(shù)據(jù)集的數(shù)據(jù)處理最好也由計(jì)算機(jī)手段來(lái)完成。
由于決策樹(shù)學(xué)會(huì)了對(duì)離散值輸出而不是實(shí)值函數(shù)進(jìn)行分類,因此它們不可能過(guò)度擬合。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個(gè)值,并選擇最小化失真度量的值。
當(dāng)數(shù)據(jù)集標(biāo)簽錯(cuò)誤的數(shù)據(jù)點(diǎn)時(shí),隨機(jī)森林通常比AdaBoost更好。
對(duì)于文本數(shù)據(jù)和多媒體數(shù)據(jù)進(jìn)行特征提取是為了方便對(duì)于這類數(shù)據(jù)的觀察和理解。