A.精度
B.Rand統(tǒng)計(jì)量
C.Jaccard系數(shù)
D.召回率
您可能感興趣的試卷
你可能感興趣的試題
A.輪廓系數(shù)
B.共性分類相關(guān)系數(shù)
C.熵
D.F度量
A.規(guī)則集的表達(dá)能力遠(yuǎn)不如決策樹好
B.基于規(guī)則的分類器都對(duì)屬性空間進(jìn)行直線劃分,并將類指派到每個(gè)劃分
C.無法被用來產(chǎn)生更易于解釋的描述性模型
D.非常適合處理類分布不平衡的數(shù)據(jù)集
A.構(gòu)造網(wǎng)絡(luò)費(fèi)時(shí)費(fèi)力
B.對(duì)模型的過分問題非常魯棒
C.貝葉斯網(wǎng)絡(luò)不適合處理不完整的數(shù)據(jù)
D.網(wǎng)絡(luò)結(jié)構(gòu)確定后,添加變量相當(dāng)麻煩
A.F1度量
B.召回率(recall)
C.精度(precision)
D.真正率(ture positive rate,TPR)
A.預(yù)測(cè)準(zhǔn)確度
B.召回率
C.模型描述的簡(jiǎn)潔度
D.計(jì)算復(fù)雜度
最新試題
管理員不需要驗(yàn)證就可以訪問數(shù)據(jù)存儲(chǔ)系統(tǒng)中的任何數(shù)據(jù),這符合數(shù)據(jù)安全的要求。
假設(shè)屬性的數(shù)量固定,則可以在時(shí)間上以線性方式學(xué)習(xí)基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。
由于決策樹學(xué)會(huì)了對(duì)離散值輸出而不是實(shí)值函數(shù)進(jìn)行分類,因此它們不可能過度擬合。
要將工作申請(qǐng)分為兩類,并使用密度估計(jì)來檢測(cè)離職申請(qǐng)人,我們可以使用生成分類器。
使用偏差較小的模型總是比偏差較大的模型更好。
如果P(A B)= P(A),則P(A∩B)= P(A)P(B)。
當(dāng)MAP中使用的先驗(yàn)是參數(shù)空間上的統(tǒng)一先驗(yàn)時(shí),MAP估計(jì)等于ML估計(jì)。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。
由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。
數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個(gè)信箱。