A.輪廓系數(shù)
B.共性分類相關系數(shù)
C.熵
D.F度量
您可能感興趣的試卷
你可能感興趣的試題
A.規(guī)則集的表達能力遠不如決策樹好
B.基于規(guī)則的分類器都對屬性空間進行直線劃分,并將類指派到每個劃分
C.無法被用來產(chǎn)生更易于解釋的描述性模型
D.非常適合處理類分布不平衡的數(shù)據(jù)集
A.構造網(wǎng)絡費時費力
B.對模型的過分問題非常魯棒
C.貝葉斯網(wǎng)絡不適合處理不完整的數(shù)據(jù)
D.網(wǎng)絡結構確定后,添加變量相當麻煩
A.F1度量
B.召回率(recall)
C.精度(precision)
D.真正率(ture positive rate,TPR)
A.預測準確度
B.召回率
C.模型描述的簡潔度
D.計算復雜度
A.其支持度小于閾值
B.都是不讓人感興趣的
C.包含負模式和負相關模式
D.對異常數(shù)據(jù)項敏感
最新試題
數(shù)據(jù)收集中的拉模式需要通過定時的方式不斷地觸發(fā),才能源源不斷地獲取對應的數(shù)據(jù)。
完整性,一致性,時效性,唯一性,有效性,準確性是衡量數(shù)據(jù)質量的六個維度指標。
訓練神經(jīng)網(wǎng)絡具有過度擬合訓練數(shù)據(jù)的潛在問題。
當反向傳播算法運行到達到最小值時,無論初始權重是什么,總是會找到相同的解(即權重)。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因為SVM通常能夠在訓練集上實現(xiàn)更好的分類精度。
公司內(nèi)部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。
數(shù)據(jù)索引是保證數(shù)據(jù)處理高性能的軟件角度的一種手段,不做數(shù)據(jù)索引的數(shù)據(jù)訪問是線性訪問,但是做了索引的數(shù)據(jù)訪問會成倍的降低訪問時間。
數(shù)據(jù)存儲體系中并不牽扯計算機網(wǎng)絡這一環(huán)節(jié)。
非結構化數(shù)據(jù)也可以使用關系型數(shù)據(jù)庫來存儲。
由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。