A.構(gòu)造網(wǎng)絡(luò)費(fèi)時(shí)費(fèi)力
B.對模型的過分問題非常魯棒
C.貝葉斯網(wǎng)絡(luò)不適合處理不完整的數(shù)據(jù)
D.網(wǎng)絡(luò)結(jié)構(gòu)確定后,添加變量相當(dāng)麻煩
您可能感興趣的試卷
你可能感興趣的試題
A.F1度量
B.召回率(recall)
C.精度(precision)
D.真正率(ture positive rate,TPR)
A.預(yù)測準(zhǔn)確度
B.召回率
C.模型描述的簡潔度
D.計(jì)算復(fù)雜度
A.其支持度小于閾值
B.都是不讓人感興趣的
C.包含負(fù)模式和負(fù)相關(guān)模式
D.對異常數(shù)據(jù)項(xiàng)敏感
A.支持度閥值
B.項(xiàng)數(shù)(維度)
C.事務(wù)數(shù)
D.事務(wù)平均寬度
A.數(shù)據(jù)的抽取
B.存儲(chǔ)和管理
C.數(shù)據(jù)的表現(xiàn)
D.數(shù)據(jù)倉庫設(shè)計(jì)
最新試題
通過統(tǒng)計(jì)學(xué)可以推測擲兩個(gè)撒子同時(shí)選中3點(diǎn)的幾率。
使決策樹更深將確保更好的擬合度,但會(huì)降低魯棒性。
由于決策樹學(xué)會(huì)了對離散值輸出而不是實(shí)值函數(shù)進(jìn)行分類,因此它們不可能過度擬合。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。
使用正則表達(dá)式可以找到一個(gè)文本文件中所有可能出現(xiàn)的手機(jī)號(hào)碼。
數(shù)據(jù)存儲(chǔ)體系中并不牽扯計(jì)算機(jī)網(wǎng)絡(luò)這一環(huán)節(jié)。
數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。
公司內(nèi)部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。
無論質(zhì)心的初始化如何,K-Means始終會(huì)給出相同的結(jié)果。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個(gè)值,并選擇最小化失真度量的值。