A.矩陣
B.平行坐標(biāo)系
C.星形坐標(biāo)
D.散布圖
E.Chernoff臉
您可能感興趣的試卷
你可能感興趣的試題
A.忽略元組
B.使用屬性的平均值填充空缺值
C.使用一個(gè)全局常量填充空缺值
D.使用與給定元組屬同一類的所有樣本的平均值
E.使用最可能的值填充空缺值
A.統(tǒng)計(jì)
B.計(jì)算機(jī)組成原理
C.礦產(chǎn)挖掘
D.人工智能
A.分類
B.回歸
C.模式發(fā)現(xiàn)
D.模式匹配
A.決定要使用的表示的特征和結(jié)構(gòu)
B.決定如何量化和比較不同表示擬合數(shù)據(jù)的好壞
C.選擇一個(gè)算法過程使評(píng)分函數(shù)最優(yōu)
D.決定用什么樣的數(shù)據(jù)管理原則以高效地實(shí)現(xiàn)算法
A.模型
B.模式
C.模范
D.模具
最新試題
通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時(shí),我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓(xùn)練數(shù)據(jù)的可能性。
由于決策樹學(xué)會(huì)了對(duì)離散值輸出而不是實(shí)值函數(shù)進(jìn)行分類,因此它們不可能過度擬合。
非結(jié)構(gòu)化數(shù)據(jù)也可以使用關(guān)系型數(shù)據(jù)庫來存儲(chǔ)。
隨機(jī)梯度下降每次更新執(zhí)行的計(jì)算量少于批梯度下降。
如果P(A B)= P(A),則P(A∩B)= P(A)P(B)。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。
使用正則表達(dá)式可以找到一個(gè)文本文件中所有可能出現(xiàn)的手機(jī)號(hào)碼。
通過統(tǒng)計(jì)學(xué)可以推測擲兩個(gè)撒子同時(shí)選中3點(diǎn)的幾率。
數(shù)據(jù)收集中的拉模式需要通過定時(shí)的方式不斷地觸發(fā),才能源源不斷地獲取對(duì)應(yīng)的數(shù)據(jù)。
使決策樹更深將確保更好的擬合度,但會(huì)降低魯棒性。