A.劃分的方法
B.基于模型的方法
C.基于密度的方法
D.層次的方法
您可能感興趣的試卷
你可能感興趣的試題
A.Euclidean距離
B.Manhattan距離
C.Eula距離
D.Minkowski距離
A.判定樹(shù)歸納
B.貝葉斯分類(lèi)
C.后向傳播分類(lèi)
D.基于案例的推理
A.分類(lèi)和聚類(lèi)都是有指導(dǎo)的學(xué)習(xí)
B.分類(lèi)和聚類(lèi)都是無(wú)指導(dǎo)的學(xué)習(xí)
C.分類(lèi)是有指導(dǎo)的學(xué)習(xí),聚類(lèi)是無(wú)指導(dǎo)的學(xué)習(xí)
D.分類(lèi)是無(wú)指導(dǎo)的學(xué)習(xí),聚類(lèi)是有指導(dǎo)的學(xué)習(xí)
A.判定樹(shù)歸納
B.貝葉斯分類(lèi)
C.后向傳播分類(lèi)
D.基于案例的推理
A.OLTP系統(tǒng)主要用于管理當(dāng)前數(shù)據(jù),而OLAP系統(tǒng)主要存放的是歷史數(shù)據(jù)
B.在數(shù)據(jù)的存取上,OLTP系統(tǒng)比OLAP系統(tǒng)有著更多的寫(xiě)操作
C.對(duì)OLTP系統(tǒng)上的數(shù)據(jù)訪(fǎng)問(wèn)量往往比對(duì)OLAP系統(tǒng)的數(shù)據(jù)訪(fǎng)問(wèn)量要大得多
D.OLAP系統(tǒng)中往往存放的是匯總的數(shù)據(jù),而OLTP系統(tǒng)中往往存放詳細(xì)的數(shù)據(jù)
最新試題
數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。
當(dāng)數(shù)據(jù)集標(biāo)簽錯(cuò)誤的數(shù)據(jù)點(diǎn)時(shí),隨機(jī)森林通常比AdaBoost更好。
隨機(jī)梯度下降每次更新執(zhí)行的計(jì)算量少于批梯度下降。
數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個(gè)信箱。
非結(jié)構(gòu)化數(shù)據(jù)也可以使用關(guān)系型數(shù)據(jù)庫(kù)來(lái)存儲(chǔ)。
使決策樹(shù)更深將確保更好的擬合度,但會(huì)降低魯棒性。
使用正則表達(dá)式可以找到一個(gè)文本文件中所有可能出現(xiàn)的手機(jī)號(hào)碼。
訓(xùn)練神經(jīng)網(wǎng)絡(luò)具有過(guò)度擬合訓(xùn)練數(shù)據(jù)的潛在問(wèn)題。
如果P(A B)= P(A),則P(A∩B)= P(A)P(B)。
當(dāng)MAP中使用的先驗(yàn)是參數(shù)空間上的統(tǒng)一先驗(yàn)時(shí),MAP估計(jì)等于ML估計(jì)。