A.概率
B.鄰近度
C.密度
D.聚類
您可能感興趣的試卷
你可能感興趣的試題
A.STING
B.WaveCluster
C.MAFIA
D.BIRCH
A.當(dāng)簇只包含少量數(shù)據(jù)點(diǎn),或者數(shù)據(jù)點(diǎn)近似協(xié)線性時(shí),混合模型也能很好地處理
B.混合模型比K均值或模糊c均值更一般,因?yàn)樗梢允褂酶鞣N類型的分布
C.混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇
D.混合模型在有噪聲和離群點(diǎn)時(shí)不會(huì)存在問題
A.模糊c均值
B.EM算法
C.SOM
D.CLIQUE
A.CURE
B.DENCLUE
C.CLIQUE
D.OPOSSUM
A.平方歐幾里德距離
B.余弦距離
C.直接相似度
D.共享最近鄰
最新試題
完整性,一致性,時(shí)效性,唯一性,有效性,準(zhǔn)確性是衡量數(shù)據(jù)質(zhì)量的六個(gè)維度指標(biāo)。
訓(xùn)練神經(jīng)網(wǎng)絡(luò)具有過度擬合訓(xùn)練數(shù)據(jù)的潛在問題。
通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時(shí),我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓(xùn)練數(shù)據(jù)的可能性。
數(shù)據(jù)收集中的拉模式需要通過定時(shí)的方式不斷地觸發(fā),才能源源不斷地獲取對應(yīng)的數(shù)據(jù)。
使用偏差較小的模型總是比偏差較大的模型更好。
隨機(jī)梯度下降每次更新執(zhí)行的計(jì)算量少于批梯度下降。
數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個(gè)信箱。
由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。
公司內(nèi)部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。
數(shù)據(jù)存儲(chǔ)體系中并不牽扯計(jì)算機(jī)網(wǎng)絡(luò)這一環(huán)節(jié)。