單項(xiàng)選擇題考慮這么一種情況:一個(gè)對(duì)象碰巧與另一個(gè)對(duì)象相對(duì)接近,但屬于不同的類,因?yàn)檫@兩個(gè)對(duì)象一般不會(huì)共享許多近鄰,所以應(yīng)該選擇()的相似度計(jì)算方法。

A.平方歐幾里德距離
B.余弦距離
C.直接相似度
D.共享最近鄰


您可能感興趣的試卷

你可能感興趣的試題

2.單項(xiàng)選擇題關(guān)于K均值和DBSCAN的比較,以下說(shuō)法不正確的是()。

A.K均值丟棄被它識(shí)別為噪聲的對(duì)象,而DBSCAN一般聚類所有對(duì)象
B.K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念
C.K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇
D.K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會(huì)合并有重疊的簇

3.單項(xiàng)選擇題在基于圖的簇評(píng)估度量表里面,如果簇度量為proximity(Ci,C),簇權(quán)值為mi,那么它的類型是()。

A.基于圖的凝聚度
B.基于原型的凝聚度
C.基于原型的分離度
D.基于圖的凝聚度和分離度

4.單項(xiàng)選擇題DBSCAN在最壞情況下的時(shí)間復(fù)雜度是()。

A.O(m)
B.O(m2
C.O(logm)
D.O(m*logm)

最新試題

數(shù)據(jù)收集中的拉模式需要通過(guò)定時(shí)的方式不斷地觸發(fā),才能源源不斷地獲取對(duì)應(yīng)的數(shù)據(jù)。

題型:判斷題

選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個(gè)值,并選擇最小化失真度量的值。

題型:判斷題

給定用于2類分類問(wèn)題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。

題型:判斷題

任何對(duì)數(shù)據(jù)處理與存儲(chǔ)系統(tǒng)的操作均需要記錄,這符合數(shù)據(jù)安全的要求。

題型:判斷題

要將工作申請(qǐng)分為兩類,并使用密度估計(jì)來(lái)檢測(cè)離職申請(qǐng)人,我們可以使用生成分類器。

題型:判斷題

由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。

題型:判斷題

經(jīng)常跟管理層打交道并進(jìn)行有效地關(guān)于商業(yè)領(lǐng)域的討論有助于數(shù)據(jù)科學(xué)項(xiàng)目的成功。

題型:判斷題

管理員不需要驗(yàn)證就可以訪問(wèn)數(shù)據(jù)存儲(chǔ)系統(tǒng)中的任何數(shù)據(jù),這符合數(shù)據(jù)安全的要求。

題型:判斷題

假設(shè)屬性的數(shù)量固定,則可以在時(shí)間上以線性方式學(xué)習(xí)基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。

題型:判斷題

使用偏差較小的模型總是比偏差較大的模型更好。

題型:判斷題