A.凝聚方式聚類
B.分解方式聚類
C.Q型聚類
D.R型聚類
您可能感興趣的試卷
你可能感興趣的試題
A.ogistic回歸
B.SVM算法
C.CART決策樹(shù)
D.樸素貝葉斯
A.隨機(jī)森林算法的分類精度不會(huì)隨著決策樹(shù)數(shù)量的增加而提高
B.隨機(jī)森林算法對(duì)異常值和缺失值不敏感
C.隨機(jī)森林算法不需要考慮過(guò)擬合問(wèn)題
D.決策樹(shù)之間相關(guān)系數(shù)越低、每棵決策樹(shù)分類精度越高的隨機(jī)森林模型的分類效果越好
A.規(guī)則集的表達(dá)能力遠(yuǎn)不如決策樹(shù)好
B.基于規(guī)則的分類器都對(duì)屬性空間進(jìn)行直線劃分,并將類指派到每個(gè)劃分
C.無(wú)法被用來(lái)產(chǎn)生更易于解釋的描述性模型
D.非常適合處理類分布不平衡的數(shù)據(jù)集
A.隨機(jī)取值
B.等距離散法
C.數(shù)值規(guī)約
D.等頻離散法
A.應(yīng)用邏輯回歸時(shí),異常值會(huì)對(duì)模型造成很大的干擾
B.邏輯回歸的自變量必須是分類變量,因此要對(duì)連續(xù)型變量進(jìn)行離散化處理
C.邏輯回歸對(duì)模型中自變量的多重共線性較為敏感
D.邏輯回歸屬于分類算法
最新試題
在以下條件下,需求可能缺乏彈性()。
建設(shè)投資包括()等。
相比其他決策分類模型,隨機(jī)森林算法模型的優(yōu)點(diǎn)有()。
投擲一顆骰子,令X表示出現(xiàn)的點(diǎn)數(shù),那么{X≤4}表示的是()。
當(dāng)買方資產(chǎn)專用性高,而賣方資產(chǎn)專用性低時(shí),賣方企業(yè)選擇的戰(zhàn)略不是以下哪幾項(xiàng)()。
關(guān)聯(lián)分析一般分為兩個(gè)步驟,分別為()。
因子分析的作用是()。
對(duì)于同一個(gè)樣本集,下列說(shuō)法正確是()。
有效的市場(chǎng)細(xì)分必須滿足如下條件()。
時(shí)間序列的問(wèn)題需考慮下列何者()。