A.填寫缺失的值
B.平滑噪聲數(shù)據(jù)
C.刪除離群點(diǎn)
D.解決不一致性
您可能感興趣的試卷
你可能感興趣的試題
A.Hadoop
B.Spark
C.YARN
D.HDFS
A.自有業(yè)務(wù)及競(jìng)品實(shí)時(shí)性能監(jiān)控
B.開發(fā)相關(guān)統(tǒng)計(jì)報(bào)表支撐咪咕大數(shù)據(jù)報(bào)告編寫
C.精準(zhǔn)互聯(lián)網(wǎng)營(yíng)銷
D.自有業(yè)務(wù)開啟自動(dòng)告警功能
A.鑒權(quán)
B.位置更新過(guò)程
C.被叫承載建立過(guò)程
D.默認(rèn)承載建立過(guò)程
E.身份識(shí)別過(guò)程
A.數(shù)據(jù)立方體聚集
B.數(shù)據(jù)壓縮
C.數(shù)值壓縮
D.維歸約
E.離散化和概念分層
A.挖掘的數(shù)據(jù)庫(kù)類型
B.挖掘的知識(shí)類型
C.挖掘所用的技術(shù)
D.應(yīng)用
最新試題
集中性能系統(tǒng)的數(shù)據(jù)源不包括()
下面關(guān)于維的概念哪個(gè)是不正確的()
在數(shù)據(jù)挖掘中,以下哪三種算法應(yīng)用最為廣泛()
GSP算法存在的問(wèn)題包括()。
最優(yōu)影響力模型選擇標(biāo)準(zhǔn)是()
關(guān)于ROC曲線和ROC統(tǒng)計(jì)量,正確的說(shuō)法有()
隨機(jī)森林利用隨機(jī)的方式將許多決策樹組合成一個(gè)森林,每個(gè)決策樹在分類的時(shí)候決定測(cè)試樣本的最終類別。它的優(yōu)點(diǎn)是()
樸素貝葉斯分類器對(duì)()數(shù)據(jù)具有較好的分類效果。
AprioriSome算法可以看作是AprioriAll算法的改進(jìn),具體過(guò)程分為()兩個(gè)階段。
在自然演化體系結(jié)構(gòu)中,關(guān)于導(dǎo)致數(shù)據(jù)缺乏可信性的原因的說(shuō)法哪個(gè)不正確()