A.刪除Topic時,必須確保Kafka的服務(wù)配置delete.topic.enable配置為true
B.Kafka安裝及運行日志保存路徑為/srv/Bigdata/kafka
C.ZooKeeper服務(wù)不可用會導(dǎo)致Kafka服務(wù)不可用
D.必須使用admin用戶或者kafkaadmin組用戶進行創(chuàng)建Topic
您可能感興趣的試卷
你可能感興趣的試題
A.HFile
B.HLog
C.MemStore
D.HDFS
A.可以用來過濾數(shù)據(jù)
B.可以用來優(yōu)化隨機讀性能
C.會增加存儲的消耗
D.可以準(zhǔn)確判斷某條數(shù)據(jù)不存在
A.管理節(jié)點、控制節(jié)點、數(shù)據(jù)節(jié)點合一部署,二層組網(wǎng)
B.管理節(jié)點、控制節(jié)點合一部署,數(shù)據(jù)節(jié)點獨立部署,二層組網(wǎng)
C.管理節(jié)點、控制節(jié)點、數(shù)據(jù)節(jié)點都獨立部署,三層組網(wǎng)
D.管理節(jié)點、數(shù)據(jù)節(jié)點合一部署,控制節(jié)點獨立部署,二層組網(wǎng)
A.任意機器->同機架->本地資源
B.任意機器->本地機器->同機架
C.本地資源->同機架->任意機器
D.同機架->任意機器->本地資源
最新試題
FusionLnsigt HD用戶想通過HBase shell操作來查詢某個HBase表中的內(nèi)容,這中場景下推薦管理員給這個用戶分配一個機機賬號。()
由于Spark是基于內(nèi)存的計算引擎,因此,一個Spark應(yīng)用可以處理的數(shù)據(jù)量不能超過分給這個Spark應(yīng)用的內(nèi)存總和。()
關(guān)于Kafka的Producer,如下說法正確的是?()
Fusionlnsight HD中,關(guān)于Hive的數(shù)據(jù)加載功能(通過Hivede LOAD命令導(dǎo)入數(shù)據(jù)),以下敘述錯誤的是?()
關(guān)于Kafka的特點如下᧿述正確的是?()
Fusionlnsight HD中,屬于Streaming的數(shù)據(jù)分發(fā)方式有哪些?()
存在如下業(yè)務(wù)場景:用戶上網(wǎng)日志文件已經(jīng)存放在HDFS上,日志文件內(nèi)容格式是:每條上網(wǎng)記錄三個字段,分別是姓名,性別,上網(wǎng)時間,字段之間用“,”護分隔;要求打印輸出所有上網(wǎng)總時間大于兩小時的女性網(wǎng)友。請問如下哪些代碼片段能實現(xiàn)上述業(yè)務(wù)場景?()
Fusionlnsight HD系統(tǒng)中,Solr示例工程solr-example\confisolr-confisolr.properties中ZK_URL和ZOOKEEPER_DEFAULT_SERVER_PRINCIPAL的值可以從下面哪個選項獲???()
在Kafka中,如下關(guān)于Producer發(fā)送數(shù)據(jù)的說法錯誤的是?()
Spark Streaming可以從Kafka接收數(shù)據(jù)并進行計算,計算結(jié)果只能存入HDFS,不能再寫回Kafka。()