A.Kafka強依賴于ZooKeeper,安裝Kafka必須安裝ZooKeeper
B.Kafka部署的實例個數(shù)不小于2
C.Kafka的服務(wù)端可以產(chǎn)生消息
D.Consumer作為Kafka的客戶端角色專門進(jìn)行消息的消費
您可能感興趣的試卷
你可能感興趣的試題
A.yarn.nodemanager.local-dirs
B.yarn.nodemanager.log-dirs
C.yarn.acl.enable
D.yarn.log-aggregation-enable
A.OS盤
B.元數(shù)據(jù)盤
C.數(shù)據(jù)盤
D.管理盤
A.DBServioe服務(wù)不可用
B.HDFS服務(wù)不可用
C.Metastore實例不可用
D.HBase服務(wù)不可用
A.spoolingdirectorysoure
B.httpsource
C.execsource
D.syslogsource
最新試題
在HBase表設(shè)計中,對于多項業(yè)務(wù)共用rowkey,導(dǎo)致數(shù)據(jù)訪問矛盾的情況,可以有哪些應(yīng)對策略?()
關(guān)于Kafka的Producer,如下說法正確的是?()
用戶要開發(fā)一個應(yīng)用去訪問HBase服務(wù),先申請了一個機機賬號teste1,并給它設(shè)置訪問HBase服務(wù)的權(quán)限:然后下載該賬戶的keytab文件,并使用該賬號運行應(yīng)用。后續(xù)此應(yīng)用增加業(yè)務(wù)需求,需訪問Hive服務(wù),那么在給tested用戶補充授予了訪問Hive組件權(quán)限后,需重新下載該用戶的keytab文件。()
由于Spark是基于內(nèi)存的計算引擎,因此,一個Spark應(yīng)用可以處理的數(shù)據(jù)量不能超過分給這個Spark應(yīng)用的內(nèi)存總和。()
Spark Streaming可以從Kafka接收數(shù)據(jù)并進(jìn)行計算,計算結(jié)果只能存入HDFS,不能再寫回Kafka。()
在Spark應(yīng)用開發(fā)中,以下哪項的代碼能正確進(jìn)行單詞統(tǒng)計?()
Fusionlnsight HD系統(tǒng)中,Solr示例工程solr-example\confisolr-confisolr.properties中ZK_URL和ZOOKEEPER_DEFAULT_SERVER_PRINCIPAL的值可以從下面哪個選項獲取?()
存在如下業(yè)務(wù)場景:用戶上網(wǎng)日志文件已經(jīng)存放在HDFS上,日志文件內(nèi)容格式是:每條上網(wǎng)記錄三個字段,分別是姓名,性別,上網(wǎng)時間,字段之間用“,”護分隔;要求打印輸出所有上網(wǎng)總時間大于兩小時的女性網(wǎng)友。請問如下哪些代碼片段能實現(xiàn)上述業(yè)務(wù)場景?()
FusionLnsigh HD,Oozie支持HDFS Action。()
在Spark中,關(guān)于廣播變量以下說法正確的是?()