A.Kafka
B.Hadoop的HA
C.Sqoop
D.Hive
您可能感興趣的試卷
你可能感興趣的試題
A.Memory Channel
B.File Channel
C.JDBC Channel
D.HDFS Channel
A.fsimage
B.edits
C.edits_inprogress
D.blk_000003425
A.Mapper
B.Partitioner
C.Reducer
D.RecordReader
A.DataNode之間都是獨(dú)立的,相互之間會(huì)有通信
B.存儲(chǔ)客戶(hù)端上傳的數(shù)據(jù)的數(shù)據(jù)塊
C.每一個(gè)DataNode上存儲(chǔ)的所有數(shù)據(jù)塊是相同的
D.響應(yīng)客戶(hù)端的所有讀寫(xiě)數(shù)據(jù)請(qǐng)求,為客戶(hù)端的存儲(chǔ)和讀取數(shù)據(jù)提供支撐
A.200
B.40000
C.400
D.1200
最新試題
一個(gè)以java為后綴的源文件()。
為了查看不斷更新的日志文件,可以使用的指令是()。
在使用MapReduce程序WordCount進(jìn)行詞頻統(tǒng)計(jì)時(shí),對(duì)于文本*行“hello hadoop hello world”,經(jīng)過(guò)WordCount程序的Map函數(shù)處理后直接輸出的中間結(jié)果,應(yīng)該是下面哪種形式:()。
執(zhí)行Spark任務(wù):兩個(gè)工具()。
關(guān)于Java中傳遞參數(shù)的說(shuō)法,哪個(gè)是錯(cuò)誤的?()
ArrayLists和LinkedList的區(qū)別,下述說(shuō)法正確的有()。
關(guān)于HDFS中WEBUI的端口是什么?()
配置Hadoop時(shí),修改namenode進(jìn)程所在節(jié)點(diǎn)的配置包含在哪一個(gè)配置文件中()。
執(zhí)行完下面的語(yǔ)句之后x和y的值分別是:()。
Linux crontab中* * * * * /usr/local/run.sh這句話(huà)5個(gè)*號(hào)分別代表什么?()