A.hive.exec.reducers.bytes.per.reducer
B.hive.exec-ducers.max
C.hive.exec.max.dynamic.partitions
D.hive.exec.max.dynamic.partitions.pernode
您可能感興趣的試卷
你可能感興趣的試題
A.hive.exec.compress.intermediate
B.hive.intermediate.compression.codec
C.hive.exec.compress.output
D.hive.intermediate.compression.type
A.獲取數(shù)據(jù),并將原始數(shù)據(jù)轉(zhuǎn)化成自己處理的數(shù)據(jù)對(duì)象
B.緩存數(shù)據(jù),根據(jù)不同的可靠性策略,將數(shù)據(jù)保存在內(nèi)存或文件上
C.輸出數(shù)據(jù)到目的地,支持多種輸出協(xié)議
D.拆分?jǐn)?shù)據(jù),根據(jù)數(shù)據(jù)的特性,將數(shù)據(jù)發(fā)送到不同的目的地
最新試題
Fusionlnsight HD支持通過(guò)哪些方式ᨀ交Oozie作業(yè)?()
對(duì)于HBase rowkey的設(shè)計(jì)原則,如下敘述正確的是?()
FusionLnsigh HD,Oozie支持HDFS Action。()
在Spark中,關(guān)于廣播變量以下說(shuō)法正確的是?()
在Kafka中,如下關(guān)于Producer發(fā)送數(shù)據(jù)的說(shuō)法錯(cuò)誤的是?()
FusionLnsigt HD用戶想通過(guò)HBase shell操作來(lái)查詢某個(gè)HBase表中的內(nèi)容,這中場(chǎng)景下推薦管理員給這個(gè)用戶分配一個(gè)機(jī)機(jī)賬號(hào)。()
Oozie的workflow.xml文件是工作流配置文件。()
Flume寫(xiě)入HDFS時(shí),文件的生成當(dāng)時(shí)有哪些?()
關(guān)于Fusionlnsight HD的Spark,以下哪些編程語(yǔ)言可以用來(lái)開(kāi)發(fā)Spark應(yīng)用?()
Spark Streaming可以從Kafka接收數(shù)據(jù)并進(jìn)行計(jì)算,計(jì)算結(jié)果只能存入HDFS,不能再寫(xiě)回Kafka。()