A.可以從HDFS上直接加載到Hive表
B.可以從HiveServer所在節(jié)點的本地硬盤直接加載到Hive表
C.可以從客戶端所在節(jié)點的本地硬盤直接加載到Hive表
D.Hive的數(shù)據(jù)加載過程了不會解析具體的文件內(nèi)容,主要是文件轉(zhuǎn)移的過程
您可能感興趣的試卷
你可能感興趣的試題
A.hive.exec.reducers.bytes.per.reducer
B.hive.exec-ducers.max
C.hive.exec.max.dynamic.partitions
D.hive.exec.max.dynamic.partitions.pernode
A.hive.exec.compress.intermediate
B.hive.intermediate.compression.codec
C.hive.exec.compress.output
D.hive.intermediate.compression.type
A.獲取數(shù)據(jù),并將原始數(shù)據(jù)轉(zhuǎn)化成自己處理的數(shù)據(jù)對象
B.緩存數(shù)據(jù),根據(jù)不同的可靠性策略,將數(shù)據(jù)保存在內(nèi)存或文件上
C.輸出數(shù)據(jù)到目的地,支持多種輸出協(xié)議
D.拆分?jǐn)?shù)據(jù),根據(jù)數(shù)據(jù)的特性,將數(shù)據(jù)發(fā)送到不同的目的地
最新試題
關(guān)于Redis特點,下面敘述正確的是?()
用戶要開發(fā)一個應(yīng)用去訪問HBase服務(wù),先申請了一個機機賬號teste1,并給它設(shè)置訪問HBase服務(wù)的權(quán)限:然后下載該賬戶的keytab文件,并使用該賬號運行應(yīng)用。后續(xù)此應(yīng)用增加業(yè)務(wù)需求,需訪問Hive服務(wù),那么在給tested用戶補充授予了訪問Hive組件權(quán)限后,需重新下載該用戶的keytab文件。()
關(guān)于Fusionlnsight HD的Spark,以下哪些編程語言可以用來開發(fā)Spark應(yīng)用?()
在Solr的應(yīng)用查詢場景中,當(dāng)對查詢結(jié)果深度翻頁時,需使用游標(biāo)進行深度翻頁。下面對游標(biāo)說法正確的是?()
FusionLnsigt HD用戶想通過HBase shell操作來查詢某個HBase表中的內(nèi)容,這中場景下推薦管理員給這個用戶分配一個機機賬號。()
Spark Streaming可以從Kafka接收數(shù)據(jù)并進行計算,計算結(jié)果只能存入HDFS,不能再寫回Kafka。()
關(guān)于Kafka的Producer,如下說法正確的是?()
在Kafka中,關(guān)于Consumer說法正確的是()。
在HBase表設(shè)計中,對于多項業(yè)務(wù)共用rowkey,導(dǎo)致數(shù)據(jù)訪問矛盾的情況,可以有哪些應(yīng)對策略?()
Fusionlnsight HD中,屬于Streaming的數(shù)據(jù)分發(fā)方式有哪些?()