A.大數(shù)據(jù)商業(yè)模式設(shè)計(jì)
B.商業(yè)場(chǎng)景全景規(guī)劃
C.典型場(chǎng)景需求設(shè)計(jì)
D.場(chǎng)景分解和業(yè)務(wù)設(shè)計(jì)
您可能感興趣的試卷
你可能感興趣的試題
A./srv/BigData/zookeeper
B./srv/BigData/dbdata_om
C./srv/BigData/
D./srv/BigData/journalnode
E./srv/BigData/hadoop/data5
A.不需要考慮各solrserver實(shí)例上創(chuàng)建了多少shard
B.為保證數(shù)據(jù)可靠性,創(chuàng)建索引時(shí)必須創(chuàng)建多Replica
C.通過HDFS讀取索引時(shí)占用磁盤IO,因此不建議Solr實(shí)例與DataNode部署在同一節(jié)點(diǎn)上
D.當(dāng)Solr服務(wù)參數(shù)INDEX_STORED_ON_HDFS值為HDFS時(shí),創(chuàng)建Collection的索引就默認(rèn)存儲(chǔ)在HDFS上。
A.創(chuàng)建外部表時(shí)需要指定external關(guān)鍵字
B.一旦表創(chuàng)建好,不可再修改表名
C.一旦表創(chuàng)建好,不可再修改列名
D.一旦表創(chuàng)建好,不可再增加新列
A.①①③
B.①②③
C.①②②
D.①①②
最新試題
在Spark中,關(guān)于廣播變量以下說法正確的是?()
Spark Streaming可以從Kafka接收數(shù)據(jù)并進(jìn)行計(jì)算,計(jì)算結(jié)果只能存入HDFS,不能再寫回Kafka。()
在Spark應(yīng)用開發(fā)中,以下哪項(xiàng)的代碼能正確進(jìn)行單詞統(tǒng)計(jì)?()
在HBase表設(shè)計(jì)中,對(duì)于多項(xiàng)業(yè)務(wù)共用rowkey,導(dǎo)致數(shù)據(jù)訪問矛盾的情況,可以有哪些應(yīng)對(duì)策略?()
FusionLnsigt HD用戶想通過HBase shell操作來查詢某個(gè)HBase表中的內(nèi)容,這中場(chǎng)景下推薦管理員給這個(gè)用戶分配一個(gè)機(jī)機(jī)賬號(hào)。()
在Kafka中,如下關(guān)于Producer發(fā)送數(shù)據(jù)的說法錯(cuò)誤的是?()
Redis不適用與下面那些場(chǎng)景?()
在集群正常的情況下,Redis客戶端發(fā)起一次get調(diào)用,客戶端跟服務(wù)端有()次消息交互。
關(guān)于Kafka的Producer,如下說法正確的是?()
用戶要開發(fā)一個(gè)應(yīng)用去訪問HBase服務(wù),先申請(qǐng)了一個(gè)機(jī)機(jī)賬號(hào)teste1,并給它設(shè)置訪問HBase服務(wù)的權(quán)限:然后下載該賬戶的keytab文件,并使用該賬號(hào)運(yùn)行應(yīng)用。后續(xù)此應(yīng)用增加業(yè)務(wù)需求,需訪問Hive服務(wù),那么在給tested用戶補(bǔ)充授予了訪問Hive組件權(quán)限后,需重新下載該用戶的keytab文件。()