A.在應(yīng)用的配置文件Spark-defaults.conf中進(jìn)行配置
B.在提交應(yīng)用時(shí),通過(guò)--conf 進(jìn)行設(shè)置
C.在應(yīng)用的代碼里面,通過(guò)SparkContext的setProperty方法進(jìn)行設(shè)置
D.在應(yīng)用的代碼里面,通過(guò)SparkerConf對(duì)象進(jìn)行設(shè)置
您可能感興趣的試卷
你可能感興趣的試題
A.Producer
B.Broker
C.Consumer
D.ZooKeeper
A.用戶自定義的UDF在被使用之前,需要先在Hive系統(tǒng)中創(chuàng)建UD只
B.用戶自定義的UDF,不允許加入?yún)R總和狀態(tài)等信息
C.用戶自定義的UDF,可以根據(jù)實(shí)際情況添加deterministic和statefull
D.安全集群下,用戶自定義的UDF,建議在每次使用前都創(chuàng)建一次
A.split
B.combine
C.partition
D.sort
A.索引名
B.索引列
C.索引列類型
D.索引列所歸屬的列族名稱
A.主備NameNode的元數(shù)據(jù)所在磁盤空間不足
B.丟失塊數(shù)超過(guò)閾值
C.丟失副本超過(guò)閾值
D.損壞副本超過(guò)閾值
最新試題
關(guān)于Fusionlnsight HD的Spark,以下哪些編程語(yǔ)言可以用來(lái)開發(fā)Spark應(yīng)用?()
在集群正常的情況下,Redis客戶端發(fā)起一次get調(diào)用,客戶端跟服務(wù)端有()次消息交互。
用戶要開發(fā)一個(gè)應(yīng)用去訪問HBase服務(wù),先申請(qǐng)了一個(gè)機(jī)機(jī)賬號(hào)teste1,并給它設(shè)置訪問HBase服務(wù)的權(quán)限:然后下載該賬戶的keytab文件,并使用該賬號(hào)運(yùn)行應(yīng)用。后續(xù)此應(yīng)用增加業(yè)務(wù)需求,需訪問Hive服務(wù),那么在給tested用戶補(bǔ)充授予了訪問Hive組件權(quán)限后,需重新下載該用戶的keytab文件。()
以下業(yè)務(wù)應(yīng)用中,哪個(gè)不是Hive適用的場(chǎng)景?()
關(guān)于Kafka的Producer,如下說(shuō)法正確的是?()
在Spark應(yīng)用開發(fā)中,以下哪項(xiàng)的代碼能正確進(jìn)行單詞統(tǒng)計(jì)?()
FusionlnsightHD系統(tǒng)中,關(guān)于HIve的JDBC接口類型,以下哪種敘述是正確的?()
在Spark中,關(guān)于廣播變量以下說(shuō)法正確的是?()
在Kafka中,關(guān)于Consumer說(shuō)法正確的是()。
在Kafka中,如下關(guān)于Producer發(fā)送數(shù)據(jù)的說(shuō)法錯(cuò)誤的是?()