A.hive.exec.reducers.bytes.per.reducer
B.hive.exec-ducers.max
C.hive.exec.max.dynamic.partitions
D.hive.exec.max.dynamic.partitions.pernode
您可能感興趣的試卷
你可能感興趣的試題
A.hive.exec.compress.intermediate
B.hive.intermediate.compression.codec
C.hive.exec.compress.output
D.hive.intermediate.compression.type
A.獲取數(shù)據(jù),并將原始數(shù)據(jù)轉(zhuǎn)化成自己處理的數(shù)據(jù)對(duì)象
B.緩存數(shù)據(jù),根據(jù)不同的可靠性策略,將數(shù)據(jù)保存在內(nèi)存或文件上
C.輸出數(shù)據(jù)到目的地,支持多種輸出協(xié)議
D.拆分?jǐn)?shù)據(jù),根據(jù)數(shù)據(jù)的特性,將數(shù)據(jù)發(fā)送到不同的目的地
最新試題
關(guān)于Kafka的Producer,如下說法正確的是?()
Fusionlnsight HD中,關(guān)于Hive的數(shù)據(jù)加載功能(通過Hivede LOAD命令導(dǎo)入數(shù)據(jù)),以下敘述錯(cuò)誤的是?()
在Solr的應(yīng)用查詢場(chǎng)景中,當(dāng)對(duì)查詢結(jié)果深度翻頁(yè)時(shí),需使用游標(biāo)進(jìn)行深度翻頁(yè)。下面對(duì)游標(biāo)說法正確的是?()
Fusionlnsight HD大數(shù)據(jù)平臺(tái)提供了哪些分布式計(jì)算框架?()
Spark Streaming可以從Kafka接收數(shù)據(jù)并進(jìn)行計(jì)算,計(jì)算結(jié)果只能存入HDFS,不能再寫回Kafka。()
Redis不適用與下面那些場(chǎng)景?()
由于Spark是基于內(nèi)存的計(jì)算引擎,因此,一個(gè)Spark應(yīng)用可以處理的數(shù)據(jù)量不能超過分給這個(gè)Spark應(yīng)用的內(nèi)存總和。()
在HBase表設(shè)計(jì)中,對(duì)于多項(xiàng)業(yè)務(wù)共用rowkey,導(dǎo)致數(shù)據(jù)訪問矛盾的情況,可以有哪些應(yīng)對(duì)策略?()
對(duì)于HBase rowkey的設(shè)計(jì)原則,如下敘述正確的是?()
Fusionlnsight HD支持通過哪些方式ᨀ交Oozie作業(yè)?()