A.可以從HDFS上直接加載到Hive表
B.可以從HiveServer所在節(jié)點(diǎn)的本地硬盤直接加載到Hive表
C.可以從客戶端所在節(jié)點(diǎn)的本地硬盤直接加載到Hive表
D.Hive的數(shù)據(jù)加載過(guò)程了不會(huì)解析具體的文件內(nèi)容,主要是文件轉(zhuǎn)移的過(guò)程
您可能感興趣的試卷
你可能感興趣的試題
A.hive.exec.reducers.bytes.per.reducer
B.hive.exec-ducers.max
C.hive.exec.max.dynamic.partitions
D.hive.exec.max.dynamic.partitions.pernode
A.hive.exec.compress.intermediate
B.hive.intermediate.compression.codec
C.hive.exec.compress.output
D.hive.intermediate.compression.type
A.獲取數(shù)據(jù),并將原始數(shù)據(jù)轉(zhuǎn)化成自己處理的數(shù)據(jù)對(duì)象
B.緩存數(shù)據(jù),根據(jù)不同的可靠性策略,將數(shù)據(jù)保存在內(nèi)存或文件上
C.輸出數(shù)據(jù)到目的地,支持多種輸出協(xié)議
D.拆分?jǐn)?shù)據(jù),根據(jù)數(shù)據(jù)的特性,將數(shù)據(jù)發(fā)送到不同的目的地
最新試題
在Kafka中,關(guān)于Consumer說(shuō)法正確的是()。
Oozie的workflow.xml文件是工作流配置文件。()
FusionLnsigt HD用戶想通過(guò)HBase shell操作來(lái)查詢某個(gè)HBase表中的內(nèi)容,這中場(chǎng)景下推薦管理員給這個(gè)用戶分配一個(gè)機(jī)機(jī)賬號(hào)。()
Spark Streaming可以從Kafka接收數(shù)據(jù)并進(jìn)行計(jì)算,計(jì)算結(jié)果只能存入HDFS,不能再寫回Kafka。()
Fusionlnsigt HD的Hive組件可以運(yùn)行在哪些分布式計(jì)算機(jī)框架上?()
關(guān)于Fusionlnsight HD的Spark,以下哪些編程語(yǔ)言可以用來(lái)開發(fā)Spark應(yīng)用?()
用戶要開發(fā)一個(gè)應(yīng)用去訪問(wèn)HBase服務(wù),先申請(qǐng)了一個(gè)機(jī)機(jī)賬號(hào)teste1,并給它設(shè)置訪問(wèn)HBase服務(wù)的權(quán)限:然后下載該賬戶的keytab文件,并使用該賬號(hào)運(yùn)行應(yīng)用。后續(xù)此應(yīng)用增加業(yè)務(wù)需求,需訪問(wèn)Hive服務(wù),那么在給tested用戶補(bǔ)充授予了訪問(wèn)Hive組件權(quán)限后,需重新下載該用戶的keytab文件。()
在Kafka中,如下關(guān)于Producer發(fā)送數(shù)據(jù)的說(shuō)法錯(cuò)誤的是?()
Fusionlnsight HD中,Streaming打包工具用于將業(yè)務(wù)代碼jar包和其他所依賴的jar包等,打包成一個(gè)完整的Streaming應(yīng)用的jar包。()
在集群正常的情況下,Redis客戶端發(fā)起一次get調(diào)用,客戶端跟服務(wù)端有()次消息交互。