最新試題
由于Spark是基于內(nèi)存的計算引擎,因此,一個Spark應(yīng)用可以處理的數(shù)據(jù)量不能超過分給這個Spark應(yīng)用的內(nèi)存總和。()
Fusionlnsight HD中,關(guān)于Hive的數(shù)據(jù)加載功能(通過Hivede LOAD命令導(dǎo)入數(shù)據(jù)),以下敘述錯誤的是?()
Fusionlnsight HD中,一個部署在Tomcat上的應(yīng)用,需訪問HBase服務(wù),這種場景下推薦使用機(jī)機(jī)賬號。()
存在如下業(yè)務(wù)場景:用戶上網(wǎng)日志文件已經(jīng)存放在HDFS上,日志文件內(nèi)容格式是:每條上網(wǎng)記錄三個字段,分別是姓名,性別,上網(wǎng)時間,字段之間用“,”護(hù)分隔;要求打印輸出所有上網(wǎng)總時間大于兩小時的女性網(wǎng)友。請問如下哪些代碼片段能實(shí)現(xiàn)上述業(yè)務(wù)場景?()
FusionLnsigh HD,Oozie支持HDFS Action。()
關(guān)于Fusionlnsight HD的Spark,以下哪些編程語言可以用來開發(fā)Spark應(yīng)用?()
Flume寫入HDFS時,文件的生成當(dāng)時有哪些?()
Fiume支持實(shí)時采集數(shù)據(jù)的source類型是哪項?()
Fusionlnsigt HD的Hive組件可以運(yùn)行在哪些分布式計算機(jī)框架上?()
用戶要開發(fā)一個應(yīng)用去訪問HBase服務(wù),先申請了一個機(jī)機(jī)賬號teste1,并給它設(shè)置訪問HBase服務(wù)的權(quán)限:然后下載該賬戶的keytab文件,并使用該賬號運(yùn)行應(yīng)用。后續(xù)此應(yīng)用增加業(yè)務(wù)需求,需訪問Hive服務(wù),那么在給tested用戶補(bǔ)充授予了訪問Hive組件權(quán)限后,需重新下載該用戶的keytab文件。()