A.ZooKeeper
B.HDFS
C.Master
D.meta表
您可能感興趣的試卷
你可能感興趣的試題
A.客戶端的文件數(shù)據(jù)經(jīng)過NameNode傳遞給DataNode
B.客戶端將文件劃分為多個Block,根據(jù)DataNode的地址信息,按順序?qū)懭朊恳粋€DataNode中
C.客戶端個根據(jù)DataNode的地址信息,按順序?qū)⒄麄€文件寫入每一個,然后由DataNode將文件劃分為多個Block
D.客戶端只上傳數(shù)據(jù)到一個DataNode,然后由NataNode,然后由NameNode負責Block復制。
A.30節(jié)點以下
B.100節(jié)點以下
C.100-200節(jié)點
D.200節(jié)點以上
A.利用HDFS數(shù)據(jù)存儲可靠性和易于擴容的特點選擇索引存儲與HDFS
B.不論solr索引存儲在HDFS上還是存儲在本地磁盤,在同一節(jié)點上都必須要部署5個solr實例根據(jù)ip和不同的端口號來區(qū)分不同的solr實例
C.當對實時索引錄入速度要求較高時,可選擇索引存放在本地磁盤
D.當索引數(shù)據(jù)存放在HDFS上,solrserver實例與Datanode實例部署在同一節(jié)點
最新試題
關于Kafka的Producer,如下說法正確的是?()
用戶要開發(fā)一個應用去訪問HBase服務,先申請了一個機機賬號teste1,并給它設置訪問HBase服務的權限:然后下載該賬戶的keytab文件,并使用該賬號運行應用。后續(xù)此應用增加業(yè)務需求,需訪問Hive服務,那么在給tested用戶補充授予了訪問Hive組件權限后,需重新下載該用戶的keytab文件。()
在Kafka中,關于Consumer說法正確的是()。
關于Fusionlnsight HD的Spark,以下哪些編程語言可以用來開發(fā)Spark應用?()
Fusionlnsight HD中,關于Hive的數(shù)據(jù)加載功能(通過Hivede LOAD命令導入數(shù)據(jù)),以下敘述錯誤的是?()
在通過Fusionlnsight manager界面創(chuàng)建用戶時,想要該用戶對所有Topic具有讀寫權限,但不具有常見Topic的權限,應該加入Kafka服務的那個組?()
Spark Streaming可以從Kafka接收數(shù)據(jù)并進行計算,計算結(jié)果只能存入HDFS,不能再寫回Kafka。()
存在如下業(yè)務場景:用戶上網(wǎng)日志文件已經(jīng)存放在HDFS上,日志文件內(nèi)容格式是:每條上網(wǎng)記錄三個字段,分別是姓名,性別,上網(wǎng)時間,字段之間用“,”護分隔;要求打印輸出所有上網(wǎng)總時間大于兩小時的女性網(wǎng)友。請問如下哪些代碼片段能實現(xiàn)上述業(yè)務場景?()
Fusionlnsight HD中,Streaming的特點?()
在HBase表設計中,對于多項業(yè)務共用rowkey,導致數(shù)據(jù)訪問矛盾的情況,可以有哪些應對策略?()