A.配置中,solrconfig.Xml文件中的DirectoryFactory參數(shù)可以設(shè)置為org.apache.solr.core.NIOFSDirectoryFactory
B.可以和HBase聯(lián)合使用,Solr僅對需要檢索的非Rowkey字段建立索引,Hbase賦值儲存所有字段的數(shù)據(jù)
C.可以和Hbase聯(lián)合使用,將uniqueKey字段和HBaseRowKey字段設(shè)置為同一個(gè)值,并采用implicitRouter方式,使得document均衡分發(fā)到各個(gè)shard
D.創(chuàng)建Collection時(shí),可以設(shè)定Shard數(shù)目為SolrSever實(shí)例的整數(shù)倍,盡可能保證每個(gè)SolrServer實(shí)例負(fù)致均衡
您可能感興趣的試卷
你可能感興趣的試題
A.創(chuàng)建輸入流
B.創(chuàng)建輸出流
C.業(yè)務(wù)操作語句(例如SELECT,INSERT,JION等)
D.應(yīng)用交語句
A.Kill
B.run
C.resume
D.submit
A.查看Oozie的JAVA API返回結(jié)果是否符合預(yù)期
B.通過Hue的workflow儀表板查看程序運(yùn)行結(jié)果
C.通過hue的文件瀏覽器查看是否在HDFS指定目錄生產(chǎn)了所期望的文件
D.Oozie自帶的Web界面也可以查看作業(yè)執(zhí)行結(jié)果
A.只能使用人機(jī)賬號
B.只能使用機(jī)機(jī)賬號
C.一個(gè)客戶端不支持多個(gè)賬號同時(shí)使用
D.執(zhí)行此命令得到的票據(jù)在24小時(shí)會超時(shí),需要再次執(zhí)行kinit命令去重新登錄
最新試題
FusionLnsigt HD用戶想通過HBase shell操作來查詢某個(gè)HBase表中的內(nèi)容,這中場景下推薦管理員給這個(gè)用戶分配一個(gè)機(jī)機(jī)賬號。()
關(guān)于Kafka的特點(diǎn)如下᧿述正確的是?()
Redis不適用與下面那些場景?()
用戶要開發(fā)一個(gè)應(yīng)用去訪問HBase服務(wù),先申請了一個(gè)機(jī)機(jī)賬號teste1,并給它設(shè)置訪問HBase服務(wù)的權(quán)限:然后下載該賬戶的keytab文件,并使用該賬號運(yùn)行應(yīng)用。后續(xù)此應(yīng)用增加業(yè)務(wù)需求,需訪問Hive服務(wù),那么在給tested用戶補(bǔ)充授予了訪問Hive組件權(quán)限后,需重新下載該用戶的keytab文件。()
FusionlnsightHD系統(tǒng)中,關(guān)于HIve的JDBC接口類型,以下哪種敘述是正確的?()
Fusionlnsight HD大數(shù)據(jù)平臺提供了哪些分布式計(jì)算框架?()
Flume寫入HDFS時(shí),文件的生成當(dāng)時(shí)有哪些?()
由于Spark是基于內(nèi)存的計(jì)算引擎,因此,一個(gè)Spark應(yīng)用可以處理的數(shù)據(jù)量不能超過分給這個(gè)Spark應(yīng)用的內(nèi)存總和。()
Spark Streaming可以從Kafka接收數(shù)據(jù)并進(jìn)行計(jì)算,計(jì)算結(jié)果只能存入HDFS,不能再寫回Kafka。()
Fusionlnsight HD系統(tǒng)中,Solr示例工程solr-example\confisolr-confisolr.properties中ZK_URL和ZOOKEEPER_DEFAULT_SERVER_PRINCIPAL的值可以從下面哪個(gè)選項(xiàng)獲???()