A.神經(jīng)網(wǎng)絡(luò)調(diào)整參數(shù)的方式是一種前饋神經(jīng)網(wǎng)絡(luò)(FeedforwardNeuralNetwork)
B.學(xué)習(xí)率在迭代的參數(shù)調(diào)整過程中會(huì)固定不變
C.梯度下降是運(yùn)用積分的技巧來達(dá)成
D.損失函數(shù)移動(dòng)的方向跟梯度的方向相同
E.神經(jīng)網(wǎng)絡(luò)調(diào)整參數(shù)的順序是從后面一層層往前調(diào)
您可能感興趣的試卷
你可能感興趣的試題
A.損失函數(shù)是對(duì)每個(gè)輸入的預(yù)測(cè)值與真實(shí)值的差異計(jì)算總和
B.透過梯度下降一定可以找到降低損失函數(shù)的最佳解
C.損失函數(shù)的變量是可以調(diào)整的參數(shù)
D.訓(xùn)練神經(jīng)網(wǎng)絡(luò)是透過參數(shù)的調(diào)整來降低損失函數(shù)
E.梯度下降是降低損失函數(shù)的一種算法
A.傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)是指全鏈接神經(jīng)網(wǎng)絡(luò)
B.全鏈接神經(jīng)網(wǎng)絡(luò)也叫標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)
C.標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)通常稱為NN(neuralnetwork)
D.全鏈接神經(jīng)網(wǎng)絡(luò)的每個(gè)神經(jīng)元都會(huì)跟前后層的神經(jīng)元相連
E.每個(gè)神經(jīng)元內(nèi)部的計(jì)算架構(gòu)都不一樣
A.建構(gòu)神經(jīng)網(wǎng)絡(luò)時(shí)需要知道最終的函數(shù)學(xué)習(xí)機(jī)長(zhǎng)什么樣子
B.打造一個(gè)神經(jīng)網(wǎng)絡(luò)的函數(shù)學(xué)習(xí)機(jī)是透過編程來達(dá)成
C.神經(jīng)網(wǎng)絡(luò)模型可分成輸入層、表現(xiàn)層及輸出層
D.神經(jīng)網(wǎng)絡(luò)模型可分成輸入層、隱藏層及輸出層
E.神經(jīng)網(wǎng)絡(luò)模型可分成輸入層、激發(fā)層及輸出層
A.判定樹可以是多元樹
B.判定樹的起始點(diǎn)稱為根節(jié)點(diǎn)
C.判定樹是一種分群的機(jī)器學(xué)習(xí)技術(shù)
D.判定樹上的內(nèi)部節(jié)點(diǎn)代表一個(gè)特征值
E.判定樹上的樹葉就是代表一種分類結(jié)果
A.支持向量機(jī)的分類函數(shù)稱為核函數(shù)(kernelfunction)
B.核函數(shù)(kernelfunction)都是非線性的
C.核函數(shù)可以多項(xiàng)式核函數(shù)及徑向基核函數(shù)
D.利用核函數(shù)的變化,可以將原先在低維度空間無法分類的問題轉(zhuǎn)到高維度空間達(dá)以達(dá)成需要的分類效果
E.支持向量機(jī)可以透過核函數(shù)的轉(zhuǎn)換,簡(jiǎn)化分類的困難度
最新試題
在自然語言處理中,哪些方法可以用于提升自動(dòng)文本摘要的生成效果()?
在自然語言處理任務(wù)中,哪些技術(shù)適用于提升文本分類的性能()?
在強(qiáng)化學(xué)習(xí)中,什么是“馬爾可夫性質(zhì)”()?
圖像數(shù)據(jù)標(biāo)注可以用于()算法中。
集成學(xué)習(xí)在強(qiáng)化學(xué)習(xí)中的一個(gè)常見應(yīng)用是什么()?
反向傳播算法的基本原理是基于什么()?
依存句法分析(DependencyParsing)主要用于分析什么()?
在自然語言處理中,哪些技術(shù)可以用于改善實(shí)體識(shí)別和文本生成任務(wù)的性能()?
人工智能發(fā)展的早期階段主要側(cè)重于哪方面的研究()?
相對(duì)化學(xué)沉淀等傳統(tǒng)工藝而言,萃取工藝的主要優(yōu)點(diǎn)是()。