A.網(wǎng)格搜索
B.隨機(jī)梯度下滑
C.隨機(jī)搜索
D.基于模型的超參數(shù)優(yōu)化
您可能感興趣的試卷
你可能感興趣的試題
A.搜索search
B.匹配match
C.更新update
D.編譯complie
A.lambda只是一個(gè)表達(dá)式,函數(shù)體比def簡單很多
B.lambda的主體可以是一個(gè)表達(dá)式,也可以是一個(gè)代碼快
C.lambda函數(shù)可以訪問全局命名空間里的參數(shù)
D.lambda函數(shù)只接受一個(gè)參數(shù)值
A.線性相關(guān)
B.線性無關(guān)
C.a1+a2+a3=0
D.2a1+a2+a3=0
A.泊松分布與二項(xiàng)分布的數(shù)學(xué)模型都是拉格朗日概率
B.泊松分布與二項(xiàng)分布當(dāng)n很大p很小的近似計(jì)算
C.泊松分布與二項(xiàng)分布沒有關(guān)系
D.泊松分布可以替代二項(xiàng)分布
最新試題
進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時(shí)會(huì)將數(shù)據(jù)集劃分為()。
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
在強(qiáng)化學(xué)習(xí)中,什么是“動(dòng)態(tài)規(guī)劃”(DynamicProgramming)()?
反向傳播算法的基本原理是基于什么()?
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)可以用于加速模型收斂和提高穩(wěn)定性()?
在強(qiáng)化學(xué)習(xí)中,什么是“馬爾可夫性質(zhì)”()?
在自然語言處理中,哪些技術(shù)可以用于改善實(shí)體識別和文本生成任務(wù)的性能()?
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)有助于防止過擬合并提高模型在多任務(wù)學(xué)習(xí)上的表現(xiàn)()?
在自然語言處理任務(wù)中,哪些技術(shù)適用于改善實(shí)體識別和關(guān)系抽取的效果()?