A.使用Dropout 技術(shù)
B.數(shù)據(jù)增強(qiáng)
C.權(quán)重衰減
D.批量歸一化
您可能感興趣的試卷
你可能感興趣的試題
A.序列到序列模型
B.注意力機(jī)制
C.實(shí)體關(guān)系抽取
D.詞嵌入微調(diào)
A.序列標(biāo)注
B.引入預(yù)訓(xùn)練模型
C.序列到序列模型
D.注意力機(jī)制
A.批量歸一化
B.數(shù)據(jù)增強(qiáng)
C.使用卷積神經(jīng)網(wǎng)絡(luò)
D.使用循環(huán)神經(jīng)網(wǎng)絡(luò)
A.提供少量樣本進(jìn)行學(xué)習(xí)
B.使用提示引導(dǎo)模型學(xué)習(xí)特定任務(wù)
C.通過(guò)重復(fù)提示加強(qiáng)記憶
D.提示模型忽略無(wú)關(guān)信息
A.句子的詞頻分布
B.句子的語(yǔ)義角色
C.句子中單詞之間的依存關(guān)系
D.句子的情感傾向
最新試題
集成學(xué)習(xí)在強(qiáng)化學(xué)習(xí)中的一個(gè)常見(jiàn)應(yīng)用是什么()?
數(shù)量歸約中無(wú)參數(shù)的方法一般使用()。
在深度學(xué)習(xí)模型訓(xùn)練中,"早停法"(EarlyStopping)策略的應(yīng)用目的是什么()?
在深度學(xué)習(xí)模型中,用于提高模型訓(xùn)練穩(wěn)定性的技術(shù)是:()。
模型微調(diào)中的提示學(xué)習(xí)是指:()。
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?
根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項(xiàng)不屬于遷移學(xué)習(xí)方法情況的是的是()。
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?
反向傳播算法的基本原理是基于什么()?
在自然語(yǔ)言處理中,哪些技術(shù)可以用于改善實(shí)體識(shí)別和文本生成任務(wù)的性能()?