單項(xiàng)選擇題在深度學(xué)習(xí)的序列建模任務(wù)中,為什么長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)比標(biāo)準(zhǔn)的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)更為常用()?

A.因?yàn)長(zhǎng)STM 能夠更好地捕獲長(zhǎng)期依賴關(guān)系
B.因?yàn)長(zhǎng)STM 的計(jì)算速度更快
C.因?yàn)長(zhǎng)STM 的模型結(jié)構(gòu)更簡(jiǎn)單
D.因?yàn)長(zhǎng)STM 不需要反向傳播算法


您可能感興趣的試卷

你可能感興趣的試題

1.單項(xiàng)選擇題在深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)的“隱藏層”是指什么()?

A.輸入層之前的層
B.輸出層之前的層
C.輸入層和輸出層之間的層
D.輸出層之后的層

2.單項(xiàng)選擇題在深度學(xué)習(xí)中,殘差網(wǎng)絡(luò)(ResNet)的主要特點(diǎn)是什么()?

A.通過跳躍連接緩解梯度消失問題
B.通過增加深度提高性能
C.通過減少參數(shù)數(shù)量防止過擬合
D.通過改變激活函數(shù)提高性能

3.單項(xiàng)選擇題在自然語言處理中,BERT 模型相比于傳統(tǒng)的詞嵌入方法有什么優(yōu)勢(shì)()?

A.BERT 考慮了單詞之間的順序關(guān)系。
B.ERT 是一個(gè)靜態(tài)的詞嵌入模型。
C.BERT 不能用于下游任務(wù)。
D.BERT 不依賴于預(yù)訓(xùn)練階段。

4.單項(xiàng)選擇題強(qiáng)化學(xué)習(xí)中近端策略優(yōu)化(ProximalPolicyOptimization-PPO)的目的是:()。

A.減少學(xué)習(xí)過程中的方差
B.加速模型的收斂速度
C.優(yōu)化策略的穩(wěn)定性
D.提高策略的探索能力

5.單項(xiàng)選擇題層次聚類方法中,凝聚的層次聚類是從什么開始()?

A.將每個(gè)數(shù)據(jù)點(diǎn)視為一個(gè)單獨(dú)的簇
B.將所有數(shù)據(jù)點(diǎn)視為一個(gè)簇
C.隨機(jī)選擇數(shù)據(jù)點(diǎn)作為簇
D.根據(jù)數(shù)據(jù)的分布選擇簇