A.將文本數(shù)據(jù)轉(zhuǎn)換為圖像數(shù)據(jù)
B.將高維的文本數(shù)據(jù)轉(zhuǎn)換為低維的向量表示
C.直接用于分類任務(wù)
D.提取文本數(shù)據(jù)的特征
您可能感興趣的試卷
你可能感興趣的試題
A.智能體選擇的動作序列
B.智能體根據(jù)狀態(tài)選擇動作的規(guī)則
C.智能體獲得的累積獎勵
D.智能體與環(huán)境交互的次數(shù)
A.構(gòu)建相似度矩陣
B.計算拉普拉斯矩陣
C.對拉普拉斯矩陣進行特征分解
D.使用K-means 對特征向量進行聚類
A.沒有影響
B.可能導(dǎo)致局部最優(yōu)解
C.一定導(dǎo)致全局最優(yōu)解
D.使算法收斂速度更快
A.因為LSTM 能夠更好地捕獲長期依賴關(guān)系
B.因為LSTM 的計算速度更快
C.因為LSTM 的模型結(jié)構(gòu)更簡單
D.因為LSTM 不需要反向傳播算法
A.輸入層之前的層
B.輸出層之前的層
C.輸入層和輸出層之間的層
D.輸出層之后的層
最新試題
度量泛化能力的好壞,最直觀的表現(xiàn)就是模型的()。
集成學(xué)習(xí)在強化學(xué)習(xí)中的一個常見應(yīng)用是什么()?
Xpath 語言有()的構(gòu)成。
在自然語言處理中,哪些方法可以用于提升自動文本摘要的生成效果()?
屬性值約束主要有()。
人工智能中的“序列到序列”模型主要用于處理什么類型的數(shù)據(jù)()?
模型微調(diào)中的提示學(xué)習(xí)是指:()。
依存句法分析(DependencyParsing)主要用于分析什么()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?