A.構(gòu)建相似度矩陣
B.計(jì)算拉普拉斯矩陣
C.對(duì)拉普拉斯矩陣進(jìn)行特征分解
D.使用K-means 對(duì)特征向量進(jìn)行聚類
您可能感興趣的試卷
你可能感興趣的試題
A.沒有影響
B.可能導(dǎo)致局部最優(yōu)解
C.一定導(dǎo)致全局最優(yōu)解
D.使算法收斂速度更快
A.因?yàn)長STM 能夠更好地捕獲長期依賴關(guān)系
B.因?yàn)長STM 的計(jì)算速度更快
C.因?yàn)長STM 的模型結(jié)構(gòu)更簡單
D.因?yàn)長STM 不需要反向傳播算法
A.輸入層之前的層
B.輸出層之前的層
C.輸入層和輸出層之間的層
D.輸出層之后的層
A.通過跳躍連接緩解梯度消失問題
B.通過增加深度提高性能
C.通過減少參數(shù)數(shù)量防止過擬合
D.通過改變激活函數(shù)提高性能
A.BERT 考慮了單詞之間的順序關(guān)系。
B.ERT 是一個(gè)靜態(tài)的詞嵌入模型。
C.BERT 不能用于下游任務(wù)。
D.BERT 不依賴于預(yù)訓(xùn)練階段。
最新試題
在機(jī)器學(xué)習(xí)中,核技巧(KernelTrick)主要用于解決什么問題()?
屬性值約束主要有()。
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?
數(shù)量歸約中無參數(shù)的方法一般使用()。
在深度學(xué)習(xí)模型訓(xùn)練中,哪些技術(shù)有助于防止過擬合并提高模型在多任務(wù)學(xué)習(xí)上的表現(xiàn)()?
在深度學(xué)習(xí)模型訓(xùn)練中,"早停法"(EarlyStopping)策略的應(yīng)用目的是什么()?
在自然語言處理中,哪些方法可以用于提升自動(dòng)文本摘要的生成效果()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要區(qū)別是什么()?
在自然語言處理任務(wù)中,哪些技術(shù)適用于提升文本分類的性能()?
智能運(yùn)維AIOps 的核心技術(shù)是什么()?