摘要:針對(duì)傳統(tǒng)的RNN算法存在梯度消失的缺陷,在面對(duì)海量新聞數(shù)據(jù),規(guī)模大且分類屬性多的情況下存在效率低的問(wèn)題,該文應(yīng)用了傳統(tǒng)的RNN模型改進(jìn)后的LSTM神經(jīng)網(wǎng)絡(luò)算法,加入了預(yù)訓(xùn)練的word2vec模型。首先對(duì)新聞數(shù)據(jù)進(jìn)行去除停用詞及標(biāo)點(diǎn)、格式轉(zhuǎn)化、分詞等預(yù)處理;其次進(jìn)行特征提取、分類模型構(gòu)造;最后進(jìn)行了分類模型訓(xùn)練與測(cè)試。測(cè)試數(shù)據(jù)表明,在大數(shù)據(jù)量的情況下,使用LSTM算法具有較高的模型準(zhǔn)確度和良好的擴(kuò)展性。
注:因版權(quán)方要求,不能公開全文,如需全文,請(qǐng)咨詢雜志社
國(guó)際刊號(hào):2096-7586
國(guó)內(nèi)刊號(hào):42-1907/C