摘要:針對(duì)神經(jīng)網(wǎng)絡(luò)的顯著性區(qū)域預(yù)測(cè)存在數(shù)據(jù)采集代價(jià)大、處理繁瑣等問(wèn)題,提出2種卷積神經(jīng)網(wǎng)絡(luò),即從頭開(kāi)始訓(xùn)練的淺層卷積神經(jīng)網(wǎng)絡(luò),以及前三層源自另一個(gè)網(wǎng)絡(luò)的深層卷積神經(jīng)網(wǎng)絡(luò)。其中,淺層網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單,可避免過(guò)擬合問(wèn)題;深層網(wǎng)絡(luò)可以充分利用最底層的模型參數(shù),收斂更快,效果更好。所提卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于回歸問(wèn)題,均沒(méi)有直接訓(xùn)練特征圖的線性模型,而是在遷移層上訓(xùn)練了一堆新的卷積層。從端到端的角度解決顯著性預(yù)測(cè),將學(xué)習(xí)過(guò)程演化為損失函數(shù)的最小化問(wèn)題。測(cè)試和訓(xùn)練在SALICON,SUN和MIT300數(shù)據(jù)集上進(jìn)行,實(shí)驗(yàn)結(jié)果驗(yàn)證了所提方法的有效性。其中,深層網(wǎng)絡(luò)和淺層網(wǎng)絡(luò)在SALICON和SUN數(shù)據(jù)上的結(jié)果相似,深層網(wǎng)絡(luò)在MIT300上的結(jié)果更優(yōu),與其他方法相比,所提方法具有不錯(cuò)的表現(xiàn),而且具有跨數(shù)據(jù)集的魯棒性。
注:因版權(quán)方要求,不能公開(kāi)全文,如需全文,請(qǐng)咨詢雜志社。
重慶郵電大學(xué)學(xué)報(bào)·自然科學(xué)版雜志, 雙月刊,本刊重視學(xué)術(shù)導(dǎo)向,堅(jiān)持科學(xué)性、學(xué)術(shù)性、先進(jìn)性、創(chuàng)新性,刊載內(nèi)容涉及的欄目:人工智能與信息通信、通信與電子、計(jì)算機(jī)與自動(dòng)化等。于1988年經(jīng)新聞總署批準(zhǔn)的正規(guī)刊物。