摘要:通過Caltech數據集訓練區(qū)域候選網絡時,發(fā)現(xiàn)其在場景復雜情況下存在大量的漏檢和誤檢。經分析:一是區(qū)域候選網絡使用VGG網絡提取待檢測圖片特征,由于VGG網絡層數較少,提取的特征不能夠很好地表達行人;二是錨邊框的尺度通過手工設計,沒有利用到行人的尺度先驗信息。針對以上2個問題,提出了一種改進的區(qū)域候選網絡的行人檢測方法,首先通過使用分類能力更強的Res Net提取待檢測圖片特征,然后利用檢測小網絡在卷積特征圖上滑動,預測多個錨邊框區(qū)域是否是行人并對錨邊框位置和尺度進行修正,其中錨邊框尺度通過KMeans算法計算得到。結果表明:本文算法在Caltech數據集上,比傳統(tǒng)的VJ和HOG方法漏檢率分別低36.23%、27.09%,比基于深度學習的方法 Ped Faster RCNN、MRFC+Semantic和UDN+漏檢率分別低6.78%、3.73%、1.53%。研究表明本文改進的區(qū)域候選網絡能夠較好的檢測行人。
注:因版權方要求,不能公開全文,如需全文,請咨詢雜志社