[發明專利]一種基于機器視覺的河流漂浮物實時檢測方法有效
| 申請號: | 201910255206.1 | 申請日: | 2019-04-01 |
| 公開(公告)號: | CN110084129B | 公開(公告)日: | 2022-11-29 |
| 發明(設計)人: | 王劍平;李善超;楊曉洪;張果;車國霖;歐陽鑫 | 申請(專利權)人: | 昆明理工大學 |
| 主分類號: | G06V20/52 | 分類號: | G06V20/52;G06V20/40;G06V10/26;G06V10/764 |
| 代理公司: | 暫無信息 | 代理人: | 暫無信息 |
| 地址: | 650093 云*** | 國省代碼: | 云南;53 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 機器 視覺 河流 漂浮 實時 檢測 方法 | ||
1.一種基于機器視覺的河流漂浮物實時檢測方法,其特征在于:輸入現場視頻流,利用視頻流前三幀圖像建立背景模型,并采用三幀法檢測Ghost區域,建立Ghost更新模板;采用固定閾值與動態閾值相結合的方法來設定像素分類閾值,進行像素分類操作;同時,根據像素分類結果,建立前景二值化圖像mask和匹配值更新模板;進行噪聲消除和填充空洞操作;最后標記漂浮物,輸出mask圖像及標記幀,并根據mask圖像修正匹配值更新模板,結合匹配值更新模板和Ghost區域更新模板進行背景模型更新;
包括以下步驟:
步驟1、首先設定監控攝像機視野范圍,監控攝像機開始工作,實時采集天然河道的現場視頻;對視頻流進行切幀與灰度化處理,并設定方法相關參數;
步驟2、讀入視頻流前三幀圖像,利用前三幀圖像進行背景建模,同時采用三幀法檢測前三幀中的Ghost區域,建立Ghost更新模板;
步驟3、采用固定閾值與動態閾值相結合的方法來設定像素分類閾值,進行像素分類操作;像素分類錯做包括:將當前幀像素與背景模型中的樣本進行比較,以分類閾值為標準判定像素屬于背景還是前景,并得出像素在分類閾值內的匹配值;
步驟4、根據像素分類結果,建立前景二值化圖像mask和匹配值更新模板;
步驟5、檢測mask圖像中的噪聲與空洞,消除面積小于10的噪聲,填充面積小于50的空洞;
步驟6、檢測mask圖像中各連通區域,并用方框標記輸入幀上對應的連通區域,輸出mask圖像和標記后的輸入幀;同時,根據mask圖像修正匹配值更新模板,結合匹配值更新模板和Ghost更新模板進行更新背景模型;
針對步驟5丟棄處理的位置,設定匹配值更新模板對應位置的值為k,各像素匹配值為n;針對步驟5填充空洞的位置,則匹配值更新模板對應位置的值為0,如公式(1)所示:
根據更新模板update(x)中值的大小設定更新因子,并進行背景模型的更新;這樣增加背景模型的復雜度,加速舊樣本值地淘汰,引入更多不同的新背景像素,如公式(2)所示:
其中,更新因子φ越大,其更新概率越小,更新概率P(x)與更新因子φ的關系是:P(x)=1/φ;更新模板update(x)值為0時,不進行背景模型更新;update(x)值小于9時,必進行背景模型更新;update(x)值小于15時,以50%的概率更新背景模型;其他情況,以25%的概率更新背景模型;
通過計算像素的背景模型的標準偏差來確定像素的動態閾值,如公式(3)和(4)所示:
得到像素x的動態閾值后,需要將固定閾值與動態閾值結合起來設定像素分類閾值;像素分類閾值是在動態閾值σ(x)的基礎上加上固定閾值R,從而得出自適應距離閾值R(x);為確保檢測的精度,需要對每個像素點背景樣本值距離閾值R(x)范圍進行限定,選取多個河流漂浮物檢測視頻流實驗后發現,R(x)范圍在[40,80]區間內具有理想的效果,如公式(5)所示:
R(x)=R+σ(x)·γ R(x)∈[40,80] (5)
其中,R取40,γ取3。
2.根據權利要求1所述的基于機器視覺的河流漂浮物實時檢測方法,其特征在于:所述步驟2中,讀入視頻流前三幀圖像,將每幀圖像的像素x及其8鄰域NG(x)如公式(7)的像素值作為初始背景模型M0(x)的背景樣本,則初始背景模型M0(x)將由N=27個背景樣本組成;三幀初始化背景模型具體公式如下:
xi={y|y∈{x,NG(x)}} (6)
其中,xi表示索引為i的像素,M1(x),M2(x),M3(x)分別為視頻流第一、二、三幀像素x及其8鄰域NG(x)的像素值集合;M0(x)為像素x的初始背景模型的樣本集,其是由三幀的像素值集M1(x),M2(x),M3(x)組成。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于昆明理工大學,未經昆明理工大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910255206.1/1.html,轉載請聲明來源鉆瓜專利網。





