[發明專利]一種基于深度學習的拍攝構圖方法和系統有效
| 申請號: | 201711097542.5 | 申請日: | 2017-11-09 |
| 公開(公告)號: | CN107705307B | 公開(公告)日: | 2021-01-01 |
| 發明(設計)人: | 張明;于佳弘;劉博;楊星彤 | 申請(專利權)人: | 睿魔智能科技(東莞)有限公司;東莞松山湖國際機器人研究院有限公司 |
| 主分類號: | G06T7/00 | 分類號: | G06T7/00;G06T7/60;G06T7/73 |
| 代理公司: | 廣州粵高專利商標代理有限公司 44102 | 代理人: | 羅曉林;楊桂洋 |
| 地址: | 523000 廣東省東莞市松山湖高新技術*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 深度 學習 拍攝 構圖 方法 系統 | ||
1.一種基于深度學習的拍攝構圖方法,包括以下步驟:
對拍攝鏡頭中的目標對象進行實時感知;
建立構圖訓練集,利用該構圖訓練集訓練深度神經網絡,以包含完整目標對象的圖片為輸入,以最優構圖方案為學習目標;
將感知到的當前的目標對象輸入深度神經網絡中,基于該深度神經網絡輸出當前最優的構圖方案,得到包含目標對象的二維平面位置信息和放縮信息。
2.根據權利要求1所述的基于深度學習的拍攝構圖方法,其特征在于,所述建立構圖訓練集具體為:
計算當前畫面的放縮倍數z,將目標對象進行放縮z倍處理;
根據構圖原則,設定若干條相互交叉的參考線,將所有參考線的所有交點集合定義為Vp={vp};
對目標對象建立完整的骨架模型,標記骨架模型上所有節點vo的集為Vo={vo},節點的坐標(x,y)以拍攝的圖像的左上角(0,0)為參考點,骨架模型上的相鄰節點之間形成的線段eo的集合標記為Eo={eo},骨架模型上的各節點設定相應的權重wo,該權重集為Wo={wo};
標記骨架模型上某一節點vo到相鄰最近的參考線交點的距離為標記骨架模型上某一對相鄰節點所形成的線段eo與水平方向的夾角為θ∥(eo)、以及與垂直方向的夾角為θ⊥(eo),并且該線段eo的參考偏移角度被定義為Θ(eo)=min{θ∥(eo),θ⊥(eo)};
在當前拍攝畫面中,當目標對象的完整骨架模型節點距參考線交點越近,相鄰節點形成的線段與水平方向或垂直方向的角度偏移越小時,構圖評分越高,構圖方案越優,直到得到最優構圖方案。
3.根據權利要求2所述的基于深度學習的拍攝構圖方法,其特征在于,所述最優的構圖方案具體為,在目標對象經過z倍放縮滿足成像大小的前提下,尋找獲取目標對象的平面位置信息(x,y),使得
最小,其中cost=f(·)為關于自變量的正相關函數,當cost值最小時目標對象所在的平面位置信息(x,y)為最優位置,構圖水平的評分rate=g(cost),其中rate=g(·)為關于自變量的負相關函數。
4.根據權利要求3所述的基于深度學習的拍攝構圖方法,其特征在于,所述放縮倍數z,以目標對象的眉心到鎖骨中心的連線為放縮參考依據。
5.根據權利要求4所述的基于深度學習的拍攝構圖方法,其特征在于,所述對目標對象放縮z倍處理時,目標對象在畫面中成半身像或全身像狀態。
6.根據權利要求5所述的基于深度學習的拍攝構圖方法,其特征在于,所述構圖原則為三分線構圖法和中心線構圖法,或者對角線構圖法和三角構圖法,或者九宮構圖方法和三角構圖法。
7.一種基于深度學習的拍攝構圖系統,其特征在于,所述系統包括感知單元,用于實時感知拍攝畫面當中的目標對象;
構建單元,用于建立構圖訓練集,并且用該構圖訓練集對深度神經網絡進行訓練;
輸出單元,利用訓練后的深度神經網絡針對當前畫面,輸出最優構圖方案。
8.根據權利要求7所述的基于深度學習的拍攝構圖系統,其特征在于,所述系統還包括
計算單元,用于計算當前畫面的放縮倍數z;
尋找獲取單元,用于尋找使得
最小時的目標對象所在的平面位置信息(x,y),其中cost=f(·)為關于自變量的正相關函數。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于睿魔智能科技(東莞)有限公司;東莞松山湖國際機器人研究院有限公司,未經睿魔智能科技(東莞)有限公司;東莞松山湖國際機器人研究院有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201711097542.5/1.html,轉載請聲明來源鉆瓜專利網。





