[發明專利]拍攝方法、裝置、終端和可讀存儲介質在審
| 申請號: | 202210095534.1 | 申請日: | 2022-01-26 |
| 公開(公告)號: | CN114430459A | 公開(公告)日: | 2022-05-03 |
| 發明(設計)人: | 貝為炬 | 申請(專利權)人: | OPPO廣東移動通信有限公司 |
| 主分類號: | H04N5/232 | 分類號: | H04N5/232 |
| 代理公司: | 北京知帆遠景知識產權代理有限公司 11890 | 代理人: | 吳文婧 |
| 地址: | 523860 廣東*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 拍攝 方法 裝置 終端 可讀 存儲 介質 | ||
本申請提供了一種拍攝方法,包括接收被攝對象發出的第一信號,以確定所述被攝對象的位置信息;根據所述位置信息確定目標對焦位置和目標焦距;及根據所述目標對焦位置和所述目標焦距進行對焦,以生成拍攝圖像。本申請實施方式的拍攝方法、拍攝裝置、終端和非易失性計算機可讀存儲介質,通過接收被攝對象發出的第一信號,確定被攝對象的位置信息,根據位置信息即可快速確定被攝對象在預覽界面中的位置及被攝對象與拍攝終端的距離,從而快速確定目標對焦位置和目標焦距,相較于通過復雜的識別算法識別被攝對象,延遲較高而言,位置信息的延遲較低,即使被攝對象處于運動狀態,也能夠快速確定位置信息,從而提高對焦效果,提升拍攝圖像的質量。
技術領域
本申請涉及圖像技術領域,特別涉及一種拍攝方法、拍攝裝置、終端和非易失性計算機可讀存儲介質。
背景技術
目前,在拍攝圖像時,一般通過識別被攝對象的方式確定對焦位置,從而進行對焦,識別算法較為復雜,具有較大的延遲,而且在被攝對象運動時,這種延遲將會進一步加大,從而導致對焦效果較差。
發明內容
本申請的實施方式提供了一種拍攝方法、拍攝裝置、終端和非易失性計算機可讀存儲介質。
本申請實施方式的拍攝方法包括接收被攝對象發出的第一信號,以確定所述被攝對象的位置信息;根據所述位置信息確定目標對焦位置和目標焦距;及根據所述目標對焦位置和所述目標焦距進行對焦,以生成拍攝圖像。
本申請實施方式的拍攝裝置包括第一確定模塊、第二確定模塊和對焦模塊。第一確定模塊用于接收被攝對象發出的第一信號,以確定所述被攝對象的位置信息;所述第二確定模塊用于根據所述位置信息確定目標對焦位置和目標焦距;所述對焦模塊用于根據所述目標對焦位置和所述目標焦距進行對焦,以生成拍攝圖像。
本申請實施方式的終端包括處理器,所述處理器用于接收被攝對象發出的第一信號,以確定所述被攝對象的位置信息;根據所述位置信息確定目標對焦位置和目標焦距;及根據所述目標對焦位置和所述目標焦距進行對焦,以生成拍攝圖像。
本申請的一種包含計算機程序的非易失性計算機可讀存儲介質,當所述計算機程序被一個或多個處理器執行時,使得所述處理器執行拍攝方法。所述拍攝方法包括接收被攝對象發出的第一信號,以確定所述被攝對象的位置信息;根據所述位置信息確定目標對焦位置和目標焦距;及根據所述目標對焦位置和所述目標焦距進行對焦,以生成拍攝圖像。
本申請實施方式的拍攝方法、拍攝裝置、終端和非易失性計算機可讀存儲介質,通過接收被攝對象發出的第一信號,來對被攝對象進行定位,從而確定被攝對象的位置信息,例如,通過終端的多個天線接收到第一信號時的時間差、及多個天線之間的相對位置關系,來確定位置信息,根據位置信息即可快速確定被攝對象在預覽界面中的位置及被攝對象與進行拍攝的終端的距離,從而快速確定目標對焦位置和目標焦距,相較于通過復雜的圖像識別算法識別被攝對象,延遲較高而言,通過第一信號確定被攝對象的位置信息的延遲較低,即使被攝對象處于運動狀態,也能夠快速確定位置信息,從而提高對焦效果,提升拍攝圖像的質量。
本申請的附加方面和優點將在下面的描述中部分給出,部分將從下面的描述中變得明顯,或通過本申請的實踐了解到。
附圖說明
為了更清楚地說明本申請實施例或現有技術中的技術方案,下面將對實施例或現有技術描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本申請的一些實施例,對于本領域普通技術人員來講,在不付出創造性勞動的前提下,還可以根據這些附圖獲得其他的附圖。
圖1是本申請某些實施方式的拍攝方法的流程示意圖;
圖2是本申請某些實施方式的拍攝裝置的模塊示意圖;
圖3是本申請某些實施方式的終端平面示意圖;
圖4是本申請某些實施方式的場景示意圖;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于OPPO廣東移動通信有限公司,未經OPPO廣東移動通信有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202210095534.1/2.html,轉載請聲明來源鉆瓜專利網。





