[發(fā)明專利]Tensorflow模型的更新方法與系統(tǒng)在審
| 申請?zhí)枺?/td> | 202110200935.4 | 申請日: | 2021-02-23 |
| 公開(公告)號: | CN112905204A | 公開(公告)日: | 2021-06-04 |
| 發(fā)明(設計)人: | 唐震;張攀;裴國娟;王佔晉 | 申請(專利權(quán))人: | 杭州推啊網(wǎng)絡科技有限公司 |
| 主分類號: | G06F8/65 | 分類號: | G06F8/65;G06F8/71 |
| 代理公司: | 杭州裕陽聯(lián)合專利代理有限公司 33289 | 代理人: | 田金霞 |
| 地址: | 310012 浙江省杭州*** | 國省代碼: | 浙江;33 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | tensorflow 模型 更新 方法 系統(tǒng) | ||
1.一種Tensorflow模型的更新方法,其特征在于,所述方法包括:
監(jiān)控活動投放請求的進入,當接收到活動投放請求時,從業(yè)務服務器的Guava緩存區(qū)中讀取Guava緩存區(qū)與TF模型的映射關系,得到與Guava緩存區(qū)對應的TF模型的模型信息;
依據(jù)所述與Guava緩存區(qū)對應的TF模型的模型信息,判斷所述與Guava緩存區(qū)對應的TF模型是否已過期;
若所述與Guava緩存區(qū)對應的TF模型已過期,則維持所述與Guava緩存區(qū)對應的TF模型的使用狀態(tài),并將活動數(shù)據(jù)推送至所述與Guava緩存區(qū)對應的TF模型,同時異步的更新TF模型,以獲取新版本的TF模型;在異步的更新TF模型的過程中,當獲取到新版本的TF模型時,還對新版本的TF模型進行預熱處理。
2.根據(jù)權(quán)利要求1所述的Tensorflow模型的更新方法,其特征在于,所述異步的更新TF模型,以獲取新版本的TF模型,包括:
從所述業(yè)務服務器的隊列中獲取位于隊列頭部的TF模型的模型信息,刪除原有的Guava緩存區(qū)與TF模型的映射關系,并建立Guava緩存區(qū)與位于隊列頭部的TF模型的映射關系;
從NAS服務器中獲取一個更新時間與當前系統(tǒng)時間最接近的TF模型,作為最新TF模型;
比對最新TF模型的版本號和已過期的TF模型的版本號,判斷TF模型的版本號是否需要更新;
若TF模型的版本號需要更新,則將最新TF模型作為新版本的TF模型,對新版本的TF模型進行預熱處理;
若TF模型的版本號不需要更新,則終止后續(xù)步驟,返回初始監(jiān)控活動投放請求的進入的步驟。
3.根據(jù)權(quán)利要求2所述的Tensorflow模型的更新方法,其特征在于,在所述隊列中,越靠近隊列尾部的TF模型,進入所述隊列的時間越早,越靠近隊列頭部的TF模型,進入所述隊列的時間越晚。
4.根據(jù)權(quán)利要求3所述的Tensorflow模型的更新方法,其特征在于,在所述對新版本的TF模型進行預熱處理之后,所述方法還包括:
判斷所述新版本的TF模型是否已預熱完畢;
若所述新版本的TF模型已預熱完畢,則從所述隊列中刪除位于隊列尾部的TF模型,將預熱后的TF模型插入隊列頭部,返回所述監(jiān)控活動投放請求的進入的步驟。
5.根據(jù)權(quán)利要求4所述的Tensorflow模型的更新方法,其特征在于,所述依據(jù)所述與Guava緩存區(qū)對應的TF模型的模型信息,判斷與Guava緩存區(qū)對應的TF模型是否已過期,包括:
獲取Guava緩存區(qū)內(nèi)存放的定時器;
判斷所述定時器記錄的時間是否超過預設時間閾值;
若所述定時器記錄的時間超過所述預設時間閾值,則確定與Guava緩存區(qū)對應的TF模型已過期。
6.根據(jù)權(quán)利要求5所述的Tensorflow模型的更新方法,其特征在于,在所述判斷所述與Guava緩存區(qū)對應的TF模型是否已過期之后,所述方法還包括:
若與Guava緩存區(qū)對應的TF模型未過期,則維持所述與Guava緩存區(qū)對應的TF模型的使用狀態(tài),并將活動數(shù)據(jù)推送至所述與Guava緩存區(qū)對應的TF模型;
返回所述監(jiān)控活動投放請求的進入的步驟。
7.根據(jù)權(quán)利要求6所述的Tensorflow模型的更新方法,其特征在于,所述若所述新版本的TF模型已預熱完畢,則從所述隊列中刪除位于隊列尾部的TF模型,將預熱后的TF模型插入隊列頭部,包括:
若所述新版本的TF模型已預熱完畢,則判斷隊列中存放的TF模型總數(shù)是否等于隊列的TF模型存放上限量;
若隊列中存放的TF模型總數(shù)等于隊列的TF模型存放上限量,則隊列中刪除位于隊列尾部的TF模型;
將預熱后的TF模型插入隊列頭部。
該專利技術資料僅供研究查看技術是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于杭州推啊網(wǎng)絡科技有限公司,未經(jīng)杭州推啊網(wǎng)絡科技有限公司許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110200935.4/1.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。
- 基于tensorflow的數(shù)據(jù)處理方法及終端、差分定位平臺
- 一種用于深度學習的資源管理系統(tǒng)及方法
- 一種將TensorFlow模型部署到移動端運行的方法、移動端及介質(zhì)
- 一種智子模型的協(xié)同運算系統(tǒng)
- 一種TensorFlow的FPGA異構(gòu)加速實現(xiàn)方法、系統(tǒng)、終端及存儲介質(zhì)
- 一種在TensorFlow中支持FPGA訓練的方法和裝置
- 一種數(shù)據(jù)處理方法、裝置、設備及存儲介質(zhì)
- 模型部署方法、服務器和計算機可讀存儲介質(zhì)
- 基于TensorFlow的自定義類型實現(xiàn)方法和裝置
- 一種基于Tensorflow Serving的模型部署方法及設備、介質(zhì)





