日韩在线一区二区三区,日本午夜一区二区三区,国产伦精品一区二区三区四区视频,欧美日韩在线观看视频一区二区三区 ,一区二区视频在线,国产精品18久久久久久首页狼,日本天堂在线观看视频,综合av一区

[發(fā)明專利]一種基于知識蒸餾的超聲或CT醫(yī)學影像的三維重建方法有效

專利信息
申請?zhí)枺?/td> 202011621388.9 申請日: 2020-12-30
公開(公告)號: CN112734906B 公開(公告)日: 2022-08-19
發(fā)明(設計)人: 全紅艷;錢笑笑 申請(專利權)人: 華東師范大學
主分類號: G06T17/00 分類號: G06T17/00;G06N3/04;G06N3/08
代理公司: 上海藍迪專利商標事務所(普通合伙) 31215 代理人: 徐筱梅;張翔
地址: 200241 *** 國省代碼: 上海;31
權利要求書: 查看更多 說明書: 查看更多
摘要:
搜索關鍵詞: 一種 基于 知識 蒸餾 超聲 ct 醫(yī)學影像 三維重建 方法
【權利要求書】:

1.一種基于知識蒸餾的超聲或CT醫(yī)學影像的三維重建方法,其特征在于,該方法輸入一個超聲或者CT影像序列,其影像分辨率為M×N,100≤M≤1500,100≤N≤1500,三維重建的過程具體包括以下步驟:

步驟1:構建數(shù)據(jù)集

(a)構建自然圖像數(shù)據(jù)集D

選取一個自然圖像網(wǎng)站,要求具有圖像序列及對應的攝像機內部參數(shù),從所述自然圖像網(wǎng)站下載a個圖像序列及序列對應的內部參數(shù),1≤a≤20,對于每個圖像序列,每相鄰3幀圖像記為圖像b、圖像c和圖像d,將圖像b和圖像d按照顏色通道進行拼接,得到圖像τ,由圖像c與圖像τ構成一個數(shù)據(jù)元素,圖像c為自然目標圖像,圖像c的采樣視點作為目標視點,圖像b、圖像c和圖像d的內部參數(shù)均為et(t=1,2,3,4),其中e1為水平焦距,e2為垂直焦距,e3及e4是主點坐標的兩個分量;如果同一圖像序列中最后剩余圖像不足3幀,則舍棄;利用所有序列構建數(shù)據(jù)集D,數(shù)據(jù)集D有f個元素,而且3000≤f≤20000;

(b)構建超聲影像數(shù)據(jù)集E

采樣g個超聲影像序列,其中1≤g≤20,對于每個序列,每相鄰3幀影像記為影像i、影像j和影像k,將影像i和影像k按照顏色通道進行拼接得到影像π,由影像j與影像π構成一個數(shù)據(jù)元素,影像j為超聲目標影像,影像j的采樣視點作為目標視點,如果同一影像序列中最后剩余影像不足3幀,則舍棄,利用所有序列構建數(shù)據(jù)集E,數(shù)據(jù)集E有F個元素,而且1000≤F≤20000;

(c)構建CT影像數(shù)據(jù)集G

采樣h個CT影像序列,其中1≤h≤20,對于每個序列,每相鄰3幀記為影像l、影像m和影像n,將影像l和影像n按照顏色通道進行拼接得到影像σ,由影像m與影像σ構成一個數(shù)據(jù)元素,影像m為CT目標影像,影像m的采樣視點作為目標視點,如果同一影像序列中最后剩余影像不足3幀,則舍棄,利用所有序列構建數(shù)據(jù)集G,數(shù)據(jù)集G有ξ個元素,而且1000≤ξ≤20000;步驟2:構建神經(jīng)網(wǎng)絡

神經(jīng)網(wǎng)絡處理的圖像或影像的分辨率均為p×o,p為寬度,o為高度,以像素為單位,100≤o≤2000,100≤p≤2000;

(1)網(wǎng)絡A的結構

張量H作為輸入,尺度為α×o×p×3,張量I作為輸出,尺度為α×o×p×1,α為批次數(shù)量;

網(wǎng)絡A由編碼器和解碼器組成,對于張量H,依次經(jīng)過編碼和解碼處理后,獲得輸出張量I;

編碼器由5個殘差單元組成,第1至5個單元分別包括2,3,4,6,3個殘差模塊,每個殘差模塊進行3次卷積,卷積核的形狀均為3×3,卷積核的個數(shù)分別是64,64,128,256,512,其中,第一個殘差單元之后,包含一個最大池化層;

解碼器由6個解碼單元組成,每個解碼單元均包括反卷積和卷積兩步處理,反卷積和卷積處理的卷積核形狀、個數(shù)都相同,第1至6個解碼單元卷積核的形狀均為3×3,卷積核的個數(shù)分別是512,256,128,64,32,16,編碼器與解碼器的網(wǎng)絡層之間進行跨層連接,跨層連接的對應關系為:1與4、2與3、3與2、4與1;

(2)網(wǎng)絡B的結構

張量J和張量K作為輸入,尺度分別為α×o×p×3和α×o×p×6,張量L、張量O和張量作為輸出,尺度分別為α×2×6,α×4×1和α×1×1,α為批次數(shù)量;

網(wǎng)絡B由模塊P、模塊Q和模塊μ構成,共有16層卷積單元,首先,將張量J和張量K按照最后一個通道進行拼接,獲得尺度為α×o×p×9的張量,對于所述張量經(jīng)過模塊P、模塊Q和模塊μ處理后,分別獲得輸出張量L、張量O和張量

模塊Q、模塊P和模塊μ共享前4層卷積單元,這4層結構為:前兩層單元中卷積核尺度分別為7×7、5×5,第3層到第4層的卷積核尺度均為3×3,這4層結構的卷積核個數(shù)依次為16、32、64、128;

對于模塊P,除了共享4層外,占據(jù)網(wǎng)絡B的第5層到第7層卷積單元,卷積核尺度均為3×3,卷積核個數(shù)均為256,第7層的處理結果利用12個3×3的卷積核進行卷積處理后,從12個通道得到張量L的結果;

對于模塊Q,除了共享網(wǎng)絡B的1至4層外,還占據(jù)網(wǎng)絡B的第8至11層卷積單元,網(wǎng)絡B的第2層輸出作為網(wǎng)絡B的第8層輸入,第8至11層卷積單元中卷積核的形狀均為3×3,卷積核個數(shù)均為256,第11層的結果利用4個3×3的卷積核進行卷積處理后,從4個通道得到張量O的結果;

對于模塊μ,除了共享網(wǎng)絡B的1至4層外,還占據(jù)網(wǎng)絡B的第12層至第16層卷積單元,網(wǎng)絡B的第2層輸出作為第12層輸入,第12層至第16層中卷積核的形狀均為3×3,卷積核個數(shù)均為256,第16層的結果利用1個3×3的卷積核進行卷積處理后,得到張量的結果;

(3)網(wǎng)絡C的結構

張量R和張量S作為網(wǎng)絡輸入,尺度均為α×o×p×3,張量T作為網(wǎng)絡輸出,尺度為α×o×p×2,α為批次數(shù)量;

網(wǎng)絡C設計為編碼和解碼結構,首先,將張量R和張量S按照最后一個通道進行拼接,獲得尺度為α×o×p×6的張量,對于所述張量經(jīng)過編碼和解碼處理后,獲得輸出張量T;

對于編碼結構,由6層編碼單元組成,每層編碼單元包含1次卷積處理,1次批歸一化處理和1次激活處理,其中第1層編碼單元采用7×7卷積核,其它層編碼單元均采用3×3卷積核,第1和3層編碼單元的卷積步長為1,其它層卷積步長均為2,對于每層編碼單元,均采用Relu函數(shù)激活,1-6層編碼單元的卷積核個數(shù)分別為16、32、64、128、256、512;

對于解碼結構,由6層解碼單元組成,每層解碼單元由反卷積單元、連接處理單元和卷積單元構成,其中反卷積單元包括反卷積處理與Relu激活處理,1-6層反卷積核的大小均為3x3,對于第1-2層解碼單元,反卷積步長為1,3-6層解碼單元的反卷積步長為2,1-6層反卷積核的個數(shù)依次為512、256、128、64、32、16,連接處理單元將編碼單元和對應解碼單元的反卷積結果連接后,輸入到卷積單元,1-5層卷積單元的卷積核大小為3x3,第6層卷積單元的卷積核大小為7x7,1-6層卷積單元的卷積步長均為2,將第6層的卷積結果經(jīng)過2個3x3的卷積處理后,得到結果T;

步驟3:神經(jīng)網(wǎng)絡的訓練

分別將數(shù)據(jù)集D、數(shù)據(jù)集E和數(shù)據(jù)集G中樣本按照9:1劃分為訓練集和測試集,訓練集中數(shù)據(jù)用于訓練,測試集數(shù)據(jù)用于測試,在下列各步驟訓練時,分別從對應的數(shù)據(jù)集中獲取訓練數(shù)據(jù),統(tǒng)一縮放到分辨率p×o,輸入到對應網(wǎng)絡中,迭代優(yōu)化,通過不斷修改網(wǎng)絡模型參數(shù),使得每批次的損失達到最小;

在訓練過程中,各損失的計算方法:

內部參數(shù)監(jiān)督合成損失:在自然圖像的網(wǎng)絡模型參數(shù)訓練中,將網(wǎng)絡A的輸出張量I作為深度,將網(wǎng)絡B的輸出結果L與訓練數(shù)據(jù)的內部參數(shù)標簽et(t=1,2,3,4)分別作為位姿參數(shù)和攝像機內部參數(shù),根據(jù)計算機視覺算法,利用圖像b和圖像d分別合成圖像c視點處的兩個圖像,利用圖像c分別與所述的兩個圖像,按照逐像素、逐顏色通道強度差之和計算得到;

無監(jiān)督合成損失:在超聲或者CT影像的網(wǎng)絡模型參數(shù)訓練中,將網(wǎng)絡B的模塊μ的輸出張量作為深度,將網(wǎng)絡B的輸出張量L和張量O分別作為位姿參數(shù)和攝像機內部參數(shù),根據(jù)計算機視覺算法,利用目標影像的兩相鄰影像分別合成目標影像視點處的影像,利用目標影像分別與所述目標影像視點處的影像,按照逐像素、逐顏色通道強度差之和計算得到;

內部參數(shù)誤差損失:利用網(wǎng)絡B的輸出結果O與訓練數(shù)據(jù)的內部參數(shù)標簽et(t=1,2,3,4)按照各分量差的絕對值之和計算得到;

空間結構誤差損失:在超聲或者CT影像的網(wǎng)絡模型參數(shù)訓練中,將網(wǎng)絡B的模塊μ的輸出張量作為深度,將網(wǎng)絡B的輸出張量L和張量O分別作為位姿參數(shù)和攝像機內部參數(shù),根據(jù)計算機視覺算法,以目標影像的視點為攝像機坐標系的原點,對目標影像進行重建,采用RANSAC算法對重建點進行空間結構的擬合,利用目標影像的每個重建點到空間幾何結構的歐式距離計算得到;

變換合成損失:在超聲或者CT影像的網(wǎng)絡模型參數(shù)訓練中,將網(wǎng)絡B的模塊μ的輸出張量作為深度,將網(wǎng)絡B的輸出張量L和張量O分別作為位姿參數(shù)和攝像機內部參數(shù),根據(jù)計算機視覺算法,利用目標影像的兩個相鄰影像合成目標影像視點處的兩個影像的過程中,對于所述合成的兩個影像中的每個影像,在得到每個像素位置后,將每個像素的坐標加上網(wǎng)絡C輸出的每個像素位移結果,得到每個像素新的位置,構成合成結果影像,利用該合成結果影像與影像j之間的逐像素、逐顏色通道強度差之和計算;

(1)在數(shù)據(jù)集D上,分別對網(wǎng)絡A及網(wǎng)絡B的模塊P訓練80000次

每次從數(shù)據(jù)集D中取出訓練數(shù)據(jù),統(tǒng)一縮放到分辨率p×o,將圖像c輸入網(wǎng)絡A,將圖像c及圖像τ輸入網(wǎng)絡B,對網(wǎng)絡B的模塊P進行訓練,每批次的訓練損失由內部參數(shù)監(jiān)督合成損失計算得到;

(2)在數(shù)據(jù)集D上,對網(wǎng)絡B的模塊Q訓練80000次

每次從數(shù)據(jù)集D中取出訓練數(shù)據(jù),統(tǒng)一縮放到分辨率p×o,將圖像c輸入網(wǎng)絡A,將圖像c及圖像τ輸入網(wǎng)絡B,對網(wǎng)絡B的模塊Q進行訓練,每批次的訓練損失由內部參數(shù)監(jiān)督合成損失和內部參數(shù)誤差損失之和計算得到;

(3)在數(shù)據(jù)集E上,對網(wǎng)絡B的模塊Q和模塊μ進行訓練80000次,進行知識蒸餾

每次從數(shù)據(jù)集E中取出超聲訓練數(shù)據(jù),統(tǒng)一縮放到分辨率p×o,將影像j及影像π輸入網(wǎng)絡B,對網(wǎng)絡B的模塊Q和模塊μ進行訓練,每批次的訓練損失計算如下:

z=v+W+χ (1)

其中,v為無監(jiān)督合成損失,W為空間結構誤差損失,常深度損失χ利用模塊μ的輸出結果的均方差計算得到;

(4)在數(shù)據(jù)集E上,按照如下步驟對網(wǎng)絡B的三個模塊訓練80000次

每次從數(shù)據(jù)集E中取出超聲訓練數(shù)據(jù),統(tǒng)一縮放到分辨率p×o,將影像j及影像π輸入網(wǎng)絡B,訓練時,通過不斷修改網(wǎng)絡B的三個模塊的參數(shù),迭代優(yōu)化,使得每批次的每幅影像的損失達到最小,每批次的訓練損失由無監(jiān)督合成損失、空間結構誤差損失和常深度損失之和組成,常深度損失利用網(wǎng)絡B的模塊μ的輸出結果的均方差計算得到;

(5)在數(shù)據(jù)集E上,對網(wǎng)絡C和網(wǎng)絡B的三個模塊訓練80000次

每次從數(shù)據(jù)集E中取出超聲影像訓練數(shù)據(jù),統(tǒng)一縮放到分辨率p×o,將影像j及影像π輸入網(wǎng)絡B,將網(wǎng)絡B的模塊μ的輸出張量作為深度,將網(wǎng)絡B輸出張量L和張量O分別作為位姿參數(shù)和攝像機內部參數(shù),分別根據(jù)影像i和影像k合成影像j視點處的兩張影像,將所述的兩張影像輸入網(wǎng)絡C,通過不斷修改網(wǎng)絡C和網(wǎng)絡B的參數(shù),迭代優(yōu)化,使得每批次的每幅影像的損失達到最小,每批次的損失計算為變換合成損失、空間結構誤差損失和常深度損失之和,其中常深度損失利用網(wǎng)絡B的模塊μ的輸出結果的均方差計算得到;

(6)在數(shù)據(jù)集E上,對網(wǎng)絡C和網(wǎng)絡B的三個模塊訓練50000次,得到模型ρ

訓練時,每次從數(shù)據(jù)集E中取出超聲影像訓練數(shù)據(jù),統(tǒng)一縮放到分辨率p×o,將影像j及影像π輸入網(wǎng)絡B,將網(wǎng)絡B的模塊μ的輸出張量作為深度,將網(wǎng)絡B輸出張量L和張量O分別作為位姿參數(shù)和攝像機內部參數(shù),分別根據(jù)影像i和影像k合成影像j視點處的兩張影像,將所述的兩張影像輸入網(wǎng)絡C,通過不斷修改網(wǎng)絡C和網(wǎng)絡B的參數(shù),迭代優(yōu)化,使得每批次的每幅影像的損失達到最小,迭代后得到最優(yōu)的網(wǎng)絡模型參數(shù)ρ,每批次的損失計算為變換合成損失和空間結構誤差損失之和;

(7)在數(shù)據(jù)集G上,對網(wǎng)絡C和網(wǎng)絡B的三個模塊訓練80000次

訓練時,每次從數(shù)據(jù)集G中取出CT影像訓練數(shù)據(jù),統(tǒng)一縮放到分辨率p×o,將影像m及影像σ輸入網(wǎng)絡B,將網(wǎng)絡B的模塊μ的輸出張量作為深度,將網(wǎng)絡B輸出張量L和張量O分別作為位姿參數(shù)和攝像機內部參數(shù),分別根據(jù)影像l和影像n合成影像m視點處的兩張影像,將所述的兩張影像輸入網(wǎng)絡C,通過不斷修改網(wǎng)絡C和網(wǎng)絡B的參數(shù),迭代優(yōu)化,使得每批次的每幅影像的損失達到最小,每批次的損失計算為變換合成損失、空間結構誤差損失、常深度損失和攝象機平移運動損失Y之和,其中,常深度損失利用網(wǎng)絡B的模塊μ的輸出結果的均方差計算得到,Y由網(wǎng)絡B的輸出位姿參數(shù),根據(jù)攝像機平移運動的約束計算得到;

(8)在數(shù)據(jù)集G上,對網(wǎng)絡C和網(wǎng)絡B的三個模塊訓練50000次,得到模型ρ′

每次從數(shù)據(jù)集G中取出CT影像訓練數(shù)據(jù),統(tǒng)一縮放到分辨率p×o,將影像m及影像σ輸入網(wǎng)絡B,將網(wǎng)絡B的模塊μ的輸出張量作為深度,將網(wǎng)絡B輸出張量L和張量O分別作為位姿參數(shù)和攝像機內部參數(shù),分別根據(jù)影像l和影像n合成影像m視點處的兩張影像,將所述的兩張影像輸入網(wǎng)絡C,通過不斷修改網(wǎng)絡C和網(wǎng)絡B的參數(shù),迭代優(yōu)化,使得每批次的每幅影像的損失達到最小,迭代后得到最優(yōu)的網(wǎng)絡模型參數(shù)ρ′,每批次的損失計算為變換合成損失、空間結構誤差損失和攝象機平移運動損失Y之和,Y由網(wǎng)絡B的輸出位姿參數(shù),根據(jù)攝像機平移運動的約束計算得到;

步驟4:超聲或者CT影像三維重建

利用自采樣的一個超聲或者CT序列影像,將每一幀影像統(tǒng)一縮放到分辨率p×o,使用模型參數(shù)ρ或者模型參數(shù)ρ′進行預測,對于超聲序列影像,將影像j及影像π輸入網(wǎng)絡B,對于CT序列影像,將影像m及影像σ輸入網(wǎng)絡B,將網(wǎng)絡B的模塊μ的輸出張量作為深度,將網(wǎng)絡B的輸出張量L和張量O分別作為位姿參數(shù)和攝像機內部參數(shù),按照下列步驟選取關鍵幀,序列中第一幀作為當前關鍵幀,依次將序列影像中的每一幀作為目標幀,根據(jù)當前關鍵幀,利用攝像機位姿參數(shù)和內部參數(shù),合成目標幀視點處的影像,利用所述合成影像與目標幀之間逐像素逐顏色通道強度差之和的大小計算誤差λ,再根據(jù)目標幀的相鄰幀,利用攝像機位姿參數(shù)和內部參數(shù),合成目標幀視點處的影像,利用所述合成影像與目標幀之間逐像素逐顏色通道強度差之和的大小計算誤差γ,進一步利用公式(2)計算合成誤差比Z,當Z大于閾值η時,1η2,將當前關鍵幀更新為此時的目標幀;

對任一目標幀,將其分辨率縮放到M×N,根據(jù)攝像機內部參數(shù),依據(jù)計算機視覺的重建算法,計算每幀影像每個像素的攝象機坐標系中的三維坐標,進一步,將第一幀的視點作為世界坐標系的原點,再結合所有關鍵幀的位姿參數(shù),利用三維空間幾何變換,計算得到該序列每一幀影像每個像素的世界坐標系中的三維坐標。

下載完整專利技術內容需要扣除積分,VIP會員可以免費下載。

該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于華東師范大學,未經(jīng)華東師范大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業(yè)授權和技術合作,請聯(lián)系【客服

本文鏈接:http://www.szxzyx.cn/pat/books/202011621388.9/1.html,轉載請聲明來源鉆瓜專利網(wǎng)。

×

專利文獻下載

說明:

1、專利原文基于中國國家知識產(chǎn)權局專利說明書;

2、支持發(fā)明專利 、實用新型專利、外觀設計專利(升級中);

3、專利數(shù)據(jù)每周兩次同步更新,支持Adobe PDF格式;

4、內容包括專利技術的結構示意圖流程工藝圖技術構造圖

5、已全新升級為極速版,下載速度顯著提升!歡迎使用!

請您登陸后,進行下載,點擊【登陸】 【注冊】

關于我們 尋求報道 投稿須知 廣告合作 版權聲明 網(wǎng)站地圖 友情鏈接 企業(yè)標識 聯(lián)系我們

鉆瓜專利網(wǎng)在線咨詢

周一至周五 9:00-18:00

咨詢在線客服咨詢在線客服
tel code back_top
主站蜘蛛池模板: 精品国产一级| 精品久久二区| 国产精品伦一区二区三区级视频频 | 国产一区二区二| 国产精品久久91| 亚洲色欲色欲www| 91精品国产高清一二三四区| 日韩av在线中文| 日韩欧美中文字幕精品| 久久一区二区精品| 爱看av在线入口| 亚洲精品456| 91国偷自产一区二区介绍| 国产精品亚洲二区| 高清国产一区二区三区| 一本一道久久a久久精品综合蜜臀 国产三级在线视频一区二区三区 日韩欧美中文字幕一区 | 国产在线不卡一区| 久久久久久久久久国产精品| 亚洲欧美国产精品久久| 国产在线拍偷自揄拍视频| 国产欧美一区二区三区沐欲| 午夜国产一区二区三区| 97国产婷婷综合在线视频,| 国产91免费在线| 狠狠色丁香久久综合频道| 97视频一区| 午夜精品一区二区三区aa毛片| 狠狠色依依成人婷婷九月| 亚洲欧洲国产伦综合| 欧美日韩亚洲另类| xxxx18hd护士hd护士| 午夜色大片| 国模少妇一区二区三区 | 久久国产精品广西柳州门| 色婷婷精品久久二区二区我来| 欧美日韩一区不卡| 国产精品精品视频一区二区三区| 精品国产一区二区在线| 久久er精品视频| 88国产精品视频一区二区三区| 7777久久久国产精品| 亚洲欧美一区二区三区1000| 欧美日韩国产一级| 亚洲国产精品国自产拍久久| 国产无套精品久久久久久| 久久一区欧美| 99精品视频一区| 国产伦精品一区二| 中文字幕国内精品| 亚洲精品国产91| 在线视频不卡一区| 免费观看又色又爽又刺激的视频| 国产91刺激对白在线播放 | 午夜色大片| 狠狠色噜噜狠狠狠狠777| 一色桃子av| 国产日本一区二区三区| 中文字幕日本精品一区二区三区| 欧美一区二区三区国产精品| 午夜国内精品a一区二区桃色| 亚洲免费永久精品国产| 国产一区亚洲一区| 日本一区中文字幕| 国产免费区| 欧美日韩国产精品一区二区| 一区二区欧美视频| 淫片免费看| 中文字幕在线一区二区三区| 免费看性生活片| 日韩一区高清| 亚洲精品乱码久久久久久写真| 色婷婷噜噜久久国产精品12p| 9999国产精品| 久久99精品久久久秒播| 国产精品久久久久久久久久久久冷| 欧美一区二区三区白人| 素人av在线| 欧美一区二区三区精品免费| 国产精品国产三级国产aⅴ下载| 国产亚洲精品久久久456| 色综合久久久久久久粉嫩| 欧美日韩国产一级| 午夜剧场a级免费| 日本二区在线观看| 91久久国产视频| 国产一区二区资源| 国产中文字幕91| 午夜免费片| 最新日韩一区| 日本高清不卡二区| 97涩国一产精品久久久久久久| 一级黄色片免费网站| 欧美精品久| 欧美色图视频一区| 亚洲精品乱码久久久久久麻豆不卡| 国产一区观看| 色婷婷综合久久久久中文| 久久夜色精品亚洲噜噜国产mv| 91久久精品国产91久久性色tv| 亚洲乱亚洲乱妇50p| 国产精品对白刺激在线观看| 九九热国产精品视频| 亚洲欧美国产中文字幕 | 久久久久国产精品免费免费搜索| 亚洲精品日本久久一区二区三区 | 性国产videofree极品| 国产精品亚洲一区| 精品国产91久久久久久久 | 日本一区二区电影在线观看 | 99久久婷婷国产综合精品草原| 亚洲欧美制服丝腿| 狠狠综合久久av一区二区老牛| 国产一区二区电影在线观看| 久久久久久中文字幕| 欧美三区视频| 午夜影院一区| 精品久久9999| 精品久久香蕉国产线看观看gif | 国产视频二区在线观看| 久久密av| 亚洲欧美一区二| 日韩精品久久久久久中文字幕8| 综合久久激情| 一区二区三区欧美在线| 国产乱对白刺激视频在线观看| 日韩av一区二区在线播放| 久久久精品欧美一区二区免费| 素人av在线| 国产精品视频久久久久久 | 99久久免费毛片基地| 狠狠色噜噜狠狠狠狠2021天天| 一区二区中文字幕在线| 亚日韩精品| 久久久久久亚洲精品中文字幕| 亚洲精品日日夜夜| 亚洲影院久久| 欧美在线视频精品| 国产97免费视频| 国产日韩欧美精品一区二区| 狠狠色综合久久婷婷色天使 | 国偷自产一区二区三区在线观看| 亚洲午夜精品一区二区三区电影院| 一区二区欧美精品| 欧美一区二区三区性| 狠狠色噜噜狠狠狠狠2021免费| 久久国产精品麻豆| 鲁丝一区二区三区免费观看| 国产精品无码永久免费888| 色乱码一区二区三在线看| 在线观看国产91| 精品久久一区| 国产日产欧美一区| 亚洲va国产2019| aaaaa国产欧美一区二区| 伊人精品一区二区三区| 午夜av网址| 68精品国产免费久久久久久婷婷 | 精品一区二区超碰久久久| 国产女人和拘做受视频免费| 日韩一区二区精品| 99精品久久久久久久婷婷| 国产日韩欧美综合在线| 午夜特片网| 欧美在线一级va免费观看| 欧美日韩久久一区| 久久狠狠高潮亚洲精品| 国产精品一区在线观看你懂的 | 午夜亚洲国产理论片一二三四| 97人人澡人人爽人人模亚洲| 美女被羞羞网站视频软件| 日本一区欧美| 性夜影院在线观看| 欧美日韩国产一级| 99国产精品丝袜久久久久久| 久久久精品久久日韩一区综合| 欧美一区二区精品久久911| www.日本一区| 国产1区在线观看| 国产区精品区| 午夜大片男女免费观看爽爽爽尤物| 午夜码电影| 国产人澡人澡澡澡人碰视| 国产第一区二区| 久久久999精品视频| 欧美精品一区二区久久久| 艳妇荡乳欲伦2| 亚洲精品国产一区| 日韩一区免费在线观看| 国产91白嫩清纯初高中在线| 亚洲一二三在线| 国产一区二区二| 日韩亚洲精品在线观看| 欧美亚洲国产日韩| 午夜av资源| 日韩一级片免费观看| yy6080影院旧里番乳色吐息| 91久久久久久亚洲精品禁果| 国产精品爽到爆呻吟高潮不挺| 亚洲区在线| 国产日韩欧美中文字幕| 日韩一级视频在线| 欧美hdfree性xxxx| 国产精品久久久久久久久久久久久久久久| 久久影视一区二区| 国产白嫩美女在线观看| 国产在线精品二区| 精品国产乱码久久久久久图片| 国产精品久久久久久久久久久久久久久久久久 | 久免费看少妇高潮a级特黄按摩| 精品国产区| 免费毛片a| 国产午夜一区二区三区| 欧美日韩国产色综合视频| 久久精品99国产国产| 色午夜影院| 国产品久久久久久噜噜噜狼狼| 国产片91| 国产一区二区高清视频| 午夜天堂在线| 日本高清二区| 午夜精品在线观看| 亚洲欧美日韩国产综合精品二区| 97人人澡人人爽91综合色| 91精品黄色| 强制中出し~大桥未久在线播放 | 国产一区二区三区伦理| 欧美乱大交xxxxx古装| 国产日韩欧美网站| 日韩av中文字幕在线免费观看| 97久久超碰国产精品红杏| 999国产精品999久久久久久| 国产在线一区二区视频| 国产极品美女高潮无套久久久| 精品婷婷伊人一区三区三| 精品国产一区二区在线| 欧美一区二区三区在线免费观看| 国产精品一区二区免费| 欧美高清性xxxxhdvideos| 91看片app| 日韩毛片一区| 国产清纯白嫩初高生在线播放性色 | 国产一区二区电影在线观看| 久久久中精品2020中文| 国产网站一区二区| 国产精品99在线播放| 日韩精品免费播放|