丝袜美腿美女被狂躁动态图片|麻豆视频免费在线观看|欧美日韩精品一区二区|天天爽亚洲中文字幕|久久久久九九精品影院|久久一区二区三区四区|人妻内射一区二区在线视频

丝袜美腿美女被狂躁动态图片|麻豆视频免费在线观看|欧美日韩精品一区二区|天天爽亚洲中文字幕|久久久久九九精品影院|久久一区二区三区四区|人妻内射一区二区在线视频

Internet Develppment
互聯(lián)網(wǎng)開(kāi)發(fā)& 推廣服務(wù)提供商

我們擅長(cháng)商業(yè)策略與用戶(hù)體驗的完美結合。

歡迎瀏覽我們的案例。

首頁(yè) > 新聞中心 > 新聞動(dòng)態(tài) > 正文

特斯拉AI主管新作:用當前深度學(xué)習技術(shù)復現LeCun 33年前手寫(xiě)數字識別論文

發(fā)布時(shí)間:2022-03-19 11:12:17來(lái)源:網(wǎng)易科技

  我認為 Yann LeCun 等人于 1989 年發(fā)表的論文「反向傳播應用于手寫(xiě)郵政編碼識別」(Backpropagation Applied to Handwritten Zip Code Recognition),具有相當重要的歷史意義,因為據我所知,這是最早用反向傳播機制端到端訓練的神經(jīng)網(wǎng)絡(luò )在現實(shí)生活中的應用。

  除了其使用的微型數據集(7291 個(gè) 16x16 的灰度數字圖像)和微型神經(jīng)網(wǎng)絡(luò )(僅 1000 個(gè)神經(jīng)元)顯得落伍之外,在 33 年后的今天,這篇論文讀來(lái)仍然十分新穎——它展示了一個(gè)數據集,描述了神經(jīng)網(wǎng)絡(luò )結構、損失函數、優(yōu)化器,并報告了在訓練集和測試集上實(shí)驗得到的錯誤率。

  除了時(shí)光已流逝 33 年,這篇文章仍是一篇標準的深度學(xué)習論文。因此,我此次復現這篇論文,一是為了好玩,二是將這次練習作為一個(gè)案例來(lái)研究深度學(xué)習進(jìn)展的本質(zhì)。

  實(shí)施細節

  我試著(zhù)盡可能與這篇論文保持一致,并用 PyTorch 復現了 GitHub repo 上 karpathy/lecun1989-repro 中的所有內容。

  最初的網(wǎng)絡(luò )部署在 Lisp 上,使用 Bottou 和 LeCun 1988 年發(fā)表的「backpropagation simulator SN(后來(lái)命名為 Lush)」。

  這篇論文是用法語(yǔ)寫(xiě)的,所以我沒(méi)有更好地理解它,但從結構上來(lái)看,你可以使用更高級的 API 來(lái)構造神經(jīng)網(wǎng)絡(luò ),就像你今天在 PyTorch 上搭建各式各樣的項目那樣。

  作為軟件設計的簡(jiǎn)要說(shuō)明,現代程序庫采用了一種分為 3 部分的設計:

  1)一個(gè)高速(C/CUDA)通用張量庫,能在多維張量上實(shí)現基本的數學(xué)運算;

  2)一個(gè)自動(dòng)求導引擎,能跟蹤正向計算特征,并能提供反向傳播操作;

  3)可編程(Python)的深度學(xué)習編碼器,高級的 API,需要包含常見(jiàn)的深度學(xué)習操作,比如構建層、架構、提供優(yōu)化器、損失函數等。

  訓練細節

  在訓練過(guò)程中,我們必須在有 7291 個(gè)示例的訓練集上訓練 23 個(gè)周期,總共向神經(jīng)網(wǎng)絡(luò )傳送了 167693 次數據(包含樣本和標簽)。最初的網(wǎng)絡(luò )在 SUN-4/260 工作站上訓練了 3 天。

  我在我的 MacBook Air(M1)CPU 上運行了我的實(shí)現,并在大約 90 秒的時(shí)間內完成了運行(約 3000 倍的顯著(zhù)提速)。

  我的 conda 設置為使用本機 AMD64 版本,而不是 Rosetta 仿真。如果 Pytorch 支持 M 1(包括 GPU 和 NPU)的全部功能,加速可能會(huì )更顯著(zhù),但這似乎仍在開(kāi)發(fā)中。

  我還天真地嘗試在一張 A100 GPU 上運行代碼,但實(shí)際上訓練速度更慢了,很可能是因為網(wǎng)絡(luò )太小了(4 個(gè)卷積層,最多 12 個(gè)通道,總共 9760 個(gè)參數,64 K 位址量,1 K 激活值),SGD 每次只能使用一個(gè)樣本。

  這就是說(shuō),如果真的想用現代硬件(A100)和軟件基礎設施(CUDA、PyTorch)解決這個(gè)問(wèn)題,我們需要用每個(gè)樣本的 SGD 過(guò)程來(lái)交換完整的批量訓練,以最大限度地提高 GPU 利用率,并很可能實(shí)現另一個(gè)約 100 倍的訓練耗時(shí)提速。

  復現 1989 年的表現

  原論文展示的結果如下:

  eval: split train. loss 2.5e-3. error 0.14%. misses: 10

  eval: split test . loss 1.8e-2. error 5.00%. misses: 102

  而我的復現代碼在同時(shí)期的表現如下:

  eval: split train. loss 4.073383e-03. error 0.62%. misses: 45

  eval: split test . loss 2.838382e-02. error 4.09%. misses: 82

  由此可見(jiàn),我只能粗略地再現這些結果,卻不能做到完全一樣??杀氖?,很可能永遠無(wú)法進(jìn)行精確復現了,因為我認為原始數據集已經(jīng)被遺棄在了時(shí)間的長(cháng)河中。

  相反,我不得不使用更大的 MNIST 數據集(哈哈,我從沒(méi)想過(guò)我會(huì )用「大」來(lái)形容它)來(lái)模擬它,取其 28x28 位,通過(guò)雙線(xiàn)性插值將其縮小到 16x16 像素,并隨機地從中提取合理數量的訓練集和測試集樣本。

  但我相信還有其他罪魁禍首。例如,這篇論文對權重初始化方案的描述有點(diǎn)過(guò)于抽象,我懷疑 PDF 文件中存在一些格式錯誤,例如,刪除點(diǎn)「.」讓「2.5」看起來(lái)像「2 5」,并且有可能(我想是吧?)刪除了平方根。

  例如,我們被告知權重初始值是從均勻的「2 4/F」中提取的,其中 F 是扇入,但我猜這肯定是(我猜的)指「2.4/sqrt(F)」,其中 sqrt 有助于保持輸出的標準偏差。

  網(wǎng)絡(luò )的 H1 層和 H2 層之間的特定稀疏連接結構也被忽略了,論文只是說(shuō)它是“根據一個(gè)在這里不會(huì )被討論的方案選擇的”,所以我不得不在這里做出一些合理的猜測,比如使用重疊塊稀疏結構。

  論文還聲稱(chēng)使用了 tanh 非線(xiàn)性,但我想這實(shí)際上可能是映射 ntanh(1)=1 的「標準化 tanh」,并可能添加了一個(gè)按比例縮小的跳躍連接,這是在當時(shí)很流行的操作,以確保 tanh 平滑的尾部至少有一點(diǎn)梯度。

  最后,本文使用了「牛頓算法的一個(gè)特殊版本,它使用了 Hessian 的正對角近似值」,但我只使用了 SGD,因為它非常簡(jiǎn)單,更何況根據本文,「人們認為該算法不會(huì )帶來(lái)學(xué)習速度的巨大提高」。

  坐上時(shí)光車(chē)「作弊」

  這是我最喜歡的部分。

  想一下,相比于 1989,我們已經(jīng)在未來(lái)生活了 33 年,這時(shí)的深度學(xué)習是一個(gè)非?;鸨难芯款I(lǐng)域。 利用我們的現代理解和 33 年來(lái)的研發(fā)技術(shù)積累,我們能在原有成果的基礎上提高多少?

  我最初的結果是:

  eval: split train. loss 4.073383e-03. error 0.62%. misses: 45 eval: split test . loss 2.838382e-02. error 4.09%. misses: 82

  歸到目標 -1(負類(lèi))或 +1(正類(lèi))的任務(wù),輸出神經(jīng)元同樣也具有 tanh 非線(xiàn)性。 所以我刪除了輸出層上的 tanh 以獲得類(lèi)別 logit,并在標準(多類(lèi))交叉熵損失函數中交換。 這一變化極大地改善了訓練錯誤,在訓練集上直接過(guò)擬合了,結果如下:

  eval: split train. loss 9.536698e-06. error 0.00%. misses: 0 eval: split test . loss 9.536698e-06. error 4.38%. misses: 87

  其次,根據我的經(jīng)驗,一個(gè)經(jīng)過(guò)微調的 SGD 可以很好地工作,但現代的 Adam 優(yōu)化器(當然,學(xué)習率為 3e-4)幾乎總是作為一個(gè)強大的 baseline,幾乎不需要任何調整。 因此,為了提高我對優(yōu)化不會(huì )影響性能的信心,我選擇了使用學(xué)習率為 3e-4 的 AdamW,并在訓練過(guò)程中逐步將其降至 1e-4,結果如下:

  eval: split train. loss 0.000000e+00. error 0.00%. misses: 0 eval: split test . loss 0.000000e+00. error 3.59%. misses: 72

  由于仍然出現了嚴重的過(guò)度擬合,我隨后介紹了一種簡(jiǎn)單的數據增強策略,將輸入圖像水平或垂直移動(dòng)最多 1 個(gè)像素。 然而,由于這模擬了數據集大小的增加,我還必須將訓練周期數數從 23 次增加到 60 次(我已經(jīng)驗證過(guò)在原始設置中單純地增加通過(guò)次數并不能顯著(zhù)改善結果):

  eval: split train. loss 8.780676e-04. error 1.70%. misses: 123 eval: split test . loss 8.780676e-04. error 2.19%. misses: 43

  數據增強是一個(gè)相當簡(jiǎn)單且非常標準的概念,用于克服過(guò)度擬合,但我在 1989 年的論文中沒(méi)有找到它,也許它是一個(gè) 1989 年后才有的創(chuàng )新(我猜的)。

  由于我們仍然有點(diǎn)過(guò)擬合,我在工具箱中找到了另一個(gè)現代工具,Dropout。 我在參數最多的層(H 3)前加了一個(gè) 0.25 的弱衰減。

  因為 dropout 將激活設置為零,所以將其與激活范圍為 [-1, 1] 的 tanh 一起使用沒(méi)有多大意義,所以我也將所有非線(xiàn)性替換為更簡(jiǎn)單的 ReLU 激活函數。 因為 dropout 在訓練中會(huì )帶來(lái)更多的噪音,我們還必須訓練更長(cháng)的時(shí)間,增加至最多 80 個(gè)訓練周期,但結果卻變得十分喜人:

  eval: split train. loss 2.601336e-03. error 1.47%. misses: 106 eval: split test . loss 2.601336e-03. error 1.59%. misses: 32

  我驗證了在原來(lái)的網(wǎng)絡(luò )中僅僅交換 tanh->relu 并沒(méi)有帶來(lái)實(shí)質(zhì)性的收益,所以這里的大部分改進(jìn)都來(lái)自于增加了 dropout。

  總之,如果我能時(shí)光旅行到 1989 年,我將能夠減少大約 60% 的錯誤率,使我們從約 80 個(gè)錯誤減少到約 30 個(gè)錯誤,測試集的總體錯誤率約為 1.5%。

  這并不是完全沒(méi)有代價(jià)的,因為我們還將訓練時(shí)間增加了近 4 倍,這將使 1989 年的訓練時(shí)間從 3 天增加到近 12 天。但推理速度不會(huì )受到影響。

  剩下的測試失敗樣本如下所示:

  更進(jìn)一步

  然而,在替換 MSE->Softmax,SGD->AdamW,添加數據增強,dropout,交換 tanh→relu 之后,我開(kāi)始逐漸減少依賴(lài)觸手可得的技巧。

  我嘗試了更多的方法(例如權重標準化),但沒(méi)有得到更好的結果。 我還嘗試將 Visual Transformer(ViT)小型化為「 micro-ViT」,大致在參數量和計算量上與之前相符,但無(wú)法仿真 convnet 的性能。

  當然,在過(guò)去的 33 年里,我們還研究出了許多其他創(chuàng )新,但其中許多創(chuàng )新(例如,殘差連接,層/批次標準化)只適用于更大的模型,并且大多有助于穩定大規模優(yōu)化。

  在這一點(diǎn)上,進(jìn)一步的收益可能來(lái)自網(wǎng)絡(luò )規模的擴大,但這會(huì )增加測試的推斷時(shí)間。

  用數據「作弊」

  另一種提高性能的方法是擴大數據集的規模,盡管完成數據標注需要一些成本。

  我們在最初的 baseline(再次作為消融參考)上測試結果是:

  eval: split train. loss 4.073383e-03. error 0.62%. misses: 45 eval: split test . loss 2.838382e-02. error 4.09%. misses: 82

  讓 baseline 訓練 100 個(gè)周期,這已經(jīng)表明僅僅增加數據就能提高性能:

  eval: split train. loss 1.305315e-02. error 2.03%. misses: 60 eval: split test . loss 1.943992e-02. error 2.74%. misses: 54

  但進(jìn)一步將其與當代知識的創(chuàng )新(如前一節所述)結合在一起,將帶來(lái)迄今為止最好的表現:

  eval: split train. loss 3.238392e-04. error 1.07%. misses: 31 eval: split test . loss 3.238392e-04. error 1.25%. misses: 24

  總而言之,在 1989 年簡(jiǎn)單地擴展數據集將是提高系統性能的有效方法,且不需要犧牲推理時(shí)間。

  反思

  讓我們總結一下我們在 2022 年時(shí),作為一名時(shí)間旅行者考察 1989 年最先進(jìn)的深度學(xué)習技術(shù)時(shí)所學(xué)到的:

  首先,33 年來(lái)宏觀(guān)層面上沒(méi)有太大變化。我們仍在建立由神經(jīng)元層組成的可微神經(jīng)網(wǎng)絡(luò )結構,并通過(guò)反向傳播和隨機梯度下降對其進(jìn)行端到端優(yōu)化。所有的東西讀起來(lái)都非常熟悉,只是 1989 時(shí)它們的體量比較小。

  按照今天的標準,1989 年的數據集就是一個(gè)「嬰兒」:訓練集只有 7291 個(gè) 16x16 的灰度圖像。今天的視覺(jué)數據集通常包含數億張來(lái)自網(wǎng)絡(luò )的高分辨率彩色圖像(例如,谷歌有 JFT-300M,OpenAI CLIP 是在 400M 的數據集上訓練的),但仍會(huì )增長(cháng)到幾十億。這大約是此前每幅圖像約一千倍的像素信息(384*384*3/(16*16))乘以十萬(wàn)倍的圖像數(1e9/1e4),輸入的像素數據的差距約為一億倍。

  那時(shí)的神經(jīng)網(wǎng)絡(luò )也是一個(gè)「嬰兒」:這個(gè) 1989 年的網(wǎng)絡(luò )有大約 9760 個(gè)參數、64 K 個(gè)位址和 1 K 個(gè)激活值?,F代(視覺(jué))神經(jīng)網(wǎng)絡(luò )的規模通常有幾十億個(gè)小參數(1000000X)和 O(~1e12)個(gè)位址數(~1000000X),而自然語(yǔ)言模型甚至可以達到數萬(wàn)億級別的參數量。

  最先進(jìn)的分類(lèi)器花了 3 天時(shí)間在工作站上訓練,而現在在我的無(wú)風(fēng)扇筆記本電腦上訓練只需 90 秒(3000 倍原始提速),通過(guò)切換到全批量?jì)?yōu)化并使用 GPU,很可能能進(jìn)一步獲得 100 倍的提升。

  事實(shí)上,我能夠根據現代的技術(shù)創(chuàng )新調整模型,比如使用數據增強,更好的損失函數和優(yōu)化器,以將錯誤率降低 60%,同時(shí)保持數據集和模型的測試時(shí)間不變。

  僅通過(guò)增大數據集就可以獲得適度的收益。

  進(jìn)一步的顯著(zhù)收益可能來(lái)自更大的模型,這將需要更多的計算成本和額外的研發(fā),以幫助在不斷擴大的規模上穩定訓練。值得一提的是,如果我被傳送到 1989 年,我最終會(huì )在沒(méi)有更強大計算機的情況下,使模型達到改進(jìn)能力的上限。

  假設這個(gè)練習的收獲在時(shí)間維度上保持不變。2022 年的深度學(xué)習意味著(zhù)什么?2055 年的時(shí)間旅行者會(huì )如何看待當前網(wǎng)絡(luò )的性能?

  2055 年的神經(jīng)網(wǎng)絡(luò )在宏觀(guān)層面上與 2022 年的神經(jīng)網(wǎng)絡(luò )基本相同,只是更大。

  我們今天的數據集和模型看起來(lái)像個(gè)笑話(huà)。兩者都在大約上千億倍大于當前數據集和模型。

  我們可以在個(gè)人電腦設備上用大約一分鐘的時(shí)間來(lái)訓練 2022 年最先進(jìn)的模型,這將成為一個(gè)有趣的周末項目。

  今天的模型并不是最優(yōu)的,只要改變模型的一些細節,損失函數,數據增強或優(yōu)化器,我們就可以將誤差減半。

  我們的數據集太小,僅通過(guò)擴大數據集的規模就可以獲得適度的收益。

  如果不升級運算設備,并投資一些研發(fā),以有效地訓練如此規模的模型,就不可能取得進(jìn)一步的收益。

  但我想說(shuō)的最重要的趨勢是, 在某些目標任務(wù)(如數字識別)上從頭開(kāi)始訓練一個(gè)神經(jīng)網(wǎng)絡(luò )的整個(gè)過(guò)程由于過(guò)于精細化而很快變得過(guò)時(shí),特別是隨著(zhù) GPT 等基礎模型的出現。

  這些基礎模型只由少數具有大量計算資源的機構來(lái)訓練,并且大多數應用是通過(guò)輕量級的微調網(wǎng)絡(luò ),快速部署工程,數據清洗,模型蒸餾,用專(zhuān)用的推理網(wǎng)絡(luò )來(lái)實(shí)現的。

  我認為,我們應該期待這一趨勢愈發(fā)蓬勃,而且也已經(jīng)確實(shí)如此。 在最極端的推斷中,你根本不會(huì )想訓練任何神經(jīng)網(wǎng)絡(luò )。

  在 2055 年,你將要求一個(gè)千億大小的神經(jīng)網(wǎng)絡(luò )超強大腦通過(guò)用英語(yǔ)說(shuō)話(huà)(或思考)來(lái)執行一些任務(wù)。

  如果你的要求足夠清晰,它會(huì )很樂(lè )意執行的。當然,你也可以自己訓練神經(jīng)網(wǎng)絡(luò )……但你還有什么訓練的必要呢?
 ?。?a href="http://www.reeanfmc.com/wechat/">邯鄲小程序開(kāi)發(fā))

最新資訊
? 2018 河北碼上網(wǎng)絡(luò )科技有限公司 版權所有 冀ICP備18021892號-1   
? 2018 河北碼上科技有限公司 版權所有.
大学生久久香蕉国产线看观看| 国产在线日韩视频视频一区| 国产美女脱的黄的全免视频| 亚洲中文字幕AV无码区| 成人综合色在线一区二区| 一区二区三区四区五区色| 熟女肥臀白浆大屁股一区二区| 亚洲AV永久纯肉无码精品动漫| 精品国产一区91在线| 中日韩乱码卡一卡二新区| 中文字幕亚洲制服在线看| 亚洲日韩久久综合中文字幕| 被强迫各种姿势侵犯N白月视频| 国产乱对白精彩在线播放| 中文字幕永久在线播放| 91清纯白嫩的高中校花在线不卡| 久久99精品视频| 亚洲黄色视屏一级高清无码| 伊人激情AV一区二区三区| 国产成人精品午夜视频免费| 99久久久国产精品| 中文字幕邻居少妇互换| 91在线无精精品入口| 久久99久久99精品免视看动漫| 欧美1级黄片在线免费| 天天久久中文字幕精品日韩欧美| 国产欧美日韩一区二区东京热| 国产宾馆偷爱视频在线观看| 一级a一级a爰片免费免yg| 国产精品无码久久久久成人影院| 韩国伦理片手机免费观看| 亚洲欧美日韩在线观看91| 无码人妻一区二区三区免费不卡| 精品999久久久久久中文字幕| 久久人爽人人爽人人片?v| 狠狠躁夜夜躁人人爽天天不卡| 亚洲AV无码乱码一级毛片| 亚洲精品动漫免费二区| 亚洲精品天堂成人片aV| 精品久久久久久久久久久| 天天爽天天爽夜夜爽毛片| 一进一出下面喷白浆九瑶视频| 亚洲国产欧美在线人成app| 他脱了我的内裤就进去了视频| 亚洲日本乱码在线观看| 欧美亚洲国产一区二区| 午夜免费观看_视频在线观看| 国产精品成人久久久久久久| 亚洲精品久久婷婷丁香51| 久久伊人精品国产一区二区| 欲求不満の人妻松下纱荣子| np高辣h失禁尿御宅屋上课| 久久青青草原精品国产| 漂亮人妻被黑人久久精品| 欧美高清精品不卡在线观看| 五月婷精品在线视频| 日韩大片在线久草热视频| 自拍日韩亚洲一区在线| 亚洲av免费不卡精品| 国产精品国产三级国产潘金莲| 中文字幕巨大的乳专区| 香蕉免费一区二区三区| 日本午夜精品视频在线观看| 免费无码av片在线观看网站| 亚洲欧洲v国产一区二区三区| 99视频只有精品| 丁香六月激情网| 综合日韩天天久久一本| 国产精品特级露脸av毛片| 久久久久久久久久久久久久电影| 天天狠天天透天天伊人| 国产一级成人教育视频| 久久成人一区二区三区| 国产精品久久久久久无码五月| 亚洲日本欧洲aⅤ在线观看| 国产精品丝袜久久久久久不卡| 亚洲精品三区四区成人少| 日韩精品一区二区国产| 欧美一级二级片免费看a| 在线制服丝袜电影| 亚洲AV综合色区一区二区偷拍| 亚洲无码专区一区在线观看| 少妇下面好紧好爽视频| a级毛片在线观看| 亚洲欧美日韩综合一区| 亚洲欧美日韩av在线电影| 边做饭边被躁我和邻居的文字| 国产精品无码专区在线播放| 亚洲色大成网站www永久一区| 国产成人免费高潮激情视频| 污污内射久久一区二区欧美日韩| 在线观看免费福利| 精品午夜久久网成年网| 一本大道香蕉大在线欧美| 99视频只有精品| 日产精品一线二线三线在线观看| 亚洲av乱码中文一区| 一区区二区三区精品视频| 国产做爰xxxⅹ久久久精华液| 亚洲阿v天堂在线观看| 国内少妇偷人精品视频免费| 亚洲欧洲日韩不卡视频一二| 荡娃艳妇有声小说| 亚洲av手机在线观看不卡| 欧洲精品一区二区在线观看| 中文字幕精品一区二区三区在线| 亚洲永久网址在线观看| 国产精品久线在线观看精品| 国产精品一区二555| 一本大道香蕉中文在线视频| 在线观看网址国产成人| 三男挺进一女爽爽爽小说| 国产精品熟女视频一区二区| 日本高清视频色wwwwww色| 91精品国产经典在线观看| 少妇大叫太大太爽受不了| 色伦专区97中文字幕| 午夜三级a三级三点| 色综合久久天天综合| 国产欧美一区二区精品性色超碰| 三级片在线观看视频网站| 又粗又大又爽的视频| 韩国三级中文字幕电影| 初恋邻居H肉肉1v1| 久久综合另类激情人妖| 亚洲成av人片在线观看无线| 中文字幕av一区中文字幕天堂| 免费视频下载手机在线| 欧美日韩国产一区国产二区| 国产野模私拍视频一区二区| 久久久狠色一区二区三区| 色偷偷欧美一区二区三区| 国产日韩欧美中文字幕在线看| 中文无码人妻制服丝袜AⅤ久久| 一区二区三区免费在线观看av| 一本一本久久A久久精品综合麻豆| 亚洲成av人片在线观看无码| 久久爆乳精品一区二区| 国内丰满熟女出轨Videos| 亚洲日本乱码在线| 一级一片大学生高清免费观看| 久久精品国产亚洲av拍拍拍| 国产麻豆成人传媒免费观看| 无码AV免费毛片一区二区| 伊人久久大香线蕉一区二区| 亚洲AV色先锋资源电影网站| 国产一区久久久久久久久久久| 欧美性感视频免费看不卡| 一级少女免费观看电视剧全集下载安| 久久久久久久国产极品| 一本到午夜92版福利| 亚洲国产精品无码av| 午夜精品久久久久久久99芒果| 色欲av综合一区二区三区| 日韩精品无码一区二区三区| 欧美日韩精品视频二区| 综合久久久久久久久久| AV一区二区三区久久| 国产伦精品一区二区三区免| 91国偷自产中文字幕婷婷| a级片黄色电影免费观看| 亚洲Av之男人的天堂| 日韩精品一区二区三区第66| 亚洲欧美中文字幕网站大|