久久av影视,中文字幕人成乱码在线观看,日韩不卡视频在线观看,日韩精品视频在线看

首頁 > 技術(shù)知識 > 技術(shù)知識 > 保持對話繼續(xù):使用ChatGPT修復(fù)337個bug中的162個,每個0.42美元

保持對話繼續(xù):使用ChatGPT修復(fù)337個bug中的162個,每個0.42美元

發(fā)布時間:2024-05-28 16:40:11來源: 15210273549

引用

Xia C S, Zhang L. Keep the Conversation Going: Fixing 162 out of 337 bugs for $0.42 each using ChatGPT[J]. arXiv preprint arXiv:2304.00385, 2023.

論文:
https://arxiv.org/abs/2304.00385

摘要

自動程序修復(fù)(APR)旨在自動為有錯誤的程序生成補(bǔ)丁。傳統(tǒng)的 APR 技術(shù)缺乏補(bǔ)丁多樣性,因為它們嚴(yán)重依賴手工或挖掘的錯誤修復(fù)模式,并且不能輕易推廣到其他錯誤/修復(fù)類型。為了解決這一限制,最近的 APR 工作重點(diǎn)是利用現(xiàn)代大型語言模型 (LLM) 直接生成 APR 補(bǔ)丁。這種基于 LLM 的 APR 工具的工作原理是,首先構(gòu)建使用原始錯誤代碼構(gòu)建的輸入提示,然后查詢 LLM 以在錯誤位置填寫(完型式 APR)正確的代碼,或者生成一個全新的代碼片段作為修補(bǔ)。雖然基于 LLM 的 APR 工具能夠?qū)崿F(xiàn)最先進(jìn)的結(jié)果,但它仍然遵循經(jīng)典的生成和驗證 (GV) 修復(fù)范例,即首先通過從相同的初始提示中采樣來生成大量補(bǔ)丁,然后驗證每個補(bǔ)丁之后的一個。這不僅會導(dǎo)致許多不正確的重復(fù)補(bǔ)丁,而且還會錯過測試失敗以及看似合理的補(bǔ)丁中的關(guān)鍵但之前被忽略的信息。為了解決上述限制,我們提出了 ChatRepair,這是第一個完全自動化的對話驅(qū)動的 APR 方法,它將補(bǔ)丁生成與即時反饋交織在一起,以對話方式執(zhí)行 APR。 ChatRepair 首先向 LLM 提供相關(guān)測試失敗信息,然后從同一錯誤的早期修補(bǔ)嘗試的失敗和成功中學(xué)習(xí),以獲得更強(qiáng)大的 APR。對于未能通過所有測試的早期補(bǔ)丁,我們將不正確的補(bǔ)丁與其相應(yīng)的相關(guān)測試失敗信息結(jié)合起來,構(gòu)建一個新的提示,供LLM生成下一個補(bǔ)丁。這樣,我們就可以避免犯同樣的錯誤。對于通過所有測試的早期補(bǔ)丁(即合理的補(bǔ)丁),我們進(jìn)一步要求LLM生成原始合理補(bǔ)丁的替代變體。通過這種方式,我們可以進(jìn)一步借鑒早期的成功經(jīng)驗,生成更合理的補(bǔ)丁,從而增加獲得正確補(bǔ)丁的機(jī)會。雖然我們的方法是通用的,但我們使用最先進(jìn)的基于對話的 LLM – ChatGPT 來實現(xiàn) ChatRepair。我們對廣泛研究的 Defects4j 數(shù)據(jù)集的評估表明,ChatRepair 能夠在修復(fù)性能方面達(dá)到最先進(jìn)的水平,在 Defects4j 1.2 和 2.0 上分別實現(xiàn) 114 和 48 個正確修復(fù)。通過計算訪問 ChatGPT 的成本,我們可以修復(fù) 337 個錯誤中的 162 個,每個錯誤 0.42 美元!

1 引言

自動程序修復(fù) (APR) 是一種自動生成軟件錯誤補(bǔ)丁的有前途的方法。傳統(tǒng)的 APR 工具通常使用生成和驗證 (GV)范例,首先生成大量候選補(bǔ)丁,然后根據(jù)原始測試套件驗證每個補(bǔ)丁,以發(fā)現(xiàn)一組合理的補(bǔ)丁(通過所有測試)。然后將這些看似合理的補(bǔ)丁提供給開發(fā)人員,以找到正確修復(fù)潛在錯誤的正確補(bǔ)丁。傳統(tǒng)的APR技術(shù)可以分為基于模板的,基于啟發(fā)式的和基于約束的APR工具。在這些傳統(tǒng)技術(shù)中,基于模板的 APR 工具,使用手工制作或挖掘的修復(fù)模板來匹配和修復(fù)有缺陷的代碼模式,被認(rèn)為是最先進(jìn)的。然而,基于模板的工具缺乏補(bǔ)丁多樣性,因為它們無法輕松泛化到預(yù)定義模板列表之外的錯誤和模式。為了解決傳統(tǒng) APR 技術(shù)的局限性,研究人員提出了利用深度學(xué)習(xí)進(jìn)步的基于學(xué)習(xí)的 APR 方法。基于學(xué)習(xí)的方法主要基于神經(jīng)機(jī)器翻譯(NMT)或大型語言模型(LLM)。基于 NMT 的 APR 工具將修復(fù)視為一項翻譯任務(wù),通過使用歷史錯誤修復(fù)數(shù)據(jù)集訓(xùn)練 NMT 模型將有錯誤的代碼轉(zhuǎn)換為正確的代碼。然而,這種基于 NMT 的 APR 工具嚴(yán)重依賴于其訓(xùn)練數(shù)據(jù),這些數(shù)據(jù)是通過抓取開源存儲庫來進(jìn)行錯誤修復(fù)提交而獲得的。這意味著不僅訓(xùn)練數(shù)據(jù)集可能有噪音(即包含不相關(guān)的提交/更改),而且這些基于 NMT 的方法可能無法推廣到在有限的訓(xùn)練數(shù)據(jù)中未見的錯誤修復(fù)類型。

最近,研究人員開始直接利用高級LLM進(jìn)行 APR。現(xiàn)代LLM接受了數(shù)十億個開源代碼片段的訓(xùn)練,在許多與代碼相關(guān)的任務(wù)上展示了令人印象深刻的性能,并且可以學(xué)習(xí)在給定周圍上下文的情況下直接生成代碼(由于代碼自然性)。 AlphaRepair提出了第一個完形填空式(或填充式)APR 方法,其中有錯誤的代碼被刪除,并且 LLM 在給定前綴和后綴上下文的情況下直接預(yù)測正確的代碼。最近的工作還應(yīng)用基于 LLM 的 APR 來自動完成單個正確行或生成完整的固定函數(shù)。一項更廣泛的研究研究了將更大的 LLM 和不同的 LLM 架構(gòu)(即生成式和填充式)應(yīng)用于 APR,并證明基于 LLM 的 APR 工具可以在許多 APR 任務(wù)上實現(xiàn)新的最先進(jìn)的性能。同時,現(xiàn)有的基于LLM的APR渠道仍然存在以下局限性:

1)缺少測試失敗信息。當(dāng)前基于 LLM 的工具沒有考慮原始 bug 暴露測試中的豐富信息。這些信息不僅可以幫助LLM理解被測源代碼的含義,還可以通過具體的代碼片段提供幫助和提示。圖 1 顯示了錯誤修復(fù)示例以及原始測試失敗信息。我們看到解決方法是將附加字符串交換為“\\000”。對于基于 LLM 的方法來說,這可能是一個極其困難的修復(fù),因為這個獨(dú)特的字符串是這不是預(yù)訓(xùn)練期間常用的字符串,并且當(dāng)前函數(shù)上下文中也沒有其他三重字符串(“\\XXX”)的示例。然而,從測試中的失敗行和相應(yīng)的錯誤消息中,我們看到測試期望輸出包含三個零,甚至包含直接在補(bǔ)丁中使用的代碼片段(“\\000”)!LLM在處理/利用測試失敗日志等非結(jié)構(gòu)化/復(fù)雜信息方面表現(xiàn)出了強(qiáng)大的能力。如果不考慮它們,基于 LLM 的工具可能會浪費(fèi)大量時間來生成不相關(guān)的補(bǔ)丁。

2)重復(fù)采樣。當(dāng)前基于 LLM 的方法首先使用原始有缺陷的代碼構(gòu)建輸入提示,然后要求 LLM 填寫正確的代碼(即完型填空式 APR)或生成全新的固定函數(shù)。使用初始提示,基于 LLM 的技術(shù)將對 LLM 進(jìn)行多次采樣以生成許多補(bǔ)丁,類似于傳統(tǒng)的程序修復(fù) GV 范例。然而,由于每個樣本都是完全獨(dú)立的,LLM 不知道任何先前生成的補(bǔ)丁。因此,基于 LLM 的工具可能會生成許多重復(fù)或類似的補(bǔ)丁,這些補(bǔ)丁已被確定為不正確,從而浪費(fèi) API 訪問的成本或 GPU 執(zhí)行的時間。此外,這種重復(fù)采樣過程也與人類開發(fā)人員修復(fù)錯誤的方式截然不同,人類開發(fā)人員在知識的基礎(chǔ)上迭代構(gòu)建,并嘗試從之前失敗的嘗試中提出下一個可能的補(bǔ)丁。

3)對有價值的合理補(bǔ)丁的無知。除了無法使用過去的錯誤補(bǔ)丁之外,當(dāng)前基于 LLM 的 APR 工具也無法有效利用之前生成的合理補(bǔ)丁。合理的補(bǔ)丁已被證明是有價值的,因為它們通常與實際正確的補(bǔ)丁共享相似的位置。此外,我們進(jìn)一步假設(shè)合理的補(bǔ)丁可能還包括通過所有測試的關(guān)鍵代碼成分,并且還可以幫助LLM更好地學(xué)習(xí)如何通過所有測試以生成更合理的補(bǔ)丁(從而增加生成正確補(bǔ)丁的機(jī)會)。通過忽略這些有價值的合理補(bǔ)丁信息并在生成合理補(bǔ)丁后從頭開始,現(xiàn)有的基于 LLM 的 APR 可能會錯過正確修復(fù)更多錯誤的機(jī)會。

我們的工作。我們推出 ChatRepair – 一種完全自動化的對話驅(qū)動的 APR 方法,它將補(bǔ)丁生成與即時反饋交織在一起,以對話方式執(zhí)行補(bǔ)丁生成。雖然我們的想法很籠統(tǒng),但為了構(gòu)建 ChatRepair,我們使用最近開發(fā)的、當(dāng)前最先進(jìn)的基于對話的 LLM – ChatGPT,它不僅經(jīng)過數(shù)十億代碼片段的訓(xùn)練,而且還經(jīng)過設(shè)計以對話方式使用,以更好地理解說明。 ChatRepair 首先提取相關(guān)測試失敗信息作為初始提示,為 ChatGPT 提供更多 APR 上下文信息。此外,ChatRepair 進(jìn)一步從早期修補(bǔ)的失敗和成功中學(xué)習(xí)嘗試相同的錯誤以獲得更強(qiáng)大的 APR。對于未能通過所有測試的早期補(bǔ)丁,我們將不正確的補(bǔ)丁與其相應(yīng)的測試失敗信息結(jié)合起來,構(gòu)建一個新的提示,供 LLM 生成下一個補(bǔ)丁。這樣,我們就可以避免犯同樣的錯誤。對于通過所有測試的早期補(bǔ)丁(即合理的補(bǔ)丁),我們進(jìn)一步要求LLM生成原始合理補(bǔ)丁的替代變體。通過這種方式,我們可以進(jìn)一步借鑒早期的成功經(jīng)驗,生成更合理的補(bǔ)丁,從而增加獲得正確補(bǔ)丁的機(jī)會。由于我們的方法使用 ChatGPT 模型,因此我們還計算用于修復(fù)錯誤的 ChatGPT API 查詢的美元成本。令人驚訝的是,我們發(fā)現(xiàn)通過使用 ChatRepair,我們可以修復(fù) 337 個錯誤中的 162 個,每個錯誤 0.42 美元。

本文做出以下貢獻(xiàn):

維度。我們?yōu)槿詣映绦蛐迯?fù)開辟了對話驅(qū)動范例的新維度。我們的工作首次證明,我們可以有效地利用以前被忽略的測試失敗信息,以及以對話方式進(jìn)行的早期補(bǔ)丁嘗試,以提示LLM生成更正確的補(bǔ)丁。此外,我們展示了利用基于對話的LLM進(jìn)行 APR 的廣闊前景。
技術(shù)。我們使用最新的ChatGPT 模型開發(fā)了ChatRepair,這是一種完全自動化的對話驅(qū)動的APR 工具。更具體地說,我們自動提取有關(guān)初始測試失敗以及早期補(bǔ)丁嘗試的簡潔相關(guān)信息,以提示 ChatGPT 進(jìn)行有效的 APR。
評估。我們在廣泛研究的 Defects4j 1.2、2.0和 QuixBugs數(shù)據(jù)集上針對當(dāng)前最先進(jìn)的基于學(xué)習(xí)的傳統(tǒng) APR 工具評估 ChatRepair。 ChatRepair 在 Defects4j 1.2 和 2.0 上分別獲得了 114 個和 48 個正確錯誤修復(fù)(比之前的最佳基線多 15 個和 17 個)的新的最先進(jìn)修復(fù)結(jié)果。此外,我們進(jìn)行了廣泛的消融研究,以證明利用豐富的語義測試失敗信息和 ChatRepair 的對話范例進(jìn)行修復(fù)所獲得的改進(jìn)。
2 技術(shù)介紹

我們提出了 ChatRepair,一種完全自動化的對話驅(qū)動的 APR 技術(shù),它結(jié)合了多個維度的反饋信息來迭代查詢模型以生成補(bǔ)丁。 ChatRepair 不像現(xiàn)有基于 LLM 的 APR 技術(shù)那樣直接根據(jù)有缺陷的代碼生成補(bǔ)丁,而是另外提供有價值的測試失敗信息,以進(jìn)一步幫助 LLM 生成補(bǔ)丁。此外,ChatRepair 并沒有像之前基于 LLM 的 APR 技術(shù)那樣從相同的提示中連續(xù)采樣,而是跟蹤對話歷史記錄,并通過提示從先前失敗和成功的同一錯誤修補(bǔ)嘗試中進(jìn)一步學(xué)習(xí)。通過這種方式,ChatRepair 既可以避免以前的失敗,又可以在早期的成功(例如合理的補(bǔ)丁)的基礎(chǔ)上構(gòu)建更有效的 APR。因此,ChatRepair 最大限度地提高了獲得正確修復(fù)潛在錯誤的真正正確補(bǔ)丁的能力。雖然我們的方法是通用的,可以使用不同的 LLM 并應(yīng)用于各種不同的修復(fù)場景,但在這項工作中,我們使用專為對話交互設(shè)計的最先進(jìn)的 ChatGPT 模型,如圖1所示。


圖1:ChatRepair整體工作流程

2.1 初始輸入

首先,我們使用原始的bug項目和bug來構(gòu)建ChatGPT的初始提示,以啟動修復(fù)過程。我們遵循先前基于學(xué)習(xí)的APR工具,并主要關(guān)注線級修復(fù)(特別是填充或封閉型APR,因為它已被證明是最先進(jìn)的[58])。同時,ChatRepair通常也可以用于各種不同的修復(fù)場景,我們將在后面的部分中更詳細(xì)地對其進(jìn)行評估。

ChatRepair使用來自失敗測試的各種信息,包括1)它的名稱,2)觸發(fā)測試失敗的相關(guān)代碼行,以及3)產(chǎn)生的錯誤消息。失敗測試的名稱可以作為被測函數(shù)的簡短摘要。在圖2的例子中,失敗的測試是
testGreatestSubtypeUnionTypes5(),它告訴我們,我們正在測試一個與從聯(lián)合類型中確定最大子類型相關(guān)的功能。相關(guān)的測試代碼和錯誤消息給出了關(guān)于測試失敗原因的具體信息。在示例中,相關(guān)的測試代碼和錯誤消息告訴模型,我們正在比較No_OBJECT_TYPE,但源代碼函數(shù)錯誤地返回了一個None對象。這樣失敗的測試信息不僅在源代碼的功能方面為模型提供了更多的解釋,而且在預(yù)期輸出和函數(shù)使用方面提供了具體的信息,以幫助模型生成正確的修復(fù)。注意,如果有多個失敗的測試,ChatRepair只提供其中一個的信息,以保持簡潔的初始提示。最后,我們通過給model生成正確的行來替換填充位置的有bug的代碼來結(jié)束我們的初始提示。設(shè)C為輸出生成序列概率的ChatGPT,preandsufas為刪除錯誤行后的錯誤代碼的前綴和后綴,Ifillas為替換錯誤行的填充令牌,f0為構(gòu)造的失敗測試信息,Ifillas為填充指令提示符。補(bǔ)丁pgenerated可以形式化的條件概率:C(p|pre,infill,suf,f0,Ifill)

據(jù)我們所知,ChatRepair是第一個通過結(jié)合故障信息的自然語言描述(例如,代碼在此測試中失敗:{failure_test})作為輸入到強(qiáng)大的ChatGPT模型中,以純提示方法應(yīng)用這些測試失敗和錯誤消息的工作。與之前使用的修復(fù)測試執(zhí)行信息不同[61],它依賴于自定義編碼或手工制作的啟發(fā)式,通過使用ChatGPT通過提示進(jìn)行ChatRepair不僅是跨越不同編程語言但也不受測試信息類型的限制。

2.2 會話修補(bǔ)

我們首先使用創(chuàng)建的初始提示來查詢ChatGPT以獲得模型輸出并提取候選補(bǔ)丁。然后,我們轉(zhuǎn)移到方法的對話部分,我們將patch生成與測試驗證反饋交織在一起,以對話的方式提示未來的生成。每個由模型生成的補(bǔ)丁之后,都立即有一個補(bǔ)丁驗證步驟,以在測試套件上編譯和運(yùn)行補(bǔ)丁。如果補(bǔ)丁未能通過測試,我們將使用不正確的補(bǔ)丁和失敗的測試構(gòu)建詳細(xì)的反饋信息,作為下一個補(bǔ)丁生成提示的一部分。與初始提示類似,測試失敗信息可以幫助模型了解失敗原因,并為生成正確修復(fù)提供指導(dǎo)。在對話步驟中,我們進(jìn)一步將測試失敗信息與之前不正確的補(bǔ)丁結(jié)合起來,不僅可以避免生成更多類似的不正確補(bǔ)丁,還可以從前幾代的錯誤中學(xué)習(xí)。我們重復(fù)這個過程,直到生成一個通過整個測試套件的可信補(bǔ)丁。

2.3 貌似合理的補(bǔ)丁生成

在前一步之后,ChatRepair應(yīng)該獲得一個可以通過整個測試套件的貌似合理的補(bǔ)丁。然而,一個似是而非的補(bǔ)丁可能并不總是能夠正確地修復(fù)底層bug,因為測試套件可能是不完整的,因此無法覆蓋底層代碼的所有可能的預(yù)期用法。因此,開發(fā)人員必須手動檢查合理的補(bǔ)丁以確定正確的補(bǔ)丁。合理的補(bǔ)丁和最終正確的補(bǔ)丁都有一個相似的特點(diǎn):它們都可以通過整個測試套件。因此,ChatRepair不是從頭開始),而是直接利用現(xiàn)有的可信補(bǔ)丁來創(chuàng)建更可信的補(bǔ)丁。簡而言之,為了增加我們能夠生成正確補(bǔ)丁的概率,ChatRepair采用之前生成的可信補(bǔ)丁,并要求模型生成替代變體并產(chǎn)生額外的候選補(bǔ)丁。

首先,我們采用最初使用的提示符,其中包含原始的有bug的代碼功能以及有用的測試失敗信息。然后,我們在提示符后面添加生成的合理補(bǔ)丁列表。在開始時,該列表將只包含上一步中單個合理的補(bǔ)丁,但是隨著我們繼續(xù)生成額外的合理補(bǔ)丁,它會增長。接下來,我們在提示符中指出我們想要解決的任務(wù)-請生成一個替代修復(fù)行。然后,我們使用這個提示符作為ChatGPT的輸入,并獲得一個候選補(bǔ)丁,我們將再次編譯并運(yùn)行測試套件,以檢查它是否確實是另一個合理的補(bǔ)丁。我們不斷地查詢ChatGPT并更新提示符,以包含生成的新的可信補(bǔ)丁,以避免再次重復(fù)生成相同的可信補(bǔ)丁,并進(jìn)一步構(gòu)建早期的可信補(bǔ)丁。再次設(shè)C為輸出生成序列概率的ChatGPT模型,Ibe為初始提示符,Iplas為任務(wù)指令,PL<n={pl1,…,pln−1}是之前生成的可信補(bǔ)丁。生成的下一個似是而非的補(bǔ)丁可以形式化為條件概率:C(pli|I,PL<i,IPL)。

最后,我們得到一個似是而非的補(bǔ)丁列表,這些補(bǔ)丁可以交給開發(fā)人員進(jìn)行人工檢查。與之前的APR工具(僅對原始錯誤代碼進(jìn)行操作以生成補(bǔ)丁)不同,ChatRepair利用每個可能的補(bǔ)丁中額外的有用信息來獲得更多可能的補(bǔ)丁。一個合理的補(bǔ)丁通常包含有用的成分/模式,允許它通過原始測試套件;因此,ChatGPT不是從頭開始(即再次修復(fù)錯誤),而是在現(xiàn)有的可信補(bǔ)丁的基礎(chǔ)上構(gòu)建,通過其強(qiáng)大的理解指令的能力,可以獲得額外的可信補(bǔ)丁,以增加我們的最終補(bǔ)丁列表中包含修復(fù)錯誤的正確補(bǔ)丁的可能性。

技術(shù)知識更多>>

意優(yōu)科技發(fā)布三大量產(chǎn)關(guān)節(jié)方案 韓國將充電設(shè)施補(bǔ)貼與性能標(biāo)準(zhǔn)掛鉤,未達(dá)標(biāo)設(shè)備不得享受支持 ?佛瑞亞新項目簽約落地常熟,配套奇瑞新能源 奕境首款車型預(yù)告圖公布,定位家庭旗艦大六座SUV 廣汽集團(tuán):與華為合作暫不涉及渠道領(lǐng)域 比亞迪2025年菲律賓銷量達(dá)26,122輛,躍居當(dāng)?shù)剀嚻箐N量第三位 受益于機(jī)器人,現(xiàn)代汽車股價一月飆漲60% 奧迪2025年全球交付約162萬輛汽車,同比下降2.9% 小鵬今年將推4款新車,沖擊55萬-60萬銷量目標(biāo) 中汽信息研究所:建議擴(kuò)大L3在典型城市群和特定場景下的試點(diǎn)范圍 IDC:2025年華為重返中國市場第一,OPPO四季度增長超10% 華爾街日報:韓國押注“主權(quán)AI”,卻發(fā)現(xiàn)本土大模型引用中國代碼 “死了么”引發(fā)美媒關(guān)注,《連線》采訪創(chuàng)始人:被60多家投資者接觸、將整合AI 王小川押注嚴(yán)肅醫(yī)療,AI能比普通醫(yī)生強(qiáng)嗎? 榮耀AI鍵新功能曝光,一鍵啟動BOOST模式 vivo更激進(jìn)了,2億像素+100倍變焦+6510mAh,旗艦新機(jī)“一跌再跌” 2nm芯片太貴了!部分廠商下代旗艦繼續(xù)用3nm處理器 法雷奧溫嶺工廠擴(kuò)建項目正式落成并投產(chǎn) 雷諾任命新戰(zhàn)略與產(chǎn)品負(fù)責(zé)人 極豆科技完成近億元新一輪融資,國際芯片巨頭領(lǐng)投,加速汽車座艙AI技術(shù)迭代與全球化布局 車企“不務(wù)正業(yè)”,是焦慮還是遠(yuǎn)見? 耐世特亞太區(qū)智能制造總部項目在蘇州正式奠基 余承東不云游,雷軍缺席,廣州車展“寂寞到底”? 對話樂道沈斐:把純電和換電做好,根本不用做增程 仰望U8L新增平行橫移功能:至多3米 不支持自動剎停 在廣州車展期間,小米YU7 Max紫水晶首次對外展出 智元機(jī)器人推出靈心平臺:用戶可零代碼定制機(jī)器人“靈魂”與人設(shè) 蘋果與OpenAI恩怨加深:硬件部門遭全方位挖角,小程序抽成目標(biāo)不只是騰訊 3D打印鈦金屬殼,蘋果新工藝太炸裂了:不只是改變手表 Meta內(nèi)部文件:1年靠詐騙廣告賺約160億美元 每日曝光150億則
久久av影视,中文字幕人成乱码在线观看,日韩不卡视频在线观看,日韩精品视频在线看
国产精品亲子伦av一区二区三区| 91精品国产自产观看在线| 亚洲精品无播放器在线播放| 国产精品人人爽人人做我的可爱| 欧美 日韩 国产一区二区在线视频 | 日韩欧美一区二区三区在线视频| 精品72久久久久中文字幕| 久久天堂影院| 亚洲女同av| 福利一区和二区| 国产欧洲在线| 久久精品高清| 自拍日韩欧美| av成人国产| 免播放器亚洲| 日韩一区二区三区高清在线观看| 亚洲不卡视频| 91精品视频一区二区| 国产一区 二区| 欧美精品不卡| 高清不卡亚洲| 狠狠色综合网| 日韩精品一区二区三区中文| 国产精品中文字幕亚洲欧美| 国产精品九九| 日本免费一区二区三区四区| 婷婷色综合网| 日韩精品中文字幕一区二区| 久久一区视频| 久久国产影院| 中文精品电影| 国产精品传媒麻豆hd| 国语对白精品一区二区| 午夜久久黄色| 欧美性www| 亚洲精品永久免费视频| 夜夜嗨一区二区三区| 日韩精品第一| 国产成人77亚洲精品www| 日韩中文欧美| 日韩精品一二三| 国产高清亚洲| 婷婷中文字幕一区| 日韩激情啪啪| 亚洲三级欧美| 中文字幕日本一区| 欧美激情99| 亚洲精品2区| 国产亚洲一区二区三区啪| 国产精品99一区二区三| 尤物在线精品| 国产精品一区二区av日韩在线| 日韩一区二区中文| 免费久久99精品国产| 69精品国产久热在线观看| av综合电影网站| 只有精品亚洲| 国产一区二区精品福利地址| 国产精品美女久久久浪潮软件| 麻豆一区二区三区| 亚洲少妇诱惑| 精品淫伦v久久水蜜桃| 国产精品视区| 另类小说一区二区三区| 亚洲女同中文字幕| 欧美激情福利| 免费欧美在线视频| 亚洲欧洲高清| 久久国产尿小便嘘嘘| 欧美+日本+国产+在线a∨观看| 奇米狠狠一区二区三区| 欧美亚洲国产精品久久| 国产精品一区二区av日韩在线| 黄页网站一区| 欧美丰满日韩| 日本成人在线一区| 999在线观看精品免费不卡网站| 国产精品成人国产| 免费黄网站欧美| 欧美影院三区| 成人污污视频| 国产午夜一区| 亚洲精品伊人| 一本色道精品久久一区二区三区| 精品国产日韩欧美精品国产欧美日韩一区二区三区 | 亚洲精品永久免费视频| 欧美一区自拍| 亚洲免费婷婷| 午夜精品成人av| 国产欧美一区二区三区精品观看 | 久久影视三级福利片| 亚洲三级毛片| 亚洲先锋成人| 色在线视频观看| 久久久久97| 国产精品一页| 日本欧美一区二区在线观看| 亚洲综合欧美| 91精品福利| 久久久久久久久久久妇女| 国产精品videossex久久发布 | 亚洲二区三区不卡| 日韩免费久久| 91欧美国产| 久久精品国产亚洲一区二区三区| 亚洲精品黄色| 玖玖精品视频| 黄色亚洲在线| 欧美日韩国产免费观看视频| 日韩中文在线播放| 国产成人精品一区二区免费看京| 国产麻豆精品| 久久精品av麻豆的观看方式| 青青草国产成人99久久| 蜜臀av国产精品久久久久| 国产一区日韩欧美| 日韩欧美不卡| 久久精品影视| 激情自拍一区| 激情丁香综合| 午夜国产一区二区| 99在线|亚洲一区二区| 国产视频一区免费看| 亚洲经典在线| 香蕉久久久久久久av网站| 黄色亚洲大片免费在线观看| 亚洲欧洲日本mm| 亚洲少妇诱惑| 亚洲狼人精品一区二区三区| 午夜一级久久| 久久夜色精品| 日韩国产在线一| 日韩成人午夜精品| 91伊人久久| 亚洲欧美高清| 免费视频久久| 日本强好片久久久久久aaa| 日精品一区二区三区| 欧美精品三级在线| 日韩国产在线观看| 日本在线不卡视频| 久久一二三区| 亚洲涩涩av| 免费亚洲婷婷| 日韩国产精品久久久| 麻豆久久一区| 日本亚洲不卡| 中文久久精品| 在线视频精品| 日本久久二区| 老牛国内精品亚洲成av人片 | 亚洲一区欧美| 开心激情综合| 美日韩精品视频| 国产毛片一区| 国产精品毛片一区二区三区| 欧美精品二区| 99亚洲精品| 日韩精品第一| 免费不卡中文字幕在线| 日韩在线高清| 欧美激情99| 久久精品卡一| 自由日本语亚洲人高潮| 亚洲精品乱码日韩| 老司机免费视频一区二区| 日韩精品一区二区三区免费观看| 在线一区视频观看| 人人精品人人爱| 美腿丝袜在线亚洲一区| 日韩中文欧美| 亚洲专区视频| 国产欧美一区二区三区精品观看 | av日韩中文| 欧美一级专区| 国产精品sm| 亚洲h色精品| 亚洲精品影视| 日韩a一区二区| 亚洲一区不卡| 老司机精品视频网| 国产亚洲精品久久久久婷婷瑜伽| 亚洲精品高潮| 加勒比视频一区| 国产精品女主播一区二区三区| 国产欧美日韩一区二区三区四区 | 国产精品mm| 欧美成人高清| 久久激情综合网| 韩日一区二区三区| 91麻豆精品| 欧美精品一区二区三区精品| 国产精品一区二区av日韩在线| 欧美日韩中文字幕一区二区三区| 欧美一级二级三级视频| 亚洲福利一区| 欧美成人精品午夜一区二区| 特黄毛片在线观看| 欧美日韩一区二区三区不卡视频 | 天堂8中文在线最新版在线|