在最新的AI研究報道中,Google DeepMind推出了一項名為“優(yōu)化通過提示(OPRO)”的技術(shù),將大型語言模型(LLM)作為其自身提示的優(yōu)化器。該方法旨在通過自然語言描述問題,指導(dǎo)LLM生成和改進(jìn)解決方案,從而提高提示性能。
OPRO的工作方式相對簡單,使用LLM作為優(yōu)化器,但與使用數(shù)學(xué)公式不同,它采用自然語言描述優(yōu)化問題,指導(dǎo)LLM迭代生成和改進(jìn)解決方案。這對于提示優(yōu)化等問題特別有用,因為在這些情況下,梯度不容易獲取。
該技術(shù)以“元提示”作為輸入,由任務(wù)的自然語言描述以及一些問題和解決方案的示例組成。在優(yōu)化過程中,LLM基于問題描述和元提示中的先前解決方案生成候選解決方案。然后,OPRO評估這些候選解決方案的結(jié)果,并將它們與其質(zhì)量得分一起添加到元提示中。這個過程重復(fù)進(jìn)行,直到模型不再提出具有改進(jìn)得分的新解決方案。
LLM作為優(yōu)化器的一個關(guān)鍵優(yōu)勢是它們能夠處理自然語言指令,這使用戶能夠描述優(yōu)化任務(wù)而無需形式規(guī)范。例如,用戶可以指定“準(zhǔn)確性”等度量標(biāo)準(zhǔn),同時提供其他指令,如要求模型提供簡潔且普遍適用的解決方案。
OPRO還充分利用了LLM對上下文模式的識別能力,通過在元提示中包含的示例來識別優(yōu)化軌跡。這一方面是OPRO的核心魔力,因為LLM將語言視為數(shù)字令牌,可以發(fā)現(xiàn)人類觀察不到的模式。
DeepMind在線性回歸和“旅行推銷員問題”等兩個著名的數(shù)學(xué)優(yōu)化問題上測試了OPRO,并展示了在這些情況下的有望結(jié)果。然而,OPRO的真正潛力在于優(yōu)化LLM的使用,如ChatGPT和PaLM。
DeepMind的研究顯示,OPRO可以引導(dǎo)LLM優(yōu)化其自身提示,即找到最大化特定任務(wù)響應(yīng)準(zhǔn)確性的提示。例如,為了發(fā)現(xiàn)解決詞數(shù)學(xué)問題的最佳提示,一個“優(yōu)化器LLM”被給予一個包含指令和示例的元提示,其中包含優(yōu)化提示的占位符。模型生成一組不同的優(yōu)化提示,并將它們傳遞給一個“評分LLM”,該LLM在問題示例上測試它們并評估結(jié)果。最佳提示及其分?jǐn)?shù)被添加到元提示的開頭,然后重復(fù)這個過程。
研究人員使用PaLM和GPT系列的多個LLM對該技術(shù)進(jìn)行了評估,根據(jù)實驗,所有模型都能通過迭代優(yōu)化提高生成提示的性能。
雖然DeepMind尚未發(fā)布OPRO的代碼,但該技術(shù)的概念直觀且簡單,可以在幾小時內(nèi)創(chuàng)建一個自定義實現(xiàn)。這里分享一個由LlamaIndex制作的使用OPRO增強(qiáng)LLM在檢索增強(qiáng)生成(RAG)任務(wù)上性能的逐步指南感興趣的可以訪問閱讀。
OPRO是利用LLM優(yōu)化其性能的多種技術(shù)之一,這一領(lǐng)域正在積極探索各種主題,包括越獄和紅隊行動,研究人員正在不斷釋放大型語言模型的全部潛力。


產(chǎn)品與服務(wù)
聯(lián)系站長
關(guān)于我們