岛国av一区二区_不卡av片_超碰997_精品国产一区二区在线_av中文天堂在线_韩国舌吻呻吟激吻原声

ITBear旗下自媒體矩陣:

一個土辦法能讓AI智商翻4倍!網(wǎng)友:居然這么好用

   時間:2026-03-03 17:34:05 來源:快科技編輯:快訊 IP:北京 發(fā)表評論無障礙通道
 

3月3日消息,“重要的事情說兩遍。”這聽起來像是玄學(xué),但確實是真的。

2026年,當(dāng)很多的人還在費盡心機(jī)設(shè)計復(fù)雜提示詞,想讓AI更好地聽懂人類需求時,谷歌研究院悄悄發(fā)布了一篇論文,提出了一個簡單到讓人意外的方法——重復(fù)提示詞,就能大幅改善大語言模型在非推理任務(wù)上的表現(xiàn)。

方法簡單到離譜:

先寫好你的需求提示詞,再把它復(fù)制一遍、粘貼在后面,直接發(fā)給AI就可以。

比如:

之前你的提示詞是:“這是我的問題”。

現(xiàn)在把它換成:“這是我的問題”“這是我的問題”,然后喂給AI。

這篇論文名為《提示重復(fù)可增強(qiáng)大語言模型非推理性能(Prompt Repetition Improves Non-Reasoning LLMs)》,它的核心結(jié)論,徹底顛覆了人們對AI提示詞設(shè)計的固有認(rèn)知。

整個論文比較長,我用AI總結(jié)了一下核心意思:

“谷歌研究團(tuán)隊發(fā)現(xiàn)了一個優(yōu)化大語言模型的簡單實用方法:在不需要模型做邏輯推理的場景下,把輸入的提示詞完整重復(fù)一遍,能明顯提升模型的回答準(zhǔn)確率,還幾乎不會增加生成內(nèi)容的長度和響應(yīng)耗時。

大模型本身無法讓提示詞里的信息相互關(guān)聯(lián),提示詞的順序還會影響回答效果,而重復(fù)提示詞能讓這些信息彼此呼應(yīng),且這個重復(fù)操作只在模型的并行預(yù)處理階段完成,不會影響后續(xù)的內(nèi)容生成。

團(tuán)隊測試了Gemini、GPT、Claude 等7個主流模型,在多項標(biāo)準(zhǔn)任務(wù)和 2個自定義任務(wù)中,無推理場景下該方法47 次提升模型性能且0次失效,自定義任務(wù)里模型準(zhǔn)確率甚至從21.33%飆升至 97.33%。

但讓模型逐步推理時,這個方法效果一般,因為推理型模型本就會自主重復(fù)部分提示詞。

實驗還證實,性能提升是因為重復(fù)提示詞本身,而非單純增加輸入長度,重復(fù)三次在部分任務(wù)中效果更好。該方法基本不改變輸出格式,能直接適配現(xiàn)有系統(tǒng),僅 Claude 處理超長內(nèi)容時延遲會稍增,是個易落地的輕量優(yōu)化方案。”

說白了,這就是我們從小聽到大的“重要的事情說兩遍”,沒想到這個樸素的道理,在AI身上同樣管用。

為了驗證這個方法是否可行,谷歌研究團(tuán)隊做了嚴(yán)謹(jǐn)測試,選取了Gemini、GPT-4、Claude、DeepSeek等7個主流大模型,在70種不同場景下展開驗證。

結(jié)果出人意料:47個場景中,AI的表現(xiàn)有明顯提升;23個場景中表現(xiàn)持平;全程沒有出現(xiàn)因為重復(fù)提示詞,導(dǎo)致AI表現(xiàn)變差的情況。

論文中設(shè)計了一項名為NameIndex的測試,具體來說,就是給AI一份包含50個名字的長名單,然后問它“第25個人叫什么名字”。

這項任務(wù)對人類來說,只要逐個數(shù)一遍就能完成,但對AI而言,要在長長的序列中精準(zhǔn)定位,難度不小。常規(guī)操作下,Gemini 2.0 Flash-Lite模型的準(zhǔn)確率只有21.3%,幾乎和瞎蒙沒區(qū)別;而使用重復(fù)提示詞的方法后,準(zhǔn)確率直接飆升到97.3%,提升幅度超過4倍,從幾乎無法使用的狀態(tài),變得近乎完美。

而且這種提升不是個例,像數(shù)學(xué)題、代碼理解這類不需要極強(qiáng)推理能力的任務(wù),重復(fù)提示詞都能帶來穩(wěn)定的效果提升。

這個看似很笨的土辦法,背后其實有明確的科學(xué)邏輯,并非什么玄學(xué)。

當(dāng)前主流的大語言模型,都采用Transformer架構(gòu),它有一個明顯的短板,只能單向閱讀。AI讀取提示詞時,就像我們看直播彈幕一樣,只能逐詞往后看,讀到前面的內(nèi)容時,根本不知道后面會講什么,很容易遺漏關(guān)鍵信息。

而重復(fù)提示詞,相當(dāng)于讓AI做了一次“虛擬重讀”(Virtual Re-reading),當(dāng)它讀第二遍內(nèi)容時,已經(jīng)對整體情況有了了解,就能借著第一遍的記憶,精準(zhǔn)抓住那些真正重要的信息,從而提高響應(yīng)的準(zhǔn)確性。

不過,這個技巧也不是萬能的,存在明顯的局限性。谷歌論文中也明確提到,它對OpenAI的o1、國產(chǎn)DeepSeek-R1這類主打深度推理(Reasoning)的模型,效果并不明顯。

原因很簡單,這類模型在給出答案之前,內(nèi)部已經(jīng)完成了類似反復(fù)琢磨的過程,這時再在外部重復(fù)提示詞,就顯得多此一舉了。

另外,如果提示詞本身已經(jīng)很長,快達(dá)到模型的上下文上限,再復(fù)制一遍,可能會導(dǎo)致AI處理速度變慢,甚至出現(xiàn)內(nèi)存溢出的情況。

除此之外,這個技巧更適合信息提取、閱讀理解這類任務(wù),要是讓AI寫小說、寫詩,重復(fù)提示詞不僅不會讓文采變好,反而可能讓AI感到困惑。

業(yè)內(nèi)人士認(rèn)為,這一研究也給大家提了個醒,優(yōu)化AI性能,未必非要依賴復(fù)雜技術(shù),有時候最樸素的方法,反而能帶來意外驚喜。

對普通用戶來說,以后遇到AI答非所問,或者處理長文檔時丟三落四的情況,不用急著花心思改寫復(fù)雜提示詞,不妨試著把自己的需求復(fù)制粘貼一遍再發(fā)送。

畢竟“重要的事情說兩遍”,這份人類幾千年來總結(jié)的智慧,在AI身上同樣適用,也能讓我們以極低的成本提升使用體驗。

網(wǎng)友評論:

“真是不可思議,如此簡單粗暴的方法居然效果這么好。這讓我不禁思考,還有多少顯而易見的技巧我們因為沒人系統(tǒng)地測試而錯過了。

對于這個領(lǐng)域來說,有點尷尬的是,“重復(fù)兩遍哈哈”竟然也算是一種合法的優(yōu)化策略。

這是一篇極具洞察力的論文。令人印象深刻的是,如此簡單的技巧竟能顯著提升非推理模型的性能。Gemini 2.0 Flash-Lite僅通過重復(fù)提示,就能在特定任務(wù)中將準(zhǔn)確率從 21.33% 提升至 97.33%,這著實令人驚嘆。

我還發(fā)現(xiàn),由于重復(fù)操作是在可并行化的預(yù)填充階段處理的,因此延遲不受影響,這一點尤其令人感興趣。感謝分享,我一定會付諸實踐。”

大家不妨都試試。

 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  爭議稿件處理  |  English Version
 
主站蜘蛛池模板: 日韩精品在线视频观看 | 三级黄色av | 天天干夜夜欢 | 91久久国产综合久久91 | 热久久最新 | 男人的天堂在线播放 | 91精品国产乱码久久久久久久久 | 欧美精品四区 | 亚洲一级大片 | 国产精品久久久久久亚洲毛片 | 国产精品久久毛片 | 久久综合久色欧美综合狠狠 | 欧美欧美欧美欧美 | 大地网资源在线观看免费高清 | 超碰97在线看| 国产精品播放 | a级片在线观看视频 | 亚洲成人福利视频 | 色妞综合网 | 色综合天天综合网国产成人网 | 欧美日韩在线影院 | 精品国产一区二区三区久久久久久 | 最新中文字幕在线观看 | 欧美精品一区二区三区四区 | 日韩精品视频在线看 | 日本免费黄色网 | 亚洲高清资源 | 91狠狠干 | 午夜天堂| 欧美色插 | 日韩欧美中文字幕在线播放 | 免费成人结看片 | 亚洲人网站 | 国内精品999| 日本免费黄色 | 在线观看的av | 丁香婷婷激情 | 91麻豆产精品久久久久久 | 99色婷婷| 日韩中文欧美 | 女人毛片 |