AI使用教程1——提示詞(3)
歐陽欣
發(fā)布于 云南 2025-02-28 · 8282瀏覽 2贊

一、優(yōu)化提示詞的三大核心策略

1. 需求表達是優(yōu)化前提

當(dāng)無法寫出優(yōu)質(zhì)提示詞時,首要任務(wù)是厘清需求本質(zhì)。有效提示詞應(yīng)完成從"下達指令"到"表達需求"的轉(zhuǎn)變。例如:

  • 模糊指令:幫我寫個教案
  • 精準(zhǔn)需求:作為初中物理教師,需要設(shè)計"浮力原理"的30分鐘實驗課,要求包含生活實例導(dǎo)入和分層實驗設(shè)計

優(yōu)化路徑
① 用5W1H法則拆解需求(Who/What/When/Where/Why/How)
② 通過思維導(dǎo)圖可視化任務(wù)結(jié)構(gòu)
③ 使用前文提到的公式組織語言

2. AI協(xié)同優(yōu)化方法論

當(dāng)基礎(chǔ)需求明確后,可借助AI工具進行提示詞優(yōu)化:

  • 反向提問法:將初始提示詞輸入AI并詢問"如何改進此提示詞?",文獻3驗證該方法可使提示詞質(zhì)量提升40%
  • 案例對比法:要求AI生成多個不同風(fēng)格的提示詞版本進行對比優(yōu)化

示例
原始提示:"分析銷售數(shù)據(jù)"
優(yōu)化后可能變成:"作為市場分析師,請用Python代碼分析2023年Q4家電品類銷售數(shù)據(jù),輸出包含環(huán)比增長率、TOP3滯銷商品、渠道占比的可視化報告,要求使用Plotly圖表并導(dǎo)出HTML文件"

 

二、多輪對話的底層運行邏輯

大模型處理對話時,會將前5-10輪對話歷史合并提交。

隨著對話次數(shù)的增多,傳入模型的內(nèi)容將會不斷變長,也就是傳入模型的Token越來越長。

但是模型的上下文長度是有限的,過長的文本會導(dǎo)致模型無法理解問題,如果輸入的上下文長度超過這個限制,模型會自動截斷超出部分的內(nèi)容,只處理剩余在限制范圍內(nèi)的內(nèi)容。

那么模型可能會忽略部分內(nèi)容,導(dǎo)致回答不完整或不準(zhǔn)確。

對于DeepSeek模型來說,支持的最大上下文長度為 128K tokens。

 

三、Token如何折算中文

DeepSeek的文檔里寫著,1 個中文字符 ≈ 0.6 個 token,那128K相當(dāng)于接近20萬漢字。

 

歐陽欣
瀏覽 8282
2
相關(guān)推薦
最新評論
贊過的人 2
評論加載中...

暫無評論,快來評論吧!