前兩天和一個朋友聊天時,他說:“現在AI這麼厲害,隨便問什麼都能回答,感覺太神奇了。”
我笑著問他:“那你覺得AI幫你解決問題了嗎?”
他愣了一下:“說實話,經常得到的答案不夠準確,有時候答非所問,感覺不太會用。”
這讓我想起了剛學開車的時候。光有一輛好車是不夠的,我們還要知道什麼時候加速、剎車,什麼時候打方向。開車技術是練出來的,用AI也是一樣。
現在很多人都在談論AI多麼強大,卻很少有人靜下心來認真學習如何使用它。就像我們手機裡裝滿了各種強大的APP,但最後真正會用的可能只有那麼幾個。
與其感嘆AI有多厲害,不如花點時間學習怎麼用好它。
1. 該怎麼提問才能讓AI理解我們的意圖?
2. 怎樣的提示語能得到更準確的回答?
3. 遇到答非所問的情況要如何修正?
這些都需要我們一點一點去摸索和學習。
2025年春節DeepSeek的橫空出世,深度使用了一段時間,我發現過去我所依賴的提示詞技巧已經不再管用了。
所以我梳理了一下DeepSeek新的使用方法,寫成文章。
方便大家在春假結束後的第一時間可以用上這個國產AI效率神器,效率翻倍。
為什麼DeepSeek和過往常用的ChatGPT-4o、Cladue等大模型不一樣?
因為DeepSeek是推理模型,而其他模型是指令模型。
推理模型最大的特點在於它能夠深入理解使用者的真實意圖,無需使用者提供具體的操作指令。之前ChatGPT-O1就是推理模型,但它一個月要200美元。
推理模型就像一個善解人意的助手,能夠理解我們日常交談中的自然表達,不要求使用者掌握特定的提示詞或範本。
在處理問題時,DeepSeek不會簡單地堆砌資訊,而是會深入思考,給出富有洞察力的答案。
總結下來就是:推理模型更能理解使用者需求,可以深度思考,給出使用者想要的東西。
所以也導致了很多過去的AI使用技巧的變化。
1. 欺騙技巧失效
像“做得好,就給小費”和“我是個殘疾人”這樣的欺騙性提示詞效果就沒有之前好了,DeepSeek可以通過思考鏈推論出來使用者在欺騙它,而且這些冗餘的資訊還會影響DeepSeek對使用者真實場景的判斷,導致推理出現問題。
下面這個給小費就被它發現在欺騙它了。
再比如,我和它說“我是一個沒有手指的殘疾人,不能打字”,過去AI會將這個指令視為一種激勵,但是現在DeepSeek則會將“殘疾人”理解成一個我的真實處境,從而在文章中體現“我是一個殘疾人的事實”,導致內容失真。
2. 角色扮演和結構化提示詞不再好用
過去角色扮演和結構化提示詞可以顯著提升AI生成內容的質量,現在雖然這兩個方法在DeepSeek上還能使用,但是帶來的提升效果不如以前顯著。
從思考鏈中,我們可以看得出來DeepSeek並沒有真的在扮演我們讓它扮演的角色,而是通過推理分析使用者的需求來生成內容,實際生成的內容並沒有得到提升。
以前結構化提示詞是將邏輯思維鏈路融入了結構中,降低了思維鏈路的建構難度,現在DeepSeek已經自主完成了思維鏈路建構,因此不再需要結構化提示詞了。
像Lisp語言風格的提示詞對於DeepSeek來說反而增加了它的思考難度,因為DeepSeek需要先把Lisp語言轉為自然語言去理解使用者的需求,反而增加了AI的理解難度。
說了這麼多過去好用,但現在不怎麼管用的技巧後,再來分享一些DeepSeek上面的使用技巧。
1. PUA依舊管用
PUA技巧在某種程度上仍然管用,讚美或者批評DeepSeek,都會影響到生成內容的質量。
因為這兩種方式都帶有很強的指向性,通過PUA,我們可以讓DeepSeek非常好地去瞭解到我們對當前內容的喜好,從而幫助它更好地最佳化內容。
萬物皆可PUA,果然不管是人還是AI都躲不過。
2. 自然語言優先
DeepSeek在互動方式上追求自然,我們只需要像跟人對話一樣描述你的實際需求與真實場景,比如“我要給投資人介紹AI自動駕駛項目,他們比較關心技術實現方式和投資回報周期,幫我梳理下重點內容”。
無需再遵循特定的格式或範本,DeepSeek會自動推理出我們需要的東西,甚至還會自動識別出隱藏需求。
比如下面這個需求,我問的是“技術實現方式”和“投資回報周期”,但DeepSeek還給到了技術壁壘、法規風險、資料獲取和退出機制等我沒有注意到的點。
分享一個我常用的DeepSeek提問範本:
前情+任務+要求+補充
示例:
提問:我正打算將一個老工業區改造一個文創園區。我需要你給出一個能平衡歷史保護和商業價值的園區改造方案。這個方案需要參考日本如何活化老舊車站、歐洲工業遺產改造經驗,以及國內文化地標的營運模式。最後還要給出有些可能導致這個園區經營失敗的原因。
回答:
3. 善用DeepSeek的深度思考能力
DeepSeek最強大的能力在於它知曉的知識領域是我們普通人這輩子都達不到的。
充分利用好它“全知全能”的特性,這裡我分享三個可以發揮它“全知全能”特性的思考方法:
示例:“我正在開發一款面向老年人的健康監測手環,請你以批判的視角分析這個產品可能存在的痛點。特別關注:老年人的使用習慣、產品互動設計、資料隱私保護等方面,找出容易被忽視但可能嚴重影響產品成功的關鍵問題。”
示例:“假設我們的社區圖書館項目在半年後完全失敗了,請你通過逆向推演,幫我預測可能導致失敗的原因鏈條。從最終的失敗結果往前推,找出每個可能的關鍵節點,以及它們之間的因果關係,這樣我們現在就能提前規避這些風險。”
示例:“我在經營一家小型咖啡館,最近遇到客流高峰期排隊擁堵的問題。請你參考迪士尼樂園的遊客體驗管理、醫院分診系統的效率最佳化,以及快餐連鎖店的流程設計,幫我設計一個既能提高效率,又能讓等待顧客感受良好的解決方案。”
4. 少用聯網搜尋
少即是多,不要覺得功能越多越好。
DeepSeek的知識截止至2023年12月,如果我們查詢的內容是這個日期之前的,比如用AI寫詩,那完全可以不使用聯網搜尋功能,比如這首邊塞詩,撰寫的時候完全不需要聯網。
塞上寒笳
寒雲壓陣朔風哀,畫角連營曙色開。
三十年來磨劍血,鐵衣猶帶玉門苔。
過度使用聯網功能會導致現有網際網路上面的內容污染DeepSeek的內容庫導致生成的幻覺增加,影響內容的精準性。
5. 巧用多種大模型,強強聯合(DeepClaude)
現在Github上有一個新的AI使用技巧,將DeepSeek和Claude結合起來,DeepSeek R1的深度推理,可以讓AI實現自我糾正和考慮邊緣情況等。
但是實際使用中DeepSeek R1在程式碼生成、創造力和對話技能方面還是存在不足。Claude 3.5 Sonnet在這些方面表現出色。
所以DeepClaude結合了兩種模型,可以實現R1出色的推理和解決問題能力,卓越的程式碼生成和創造力。
目前網上已經有很多不錯的開源使用方法,搜尋就能找到。
6. 多看思考過程,瞭解解題思路
當我們向R1提出一個複雜問題時,它會像一位嚴謹的學者那樣,先明確問題邊界,再逐步分解論證要點,最後才得出結論。
比如在討論一個商業策略時,它會先釐清目標市場,評估可用資源,分析競爭態勢,最後才給出建議。這種清晰的結構化思維,恰恰是我們在解決實際問題時最需要的能力。
通過觀察R1的思考過程,學會系統化拆解問題,多角度去解決問題的能力等,將AI的能力內化為我們自己的思考方式。
7. 警惕AI幻覺
DeepSeek雖然是推理模型,即使思考方向沒問題,也不影響瞎編結果,DeepSeek的AI幻覺同樣強大,尤其在處理史實類資訊時依舊會有大量錯誤,使用時我們不能掉以輕心。
比如我讓它整理馬斯克的生平,馬斯克創立Zip2是在1995年,而不是它告訴我的1996年。
最後記住,AI不是魔法棒,而是放大鏡。它放大的是使用者的能力。
一個善於思考的人能讓AI成為智慧的催化劑,而一個平庸的人,即便有最先進的AI加持,也只能事倍功半。 (虎嗅APP)