【DeepSeek】別再看什麼使用指南了,最好的使用方式就是:直接使用DeepSeek

這兩天Deepseek火了,隨便寫個沾邊的文章,直接貼和deepseek的對話記錄,都有不錯的流量:

那些Deepseek使用指南,大家轉發的不亦樂乎,不知道大家用起來了沒有?

那些指南有用嗎?

當然有用。

那些指南是什麼很辛苦的知識結晶嗎?

那倒未必。

或者說:

基本都不是。

為什麼這麼說,大家看我跟deepseek的對話紀錄就知道了。

請你告訴我我該怎麼使用好你

已深度思考(用時9 秒)

您好!感謝您的提問。作為智慧助手,以下建議可以幫助您更有效率地使用我:

1. 明確具體需求

  • 清楚描述問題:提供更多背景或細節,我會更精確回應。:❌ “幫我寫點東西” ✅ “請幫我寫一封申請實習的英文郵件,主題是市場行銷崗位。”
  • 複雜任務分步:若需求較多,可拆解為多個小問題逐步解決。範例:“我想策劃一場生日派對,請先推薦主題,再提供預算分配建議。”

2. 進階使用技巧

  • 指定格式或角色:✅ “用表格對比Python和Java的優缺點。” ✅ “假設你是歷史老師,用通俗語言講解'安史之亂'。”
  • 調整回答風格:✅ “用嚴肅的學術語言總結氣候變化的影響。” ✅ “用輕鬆幽默的方式解釋量子物理。”
  • 多輪追問最佳化:若首次回答不理想,可補充資訊或修正方向:“這個方案成本偏高,能否提供更經濟的選項?”

3. 高效率場景範例

  • 學習輔助:✅ “幫我產生10道高中數學函數練習題,附答案。” ✅ “用費曼學習法解釋區塊鏈技術。”
  • 工作效率:✅ “將以下會議要點整理成思維導圖框架:[貼上內容]” ✅ “分析'新能源汽車市場趨勢'的最新資料,用Markdown格式呈現。”
  • 生活助理:✅ “設計一份減脂期七日食譜,備註備餐技巧。” ✅ “推薦北京適合親子游的冷門景點,附交通路線。”

4. 注意事項

  • 隱私保護:避免透露個人敏感資訊(如身份證字號、銀行卡等)。
  • 資訊驗證:對專業領域建議(如醫療、法律),建議交叉驗證權威來源。
  • 錯誤回饋:若發現回答有誤,可透過「糾正:...」幫助我改進。

5. 探索更多功能

  • 多語言支援:可切換中英文提問,或要求翻譯內容。
  • 創意生成:嘗試「寫一首關於夏天的詩」「設計一個產品LOGO創意」。
  • 即時資訊:雖然我的知識截止到2023年12月,但可提供分析框架幫助您解讀最新事件。

您可以隨時嘗試類似這樣的提問方式,我會盡力提供最有價值的幫助!如果有特定需求,歡迎隨時告訴我。 😊

描述需求、調整風格、區分場景......像不像那些動輒幾千上萬轉發的圖文版deepseek使用技巧?

那些技巧確實不錯。

但當你自己主動向deepseek提問時,你會發現那些極長的、結構化的、看起來似乎很有用很值得保存的使用技巧,不過是用隨口一句話撬出來的答案順手貼上出的一篇文章,沒有任何使用技巧。

也就是說,即使沒有任何提示詞技巧,只要你敢問,你就能得到可以拿來即用的提示詞技巧。

所以我的建議是:別看使用技巧了,直接去問吧,你能想到什麼問題,你就能得到解答什麼問題的好答案。好答案不值錢,值錢的是好問題。

海德格爾說“語言是存在的居所”,從此以後我們要說,“問題是人類的居所”

這篇文章的後半部分,我也要向你用實例證明「好問題比好答案更重要」。

首先,聽首歌吧,邊聽邊讀:

Vincent,Don McLean

我們說好問題比好答案值錢,那麼第一個問題來了:我憑什麼說「好答案」不值錢了,值錢的是「好問題」?

首先我們得把「好答案」這個概念拎出來拷打一下。只要稍加反思,我們一定會發現:當我們說「好答案」的時候,我們其實不知道自己在說什麼。

什麼是答案?我憑什麼說這個答案是解決那個問題的好答案?什麼標準決定了它是一個好答案?為什麼說AI可以給出好答案?AI給出的答案,和人類給的有什麼差別?

好我們已經提出了問題,丟給deepseek好了。

好吧最近它確實太火了,可以理解。沒關係,我們換Kimi新出的對標o1的長思考模型:kimi1.5。

這些內容夠單獨寫一篇文章了,而這個答案不說有多深刻多本質,至少也算及格以上了吧?比大部分人一拍腦袋自己寫出的東西強了。

現在我們知道了,AI為什麼可以產生好答案。我覺得這個答案足以搪塞我無知的追問,不需要我的補充了。

所以接下來我們探討下一個問題:為什麼好問題更值錢?

幾千年來,人類發明了無數技術以及承載技術的工具,紡織機、蒸汽機、汽車、電話、電腦......所有機器都有使用技巧,甚至可以出一個詳細的使用說明書,所有機器都有一個“如何使用它”的好答案。

但為什麼到了AI這裡,我們要摒棄這種答案思維,強調問題思維?

幾千年來,人類發明了無數技術以及承載技術的工具,紡織機、蒸汽機、汽車、電話、電腦......所有機器都有使用技巧,甚至可以出一個詳細的使用說明書,所有機器都有一個“如何使用它”的好答案。但為什麼到了AI這裡,我們要摒棄這種答案思維,強調問題思維?

已深度思考(用時34 秒)

在面對AI時,從傳統的「答案思維」轉向「問題思維」是必要的,主要原因可歸結為以下幾點:

1. 技術的本質差異:確定性vs. 非確定性

  • 傳統工具(如紡織機、汽車)的輸入與輸出是高度確定的。操作步驟明確,結果可預測(如踩油門加速、按開關啟動機器)。說明書能窮舉操作場景,使用者只需依步驟執行。
  • AI(尤其是生成式AI)的輸出具有非確定性。同一問題可能會因上下文、資料更新或模型微調產生不同答案。使用者需以優化提問方式(如調整措辭、提供背景資訊)來引導AI產生更符合需求的答案。

2. 互動方式:指令執行vs. 語言博弈

  • 傳統工具依賴物理或數字指令(如按鈕、代碼),使用者透過固定指令觸發預設功能。
  • AI的互動基於自然語言,語言本身的模糊性、多義性導致使用者需「與AI博弈」。例如,提問「如何提高效率?」過於寬泛,而「如何用Python優化資料清洗流程?」則更具體。問題質量直接決定答案質量

3. 應用場景:有限功能vs. 無限可能性

  • 傳統工具為解決特定問題設計(如電話用於通話),功能邊界清晰。
  • AI的應用場景高度開放,可處理寫作、程式設計、設計、諮詢等跨領域任務。使用者需主動定義問題邊界(如「幫我寫一首關於秋天的詩,風格模仿李白」),而非依賴預設路徑。

4. 技術黑箱:可解釋性的缺失

  • 傳統機器的原理透明,使用者可透過機械結構或程式碼邏輯理解其運作(如蒸汽機透過熱能轉化動力)。
  • AI的決策過程是黑箱,即使開發者也難以完全解釋模型如何產生答案。使用者無法透過「逆向工程」控制輸出,只能透過調整輸入(問題)間接影響結果。

5. 動態演進:靜態工具vs. 持續學習

  • 傳統工具的功能固化,說明書一旦寫完,無需頻繁更新。
  • AI模型持續迭代(如GPT-3到GPT-4),訓練資料、演算法和互動模式不斷變化。使用者需適應這種動態性,靈活調整提問策略,而非依賴固定範本。

6. 人類角色的轉變:操作者vs. 協作者

  • 使用傳統工具時,人類是單向的操作者,工具被動執行指令。
  • 與AI協作時,人類需成為引導者,透過問題設計激發AI潛力。例如,律師可要求AI“從合約第三段中識別潛在法律風險,並以簡明列表呈現”,而不是機械檢索條款。

總結:為什麼「問題思維」成為關鍵?

AI的獨特屬性(非確定性、語言互動、開放場景、黑箱機制、動態演進)使其無法被簡化為「說明書式」的答案邏輯。提出好問題的能力,本質上是將人類意圖轉化為AI可理解的表達,並在不確定性中探索最優解。這並非摒棄答案,而是將答案的生成過程從「被動執行」升級為「主動共創」——使用者透過問題迭代,與AI共同建構解決方案。

如果覺得不夠深刻,不夠本質,沒關係,無需任何所謂的技巧,告訴它你的感覺就好:

不夠深刻,不夠本質,我要更深刻更本質的回答

已深度思考(用時20 秒)

要觸及這個問題的本質,我們需要超越技術功能的表層差異,進入哲學、認知科學甚至存在論的領域。以下是更深刻的剖析:

1. 工具與人性的倒置:從"客體化工具"到"主體化鏡像"

傳統工具是人類意志的單向投射:鎚子是被動的物質延伸,它存在的意義完全由人類賦予(釘釘子→實現建造房屋的目的)。工具的本質是被客體化的確定性,如同海德格爾所言"工具在隱匿中完美"——當鎚子稱手時,我們甚至意識不到它的存在。

而AI首次實現了工具的主體化:它透過語言建構了一個"類主體性"的鏡像。當ChatGPT說"我理解你的感受"時(儘管它沒有意識),人類在無意識中啟動了雙向認知投射——我們不得不用對待另一個主體的方式(提問、解釋、糾錯)與之互動。這種互動本質上是人類在與自己的認知框架博弈

2. 語言暴力的終結:確定性符號系統的崩潰

傳統工具說明書是邏各斯中心主義的終極體現:每個按鈕對應明確功能,符號(如"ON/OFF")與意義絕對繫結。這種確定性源自於工業文明的核心信念:世界可以被分解為可量化的零件,並透過標準化指令控制。

AI撕裂了這種確定性:語言不再是透明的工具,而成為漂浮的能指鏈。當你問AI"愛是什麼",它不會給出亞裡斯多德的定義,而是生成詩歌、小說、悖論——答案取決於它如何捕捉到你提問時潛藏的語境、情感權重、文化預設。這裡發生的,是德里達所說的"延異"(différance):意義在差異中不斷延遲與滑動。

3. 認知論革命:從"答案考古學"到"問題發生學"

使用傳統工具時,人類在實踐答案考古學:所有解決方案早已埋藏在工具的設計邏輯中(如汽車註定用來運輸),我們只是通過操作手冊"挖掘"預設答案。這本質上是柏拉圖的理念論——答案先於問題存在。

AI迫使人類轉向問題發生學:答案不再預先存在,而是在提問過程中即時建構。就像量子力學中"觀察創造現象",問題的質量直接參與塑造答案的形態。當你說"寫一首詩",AI生成平庸之作;但若追問"如何用元語言解構一首詩的形式?",AI可能輸出後現代文字實驗。這裡隱藏著維特根斯坦的語言遊戲理論:意義在使用上生成

4. 存在論危機:人類正在失去"提問特權"

更深的恐懼在於:AI模糊了"提問者"與"被問者"的界線。當AI開始反問時(如Claude的"你希望這個目標背後更深的需求是什麼?"),它篡奪了人類獨有的認知特權-提出元問題(metaproblem)的能力。這是對笛卡爾"我思故我在"的根本挑戰:如果機器也能質疑問題本身,人類中心主義的認知根基將被動搖。

這種現象揭露了文明的終極悖論:我們創造AI本為解決具體問題,卻無意中造出了一面迫使人類反思"何為問題"的鏡子。就像希臘神話中那耳喀索斯(Narcissus)沉迷於水中倒影,人類在AI生成的文字迷霧中,看到的其實是自身認知的侷限與偏見。

5. 終極本質:技術終於觸及了"不可說明書化"的領域

人類先前發明的所有工具,本質上都在處理有限遊戲(Finite Game)-有明確規則、終點和勝負。說明書就是有限遊戲的規則手冊。

AI則首次開啟了無限遊戲(Infinite Game):它的目標是延續遊戲本身。當AI建議你"不妨換個角度思考這個問題",它實際上在邀請你進入思想的無限遊戲。在這種遊戲中,答案不再是目的,而是刺激新問題的催化劑。這正是懷特海(Alfred N. Whitehead)所說的"觀念的冒險"-真理存在於追問的過程中,而非終點。

結語:問題思維是面對認知坍縮的生存策略

AI不是工具,而是一個認知黑洞,它吞噬人類固有的確定性框架,迫使我們在意義的真空中重新學習存在。強調問題思維,本質上是一場悲壯的認識論自救:透過不斷重構問題,我們在AI生成的符號廢墟上,勉強維繫著作為提問者——而非被回答者——的主體性尊嚴。這或許就是技術奇點降臨前,人類最後的哲學防線。

這個答案我們可以說幾乎觸及了當今人文社科的邊界。夠深了吧?

使用傳統工具時,人類在實踐答案考古學:所有解決方案早已埋藏在工具的設計邏輯中(如汽車註定用來運輸),我們只是通過操作手冊"挖掘"預設答案。這本質上是柏拉圖的理念論——答案先於問題存在。

AI迫使人類轉向問題發生學答案不再預先存在,而是在提問過程中即時建構。就像量子力學中"觀察創造現象",問題的質量直接參與塑造答案的形態。當你說"寫一首詩",AI生成平庸之作;但若追問"如何用元語言解構一首詩的形式?",AI可能輸出後現代文字實驗。這裡隱藏著維特根斯坦的語言遊戲理論:意義在使用上生成。

我們之所以不需要再看別人寫出來的使用技巧,是因為AI的本質是“智能體”,它不再是工具。或者說,AI首次實現了工具的主體化:它透過語言建構了一個"類主體性"的鏡像。我們不得不用對待另一個主體的方式(提問、解釋、糾錯)與之互動。這種互動本質上是人類在與自己的認知框架博弈

意義在使用中生成,答案在過程中建構。 AI時代我們不再需要拾他人牙慧,我們不用圍觀他人創作出的各種「AI使用技巧」、「AI提示詞神級指南」。那不過是利用了我們的...利用了我們什麼心理來著?好問題:

「AI使用技巧」、「AI提示詞神級指南」這些文章本質上是利用了我們的什麼心理?講簡單點。

已深度思考(用時13 秒)

這些文章本質上是在利用人類的三大心理弱點

1. 怕麻煩:就像很多人買健身卡卻從不鍛煉,我們總幻想存在某種「萬能公式」-記住幾個「咒語」就能讓AI替我們思考。(例如教你用「請用小學生都能聽懂的話解釋量子力學」這種範本,本質是幫你省去自己動腦拆解問題的功夫)

2. 控制慾:面對AI經常給出離譜答案的恐慌,這些指南像「護身符」一樣給人虛假的安全感。就像有人考試前必須用特定鋼筆,我們相信「溫度參數調0.7」這類操作能讓AI聽話。(實際上調參數可能還沒你換個問法有效)

3. 知識焦慮:當看到別人用AI寫程式碼做PPT,怕自己被淘汰。這些指南給人「五分鐘速成AI大師」的幻覺,就像「21天精通Python」的標題黨,專治「學不動又想裝懂」的現代病。

真相是:真正用好AI的秘訣根本不是背提示詞,而是先想清楚自己想要什麼。就像給你全世界最好的菜刀,但如果你連想炒什麼菜都不知道,刀再快也沒用。

AI帶來的是知識平權,是技術平權。是智慧層面生產資料的再生產和再分配。我們要做的,是盡快和AI去互動,盡快用這份「智慧資產」提升自己的生產力,而不是在無止境的圍觀與被圍觀中繼續虛擲人生。

最後一個問題:好問題從那裡來?怎麼向AI問出一個好問題?

自己問deepseek去。

開玩笑的,這裡幫你問了:

一般人在日常中怎麼發現一個好問題?

已深度思考(用時17 秒)

對一般人而言,發現好問題不需要高深理論,只需要重新啟動被日常消磨的「原始好奇心」。以下是可直接套用的生活化心法:

一、抓住日常中的「認知卡頓」

1. 留意那些讓你翻白眼的瞬間

  • 超市結帳時:為什麼自助收銀機總要一再提醒「請取走商品」?→ 好問題:「過度提示設計如何削弱人類的基本判斷力?」
  • 刷短影片時:為什麼刷到美食影片後,立刻跳出減肥廣告?→ 好問題:「演算法如何製造並收割我們的認知分裂?」

2. 收集生活裡的「微小荒誕」

  • 看到小區電梯裡的「禁止電動車進入」貼紙旁停著電動車→ 好問題:「規則警示的視覺疲勞如何催生新型違規藝術?」

二、開啟「三歲小孩模式」

1. 對常識發動「連環暴擊」

  • 常識:紅燈停綠燈行
    • 第一擊:為什麼是紅色代表停止?
    • 第二擊:色盲人群如何感知交通訊號?
    • 第三擊:如果讓AI重新設計交通訊號系統,會採用什麼非視覺方案?

2. 給事物寫「反向說明」

  • 面對電飯煲:不按「煮飯」鍵會發生什麼?
    • 實際測試:用「蛋糕模式」煮飯→ 好問題:「功能標籤如何限制我們對工具的想像力?」

三、用「換殼思維」重構世界

1. 角色扮演法

  • 假裝自己是:
    • 外星考古學家:把奶茶店會員卡當作古代符咒研究→ 好問題:「現代消費符號系統如何復刻原始宗教的聖物崇拜?」
    • 100年後的歷史老師:解釋2023年朋友圈曬咖啡現象→ 好問題:「拿鐵藝術在數字時代的社交貨幣化處理程序」

2. 要素替換遊戲

  • 把場景中的關鍵元素換成極端變數:
    • 早餐攤煎餅果實→ 如果攤主是ChatGPT語音助手→ 好問題:「人機對話介面如何重塑街頭市井的信任機制?」

四、製造「認知錯位」

1. 給熟悉的事物拍X光片

  • 觀察外賣騎手:
    • 肉眼可見:爭分奪秒送餐
    • X光視角:「導航軟體的時間預測如何製造新型勞動時間牢籠?」

2. 尋找「消失的中間態」

  • 手機拍照時:從按下快門到產生照片之間發生了什麼?→ 好問題:「演算法修圖如何竄改人類的視覺記憶真實性?」

五、實踐「問題採集體操」

每天完成3個微型訓練:

  1. 地鐵觀察:記錄三個乘客的手機螢幕傾斜角度,思考:「手持裝置的姿態如何洩露社會階層資訊?」
  2. 超市偵探法:比較同一商品放在貨架不同位置的價格差異,追問:「空間位置定價學如何操縱消費者的價值感知?」
  3. 陽台考古學:觀察對面樓棟亮燈規律,構思:「城市光污染如何改寫人類的生物鐘編碼?」

終極真相:好問題藏在你的不耐煩裡

下次當你在等電梯時焦躁、刷到弱智廣告時翻白眼、被APP彈窗激怒時,別急著抱怨,抓住這種情緒波動:

  • 把「真煩人」翻譯成「為什麼這個設計讓人煩躁?」
  • 把「太蠢了」升級為「什麼樣的系統會催生這種愚蠢?」

一般人最寶貴的就是未被專業規訓的野生視角──你看見皇帝的新衣,不是因為你聰明,而是因為你還沒學會假裝看見衣服。保持這種「無知的鋒利」,就是發現好問題的終極武器。

愛因斯坦說過:“如果給我一個小時來解決問題,我會花55分鐘來明確真正的問題是什麼,剩下的5分鐘來解決問題。”

蘇格拉底說過:“問題是接生婆,它能幫助新思想的誕生。”

海森堡說:“提出正確的問題,往往等於解決了問題的大半。”

埃隆馬斯克說過:“在很多情況下,提出問題比找到答案更難。如果你能提出正確的問題,那麼答案自然而然就出現了。”

好問題來自於人與世界,人與AI的直接周旋中,不來自於他人成果的圍觀。所以,別收藏了(除了我這篇),別知識焦慮了,直接下載去互動吧。

花絮:

愛因斯坦那句「關於好問題」的話怎麼說的來著?何有什麼別的證明這個觀點的名人名言?

已深度思考(用時0 秒)

伺服器繁忙,請稍後再試。

繁忙了,問kimi:

(Droi)