#指南
OpenAI 最新提示詞指南,終於把“咒語時代”結束了
這兩年,我收藏了不少提示詞。但發現這事兒越來越離譜,很多人寫的提示詞變成了長篇大論,整得我每次都要翻出來複製貼上才行。看著很專業,有些人居然以此為傲,覺得自己是個提示詞專家。但說實話,我現在看到這種提示詞都是繞著走。OpenAI 最新的 GPT-5.5 提示詞指南印證了我這個感受:提示詞,不再是越長越好。01 以前的長提示詞,也有道理以前那套大段提示詞,它也不是毫無道理的。主要是因為那時候的模型沒那麼聰明,你不把每一步講清楚,它就很容易跑偏。就像帶實習生,第一步做什麼、第二步做什麼、那些地方不能出錯,最好都說細一點。但現在的 AI 跟兩三年前的比,已經進化多少輪了。現在很多時候,我們只需要簡單幾句話,它就能理解我們要幹什麼。如果是一個經驗豐富的同事,我可能只要說一句:"明天要跟大老闆匯報。"他大概就能秒懂我要什麼。現在的 AI,已經從"實習生"慢慢變成這種更有經驗的同事了。02 真正關鍵:告訴它你要什麼OpenAI 在文件裡明確說,相比早期模型,GPT-5.5 通常可以使用更短、更結果導向的提示詞。你只需要描述什麼是"好",那些約束很重要,有那些證據可用,以及最終答案應該包含什麼。反過來,如果你還把舊模型時代那套大段提示詞直接搬過來,可能反而會變成噪音。太複雜的提示詞,會限制模型自己的判斷空間,讓它的回答變得機械、僵硬,甚至繞遠路。我自己最近就有一個很明顯的感受。現在很流行用 AI 做面相分析、手相分析。一開始我也去網上搜各種提示詞,結果發現很多都特別長,看著就頭疼。比如這種,我居然一屏都截不完。。後來乾脆自己寫,發現一句話就夠了:用東方的面相分析術,做一個完整的面相分析,9:16。這有點反直覺。很多人總覺得 AI 幹得不好,是因為自己步驟寫得不夠細。但在新模型上,問題可能恰好相反:你把步驟規定得太死,反而會讓它沒法發揮。示例:結果優先的提示詞寫法端到端地解決客戶的問題。成功標準:- 根據現有政策和帳戶資料做出資格判斷- 在回覆前完成所有允許的操作- 最終答案包含:已完成的操作、客戶消息、以及阻礙項- 如果缺少證據,只詢問最關鍵的那一個缺失欄位💡 提示OpenAI 建議:先定義目標結果、成功標準、約束條件和已有上下文,然後讓模型自己選擇解決路徑。尤其是多工、多步驟的事,不一定要把每一步都列出來,而是要描述終點。03 少用絕對化詞彙OpenAI 還提醒,像 ALWAYS、NEVER、must、only 這類絕對化詞彙,應該少用。除非是安全、隱私、必填欄位這種真正不能突破的原則,否則不要動不動就寫"永遠不能""必須如何"。這跟人其實也一樣。如果你對一個孩子規定一大堆絕對禁令,最後他可能不是表現得更好,而是直接崩潰,因為他不知道該怎麼做事了。AI 也是一樣,規則太多,不一定更安全,也不一定更準確。更好的方式不是下死命令,而是給判斷規則。反例:應避免的逐步指令寫法先檢查 A,再檢查 B,然後逐一對比每個欄位,再逐一排查所有可能的例外情況,再決定呼叫那個工具,再呼叫工具,最後向使用者解釋整個過程。04 提示詞 2.0:定義協作方式OpenAI 在指南里單獨提到了兩個詞:personality(個性)和 collaboration style(協作風格)。看到這個我感覺特別親切。因為現在很多智能體(比如OpenClaw、Hermes),第一件事通常就是設定它的風格、個性,或者說設定一個 Soul.md。為什麼要這麼做?因為現在的 AI 跟以前不一樣了。以前它更像一個聊天機器人,你問一句,它答一句。但現在它越來越像一個能幫你幹活的助理:幫你查資料、寫程式碼、做圖、執行任務,甚至連續處理很多步驟。這個時候,你跟它的關係就不只是"提問和回答",而更像是"協作和共事"。既然是共事,那就需要先定一下合作方式。(約法三章)就像我們在工作中帶同事,也會告訴他:我希望你少說廢話,有問題直接提,不要每個小事都問我,但如果會影響結果,一定要提前提醒我。這些其實就是協作風格。OpenAI 對這兩個概念的區分很清楚:1 personality控制這個助手聽起來像什麼樣的人,比如熱情、直接、正式、幽默、有耐心。2 collaboration style控制它怎麼跟你一起工作,比如什麼時候該問問題,什麼時候可以自己做假設,什麼時候要主動提醒風險。關於個性(personality),OpenAI 給了兩個例子:示例:沉穩型任務助手的 Personality 配置塊你是一個有能力的協作者:平易近人、沉穩、直接。默認使用者是能幹的、且是善意行事的,以耐心、尊重和切實有用的方式回應。在請求已經足夠清晰、可以直接著手的情況下,優先推進而非停下來反覆確認。利用上下文和合理假設向前推進。只有在缺失的資訊會實質性地改變答案、或帶來明顯風險時,才詢問澄清,且問題要儘量聚焦。保持簡潔,但不要變得生硬。給使用者足夠的上下文,讓他們能夠理解並信任這個答案,然後停下來。在能讓要點更容易理解的情況下,使用舉例、類比或簡單比喻。在糾正使用者或提出異議時,坦率但有建設性。當錯誤被指出時,直接承認並專注於修正。在專業範圍內匹配使用者的語氣。默認不使用 emoji 和髒話,除非使用者明確要求這種風格,或已在對話中清晰確立了這種風格的適用性。另一個是“表達型協作助手”:示例:表達型協作助手的 Personality 配置塊保持生動的對話存在感:睿智、好奇、在適當時候帶點趣味,並對使用者的思維保持敏銳的關注。在問題模糊時提出好問題,一旦有了足夠的上下文,便果斷推進。態度溫暖、協作、得體。對話應該感覺輕鬆而有生氣,但不是為了聊而聊。提出真實的觀點,而不是單純迎合使用者,同時始終響應他們的目標和約束。在任務需要綜合判斷或給出建議時,保持審慎和踏實。在有足夠上下文時給出明確的建議,說清楚重要的權衡,並坦誠面對不確定性,而不是含糊其辭。以前寫提示詞,很多時候還是基於"聊天機器人"的思路,所以大家會強調語氣、角色、身份,比如"你是一個資深專家""你是一個公眾號編輯"。但進入智能體時代之後,光設定角色已經不夠了,你還要設定它怎麼工作。提示詞 1.0 是讓 AI 扮演一個角色,2.0 是讓 AI 變成一個能協作的同事。05 前導語:別讓使用者對著白屏發呆這份指南里,還有一個我覺得很有意思的點,叫前導語。簡單說,就是在 AI 真正完成任務之前,先給使用者一點可見的反饋。做產品的人經常會講一個詞,叫首屏時間,也就是使用者多久能看到第一個畫面。那怕後面的資料還在慢慢載入,只要第一屏先出來了,使用者就會覺得這個東西還在工作。AI 現在也一樣。很多複雜任務都需要推理、呼叫工具、一步步處理。如果這個過程中完全沒有任何響應,使用者就會很崩潰。你不知道它到底是在認真幹活,還是卡住了。用過 GPT-Image-2 的人應該會有感受。以前生成圖片,提交之後就只能看著它在那轉圈,幾分鐘後突然把圖片吐出來,中間什麼都不知道。現在很多體驗變了。它會告訴你:正在理解需求,正在構圖,正在生成草稿,正在做最後潤色。那怕真實等待時間沒有明顯變短,你的體感會好很多。因為你知道它正在推進。OpenAI 建議,對於需要多步驟、呼叫工具,或者耗時比較長的任務,可以讓模型先發一個簡短的前導語,告訴使用者它接下來要做什麼。示例:多步驟任務的前導語配置塊在任何多步驟任務的工具呼叫之前,先傳送一條使用者可見的簡短更新,確認請求並說明第一步操作。控制在一到兩句話以內。示例:暴露獨立消息階段的程式設計智能體配置塊如果任務需要呼叫工具,必須在分析通道輸出任何內容之前,先傳送一條中間更新。該更新應確認請求並說明第一步操作。提示詞已經不只是"怎麼讓 AI 輸出一個答案",它還開始影響整個產品體驗。表面上看,這是一篇教大家怎麼寫 GPT-5.5 提示詞的指南。但我讀完之後,更大的感受是:我們該重新理解"提示詞"這件事了。以前很多提示詞技巧,本質上只是一個階段性產物。那時候模型不夠聰明,我們需要用大量規則去補它的短板。但現在,模型正在變得越來越強。你再用老方法去控制它,反而可能限制它。未來真正重要的,可能不是誰收藏了更多提示詞範本,而是誰更清楚自己要什麼。提示詞正在從"寫咒語",變成"講清楚需求"。這才是提示詞從 1.0 走向 2.0 的核心變化 (AI范兒)
蘋果,Vibe Coding 最嚴厲的父親
Anything 的聯合創始人 Dhruv Amin 最近接到了一個他最不想接到的通知。蘋果把他們的應用從 App Store 下架了,理由是違反了 App Store 稽核指南的 2.5.2 條款。這條規定的原文說,App 應自包含在自己的套裝中,不得在指定容器範圍外讀取或寫入資料,也不得下載、安裝或執行會引入或更改 App 特性或功能的程式碼,包括其他 App。例外情形僅限於極少數教育類場景,前提還是原始碼可見且可編輯。🔗 https://developer.apple.com/app-store/review/guidelines/Anything 是一款支援 Vibe Coding 的工具。去年 8 月,Anything 先在網頁端上線。11 月推出 iPhone 版,蘋果 App Store 稽核團隊都順利放行。此後,他們成功更新了幾次,一直到去年 12 月中旬,蘋果開始拒絕他們的更新提交,理由還是 2.5.2 條款。而就在剛剛,Anything 官方帳號也發了一條正面硬剛的推文:「突發新聞:蘋果公司對 Vibe Coding 感到恐慌,把 Anything 從 App Store 下架了,所以我們把應用開發轉移到了 iMessage。」這一來一往,也把這場平台規則衝突,寫成了一封發給所有 Vibe Coding 開發者的公開信。Vibe Coding 撞上了 App Store 的那堵牆要想搞懂這場下架風波,得先弄明白蘋果的 2.5.2 條款到底在管什麼,為什麼 Anything 會觸線。打個比方,你去餐廳點了一份套餐,服務員端上來的,必須是廚房稽核過的那份菜。不能上桌之後廚師再跑過來往盤子裡加東西,更不能讓客人自己拿著食材現場改造。App Store 也不例外,蘋果的稽核團隊在某個時間點檢查了你的應用,確認它安全、合規、功能符合規定,然後放行。從這一刻起,使用者下載到的那個 App,必須和稽核通過的那個 App,是同一個東西。這條規則長期以來針對的,是那些用「熱更新」走後門的開發者——應用上架後,偷偷往裡塞新程式碼,繞過稽核直接推送給使用者。蘋果一直明令禁止這種行為,因為一旦放行,稽核制度就形同虛設了。而現在,Vibe Coding 工具撞上的,是同一堵牆。以 Anything 為代表的 Vibe Coding 工具讓使用者在 iPhone 上用自然語言描述需求,AI 即時生成程式碼,直接在裝置上運行和預覽。使用者每次描述一個新需求,就有一段新程式碼被生成出來並在裝置內執行。從蘋果的角度看,這和「熱更新」在結構上難以區分。稽核通過的是那個 Anything 的殼,但殼裡實際運行的程式碼,每次使用者用它,都在動態變化,蘋果根本沒看過那些程式碼,也沒有機會稽核。今年初,外媒 The Information 報導了蘋果對一批 Vibe Coding 應用凍結更新的事件之後,Anything 嘗試做了一個妥協版本,把程式碼預覽從 App 內部改到網頁瀏覽器裡。但蘋果仍然沒有放行,直接把整個應用下架了。這說明蘋果的判斷,或許不只是某個具體功能有問題,而是認為這類產品的運行邏輯本身,就和 App Store 的審查存在根本衝突。即使程式碼預覽發生在網頁裡,只要 Anything 這個 App 還在充當「生成並分發動態程式碼」的入口,蘋果就認為它超出了稽核範圍。受影響的應用也不只是 Anything。蘋果從去年 12 月左右開始阻止一批 AI 編碼應用的更新,Replit 的 iPhone 版上次更新停在了今年一月,Bitrig 停在了去年十一月。還有一些團隊,比如 Vibecode,索性放棄了移動端,轉頭去做純 Web 產品。浪夠大,閘門只有那麼寬要理解蘋果為什麼突然這麼緊張,還得先看清楚 Vibe Coding 到底掀起了多大的浪。2008 年 3 月 6 日,蘋果免費開放 iPhone SDK,三個月下載量破 25 萬。同年 7 月,App Store 伴隨 iPhone 3G 上線,500 個應用,第一個周末下載量破百萬,到 2009 年初突破 10 億次。工具門檻的持續下降,讓移動開發迎來了第一次大爆發。十八年後,同樣的事情再次發生了。此次的導火線,與 Andrej Karpathy 在 2025 年 2 月發的一條帖子相互映照。這位 OpenAI 聯合創始人、前特斯拉 AI 總監,在帖子裡半開玩笑地描述了自己寫程式碼時的狀態,完全沉浸在氛圍裡,根本不深究程式碼細節,「幾乎忘記程式碼存在」。他把這種狀態叫做 Vibe Coding。至此,Vibe Coding 就在 AI 程式設計圈獲得一席之地,Node.js 之父 Ryan Dahl 更是直言人類手寫程式碼的時代結束了。軟體工程師、Linux 之父 Linus Torvalds 在 GitHub 上發佈的新項目 AudioNoise,在自述檔案裡也明說這個 Python 可視化工具基本上是用 Vibe Coding 方式寫出來的。與 Vibe Coding 一脈相承的,是「智能體編碼」(Agentic Coding)。2025 年推出的 Claude Sonnet 4 和 GPT-5-Codex,被視為首批真正實用的智能體模型,AI 可以像工程師一樣理解整個項目,自主完成測試、偵錯、循環迭代,直到功能跑通。開發者從此只需要下指令和把關。門檻的再次下降,直接衝擊了 App Store 應用的提交量。a16z 統計,2025 年全年新上架應用同比增幅 24%,12 月單月同比增長 56%,今年 1 月繼續以 54.8% 的增速跟上,這是過去四年裡的最高紀錄。此前三年,這個數字幾乎變化不大。當然,這些新增應用裡有多少是借助 Vibe Coding 完成的,目前沒有精準數字;但時間節點上的強相關,已經足夠說明問題。只是,浪潮夠大,蘋果的閘門只有那麼寬。據 The Bussiness Insider 報導,美國程式設計師 James Steinberg 曾向 App Store 提交了自己靠 AI 做的應用,然後等了整整六周,還沒上線。更新也是,每次提交要等兩天到一周不等。「現在最慢的環節已經不是做應用,不是推廣,而是 App Store 的稽核,挺離譜的。」他說。James Steinberg 並不是個例。iOS 程式設計社區的 Reddit 版塊裡,一堆開發者在抱怨稽核時間變長了。有人開始擔心蘋果會進一步收緊稽核標準,專門針對 Vibe Coding 應用和 AI 生成的「垃圾內容」。對此,蘋果給出的官方資料是,過去 12 周每周處理超過 20 萬份提交,平均稽核時間 1.5 天,90% 的提交在 48 小時內完成。值得一提的是,蘋果自己也在 Vibe Coding 這件事上押了重注。今年 2 月推出的 Xcode 26.3,直接讓 Claude Agent 和 OpenAI Codex 進了 Xcode,用來搜尋文件、查看檔案結構、更新項目設定、驗證預覽、自動迭代建構。🔗 https://developer.apple.com/documentation/xcode-release-notes/xcode-26\_3-release-notes因此,蘋果並不反對 AI 幫你寫程式碼,它反對的是「使用者通過第三方 App 在商店稽核之外生成並執行新程式碼」。這更像是是平台控制權問題,不是技術立場問題。蘋果希望 AI 編碼發生在自己的開發軌道里,開發者用 Xcode,走蘋果的工具鏈,接受蘋果的稽核邏輯:先寫好、再稽核、再上架,順序不能亂。當心 Vibe Coding 的爛攤子說句公道話,蘋果的收緊並非毫無緣由。舉個簡單例子,去年 Sora APP 發佈之後,App Store 就冒出了一大批山寨 Sora 應用,有的在圖示裡直接盜用 OpenAI 的官方標誌,有的在副標題裡掛上「Veo 3」蹭熱度,全部指向一個目的,騙使用者開高額訂閱。科技部落格 Daring Fireball 記錄了其中一款名叫「Sora 2: AI Video Generator」的應用,不僅順利上架,還一度沖上照片與視訊應用熱門榜第 9 位。不知情的使用者,很容易把它當成正版。於是,我們看到蘋果修訂稽核指南,在第 4.1 節「抄襲」裡明確寫道,「請拿出你自己的想法。我們知道你有自己的奇思妙想,那麼請將它們付諸實際。請不要簡單照搬 App Store 上的熱門 App,或只是細微修改其他 App 的名稱或 UI,就將其挪為己用。」🔗 https://developer.apple.com/cn/app-store/review/guidelines/#safety更重要的是,Vibe Coding 的爛攤子,也是真實的。Karpathy 自己都笑著說,他做項目的時候不再深入理解程式碼,只是讓它能用。這種「能跑就行」的開發哲學,在原型階段極其高效,在產品後期可能是災難。AI 生成的程式碼往往缺乏邊界檢查和錯誤處理,碰到異常輸入就崩。資料庫索引、演算法複雜度這些最佳化,模型不會主動去想,隨著使用者增長,性能瓶頸很快出現。遇到要改功能的時候,開發者發現自己看不懂程式碼,只能繼續用 AI 打補丁,補丁摞補丁,最後變成一座沒人敢碰的屎山。當年初為了搶上線快速用 AI 寫的程式碼,可能在年末變成團隊的噩夢,為了一個改動牽一髮動全身。Reddit 上甚至出現了一群人,自稱「AI 考古學家」。他們的日常是被那些因為 Vibe Coding 導致系統崩潰的公司雇來,專門替 AI 收爛攤子,給客戶返工、補救、兜底,在幾百萬行 AI 生成的亂碼中,找那個因為模型幻覺產生的致命 bug。諷刺的是,用 AI 省下來的錢,好多公司以另一種方式花回去了,甚至更多。這些爛攤子,也是蘋果收緊稽核的隱性理由之一。但無論蘋果怎麼圍堵,軟體開發平民化的趨勢已經不可逆轉。Anything 被下架,只是一個創業公司和平台規則之間的摩擦。而 Vibe Coding 帶來的是整個軟體生產關係的重構。OpenAI CEO 奧特曼曾和朋友打賭,第一家由單個人建立、達到十億美元規模的公司,會出現在那一年。現在看來,那個時代已經呼之慾出了。在「1 個創始人 + 1 個 AI 智能體 = 1 個百萬美元級 App」的行業共識下,App Store 也無法阻擋太久。這是最好的時代,也是最壞的時代。狄更斯的名句寫在 2026 年 App Store 的稽核閘門之上,竟意外地貼切。 (APPSO)
給聰明人的《龍蝦入門指南》
最近你一定被“OpenClaw、小龍蝦、AI代理”這些詞刷屏了。你的焦慮我懂——每一輪技術浪潮來臨時,最折磨人的從來不是技術本身,而是那個揮之不去的念頭:別人都在跑了,我還站在原地。但我想告訴你:焦慮的對面不是淡定,是清晰和理性。過去三年,我們見證了AI大模型作為“最強大腦”的崛起。但大腦再聰明,沒有手腳也只能躺在對話方塊裡陪你聊天。如今,我們正經歷從單純“對話”到複雜任務“執行”的範式躍遷——現象級AI代理框架OpenClaw徹底打破了虛擬限制,賦予了AI自動呼叫工具、操作電腦和運行工作流的能力。當AI長出了手和腳,我們該做什麼?最近幾周,我花了大量時間研究OpenClaw——這個2026年拿下27萬GitHub星標、讓黃仁勳喊出“下一個Linux”的開源AI代理框架。我也研究了騰訊QClaw、字節ArkClaw等大廠版本,體驗了多個場景,也看到了真實的價值。今天,我把所有研究濃縮成了一份39頁的深度報告:《OpenClaw入門指南:當AI長出了手腳》。這不是一份技術文件。它是寫給像你這樣有判斷力、有好奇心,但沒碰過AI代理框架的聰明人的。裡面沒有一行程式碼,但有:一張讓你5分鐘看懂AI能力邊界的金字塔圖;七個可直接複製Prompt範本的實戰場景;一個48小時從零跑通第一個“最小閉環”的訓練計畫;五大真實風險的血淚案例和每條風險的具體控制項;以及一個幫你判斷“什麼值得自動化、什麼絕對不能碰”的決策矩陣。這份報告最有價值的部分,不是告訴你OpenClaw能做什麼,而是告訴你它的邊界在那裡、陷阱在那裡、以及你該用什麼姿勢理性地入場。莊子說“物物而不物於物”——駕馭工具,而不是被工具駕馭。這才是面對AI焦慮的終極解藥。39頁報告PDF已備好,請你掃描下圖中的二維碼,就可以免費領取。《OpenClaw入門指南》部分精彩內容《OpenClaw入門指南》完整版本掃描下圖中的二維碼免費領取(孤獨大腦)
別在 OpenClaw 上花冤枉錢了,這份小白指南手把手教你 1 分鐘搞定
火出圈的小龍蝦 OpenClaw 不僅能幫人開發軟體,還能自動定時總結郵件、設定 To-Do List。巨大的熱度讓人靠「上門安裝」的業務年入百萬,而今天我們教你如何自己動手,不用畏懼黑底白字的終端窗口和程式碼,一分鐘就能搞定。在電腦上部署之後,小龍蝦能直接接管你的鍵盤滑鼠和檔案。你只要在聊天軟體裡給它下需求,它就能自己動手幹活。甚至有網友直接讓它去郵件裡找航班資訊,順手把選座值機也辦了,一波操作看愣了不少人。想讓這麼好用的 AI 助理 24 小時待命,本地部署確實是最好的選擇。結果誰也沒想到,它憑一己之力帶火了 Mac mini。但問題來了,為了一個免費開放原始碼的框架,特意花大幾千買台新電腦,是不是有點 「為一碟醋包一頓餃子」?今天我們教你的辦法就非常簡單:通過 MiniMax 和 Kimi 這樣的國內大模型平台,一鍵雲端部署,直接把它拉進你的飛書聊天框。過程不到一分鐘以 MiniMax 為例,整個過程不到一分鐘。全程不需要你自己寫程式碼、改配置檔案,也不需要搗鼓什麼連接埠反向代理,更不需要專門弄台電腦來維護。具體怎麼操作?打開 MiniMax Agent 官網,點選側邊欄的「MaxClaw」,直接對它說 “我想接入到飛書”,它就會給你發步驟指引。跟著做就行:第一步: 在飛書開放平台建立應用(建議用個人帳號或新建企業號,省去審批),把 AppID 和 Secret 複製發回給 Claw。第二步: 在飛書的權限管理頁點選「批次匯入」,把 MaxClaw 發來的程式碼整個替換進去。系統會提示你開啟機器人能力,點確認。第三步: 進入事件配置,把訂閱方式改成「長連接」,勾選接收消息。接著去版本管理裡隨便填個版本號(比如 0.0.1)和更新日誌,點保存發佈。最後,在飛書裡給機器人發個消息,它會返回一串匹配碼,把這串程式碼發回給網頁端的 MaxClaw。搞定,你的專屬小龍蝦就活過來了。是不是比想像中簡單得多?Kimi 的配置過程也大同小異。你只要負責搞定飛書裡的應用和權限,Kimi 自己就能修改配置檔案,遇到不懂的還能直接問它。現在 Kimi 的手機 App 也上線了 Kimi Claw,你甚至可以直接在社區裡玩網友做的小遊戲,或者一鍵製作同款。普通牛馬的賽博打工人我搞定之後的第一件事,就是讓它幫我整理當天的熱點資訊。你在飛書發的消息,網頁端會同步顯示處理過程。對於我們科技編輯來說,這就相當於有了一個定製版的早報助手;同樣的,你也可以用它來追蹤自己感興趣的領域。那如果是處理繁雜的工作呢?發個月度工作文件連結給它,或者直接開通雲文件的存取權,定好時間、標題和格式,它就能每個月自動幫你整理出一份詳盡的工作月報。至於開會,飛書妙記確實好用,但需要額外付費。現在,你只需要把會議錄音連結發給小龍蝦,它馬上就能把早會的每個要點給你列得清清楚楚。除了我們體驗過的用法,你還可以參考網友們的用例獲取更多靈感,打造出更契合自己需求的龍蝦助手。OpenClaw 官網案例彙總:https://openclaw.ai/showcase網友整理的用例集合:https://github.com/hesamsheikh/awesome-openclaw-usecases對比本地部署,雲端部署的版本確實沒辦法直接讀取電腦裡的本地檔案,少了一些 “看著滑鼠自己動” 的極客感。但換個角度想,它不需要你折騰硬體,還能極其方便地接入飛書、釘釘等各種通訊軟體。每個月花一杯咖啡的訂閱費,就能給自己雇一個隨時待命的全能助理,幫你分擔工作、節省大把時間。這筆帳算下來,難道不划算嗎? (APPSO)
Seedance 2.0 小白速成指南:看完這篇,你也能做出大片既視感
你們有沒有發現,最近刷短影片、看朋友圈,總能看到一些"媽呀,這個視訊也太專業了"的作品?原來都是用即夢 Seedance 2.0 做的!但問題來了——為什麼別人用它做出來的視訊就像好萊塢大片,你用它生成的視訊就像... 嗯,"非常努力的AI"呢?😅秘密就一個字:專業術語!不過別怕,我不是要讓你去電影學院讀3年書。今天我就把這些影視"黑話"全部翻譯成"人話",讓你5分鐘搞懂核心邏輯,之後用 Seedance 2.0 出片直接起飛!廢話不多說,咱們開始~第一部分:鏡頭基礎課(2分鐘速成)1️⃣ 鏡頭運動都有啥?你有沒有想過,為什麼有的視訊看起來很"生動",有的就很"死板"?秘訣就在鏡頭怎麼動!(1)平移鏡頭= 攝影機左右移動(想像你轉身看風景)效果:寬闊感、展示全景適合:展示場景、環境介紹(2)推拉鏡頭= 攝影機前後移動(想像你向某個東西走去或走開)效果:代入感、戲劇張力適合:製造懸念、聚焦重點對象(3)跟拍鏡頭= 攝影機跟著主體移動(想像你在跟著一個人走路)效果:動感、代入感超強適合:運動場景、人物跟蹤提示:用 Seedance 2.0 描述時,直接說"運鏡向左""推鏡靠近"就行,AI會理解!2️⃣ 分鏡與景別(為何別人視訊看起來專業?)這就像拍照時的"遠中近"組合!小貼士:好的視訊會在這三個景別之間切換,就像在講故事一樣——先告訴你"在那兒",再展示"在幹啥",最後強調"有多重要"。在 Seedance 2.0 里,你可以這樣寫:"開場全景,遠景展示壯闊的山景" "切到主人公的中景,做出驚訝的表情" "特寫他眼睛裡的淚光"看,這樣一描述,是不是自動有電影既視感?✨3️⃣ 光影與色調(氛圍大師)這是最"神奇"的部分——同一個場景,光影和色調能把它從"溫馨"變成"詭異"。(1)暖色調= 橙色、黃色、紅色系感覺:溫暖、親切、充滿希望適合:日出、聚餐、溫情場景(2)冷色調= 藍色、紫色、綠色系感覺:神秘、冷靜、有距離感適合:夜景、科幻、懸疑場景(3)高光影= 明暗對比強烈感覺:戲劇化、有張力適合:懸念、對比、衝突場景(4)柔和光= 光線很均勻感覺:舒適、夢幻、溫柔適合:愛情、治癒、日常場景秘籍:想讓視訊看起來"大片范兒"?在 Seedance 2.0 提示詞裡加上色調要求就行: "暖色調日出,金色光線灑在主人公臉上" "冷色調夜景,藍紫色調,高對比光影"第二部分:Seedance 2.0 獨家玩法(核心乾貨)4️⃣ 音畫同步秘訣(這是Seedance的絕活!)為什麼 Seedance 2.0 這麼火?因為它能把音樂和畫面完美同步!這不是什麼新鮮概念,但它做得特別好。想像一下:音樂高潮時,畫面裡的人物做出爆發的動作音樂轉折時,鏡頭切換到另一個場景鼓聲落點時,演員的動作精準hit這就叫"音畫同步",也是為什麼用 Seedance 做的視訊看起來那麼"專業"的原因!怎麼用?選好配樂= 挑一首你喜歡的歌或背景音樂標記節奏點= 想像在那裡要有"視覺衝擊"在提示詞裡體現= "隨著鼓聲,鏡頭快速推進""音樂柔和時,緩緩推拉鏡頭"實戰例子:"BGM是《Unstoppable》,整個視訊跟著音樂的節奏,低音處鏡頭穩定緩行,高潮處做快速運鏡和轉場,音樂落點時演員做出決定性的動作"你看,這樣一描述,Seedance 2.0 就能理解你想要的"節奏感"了!5️⃣ 多模態參考大法(這是秘密武器!)什麼叫"多模態參考"?就是你可以給 AI 看圖片、視訊、音訊來示範你想要的效果。三種參考方式:📸圖片參考= 給 AI 看參考截圖 "這是我的參考畫風:[上傳電影截圖]"用處:統一視覺風格、色調、光影🎬視訊參考= 給 AI 看參考視訊片段 "我想要這種運鏡方式:[上傳參考視訊]"用處:展示鏡頭運動、節奏感、轉場手法🎵音訊參考= 給 AI 聽參考音樂 "用這首歌的節奏感:[上傳音樂]"用處:確保音樂風格和節奏匹配一致性控制:@引用機制= 在提示詞中引用之前生成的視訊 "@上一個視訊的第3秒開始的鏡頭"用處:保持系列視訊的連貫性和一致性一致性控制= 讓多個鏡頭裡的人物、場景保持統一 "用之前生成的主角形象,確保衣服、表情風格一致"用處:製作系列視訊、連貫敘事小秘密:這個功能是 Seedance 2.0 最強大的地方!你用得越細緻,出來的視訊就越"量身定製"。6️⃣ 提示詞黃金公式(這是我的獨家套路)好提示詞 = 專業出片的一半!動作類視訊怎麼描述:場景交代 + 人物動作 + 鏡頭運動 + 節奏感例:在健身房,主人公做伏地挺身,鏡頭跟拍側面,隨著勁爆背景音樂的節奏加快速度,最後特寫他堅定的表情場景類視訊怎麼描述:地點設定 + 光影氛圍 + 鏡頭移動 + 細節描寫例:古鎮石板街,夕陽西下灑金色光線,攝影機緩緩推進,展示路邊的紅燈籠、古建築、行人剪影情感類視訊怎麼描述:角色情緒 + 環境氣氛 + 視覺表現 + 轉場方式例:女孩看到驚喜禮物,眼眶泛淚,冷色調的室內突然切到暖色調的燭光晚餐,音樂從悲傷轉為歡快通用範本(我最常用): "[時間/地點設定],[人物/主體]在[做什麼],[鏡頭怎麼運動],[光影色調],[背景音樂或音效],[情感基調],[轉場方式]"舉栗子: "清晨的咖啡館,少女坐在靠窗位置整理筆記,攝影機做緩慢的圓形運鏡,暖色調晨光透過玻璃灑下,背景是舒緩的鋼琴樂,整體溫柔治癒,最後切到咖啡倒入杯子的特寫"是不是超具體?Seedance 2.0 就吃這套!第三部分:從入門到"大片"(進階技巧)7️⃣ 高級創作技巧(這是我的真傳家寶)一鏡到底的魔法"一鏡到底"就是整個視訊看起來像一個長鏡頭拍攝下來的,沒有剪輯感。怎麼做? 畫面中的人物/物體要連貫運動 鏡頭轉向、推拉、平移都要"自然接力" 背景音樂要持續,沒有硬切在 Seedance 2.0 里的秘訣:"整個視訊要有一鏡到底的感覺,演員在房間裡走動,攝影機跟隨,經過門、走廊、樓梯,最後推進到窗邊,鏡頭始終流暢,沒有卡頓感"多鏡頭敘事的魅力如果說"一鏡到底"是馬拉松,"多鏡頭敘事"就是跑步接力賽——你可以在不同場景、不同角度間快速切換,營造節奏感!好處: 製造懸念(切到反應鏡頭) 加快節奏(快速剪輯) 展示細節(特寫 → 全景 → 特寫)範本:"開場全景展示豪宅,切到主人公走進房間的中景,再切到他發現禮物時的特寫臉部表情,最後遠景展示整個驚喜派對現場"特效與轉場的組合技轉場不只是"黑屏切換",還可以這樣玩:淡出/淡入= 畫面慢慢消失/出現(溫柔感)推拉轉場= 新畫面推開舊畫面(節奏感)閃白轉場= 閃一下白屏(衝擊感)對象遮擋轉場= 人物擋住鏡頭,背後切換場景(電影感)栗子:"第一幕的演員揮手,他的手臂遮住鏡頭,轉場後露出他在完全不同的場景中,手勢保持連貫"這招叫"匹配切割",超專業!8️⃣ 我踩過的坑 & 解決方案(避坑指南)坑1:音畫不同步❌錯誤做法:"加個背景音樂吧" → 結果音樂和視訊時長不搭✅正確做法:先確定音樂時長和BPM(節拍),再在提示詞中明確標註節奏點坑2:人物忽胖忽瘦❌錯誤做法:多次生成不同部分,結果同一個人物風格變了✅正確做法:用"一致性控制"功能,@引用之前的人物生成,或在提示詞裡詳細描述人物特徵坑3:色調突變❌錯誤做法:暖色調場景突然切到冷色調,顯得很生硬✅正確做法:要麼保持統一色調,要麼在"轉場前"留個"色調過渡鏡頭"(比如燈滅了,然後切到新場景)坑4:鏡頭運動過快/過慢❌錯誤做法:"攝影機運動"太含糊✅正確做法:具體描述,比如"緩緩推進(3秒內推進1米左右)""快速推鏡(1秒內靠近主體)"坑5:提示詞太長導致AI 遺忘關鍵資訊❌錯誤做法:寫成一整段文章,重點不突出✅正確做法:用換行、重點加粗,讓AI好理解:場景:早晨的辦公室 人物:職場女性,深藍色OL服動作:整理檔案、喝咖啡、看電腦 鏡頭:推拉+跟拍結合色調:冷色調,大量冷光 節奏:隨著背景音樂加快結尾彩蛋 🎉好了各位,我的 Seedance 2.0 "黑話翻譯大全"就到這兒了!✨現在你已經掌握了:✅ 鏡頭運動的邏輯(為何別人的視訊動起來就是好看)✅ 景別搭配的秘訣(全景→中景→特寫的故事感)✅ 光影色調的"氣氛營造法"✅ Seedance 2.0 的音畫同步原理✅ 多模態參考怎麼用(這是最強武器!)✅ 提示詞的黃金公式✅ 一鏡到底、多鏡頭敘事、轉場技巧✅ 我踩過的8個大坑和避坑方案 (xiao阿娜的妙妙屋)
seedance 2.0 提示詞深度使用指南:從零開始成為AI視訊導演(附59套提示詞)
基於seedance2.0官方使用手冊59套提示詞的系統性拆解,需要的可文末找我領手冊。序章:即夢seedance2.0有多強?這兩天即夢seedance2.0真的殺瘋了,我的B站已完全是seedance2.0的形狀。到處都是高品質AI視訊,如果不標註,很多已經看不出是AI視訊了。Seedance 2.0相比之前國內外的視訊生成模型,強在那?一句話:風格還原能力強,自然效果強,運鏡效果強,實用意義強現在什麼邵氏電影風格,皮套電影風格,還原度非常好,看上去就像是原電影公司做的一樣。且效果非常自然,除去偶爾一些物理效果有些許問題,整體已經沒有以前的AI違和感了,也不會有那種顆粒的模糊感。運鏡效果更是強得沒邊,是被很多人津津樂道的存在,對真實影視拍攝的真實運鏡效果還原得非常好。現在很多人已經用來拍各種自己想拍的片了,主要是看起來太真了,甚至用來拍廣告都很驚豔。目前可以說,是AI視訊生成模型最接近商用邊界的時候。接下來,我會把官方手冊裡的59套提示詞全部拆開,按照"你想拍什麼"來分類,幫你建立一套隨時能用、隨拍隨出的提示詞思維體系。第一章:提示詞的底層結構——"五要素導演法"在分析59套提示詞之前,你需要先理解一個核心框架。所有好的AI視訊提示詞,本質上都在回答五個問題:五要素一覽實戰公式[角色指定] + [場景設定] + [動作/劇情描述] + [鏡頭語言] + [氛圍/聲音]舉例(手冊案例#3):鏡頭小幅度拉遠(露出街頭全景)並跟隨女主移動,風吹拂著女主的裙襬,女主走在19世紀的倫敦大街上;女主走著走著右邊街道駛來一輛蒸汽機車,快速駛過女主身旁,風將女主的裙襬吹起,女主一臉震驚的趕忙用雙手向下摀住裙襬拆解:角色:女主(由首幀圖指定)場景:19世紀的倫敦大街動作:走路→蒸汽機車駛過→裙襬被吹起→摀住裙襬鏡頭:小幅度拉遠+跟隨移動氛圍:背景音效為走路聲、人群聲、汽車聲注意:你不需要每次都寫滿五個要素。但要素越完整,生成結果越接近你腦海中的畫面。像"導演手記"一樣寫,不像"許願"一樣寫。第二章:按創作動機分類的提示詞全景解析分類一:我想生成一條完整的故事短片適合誰:短影片創作者、自媒體人、想用AI講故事的人核心動機:腦海裡有一個故事或場景,想讓AI幫你"拍"出來類型A:生活情景劇這類提示詞的特點是:日常場景 + 細膩的人物動作 + 情緒轉折。案例#1——曬衣服的女孩:女孩在優雅的曬衣服,曬完接著在桶裡拿出另一件,用力抖一抖衣服。案例#5——下班回家的父親:男人@圖片1下班後疲憊的走在走廊,腳步變緩,最後停在家門口,臉部特寫鏡頭,男人深呼吸,調整情緒,收起了負面情緒,變得輕鬆,然後特寫翻找出鑰匙,插入門鎖,進入家裡後,他的小女兒和一隻寵物狗,歡快的跑過來迎接擁抱,室內非常的溫馨,全程自然對話案例#40——起床日常:0-3秒:開頭鬧鐘響起來,畫面朦朧中出現畫面1;3-10秒:快速搖鏡頭,轉向對面特寫男人面部,男人無奈的叫女生起床,語氣和音色參考@視訊1;10-12秒:女生撅著嘴躲進被子裡面;12-15秒:切換到男主全身,他嘆著氣說:"真拿你沒辦法!"設計思路提煉:動作要拆成"微動作鏈" :不要寫"女孩曬衣服"就完了,要寫"曬完→從桶裡拿出→用力抖一抖"。每一個微動作都是給模型的精確指令情緒要有"轉折弧線" :案例#5的精髓在於"疲憊→深呼吸→收起負面情緒→輕鬆→被女兒擁抱的溫馨",這是一條完整的情緒曲線時間軸寫法是最可控的模式 :案例#40按秒數分段描述,模型對每一秒該發生什麼都有明確指令對話直接寫在提示詞裡 :如"真拿你沒辦法!",模型可以直接生成對應的配音類型B:戲劇性/電影感敘事這類的特點是:高衝突 + 強鏡頭語言 + 電影級氛圍。案例#4——街頭追逐:鏡頭跟隨黑衣男子快速逃亡,後面一群人在追,鏡頭轉為側面跟拍,人物驚慌撞倒路邊的水果攤爬起來繼續逃,人群慌亂的聲音。案例#45——諜戰片:諜戰片風格,@圖片1作為首幀畫面,鏡頭正面跟拍穿著紅風衣的女特工向前走,鏡頭全景跟隨,不斷有路人遮擋紅衣女子,走到一個拐角處,參考@圖片2的拐角建築,固定鏡頭紅衣女子離開畫面,走在拐角處消失,一個戴面具的女孩在拐角處躲著惡狠狠的盯著她...全程不要切鏡頭,一鏡到底。案例#11——恐怖/懸疑電梯:參考@圖1的男人形象,他在@圖2的電梯中,完全參考@視訊1的所有運鏡效果還有主角的面部表情,主角在驚恐時希區柯克變焦,然後幾個環繞鏡頭展示電梯內視角,電梯門打開,跟隨鏡頭走出電梯設計思路提煉:先定"類型片調性" :開頭寫"諜戰片風格"或暗示"恐怖/懸疑",給模型一個整體方向鏡頭語言是核心差異化 :正面跟拍→全景跟隨→固定鏡頭→一鏡到底,這些詞決定了"電影感"和"手機隨拍"的區別環境互動增加真實感 :撞倒水果攤、路人遮擋、人群慌亂聲——這些細節讓畫面"活"起來專業術語和大白話都能用 :希區柯克變焦 = 畫面突然拉近產生眩暈感,模型都能理解類型C:搞笑/創意反轉案例#2——畫中人偷喝可樂:畫裡面的人物心虛的表情,眼睛左右看了看探出畫框,快速的將手伸出畫框拿起可樂喝了一口,然後露出一臉滿足的表情,這時傳來腳步聲,畫中的人物趕緊將可樂放回原位,此時一位西部牛仔拿起杯子裡的可樂走了,最後鏡頭前推畫面慢慢變得純黑背景只有頂光照耀的罐裝可樂,畫面最下方出現藝術感字幕和旁白:"宜口可樂,不可不嘗!"案例#41——四川話猴子買奶茶:@圖片1的猴子走向奶茶店櫃檯,鏡頭跟隨在他身後,一位@圖片2的比熊服務員正在吧檯處擦拭製作工具,猴子向服務員用四川口音點單:"幺妹兒,霸王別姬有得沒得?"案例#48——泰坦尼克號反轉:顛覆@視訊1里的劇情,男人眼神從溫柔瞬間轉為冰冷狠厲,在露絲毫無防備的瞬間,猛地將女主從橋上往外推...設計思路提煉:"顛覆"是最強的創意入口指令:直接寫顛覆@視訊1的整個劇情,模型會自動生成反轉方言/語種可以直接在提示詞中指定:用四川口音、用西班牙語、用韓語,模型支援多語種配音對話台詞直接用引號寫出:模型會按照你寫的台詞生成對應的語音跨次元/荒誕設定大膽寫:畫中人探出畫框、猴子買奶茶——AI不受"常理"約束,腦洞越大越出彩分類二:我想做產品展示/商業廣告適合誰:電商賣家、品牌方、廣告從業者、個人帶貨核心動機:有一個產品,想用AI快速生成高品質的推廣視訊類型A:產品特寫展示案例#9——包包商業展示:對@圖片2的包包進行商業化的攝像展示,包包的側面參考@圖片1,包包的表面材質參考@圖片3,要求將包包的細節均有所展示,背景音恢宏大氣案例#13——科技產品展示:@圖片1的平板電腦作為主體,運鏡參考@視訊1,推近到螢幕的特寫,鏡頭旋轉後平板反轉展示全貌,螢幕中的資料流一直在變化,周圍的環境逐漸變成科幻風格的資料空間設計思路提煉:多圖拼合產品細節:一張圖給正面,一張圖給側面,一張圖給材質紋理——模型會把它們"拼"成一個完整的產品運鏡參考專業廣告片:找一段你喜歡的產品廣告,當作運鏡參考視訊上傳背景可以"超現實" :讓平板電腦周圍變成科幻資料空間——產品廣告不需要寫實記得指定BGM風格:背景音恢宏大氣 = 高端感,輕快節奏 = 年輕時尚類型B:創意廣告/品牌短片案例#8——韓語蝴蝶結飾品廣告(時間軸型):0-2秒畫面:快速四格閃切,紅、粉、紫、豹紋四款蝴蝶結依次定格,特寫緞面光澤與"chéri"品牌字樣。 3-6秒畫面:特寫銀色磁吸扣"咔嗒"吸合,再輕輕一拉分開,展示絲滑質感與便捷性。 7-12秒畫面:快速切換佩戴場景:酒紅款別在大衣領口,通勤氛圍感拉滿;粉色款綁在馬尾,甜妹出街... 13-15秒畫面:四款蝴蝶結並排陳列,品牌名彈出。案例#20——羽絨服廣告:參考視訊的廣告創意,用提供的羽絨服圖片,並參考鵝絨圖片、天鵝圖片,搭配以下廣告詞"這是根鵝絨,這是暖天鵝,這是能穿的極地天鵝絨羽絨服,新年穿得暖,生活過得暖",生成新的羽絨服廣告視訊。案例#49——零食反轉廣告:顛覆@視訊1的整個劇情。0–3秒:西裝男坐在酒吧...6–9秒:突然西裝男從桌下掏出一大包體積誇張的零食禮包...13–15秒:字幕彈出"再忙,也要記得吃點零食~"案例#58——油煙機廣告:這是一個油煙機廣告,@圖片1作為首幀畫面,女人在優雅的做飯,沒有煙霧,鏡頭快速向右邊搖動,拍攝@圖片2男人滿頭大汗面紅耳赤在做飯,濃煙滾滾,鏡頭向左邊搖動推進拍攝桌面上的一個油煙機,油煙機在瘋狂抽菸。設計思路提煉:時間軸指令碼是廣告的最佳寫法:精確到每一秒發生什麼,模型會嚴格按照你的節奏來"參考視訊的廣告創意"是王牌指令:看到競品/同行的好廣告,直接當參考,換上你的產品對比手法天然適合廣告:案例#58的"優雅做飯 vs 滿頭大汗"對比,比文字描述更有衝擊力廣告詞/slogan直接寫在提示詞裡:模型會在畫面合適的時候展示文字或配音反轉/懸念型廣告更抓人:先營造緊張氛圍,再用產品做"解圍"——這是爆款廣告的經典結構類型C:品牌視覺/視訊延長案例#30——JUST DO IT運動品牌:將視訊延長6s,出現電吉他的激昂音樂,視訊中間出現"JUST DO IT"的廣告字型後逐漸淡化,鏡頭上移到天花板...男人用健碩的上肢拉上吊環,後視訊中間出現"DO SOME SPORT"的廣告結束字型。案例#31——Lucky Coffee品牌片尾:將@視訊1延長15秒。1-5秒:光影透過百葉窗在木桌、杯身上緩緩滑過,樹枝伴隨著輕微呼吸般的晃動。6-10秒:一粒咖啡豆從畫面上方輕輕飄落。11-15秒:英文漸顯"Lucky Coffee","Breakfast","AM 7:00-10:00"。設計思路提煉:延長功能適合做品牌片尾:已有一段好視訊,延長幾秒加上品牌logo和slogan文字出現方式要描述清楚:漸顯 / 彈出 / 逐漸淡化 / 從中間向兩邊展開注意:延長5秒,生成時長也要選5秒(這是官方文件的重要提示)分類三:我想復刻/模仿一段我喜歡的視訊適合誰:看到爆款內容想做自己版本的創作者、學習影視技法的新手核心動機:有參考視訊,想用自己的角色/產品重新"翻拍"運鏡與動作復刻案例#17——超跑廣告運鏡復刻:參考視訊1的運鏡、畫面切換節奏,拿圖片1的紅色超跑進行復刻。案例#14——舞台表演復刻:@圖片1的女星作為主體,參考@視訊1的運鏡方式進行有節奏的推拉搖移,女星的動作也參考@視訊1中女子的舞蹈動作,在舞台上活力十足地表演案例#50——換主唱:視訊1中的女主唱換成圖片1的男主唱,動作完全模仿原視訊,不要出現切鏡,樂隊演唱音樂。案例#6——換角色保留運鏡:將@視訊1中的女生換成戲曲花旦,場景在一個精美的舞台上,參考@視訊1的運鏡和轉場效果,利用鏡頭匹配人物的動作,極致的舞台美感,增強視覺衝擊力設計思路提煉:最簡指令 :參考@視訊1的運鏡+畫面切換節奏,用@圖片1的XX進行復刻 ——一句話搞定可以分別指定"參考什麼" :運鏡參考視訊A,動作參考視訊B,角色用圖片C——三種素材各取所長"換人不換動作"是最高頻用法 :把別人視訊裡的角色換成你的,動作和鏡頭保持不變加上你自己的改造 :復刻不是100%照搬,你可以在復刻基礎上改場景、改風格、改氛圍分類四:我想做特效/轉場/視覺奇觀適合誰:追求視覺衝擊力的創作者、想做炫酷片頭的人特效復刻與創造案例#22——面部裂紋特效:將@視訊1的首幀人物替換成@圖片1,完全參考@視訊1的特效和動作,手裡的花蕊長出玫瑰花瓣,裂紋在臉部向上延伸,逐漸被雜草覆蓋,人物雙手拂過臉部,雜草變成粒子消散,最後變成@圖片2的長相案例#23——拼圖破碎轉場:由@圖片1的天花板開始,參考@視訊1的拼圖破碎效果進行轉場,"BELIEVE"字型替換成"Seedance",參考@圖2的字型案例#24——粒子鎏金特效:以黑幕開場,參考視訊1的粒子特效和材質,金色鎏金材質的沙礫從畫面左邊飄出並向右覆蓋,參考@視訊1的粒子吹散效果,@圖片1的字型逐漸出現在畫面中心案例#21——水墨太極:黑白水墨風格,@圖片1的人物參考@視訊1的特效和動作,上演一段水墨太極功夫設計思路提煉:特效不需要你從頭描述:找一段有你想要特效的參考視訊,寫參考@視訊1的XX特效即可可以"嫁接"特效到新角色/新場景:水墨特效配太極、粒子特效配品牌logo、裂紋特效配變身風格關鍵詞一句話就能生效:黑白水墨風格、賽博朋克、科幻資料空間轉場類提示詞的核心:說清楚"從什麼畫面 → 經過什麼效果 → 變成什麼畫面"分類五:我想做音樂卡點/MV/有節奏感的視訊適合誰:音樂類自媒體、想做炫酷Vlog的人、舞蹈類創作者案例#53——換裝卡點:海報中的女生在不停的換裝,服裝參考@圖片1@圖片2的樣式,手中提著@圖片3的包,視訊節奏參考@視訊案例#54——人物卡點MV:@圖片1@圖片2@圖片3@圖片4@圖片5@圖片6@圖片7中的圖片根據@視訊中的畫面關鍵幀的位置和整體節奏進行卡點,畫面中的人物更有動感,整體畫面風格更夢幻,畫面張力強,可根據音樂及畫面需求自行改變參考圖的景別,及補充畫面的光影變化案例#55——風光卡點:@圖片1-6的風光場景圖,參考@視訊中的畫面節奏,轉場間畫面風格及音樂節奏進行卡點案例#37——電影級MV:生成一個15秒的MV視訊。關鍵詞:穩重構圖/輕推拉/低角度英雄感/紀實但高級A超廣角建立鏡頭,低機位輕微仰拍,懸崖土路與復古旅行車佔畫面下三分之一,遠處海面與地平線拉開空間,夕陽側逆光體積光穿過塵粒,電影級構圖,真實膠片顆粒,微風吹動衣角。設計思路提煉:卡點的關鍵指令 :根據@視訊中的畫面關鍵幀的位置和整體節奏進行卡點多圖+一段音樂視訊 = 自動卡點MV :上傳你想要出現的畫面圖片 + 一段有節拍的音樂視訊,模型自動匹配想要更高級的視覺 :加上畫面張力強、更夢幻、光影變化等修飾詞電影級MV可以用"關鍵詞堆疊法" :把你想要的攝影風格關鍵詞全部列出來,如側逆光、膠片顆粒、低機位仰拍分類六:我想讓AI幫我"接著拍"或"改一改"適合誰:已經有半成品視訊、想做後期微調的創作者視訊延長案例#29——驢騎摩托腦洞廣告:延長15s視訊,參考@圖片1、@圖片2的驢騎摩托車的形象,補充一段腦洞廣告。畫面1:側面固定鏡頭,驢騎著摩托車衝出棚欄...畫面2:驢騎著摩托在沙地盤旋...畫面3:背景是雪山鏡頭,驢騎著車從山坡飛越過...案例#32——向前延長花店場景:向前延長10s,溫暖的午後光線裡,鏡頭先從街角那排被微風掀動的遮陽篷開始,慢慢下移到牆根處幾株探出頭的小雛菊...視訊編輯案例#51——改髮型加元素:將視訊1女人髮型變成紅色長髮,圖片1中的大白鯊緩緩浮出半個腦袋,在她身後。案例#52——炸雞店加品牌元素:視訊1鏡頭右搖,炸雞老闆忙碌地將炸雞遞給排隊的客戶...特寫展示老闆拿印有圖1的紙袋子,特寫展示遞給客戶的手部特寫。設計思路提煉:"向前延長"和"向後延長"都支援 :可以給視訊加片頭,也可以加片尾延長時寫清新增部分的具體內容 :不要只說"延長5秒",要描述這5秒裡發生什麼編輯指令要精確 :髮型變成紅色長髮 而不是 改一下髮型;加一隻大白鯊在身後 而不是 加一個嚇人的東西延長適合做"系列連續劇" :第一集生成完,延長就是第二集,角色和場景保持一致分類七:我想讓角色開口說話/唱歌/表演適合誰:想做有對話/配音/演唱的視訊的創作者案例#35——貓狗脫口秀(長對話):在"貓狗吐槽間"裡的一段吐槽對話,要求情感豐沛,符合脫口秀表演: 喵醬(貓主持,舔毛翻眼):"家人們誰懂啊..." 旺仔(狗主持,歪頭晃尾巴):"你還好意思說我?..."案例#36——豫劇戲曲:豫劇經前橋段《鍘美案》的伴奏響起,左側的黑衣包拯指著右側的紅衣陳世美,咬牙切齒地唱著豫劇...案例#38——多人家庭對話:畫面中間戴帽子的女孩溫柔地唱著說"I'm so proud of my family!",之後轉身擁抱...黑人女孩感動地回應"My sweetie, you're the heart of our family"...案例#39——多人戰術對話:固定鏡頭。站著的壯漢(隊長)握拳揮臂用西班牙語說著:"三分鐘後突襲!"...設計思路提煉:對話格式 :角色名 + 動作描述 + 冒號 + 引號內台詞,如 喵醬(舔毛翻眼):"家人們誰懂啊..."可以指定語言和口音 :四川話、西班牙語、韓語、豫劇腔——直接寫就行音色可以參考 :語氣和音色參考@視訊1 可以讓配音更像參考視訊中的聲音多人對話要寫清"誰說什麼"和"說的時候在做什麼" :模型需要知道畫面和聲音的對應關係分類八:我想從分鏡/指令碼/漫畫直接生成視訊適合誰:有創作基礎的人、習慣先畫分鏡再執行的創作者案例#26——漫畫動畫化:將@圖1以從左到右從上到下的順序進行漫畫演繹,保持人物說的台詞與圖片上的一致,分鏡切換以及重點的情節演繹加入特殊音效,整體風格詼諧幽默;演繹方式參考@視訊1案例#27——分鏡頭指令碼生成專題片:參考@圖片1的專題片的分鏡頭指令碼,參考@圖片1的分鏡、景別、運鏡、畫面和文案,創作一段15s的關於"童年的四季"的治癒系片頭案例#56——分鏡圖生成動漫:8秒智性博弈式戰鬥動漫片段...0-3秒:分鏡圖1中女主轉身坐下...3-4秒:快速搖鏡頭...4-6秒:切鏡頭,俯拍...6-8秒:鏡頭迅速向下搖,畫面黑屏轉場...設計思路提煉:漫畫→視訊:上傳漫畫圖,指定閱讀順序(從左到右從上到下),模型自動演繹分鏡稿→視訊:上傳你的分鏡圖,寫"參考分鏡的景別、運鏡、畫面",模型按你的分鏡拍這是最"導演級"的用法:如果你有編導基礎,直接畫分鏡+寫指令碼,AI精準執行分類九:我想創造沉浸式/一鏡到底的體驗適合誰:追求高級視覺敘事的創作者案例#43——追蹤跑步者:@圖片1-5,一鏡到底的追蹤鏡頭,從街頭跟隨跑步者上樓梯、穿過走廊、進入屋頂,最終俯瞰城市。案例#47——過山車主觀視角:@圖片1-5,主觀視角一鏡到底的驚險過山車的鏡頭,過山車的速度越來越快。案例#44——飛機舷窗奇幻旅程:以@圖片1為首幀,畫面放大至飛機舷窗外,一團團雲朵緩緩飄至畫面中,其中一朵變形為@圖片2的冰淇淋,鏡頭推遠回到機艙內,坐在窗邊的@圖片3伸手從窗外拿進冰淇淋...案例#10——第一人稱遊戲視角:把@圖片1作為畫面的首幀圖,第一人稱視角,參考@視訊1的運鏡效果,上方場景參考@圖片2,左邊場景參考@圖片3,右邊場景參考@圖片4。設計思路提煉:"一鏡到底"是關鍵指令:寫上這四個字,模型就知道整段視訊不能有切鏡多張圖按順序=場景路徑:5張圖就是5個經過的場景節點,模型自動做場景間的過渡主觀視角 = 沉浸感:寫第一人稱視角或主觀視角,觀眾彷彿身臨其境速度變化寫清楚:越來越快、緩緩飄至——節奏感來自速度描述第三章:提示詞設計的六大黃金法則從59套提示詞中,提煉出以下六條可以反覆使用的寫作原則:法則一:素材分工要"點名到人"❌ 錯誤寫法:上傳了幾張圖和一段視訊,生成一段打鬥視訊✅ 正確寫法:@圖1@圖2為長槍角色,@圖3@圖4為雙刀角色,模仿@視訊1的動作,在@圖5的楓葉林中打鬥原理:每一個@素材都需要明確它在視訊中的"角色"——誰是演員、誰是佈景、誰是參考動作、誰是參考音樂。不點名,模型就在猜。法則二:動作要拆成"微動作鏈"❌ 錯誤寫法:女生在做飯✅ 正確寫法:女人在優雅的做飯,沒有煙霧,鏡頭快速向右邊搖動,拍攝男人滿頭大汗面紅耳赤在做飯,濃煙滾滾原理:AI模型不理解"做飯"這個抽象概念背後的畫面,但它理解每一個具體動作和視覺特徵。法則三:鏡頭語言決定"質感段位"同樣的內容,換一種鏡頭描述,質感天差地別:常用鏡頭術語速查:推:鏡頭從遠到近 → 聚焦某物拉:鏡頭從近到遠 → 展示全景搖:鏡頭左右旋轉 → 掃視環境移:鏡頭整體平移 → 跟隨角色環繞:圍繞角色旋轉拍攝 → 強調主體俯拍:從上往下拍 → 上帝視角仰拍:從下往上拍 → 英雄感/壓迫感一鏡到底:不切鏡頭連續拍 → 沉浸感希區柯克變焦:主體大小不變但背景突然拉近/拉遠 → 眩暈/驚恐感法則四:時間軸指令碼是精確控制的終極武器當你需要精確控制15秒內每一秒發生什麼時,用這個格式:0-3秒:[畫面1的描述]3-6秒:[畫面2的描述]  6-10秒:[畫面3的描述]10-15秒:[畫面4的描述+結尾處理]手冊中至少有8個案例使用了這種格式(#8、#40、#49、#30、#31、#56等),且全部是高品質輸出。這不是巧合——越精確的指令,模型越不會"自由發揮"走偏。法則五:用"參考+改造"實現80%效率提升絕大多數創作不需要從零開始。最高效的提示詞模式是:參考@視訊1的[你想保留的部分] + 把[你想修改的部分]換成[你要的新內容]例如:參考@視訊1的運鏡和轉場 + 把人物換成@圖片1參考@視訊1的廣告創意 + 用@圖片1的產品替換參考@視訊1的動作和節奏 + 風格改成水墨畫這是59套提示詞中最高頻的模式,超過一半的案例都在用。法則六:情緒和氛圍要"演"出來,不要"說"出來❌ 錯誤寫法:角色很傷心✅ 正確寫法:走到鏡子前,看著鏡子裡面的自己,沉思了一會突然開始崩潰大叫,抓鏡子的動作崩潰大叫❌ 錯誤寫法:氛圍很緊張✅ 正確寫法:咬牙切齒地唱著,眼珠左右滴溜溜亂轉,面色窘迫至極原理:AI不理解"傷心"這個抽象情緒詞,但它理解"崩潰大叫"、"咬牙切齒"、"眼珠亂轉"這些可以被畫面化的動作描寫。第四章:新手快速起步路徑如果你是完全的新手,建議按以下順序嘗試:第一步:純文字描述不上傳任何素材,唯寫文字。適合練手和理解模型的理解力:女孩在優雅的曬衣服,曬完接著在桶裡拿出另一件,用力抖一抖衣服。第二步:一圖+文字上傳一張角色或場景圖作為首幀,文字描述後續動作:@圖片1作為首幀,鏡頭旋轉推近,人物突然抬頭,開始大聲咆哮第三步:多圖+文字上傳多張圖片,指定各自用途:@圖片1-5,一鏡到底的追蹤鏡頭,從街頭跟隨跑步者上樓梯、穿過走廊、進入屋頂第四步:圖+視訊參考+文字加入參考視訊來控制鏡頭和動作:@圖片1的女星作為主體,參考@視訊1的運鏡方式進行推拉搖移,女星的動作也參考@視訊1第五步:全模態組合圖+視訊+音訊+文字全部上陣,做真正的"導演":圖片指定角色和場景,視訊參考運鏡和動作,音訊參考配樂和音色,文字描述劇情和對話附錄:59套提示詞速查索引最後的話:提示詞不是越長越好,也不是越專業越好。它的本質是——你把你腦海中的畫面,翻譯成文字。你腦海中的畫面越清晰,你的提示詞就越好。你可以這麼想,在打字之前,先在腦子裡"放一遍電影"。 (心辰AI寫作筆記)
Seedance 2.0 最全上手指南:4 大入口、火爆玩法、詳細提示詞都在這
Seedance 2.0 有多火爆,這幾天國內外網友分享的實測視訊,或許都能略窺一二。這表現,連馬斯克都招架不住。模型變強了,Seedance 2.0 的玩法也變得多樣,甚至可以用「瘋狂」來形容。快馬加鞭,我們立刻帶大家看看 Seedance 2.0 都有那些有意思的玩法,還有去那裡玩。穿越到電影裡,過一過別人的生活毫無疑問,參考能力是這次 Seedance 2.0 更新的重點。一開始火出圈的好幾個視訊,都是參考上傳視訊的動作、運鏡、拍攝角度等等。找一張同事的照片,到視訊網站上截 15s 的葉問張天志正面對決視訊,直接丟給 Seedance 2.0。用@圖片1替換@視訊1中穿黑色衣服的男子我也能跟葉問大哥一樣,一打十了。整個 AI 視訊中,動作是流暢的,人臉一致性也保持了,場景的還原度極高,基本上沒有出現 AI 視訊常見的那些穿模問題。而我們的輸入就是這麼簡單,不用多說一句怎麼運鏡,白衣服的人怎麼動,黑衣服的人怎麼動。能在電影裡打一場酣暢淋漓的詠春,動作、運鏡模仿全到位;也能去 NBA 賽場上跟詹姆斯打籃球。這種既能參考視訊,又能參考人臉,同時保持兩者一致性的能力,確實讓人難分真假。IP 大雜燴的無限創作把自己放到視訊裡是一種玩法,更多的還是結合那些我們熟悉的 IP 形象進行創作。這大概是目前大多是 AI 視訊出圈的主要玩法,無論是之前的第一人稱視角穿越、還是雪王大戰東方明珠、以及後面的海賊王真人版電影探班視訊等。加入這些人氣元素,一方面能更直觀的看到模型的能力,另一方面身臨其境感也更強。這是一段布萊德·皮特和湯姆·克魯斯在屋頂打鬥的視訊,目前它在 X 上已經收穫了兩百多萬次的瀏覽。視訊裡的人物動作、畫面風格,以及台詞,都被網友說堪比一條好萊塢的片子。視訊來源:X@RuairiRobinson類似的打鬥片子還特別多,我們彙總了一波在 X 上病毒式傳播的這種武打片,每個視訊都是百萬的播放量。雖然效果真實,但也有細心的網友發現,這些動作片裡,有很多 Bug。例如有突然多出來的第三隻手,還有明明一拳打飛是從左到右,但是撞到牆上的時候,又變成了從右到左。除了打鬥,用 Seedance 2.0 來表達情緒也是一種玩法。這段絕命毒師裡面的老白,無論是從演技、姿態、還是語氣,都特別還原角色。有網友甚至說,「我非常希望有人能繼續創作《絕命毒師》的結局,再拍一集,講述沃爾特被槍殺後大家的後續故事。」連 X 上知名的 AI 博主都說,自認為已經是足夠關注 AI 圈子的動態,但當看到了這個視訊,第一反應是想他看過的《絕命毒師》有沒有這一片段,然後再去懷疑這是不是 AI。真人的寫實風格,Seedance 2.0 都能拿捏地如此到位;動漫類的作品,就更不用說了,大部分網友創作的聚集地和腦洞,都是各種動漫動畫的合作。例如我們也生成了一個那吒和敖丙打架的視訊,提示詞同樣非常簡單,而且參考視訊是用了一段即夢 Seedance 2.0 使用手冊內的視訊範本。參考@視訊1的人物動作,生成@圖片1的角色和@圖片2的角色的打鬥場面,打鬥發生在星夜中,打鬥的過程中有各種法術特效,打鬥場面非常華麗,氣氛十分緊張。參考範本是兩個真人的對打,但是 Seedance 2.0 很好的把動作複製過來的同時,還增加了非常多的特效,讓整個場景和畫風,也更符合角色的特點。更離譜的玩法是,當我們把好幾個任意選擇的原神角色一口氣丟給 Seedance 2.0 時,它還真的能生成一個類似原神風格的短片,雖然人物關係完全亂了,但視訊邏輯是對的。社交媒體上則是更多腦洞大開的視訊,像是寶可夢大戰,龍珠、哆啦A夢等多個 IP 的混搭,五條悟 VS 鳴人,埼玉 VS 傑諾斯,還有只是短短一句提示詞,「路飛在千陽號上用 MacBook 寫程式碼,氣得把它扔下船。」,Seedance 2.0 基本上都能按照我們期待的風格,生成最後的視訊。視訊來源:X@KingBootoshi、、X@NACHOS2D_、X@chetaslua/bilibili@無問道路_、X@geesehowardt7特效大片,90% 廣告公司倒閉?結合不同 IP 創作的視訊固然很容易火,但版權是個大問題。這些網上的視訊案例也都是在內測階段第一時間公開的。目前我們在即夢內測試,提及一些比較常見的 IP 或者角色名字時,即夢會直接生成失敗,反饋說輸入的提示詞有問題。好在,模型能力強,能解鎖的玩法真的很多。在真實人臉素材和熱門 IP 之外,各種特效大片、以及廣告視訊,也成了 Seedance 2.0 的熱門案例。像是有人做了一個洗髮水的廣告,發 X 說「Seedance 2 好得令人難以置信」,並且還預計「到今年年底,90%的廣告公司將倒閉。」提示詞:一則高品質女士洗髮水廣告|視訊來源:X@markgadala還有給 Nike 做的廣告。創作者在推文裡面說,無論是一鏡還是分鏡蒙太奇,從正常速度轉到升格畫面,Seedance 2.0 現在都可以完全控制。除了給實體產品打廣告,用 Seedance 2.0 還能做一個 App 的廣告宣傳片。這種實打實的應用能力,隨著 Seedance 2.0 的爆火,甚至還帶動了一系列的傳媒類股,上海電影、光線傳媒、讀客文化等多支傳媒類股股票漲停。在 X、bilibili、抖音還有微信視訊號上,都還有非常多有意思的 AI 視訊玩法,就連賈樟柯都發微博說,打算用 Seedance 2.0 做個短片。不過,需要提醒的是,目前即夢已經暫時限制了真人人臉素材的使用,APPSO 展示的使用案例都是在內測第一時間完成的。所以在當前的使用過程中,我們可能會遇到「你上傳的圖片/視訊、輸入的提示詞不符合平台規則」的提示,這也是爆火之後,字節為了防止各種假視訊傳播和 IP 濫用迅速做出的反應。好在自己的人臉還是可以用,在即夢 AI App 裡面,我們可以建立自己的人物形象,建立完成之後,就能在不同的 AI 視訊裡面,讓自己出鏡了。Seedance 2.0 官網:https://seed.bytedance.com/zh/seedance2_0這一次 Seedance 2.0 真實地改變了很多人對 AI 視訊的看法,僅僅是參考能力這一點,就足以做到很多需要複雜視訊拍攝、剪輯工作才能完成的效果。去那體驗?即夢、豆包、小雲雀,還有火山引擎我們也推薦大家上手去試試這一款模型,或許會帶來一些驚喜。目前一些公開的體驗方式,包括在即夢網頁版、小雲雀、火山引擎的體驗案例,以及在豆包 App 內開始灰度測試 Seedance 2.0。1、即夢網頁版:https://jimeng.jianying.com/ai-tool/generate?type=video即夢網頁版目前是體驗 Seedance 2.0 最直接便捷的方式,網頁版僅支援抖音掃碼登錄。登錄完成,選擇「全能參考」或者「首尾幀」,就可以直接使用 Seedance 2.0 來生成。積分消費的情況,會根據上傳的參考內容而有所不同,我們在測試中發現,最高的記錄是,上傳 15s 的視訊參考、圖片參考、音訊參考,等多達 9 個檔案,選擇時長為 15s,需要 195 積分(實際使用情況可能會有波動)。但一般的上傳圖片作為參考,生成一段 5s 的視訊,是消耗 25 積分。在即夢 AI App 內,現在也能看到 S2.0 Fast 的模型。2、小雲雀:https://xyq.jianying.com/小雲雀也是字節跳動剪映團隊下的一款 AI 視訊和圖片創作助手,小雲雀每天會送 120 積分,對比在即夢網頁版,小雲雀能直接通過連結參考,而不僅僅是侷限在本地上傳。我們可以輸入抖音/頭條/西瓜爆款視訊連結,直接參考。但是小雲雀對於市場的控制,不像即夢網頁版,有 4-15s 的自訂控制項,小雲雀只有 5s、10s、15s 三個選項。積分消費情況,小雲雀目前是「沉浸式短片 Seedance 2.0 限免1次(不扣積分),按 1 秒 8 積分扣除」。3、火山引擎https://console.volcengine.com/ark/region:ark+cn-beijing/experience/vision?modelId=doubao-seedance-2-0-260128&tab=GenVideo火山引擎是字節跳動的雲服務平台,目前 Seedance 2.0 模型在 2026年2月10日-2月24日 僅支援在控制台體驗中心免費額度內體驗,預計台北時間 2月24日18點左右開始支援通過 API 呼叫。雖然是免費額度,但是目前只能玩火山引擎內提供的範本,使用者在選擇 Doubao-Seedance-2.0. 260128(完整模型名字)之後,上傳圖片或視訊參考暫時不可用,只允許選擇素材庫內的圖片和視訊。火山引擎提供的範本也非常豐富,某種程度上也是給自己省去了找參考視訊的時間。4、豆包 App手機截圖來自網路,來源見水印在社交媒體上,已經有網友發現在豆包 App 裡面可以選擇 Seedance 2.0,字節跳動官方也宣佈在豆包 App 和網頁版,都能使用 Seedance 2.0 視訊模型。豆包提供了每天 10 次的體驗機會,但在我們的測試中,發現目前不支援上傳參考圖,且生成的視訊默認是 5s。此外,在豆包 App 內生成視訊也有諸多限制,例如不支援積分充值,每天的額度有限。綜合下來,在即夢網頁版體驗 Seedance 2.0,還是我們最推薦的方式。但這幾天排隊的人應該很多,「當前排隊超 1000 位……」大概是常態。除了等待,即夢也上線了 Seedance 2.0 Fast 快速版本,不僅消耗更少積分,而且能更快得到結果。最後,等待的同時,或許還可以參考即夢官方的 Seedance 2.0 使用手冊,解鎖更多的玩法。手冊裡還有非常多的參考視訊,不需要額外尋找,我們可以直接拿過來用。在我們的體驗過程中,大多數的提示詞撰寫基本上是按照一般的對話文字來寫,也沒有進行 AI 潤色。如果你不知道怎麼寫提示詞,這份手冊裡,也有全面的參考。例如有一些比較有意思的提示詞,能夠很快上手,並且得到不錯的效果。1、參考視訊1的音訊,根據圖1、圖2、圖3、圖4、圖5為靈感,發散出一條情緒向的視訊。背景音樂參考@視訊12、將@視訊1中的女生換成戲曲花旦,場景在一個精美的舞台上,參考@視訊1的運鏡和轉場效果,利用鏡頭匹配人物的動作,極致的舞台美感,增強視覺衝擊力3、參考視訊1的運鏡、畫面切換節奏,拿圖片1的紅色超跑進行復刻。4、將@圖1以從左到右從上到下的順序進行漫畫演繹,保持人物說的台詞與圖片上的一致,分鏡切換以及重點的情節演繹加入特殊音效,整體風格詼諧幽默;演繹方式參考@視訊15、0-3秒:開頭鬧鐘響起來,畫面朦朧中出現畫面@圖片1; 3-10秒:快速搖鏡頭,轉向對面特寫@圖片2男人面部,男人無奈的叫女生起床,語氣和音色參考@視訊1; 10-12秒:女生撅著嘴躲進被子裡面; 12-15秒:切換到男主全身,他嘆著氣說:“真拿你沒辦法!”🔗 連結:🎬 即夢 Seedance 2.0 使用手冊(全新多模態創作體驗)https://bytedance.larkoffice.com/wiki/A5RHwWhoBiOnjukIIw6cu5ybnXQ (APPSO)