#零基礎
巴倫周刊—零編碼!零基礎!光靠嘴,AI兩天幫我造了個金融量化大賽平台
“在你眼裡最符合AI審美的金融交易大賽頁面什麼樣?”這是我,一個從未沾染過頁面設計和程式碼開發的人,出於好奇,在AI頁面設計工具Stitch對話方塊中留下的第一句話。從此一發不可收拾的,不光是Stitch發佈當天,傳統設計軟體龍頭Figma重挫8%的股價;還有我手裡這個,最終沒有任何碳基生命參與程式碼開發的量化交易大賽平台——Digital Quant。接下來的兩天裡,從前端由Stitch匯出AI可讀檔案,後端交由CodeX完成程式碼編寫,再由Claude Code進行測試驗證,直至部署上線。Digital Quant2026的設計開發、驗證迭代全部交給AI。最終我們內部評估,僅開發環節時效比以往人工提升了約4倍。而我最主要的工作僅是回歸本行:用人話說好自己的問題。數字金融策略交易產品,這個人類智力密集型決策場景如此快速地徹底由AI 接管,我之前是沒敢想的。Barron's巴倫中文網與DeAI Expo主辦,CGV、鏈得得ChainDD等協辦的Digital Quant,https://digitalquant.fund/ 是一個聚合數位資產策略機構交易方與投資方(資管、家辦、信託、私募基金等LP)的開放平台。核心功能是通過呼叫機構策略交易者在全球主要數位資產交易所帳戶API可讀權限,來進行AI、量化等策略交易的實盤對比、因子最佳化,以全維度可視化資料看板的方式呈現給資金方,最終完成規模可靠資金與優質量化策略的雙向匹配。自從今年伊始,Digital Quant的技術合作夥伴就變得異常繁忙。Koala是該夥伴公司的首席架構師,他AI場景服務創業3年,今年似乎有所不同。Koala說,連NASA的火星車程式碼都在依賴Claude Code,身邊絕大多數程式設計師在程式碼日常開發的任務中,AI編寫的比例早已超過80%。他過去一年的項目,UI使用者介面設計已無需人工介入。我們決定把步子邁得徹底些,將Digital Quant核心產品用AI完整重寫與部署。與此同時,Koala 公司自己的內部技術產品管理系統,也開始進行全盤AI重構。Digital Quant這個產品所依賴的API介面對接、展示、偵錯、驗證用AI來寫已經非常成熟。聯調周期、維護難度大幅下降,在技術流程系統管理上,未來不會因為核心開發的變動而造成銜接斷檔的風險。甚至接下來普通非技術人員僅憑自然語言互動就可實現後續功能迭代開發。我們的要求十分明確,“不想再看到任何一段人寫的程式碼”。這既是促進也是壓力。Koala的公司在過去一個半月裡已經開掉了70%的程式設計師。AI接管後,原本嚴絲合縫的開發人員結構瞬間變得臃腫不堪,人員本身的價值也隨之迅速分化。JAQ是這傢伙伴公司的CEO,在一個多月後,AI完成內部系統架構重寫,他還計畫繼續最佳化現有技術人員。表面上看,當前這些激進的舉措是為了把砍掉的成本留出來給到留下的核心工程師,以及不斷增長的Token開銷。他表示,“但這都不是核心。”Agent to Agent降臨前端與API速死這一切都是為了打掃好房間,為A2A的到來做準備。A2A,Agent to Agent,Openclaw帶來的AI智能體潮流,不僅提升了人類利用AI工具的深度廣度,更提出了一種人類疊加智能體與其它主體間的互動範式。Agent各自訓練完成的Skills,無論本地部署或開放部署都為該Agent母體創造了一種獨具一格的問題解決能力。這些獨有的Skill是可交易的、可互動的、 甚至可性格化的標籤。未來,當一個人類對自己的Agent提出某一項需求時,他的Agent將會自主與另一個Agent的目標Skill進行直接默認的訪問。這種Skill與Skill之間基於原生AI相互理解的互動、問題解決、乃至交易處理程序,都會變得極其迅速高效。那麼,當你有一個需求時,還會打開一個網頁前端去瀏覽內容嗎?獲取展示資料時,還需要苦哈哈地對接聯調API介面嗎?別忘了Claude Code最初就是Boris Cherny用來跑自家Anthropic API指令碼的編碼工具。我們開始驗證這個趨勢,比如在Digital Quant目前對接的數位資產交易所之一的Binance裡,他們已經陸續開放了一些Skills。接下來我們的實盤展示平台就可以直接訪問他們的相關Skill,在金融交易資料可讀資訊中,這樣的效率將遠比傳統API更高更穩定,那麼未來這類API存在的價值是什麼。如果接下來投資人Agent將直接訪問我們的獨家分類策略資料Skill,我們作為交易資訊展示看板的前端意義又在那裡?對此,數位資產管理公司Crypto Alpha合夥人Sharri Kong也有類似感受,“從資管公司角度,我們已經看到很多提供市場研報的Agent付費服務,包括給LP提供的日報生成,給我們GP提供金融策略資訊的深度抓取彙總等等。現在這些不基於以往簡單資訊流掃描而生產的報告,在深度廣度上確實提高了價值,但或許還無法為將來資管領域的AI進化提供支撐。”Sharri Kong認為在A2A的趨勢下,未來金融服務可能是為Agent,給智能助理提供可讀服務,而不是給人。這樣反而更精準,因為使用者的Agent會更懂業務、更懂資料、更懂演算法、更懂操作,乃至比使用者更懂自己實際的需求。在此基礎上,Digital Quant這類數字資管與策略方聚合平台的演進方向或許是,將這些獨家交易資料、策略模型和客戶需求聚合成本地化部署的Skill。匹配資管方LP Agent Skill自動化默認讀取互動,或在遇到因為既有資料訓練不足無法充分滿足需求時,再接入第三方策略方Skill,就可以完成資金端與資產端全鏈路的資料審查、策略驗證、優劣分析、即時讀取、資金劃轉,以及更加標準化流程化的法務、財務程序,都在沒有前端、沒有API、連面都不用見的條件下自主完成。“難怪愛奇藝這樣的公司已經開始要求,沒有AI化的供應商不再續約。”Koala說。這種Skills之間自主呼叫需求最優解,完成交易互動,進而降本增效的應用已經出現。某家公司採購部門的Agent,採購人員將選品要求包括目標人群、節日屬性、時令季節、預算範圍、偏好等粗略資訊給Agent。該Agent自動掃全網滿足條件的淘寶商家Agent,這並非傳統的搜尋邏輯,是利用Skills互動來做商家分析、產品篩選、目標選定。這個溝通過程僅發生於兩方Agent之間,甚至是砍價環節,隨後下單,採購方老闆授權支付,最終成交。最近在區塊鏈上,甚至出現了Agents任務分包平台。來自全球各地的Agents來到這個平台上,自動生成Token支付帳戶地址,通過發佈各自任務需求和交換Skills能力邊界,來分包任務、接單派活、完成工作、獲取報酬。在你做夢的時候,你培養的Agent都能自主為你打工或者兼職養活他自己。“這本質上是一次軟體互動介面從以人為本到以Agent為本的遷移。”在與我的交流中,阿里Qoder負責人丁宇,對A2A給出了評價。他解釋,以前的軟體都是給人用,有API、有文件,本身有不完備性。所謂完備性,是可通過配參數實現所有功能,但今天還沒有達到這麼好的基建。比如某些網站沒有API化,為了達到一些酷炫視覺效果,做得一些拖拉拽功能和動效, AI就很難去理解。丁宇如今負責的產品Qoder,是阿里巴巴於2025年8月發佈的Agentic AI程式設計平台。他判斷,未來的軟體是給Agents用的,由於API的不完備,就看誰能夠把Agent Native的服務先開發出來。通過MCP化 、Skill化就能夠呼叫完整業務的操作,誰先做到這一點誰就能夠更容易實現介面遷移,以及操作閉環。從上一代為人服務的軟體互動介面完成徹底升級。目前越是適合用Agent完成工作的場景,這個替代過程越快。實踐經驗告訴我,用AI進化業務系統,建立在如何建構AI充分學習成長的空間之上。試著去想想AI模型想要什麼:它不想被關在一個只有API的黑箱裡,它想入網、想讀檔案、想運行程式碼、想看報錯、想觸摸Agent、想感應Skill、想和這個世界互動。現在你的所有工作都要派給AI,你的工作就是幫AI創造一個合適的環境,讓它安心幹活。那麼我們該如何做?賦予AI原生環境首先,要讓AI完成所有程式碼開發和偵錯,人必須懂得如何明確需求,規劃功能,分拆任務。把核心程式碼交給AI並不是看上去那麼輕鬆。項目背景資訊、程式碼規範、注意事項是持續要喂給AI的內容。喂養Agent時,它職責邊界是什麼,它用的工具是否趁手,它呼叫的服務是否Agent化,把這些東西設計出來給它。你要拿到的不是一套AI所編寫的全套程式碼,而是你的產品是否能夠因此沉澱出一份AI能讀懂的工作文件,這變成了最有價值的成果。讓後續迭代升級和維護查錯都能夠沿著這套環境文字自如進行。給AI一張清晰的藍圖,把你規劃裡的顯性和隱形約束都交代清楚,將你的程式碼美學強行加注給它,不要讓AI瞎猜,變成你邏輯推理的延伸。其次,看AI想用什麼工具,看使用者想讓AI幹什麼,把這種行為標準化。不要主觀地去幫Agent決定它應該看到什麼,給它搜尋工具,給它入口檔案和權限,讓它自主去選擇那些當前已有的Skills,讓它以AI自己的原生邏輯,給它匹配原生環境去挖掘。它自己摸索的推理鏈路才是最完整的。最後,A2A、模型暴力進化、AI一天一變的背景下UI已死,產品終端無需看起來很複雜很高級的介面,這種過度最佳化容易被現實碾壓。從開發應用走向通用智能體“現在正在發生一個變化。”阿里Qoder負責人丁宇認為,Coding Agent將變成通用Agent。因為Coding Agent具備隨時創造軟體和製造工具的能力。而今天軟體和工具並不能解決所有問題,還需要很多Skill、MCP、API的服務。這些組合起來,既具備了Know How又具備了完成某種任務的能力認知,它就可以把這些工作流,包括結合服務呼叫,把整套鏈路串聯起來,就逐漸往通用智能體去轉變。關鍵在Skill是目前拓展場景最好的方式,可Skill這個體系是開放的,普通人鑑別能力不強,這也是現在出現hub類的入口的原因,把控上游的同時,為Skill的安全性把關。你搭的世界由誰實控?AI幻覺引發的巨額資產損失事故已在身邊發生。由於Claude Opus 4.6編寫了漏洞程式碼,導致一家叫Moonwell的項目智能合約遭攻擊損失178萬美元。這個程式碼漏洞甚至是低級的,預言機的喂價公式被寫錯,將系統內某類資產的價格寫成了該資產原價的兩千分之一,合約與程式碼審計居然都沒查出來。大模型時代,模型在推理的時候必須提供提示詞,不能以加密形式給它。有些敏感行業的公司因此自己部署模型推理服務,讓全鏈條都控在手裡。雖然Digital Quant只作為數位資產量化交易的資料展示平台,產品本身不產生交易、不儲存也不經手資產。但畢竟身處金融交易應用賽道,我們依然定下了幾個管理原則,1、必須多重程式碼校驗,AI生成程式碼必須經過人工審查,關鍵邏輯必須三重確認。2、創造沙箱隔離環境,敏感資訊如資料庫配置、金鑰等不在開發態暴露給AI,所有呼叫在沙盒中模擬執行,正式環境才接入真實配置。AI Coding雖然讓程式碼平權,但如果你只會用AI寫程式碼,而不知道底層原理和未來方向是什麼,那也會帶來生產和管理災難。因為你跳過了所有決策過程,你不知道為何選這個資料結構,不知道記憶體佈局有什麼權衡,看似公司擁有AI程式碼的所有權,卻失去了對程式碼的智力控制權。一旦出事,就是大事,當那個極低機率的競態條件在生產環境炸開,你發現自己面對的是一個名義上由“我”建造,但完全看不懂的世界。連問題在那兒都猜不出來,你怎麼辦?倖存者守則在微軟和MIT的研究中,初級程式設計師用AI在生產力上有40%的提升,同時頂級程式設計師漲幅僅8%甚至負增長。原因很簡單,初級程式設計師在既有平庸裡求助,而頂級程式設計師在未知領域拓展邊界,這個領域的資料AI訓練集裡沒多少存貨,時不時還得去糾AI的錯。現實中公司的程式設計師也會逐漸分為兩種:1、提示員,依賴AI幹活兒的人,自身水平被AI均值鎖死,對系統無深層掌控,遇到極端情況就完蛋,容易被模型本身的迭代所淘汰。2、操作員,他們把原來寫包裝器、測試資料、樣本程式碼的垃圾時間交給AI,自己把精力放在新架構設計、最佳化分佈式共識演算法等領域。“有的人能管理2個Agent,有的人能管8個,這個價值就不一樣。”阿里Qoder負責人丁宇說到,AI的粘合彌補替代下,傳統IT技術開發工種的邊界在模糊化,快速走向融合。減少了眾多溝通和協同過程,人效比變得極高。以前是10個人充分溝通討論執行,現在10個Agent以一個人為中心,利用“心靈感應”式地協同不眠不休幹活,這種超級個體極具競爭力。還記得前文我們那位夥伴公司CEO JAQ嗎?砍掉了公司絕大多數兢兢業業、埋頭苦幹的技術芸芸眾生,他現在正凝視著公司裡那些看似不務正業、厭惡傳統條框、“誇誇其談”、動腦子遠超動手交付能力的人。 (Barrons巴倫)
別去買課!Seedance 2.0 保姆級教學來了,零基礎 3 分鐘做出院線大片(附萬能公式)
Seedance 2.0 橫空出世,生成的各種視訊讓人歎為觀止,不誇張的說這會給影視行業帶來一次大地震,當然也給廣大使用者帶來新的機會。現在,確實人人都可以是導演了。但是,那些酷炫的、電影般的視訊到底是怎麼做出來的?雖然我之前已經寫過兩篇文章了,但評論區仍然有大量朋友希望出一個新手教學。另外我看到一些群友甚至連 Seedance 的官網都找了個冒牌的,這實在不能忍,這期就來一個基礎教學,但我保證也適用於有經驗的朋友。廢話少說,直接開始。01|Seedance 到底是什麼?Seedance 是一個 AI 視訊生成模型,2.0 是它的最新版本、也是目前(博主覺得)整個 AI 視訊領域全世界最強大的版本。但它是純國產的,並不是國外的產品,它是字節跳動(抖音的同一個爸爸)出的,所以也不需要魔法上網。我們在即夢(也是字節的產品)的官網或者 APP 都可以使用,🔗 地址是:https://jimeng.jianying.com/圖:在即夢官網使用 Seedance 2.0除了網站,有部分使用者在“即夢AI”的 APP 或者“豆包APP”也能看到。字節另一款產品“小雲雀”,不論是 APP 還是網站也都可以使用,網址是:🔗:https://xyq.jianying.com/💡 Seedance 2.0 目前還在灰度測試當中,不論是即夢官網、即夢 APP 還是豆包 APP, 都沒有全部開放,所以看不到的朋友不用著急。Seedance 並不是免費的,但是使用者只要登錄,每天會送 60 個積分。這 60 個積分只能生成一個 10s 的視訊。之後的視訊生成就需要購買即夢的會員了,你可以根據自己的需要進行購買。(即夢不止用來生成視訊,還包括圖片、數字人等)圖:即夢的套餐10 個積分 =  1 元人民幣。換句話說,做一個 10s 的視訊需要 6 塊錢,當然這是最基本的情況,如果你加入了比如 1 個視訊參考 (後面會講到),積分會飆升到 130。也就說,生成一個 10s 視訊需要 13 塊錢。02|Seedance 2.0 能做什麼?Seedance 2.0的能力有多強,可以看我前兩天寫的文章:seedance 2.0 實測:影視圈的“ChatGPT 時刻”真的來了!瘋狂刷屏的 Seedance 2.0 到底有多強?我整理了這些“嚇人”的案例,建議直接收藏。一言以蔽之:它可以做出院線級視訊片段。不誇張的說,如果它放開限制,可以干翻整個影視行業。03|核心玩法:全能參考怎麼使用是這篇文章的重點,但做視訊本身其實是個有專業門檻的事情,而且 Seedance 2.0 的功能實在太多了,一篇文章恐怕很難完全講明白。所以,我這裡會重點聚焦它的核心功能:全能參考。我們之前可以通過一段文字、或者參考一張圖片來生成視訊,但現在 Seedance 2.0 可以同時參考文字、圖片、視訊、甚至音訊,而且還不止一個。要使用參考非常簡單,不管是參考圖還是視訊,只需要先把他們上傳,然後在提示詞裡面 @ 它就可以了。圖:在 Seedance 2.0 里面使用“全能參考”比如這個例子當中完整的提示詞是:@圖片1 在香港街頭和多名黑衣男子激烈打鬥,最後那些黑衣男子全部倒地不起。最後@圖片1 怒吼:“還有誰?”可以同時參考多個圖片、視訊,比如這裡參考了 6 個圖片,一個視訊:圖:seedance 2.0 里面的參考具體可以參考那些格式以及參考多少,可以看官方文件的說明(連結在文末)04|參考有什麼用?你可能會問什麼參考能做什麼或者什麼時候用到參考?“全能參考”是 Seedance 2.0 最強大的一個功能,它能做的事情太多了。比如參考一個人物形象來生成一個視訊,讓生成的視訊當中的人物變成你想要的人物。通過單張或者多張圖做參考,讓做出的視訊保持人物、場景的“一致性”,是一個最基本的需求。簡單來說就是:通過參考讓你生成的視訊用你指定的人物和場景。這就像你是導演,你選了一個演員,並且讓 ta 必須在你建構好的影棚裡拍攝。但 seedance 2.0的“全能參考”絕不侷限於此,而這正是它可以吊打其他視訊模型的一個大殺器。它還可以參考一個動作來生成一段功夫片、一段舞蹈。還可以參考運鏡來生成同樣酷炫的視訊。參考一張分鏡表、分鏡圖來直接出一段做好的視訊。甚至參考一段音樂的節奏來做卡點視訊。這些案例都可以在之前的文章裡面具體瞭解:seedance 2.0 實測:影視圈的“ChatGPT 時刻”真的來了!可以發現,“全能參考”其實是一個組合拳:你可以同時參考圖片的人物形象、場景,參考視訊的動作、運鏡,參考音訊的音色、節奏等。比如這個案例參考了一個人物形象,5 套服裝、一個音樂節奏圖:同時參考多個元素的案例如果說參考圖片、視訊都不夠震驚、不夠新鮮的話,那參考音訊就真的讓我頗為驚訝了。可以說,有了“全能參考”不僅可以非常精細的通過人物形象、場景、動作、特效及聲音來控制生成的視訊,還可以直接“復刻”幾乎任何視訊。再一次,Seedance 2.0 把“做同款”發揮到了極致,是勢必掀起一股二創的浪潮。05|聲音與台詞:終於能說話了!沒有聲音,再好的戲也出不來。Seedance 2.0 雖然首次上線了“同期聲”,但從效果上看足以吊打市面上其他產品。所謂的同期聲就是指隨著視訊一起生成的聲音(包括音效、對白等),而不是後期單獨配上去的。比如下面這個例子,裡面包含了對白、BGM、音效,這一切都是直接生成的,各種聲音在一起非常和諧自然,而不是非常突兀,有些地方還有漸強漸弱的效果。但這樣的視訊只用了最簡單的提示詞就完成了:將@圖片1 以從左到右從上到下的順序進行漫畫演繹,保持人物說的台詞與圖片上的一致,分鏡切換以及重點的情節演繹加入特殊音效,整體風格溫馨甜蜜;演繹方式參考@視訊1除了基本的對白,seedance 2.0 還支援多種語言,甚至多種方言,包括四川話、粵語等。可怕的是,它甚至支援戲劇。(豫劇、京劇啥的)可以說,Seedance 2.0 把影視同期聲捲到了一個新的高度。06|提示詞怎麼寫?儘管我前面已經展示了一些提示詞,特別是怎麼使用全能參考,但這並不是寫提示詞的全部。Seedance 2.0 已經足夠聰明,不論是你通過前面那種簡單的提示詞,還是通過複雜的提示詞都能產出不錯的視訊。簡單的提示詞其實就像我們平時描述一件事情一樣,把事情說明白就行了,比如:女孩在優雅的曬衣服,曬完接著在桶裡拿出另一件,用力抖一抖衣服。(這個例子來自官方案例)如果要具體一點,你可以把每個畫面的內容、音效以及對白都寫清楚,類似這樣:0–3秒畫面:西裝男坐在酒吧,神情冷靜,手裡輕晃酒杯。 鏡頭緩慢推進,光影高級、氛圍嚴肅。 環境音低沉,西裝男小聲說“這單生意,很大。”3–6秒畫面:身後的女人表情緊張問“有多大?”西裝男抬眼,壓低聲音:“非常大。”鏡頭切手部特寫——他把酒杯放下,氣場拉滿。6–9秒畫面:突然西裝男從桌下掏出—— 一大包體積誇張的零食禮包,“咚”的一聲重重放在桌上。9–12秒畫面:身後的女人原本放在腰間的手,肌肉從僵硬到鬆弛,整個人表情放鬆。畫面氛圍輕鬆起來。13–15秒畫面:西裝男拿出一包零食給女人,鏡頭拉遠展示酒館全景,畫面變得透明模糊—— 字幕彈出“再忙,也要記得吃點零食~”那如果你還想做得更專業一點、更可控一點,提示詞應該怎麼寫?實際上有個萬能公式可以參考:主體+場景+動作+鏡頭語言+風格但重點其實就是說清楚:誰(主體)在那裡(場景)做什麼事情(動作)。鏡頭語言有點陌生?當然,這裡要說得很清楚就有點專業了,可能會包括整個視聽語言的內容。但我們不要瞭解這麼多,其實只需要知道:景別:遠全中近特 (遠景、中景還是特寫之類的),不用太多解釋吧鏡頭運動:常說的“推拉搖移跟”,是慢慢靠近的推鏡頭、慢慢原理的拉盡頭、跟拍鏡頭還是第一視角鏡頭或者是著名的希區柯克運鏡,以及是不是慢鏡頭?或者手持拍攝提示詞如下:生成一段專業賽車電影預告。0-3秒: 特寫鏡頭。參考 @圖片2,賽車手眼神犀利,儀表盤指針瞬間打到紅區,手部快速換擋。音效:引擎轟鳴聲。4-8秒: 高速跟拍。參考 @圖片1,黃色跑車在賽道彎道處極速漂移,輪胎捲起大量白煙,車尾甩動。一輛黑色賽車緊貼著試圖超車。9-13秒: 慢動作(升格)。跑車沖上坡道騰空飛起。鏡頭在空中圍繞靜止的車身旋轉 360 度,展示懸掛細節。背景是夕陽。14-15秒: 正常速度。賽車重重落地,衝過終點線。畫面黑屏,出現片名《FAST & FURY》。這裡分別用到了特寫、高度跟拍、慢動作這些鏡頭語言,是不是突然顯得有點專業了。除了鏡頭方面,風格也是影響視訊非常關鍵的一個因素。比如是宮崎駿動漫風格、日系清新、賽博朋克還是王家衛港片風格?是經典的青橙色調、還是曖昧的黃綠色調?這個例子來自網路,它的風格描寫是:90年代香港文藝片風格(90s Hong Kong Art Cinema),復古膠片感,高感光度噪點(High ISO Grain),曖昧的黃綠色調(Yellow-Green Tint),抽幀效果(Step-printing),憂鬱氛圍。掌握了這些,你做出來的視訊就可以足夠專業了,當然如果你學過專業的視聽語言,可以運用更多的技巧。至於“畫質”,很多人會寫“高畫質、4K、超高畫質”,我感覺沒啥必要,這是非常早期的寫法,現在的系統要麼直接定死了能出什麼清晰度要麼可供你選擇。比如 Seedance 2.0 默認是 720p,即便你指定了 4K,也不可能生出 4K 的視訊來。不管是那個部分,寫提示詞的重點都是要清晰具體,而不是寫一些很模糊、很籠統的,這樣的東西人尚且不能理解,AI 能理解嗎?最後再看一個網友的例子:這樣的出片質量,感覺院線電影也不過如此。很看到很多經典的復古片段出來,“邵氏電影”風格突然又成了一個關鍵詞了。寫在最後一個公認的事實是,Seedance 2.0 已經是世界最牛逼的 AI 視訊模型,它對整個影視領域的衝擊是海嘯般的。是危機、也是機遇。短短幾天,我看到了網友們大量優秀的作品,我看到了國漫之光、我看到了無窮盡般的民間創意大爆發。一個人人都可以做電影、拍短劇的時代。 (AI范兒)