#氛圍
街邊拍照,放鬆下來,自然好看,出片大方漂亮氛圍好
街邊其實是一個很適合拍照的地方,路面、牆面、台階和來往的光影都很生活,只要人別太緊張,動作別太用力,站在街邊慢慢放鬆下來,照片就會自然好看,整個人看起來也會更大方,拍出來的畫面乾淨耐看,還有一種不刻意的氛圍感。1、正站街邊,一手提包,一手撩發看邊邊笑街邊拍照時正站著最不容易出錯,一隻手自然提著包,另一隻手輕輕撩一下頭髮,身體微微偏一點,眼睛不看鏡頭而是看向旁邊笑一下,整個人的狀態會很鬆弛,動作不複雜但畫面很乾淨,裙襬或衣角隨著站姿自然垂下來,拍出來會顯得人溫柔又大方。2、側坐街邊,雙腳曲著,單手托腮回頭笑坐在街邊台階或路沿時身體側著坐,雙腳自然彎曲別刻意併攏,一隻手托著下巴,頭稍微往後回一下再笑,畫面會有一種被抓拍到的感覺,動作輕鬆不做作,街邊的背景剛好襯託人物,拍出來既顯隨意又很有生活氣息。3、側身插兜,一腳下階梯,回頭看遠笑站在街邊有階梯的位置可以側身站好,一隻腳輕輕踩在下一級台階上,雙手或單手插兜,身體自然傾斜一點,再回頭看向遠處笑,動作連貫又不誇張,整個人看起來很放鬆,照片裡會多出一種走在路上的感覺,特別容易出片。4、正坐街頭,雙腿側擺,歪歪頭看鏡頭笑正坐在街邊長椅或台階時雙腿向一側擺放,身體保持正向,頭輕輕歪一下再看鏡頭微笑,這個動作很簡單但很顯親和,街景在畫面裡不會顯亂,人也不會顯僵,拍出來的照片自然好看,給人一種安靜又舒服的感覺。5、正站靠牆,雙手插兜,看著遠方笑靠著街邊的牆站好,身體不用貼太緊,雙手插兜讓肩膀自然放鬆,眼睛看向遠處輕輕笑一下,動作很日常卻特別耐看,牆面的線條能讓畫面更乾淨,人站在其中會顯得很穩,拍出來的照片簡單大方,氛圍感很足。6、側身站街邊,雙手提包,仰頭看遠方側身站在街邊時雙手提著包放在身前或身側,身體保持自然延伸,頭微微仰起看向遠方,整個人會顯得很舒展,街邊的空間感被拉開,畫面不擁擠,拍出來的人看起來很從容,氣質也會被放大。7、側站街邊,單手插兜,仰頭微笑看遠方站在街邊時身體側著,一隻手插兜讓動作更自然,另一隻手隨意拉著包帶,頭輕輕仰起看向遠處微笑,整個人會有一種慢慢走著的感覺,畫面不會刻意擺拍,拍出來的照片乾淨又耐看,很適合日常分享。街邊拍照其實不需要複雜的拍照動作,只要把身體放鬆下來,動作貼近生活,讓目光有去處,笑容自然出現,照片就會好看又出片,人也會顯得大方漂亮,整體畫面多一點真實感,反而更容易拍出讓人願意多看幾眼的氛圍感。 (學些拍照技巧)
美國經濟與美債:空氣中洋溢著過度樂觀的氛圍
美國經濟:英美協議微不足道,通膨壓力何時出現?1. 英美貿易協議:微不足道上周四,川普政府宣佈與英國達成貿易協議,這是自90天暫停期以來的首份雙邊協議。然而,這份協議無論從條款力度還是從經濟影響的角度來看,都幾乎微不足道,對於其他國家的雙邊貿易談判也並無太大參考意義。首先,在這份協議中,美國唯一正式承諾的實際關稅減免,是將汽車關稅從25%降至10%,且只針對從英國出口的前10萬輛汽車。對於鋼鐵和鋁,川普政府承諾建立一個類似的配額系統以提供關稅減免,但協議檔案並未提供任何細節。美國商務部長盧特尼克在發佈會上承諾的飛機發動機和零件免稅,在協議檔案中也未見蹤跡。其次,這份協議的經濟影響幾乎可以忽略不計。英國並非美國的主要貿易夥伴,英國商品只佔美國商品進口的約2%,而協議所減免的商品只佔英國對美出口商品的14%。最後,這份協議對與其他國家的雙邊貿易談判並無太多參考意義。一方面,英國對美國不光存在貿易逆差,同時也是其在北約的親密盟友,達成協議本身並無太大難度。另一方面,如果“最簡單的協議”也只能取得這樣程度的減免,那麼這對其他貿易談判來說並不樂觀。如果一定要說英美協議對後續談判有什麼啟示的話,可能就是10%的全球基準關稅是一條底線,或者說不在雙方討價還價範圍之內,這也與我們之前的觀點一致。目前,與其他國家的雙邊貿易協定進展緩慢,這意味著在90天暫停期結束前(7月8日)與十幾個主要貿易夥伴均達成協議比較困難,暫停期有可能被繼續延長,這也會帶來更長時間的不確定性。2. 企業搶庫存不及預期,通膨壓力可能較快到來?美國3月貿易逆差再創新高,從2月份修正後的1232億美元躍升14.0%,達到創紀錄的1405億美元。這主要是因為企業在加征關稅前增加商品進口(搶先提高庫存),這也拖累了美國第一季GDP,導致三年來首次出現負增長。儘管如此,進口額中大部分的增長都來自藥品和電子產品,與此同時,服裝和家具等面向消費者的類別增長要小得多。這表明提前補庫存只集中在個別行業而非廣泛的行為。如果零售商的庫存緩衝不夠厚,那麼通膨壓力可能比預期的更快到來。下周二,美國勞工統計局(BLS)將公佈4月CPI資料,預計核心通膨環比將出現反彈。3月份,核心通膨受到二手車、汽車保險、機票和酒店價格下跌的拖曳,環比增速僅錄得0.1%。4月份,上述價格下跌的拖累項預計將出現轉正。2月和3月對華關稅的上調,可能會在4月CPI資料中留下痕跡,但預計影響比較有限,更顯著的影響可能要從5月開始。根據Adobe電子價格指數所示,美國依賴進口的消費品價格在4月份漲跌互現。電腦和電子產品出現比較大的價格上漲,但服裝、玩具和珠寶價格下跌,家具也沒有很明顯的漲幅。3. 平平無奇議息會,無可奉告鮑爾5月FOMC會議波瀾不驚。會議聲明進行了略微調整,以強調不確定性的增強,而這種增強意味著通膨和就業都面臨風險。在發佈會環節,鮑爾延續了之前耐心等待的論調,並未提供明確的指引,但同時也沒有徹底否決掉6月降息的可能性。鮑爾總體上呈現出不可知論的態度,對於關稅最終規模、關稅對通膨和就業的影響程度和先後順序均表示無法預判。鮑爾強調了硬資料是對未來行動的唯一指引,以及軟資料在過去周期中的不可靠性。鮑爾還特別對比了19年降息和當前的區別,指出當時通膨處於低位,面對關稅不確定性進行預防性降息並沒有太大決策難度。但是目前面臨通膨和就業的權衡取捨,因此降息更可能是reactive(被動反應式)而非preemptive(先發制人式)。美債市場:當前對前端、久期、曲線、互換利差的看法上周,各期限美債收益率進一步上行。相比前一個周五(5月2日),2年、5年、10年和30年期收益率分別上升6、8、7和5個基點。由於關稅談判的積極進展、聯準會不急於降息的表態、以及初請資料強於預期,收益率曲線出現熊平(特別是5s30s),這主要源於對利率路徑的重新上修,而期限溢價仍然穩定維持在高位。目前,從聯邦基金利率期貨隱含的預期看,市場已經幾乎抹去了6月降息的機率(17%),但7月定價仍然有60%的降息可能,而年底隱含的降息幅度為62個基點,約等於2.5次。對於前端,從3月以來我們一直強調,市場高估了短期降息的可能性,降息可能被後置,SOFR Z5Z6曲線有進一步趨平的空間(降息幅度從25年進一步移至26年)。事實上,自3月24日以來,Z5Z6曲線已經進一步趨平了24個基點。站在當下,市場很可能仍然高估了7月降息的機率,因為通膨壓力可能先於失業率出現明顯的上升。但關稅衝擊對經濟增長造成的陰霾揮之不去,這意味著至少在未來幾個月,市場對年內降息的定價很難低於2次,Z5Z6曲線進一步大幅趨平的難度較大。對於久期,我們仍然看好5年期,這也與我們降息後置的觀點相一致。聯準會對資料依賴的反應式(reactive)策略,意味著面對高企的通膨難以預防性降息,而降息又要等到硬資料出現裂痕才行。這加大了經濟下行的風險,未來可能出現更深的降息終點。此外,市場對於談判新聞表現得過於樂觀。正如前文所述,英美協議影響甚微,且對其他談判並無指導意義。10%的全球基準關稅似乎也被視為底線,而且90天暫停期有進一步延長的可能性,這意味著無論關稅規模還是不確定性的持續時間都依然對經濟不利。對於曲線,儘管近期存在平坦化的壓力,但在中長期我們仍然傾向於趨陡。自4月2日關稅宣佈以來,期限溢價的上升是曲線陡峭化的核心原因(特別是5s30s)。而海外需求減弱、財政擔憂加劇、以及養老金對30y需求的放緩,可能使期限溢價維持在高位。儘管經濟放緩/衰退可能部分抵消期限溢價的上行壓力,但前端和腹部的大幅下行(反映降息預期)會主導曲線的陡峭化。最後,儘管近期曲線大幅趨陡,但從更長期的尺度看,當前曲線仍然相對平緩。對於互換利差,我們傾向於看多前端和腹部的利差,看空長端利差,利差曲線傾向趨平。在4月美債市場動盪之後,我們認為金融監管改革將會加速,特別是SLR的修訂,這將增加銀行/交易商持有國債的能力,尤其是中前端。貝森特在最近的採訪中表示,SLR當前在監管改革中擁有“高優先順序”,而聯準會新監管主席鮑曼同樣支援SLR修訂。對於長端互換利差,儘管監管改革在在消息面上同樣會產生利多,但長期來看,赤字問題和長端買家缺位可能對利差持續施加縮小壓力。 (M2M投研)
天空精讀| Google大神Jeff Dean最新演講,Bolt.new CEO談成功, YC談AI氛圍程式設計,兩大投資科技大佬群播客更新
感謝科技的進步,每一個長篇訪談都可以有萬字全文,但或許更稀缺的是時間。希望本城日常精讀可以幫助大家在最有限時間裡掌握最新的科技商業認知。同時附上完整視訊和全文的連結,感興趣的同學可以繼續針對特定內容深入瞭解。天空科技商業精讀04.27 | 內容目錄• Google大神Jeff Dean關於AI重要趨勢的演講 - 蘇黎世聯邦理工學院 20250420• 訪談Bolt.new 首席執行官 Eric Simons 20250423• 如何最大限度地利用Vibe Coding - YC創業學校 20250425• BG2播客:關稅、自由貿易、出口管制、H20 與稀土禁令 - 比爾·格利 & 布萊德·格斯特納 20250424• Allin播客:馬斯克重返特斯拉,Google Gemini模型,中國的釷突破 20250426❖ ❖ ❖Google大神Jeff Dean關於AI重要趨勢的演講 - 蘇黎世聯邦理工學院 20250420視訊和全文連結:https://www.bilibili.com/video/BV1eZjcznExr/內容精讀:Google首席科學家Jeff Dean傑夫·迪恩,一位自1999年起便深度參與並塑造Google分佈式技術基石(如MapReduce, BigTable, Spanner, TensorFlow, Pathways)的關鍵人物,同時也是Google大腦團隊的聯合創始人,分享了他對人工智慧領域重要趨勢的見解。他強調,機器學習已根本性地改變了我們對電腦能力的預期,相較於十年前,如今電腦在視覺、語音識別和語言理解方面取得了巨大飛躍。          這一進步的核心驅動力在於不斷增加的訓練算力、資料規模以及模型大小,這幾乎已成為過去十五年顛撲不破的規律——更大的模型和更多的資料通常能帶來更好的性能。然而,迪恩特別指出,演算法和模型架構的改進,其重要性甚至超過了硬體的進步。這些綜合因素正推動計算範式從傳統的CPU為中心向更適應AI負載的新型計算硬體轉變。          回顧關鍵技術里程碑,神經網路和反向傳播演算法奠定了深度學習革命的基礎。2012年,迪恩及其同事通過訓練比當時已知最大模型大60倍的神經網路(使用DistBelief系統和16000個CPU核心),證明了更大模型結合足夠算力能帶來顯著性能提升,尤其在無監督學習和細粒度圖像分類任務上。DistBelief系統探索了模型平行與資料平行,並採用了創新的(儘管數學上非嚴謹的)非同步梯度更新方法,成功擴展了模型規模,催生了Word2Vec等詞嵌入技術。Word2Vec不僅讓相關詞語在向量空間中聚集,更揭示了向量方向的語義意義。          隨後,基於神經網路的序列到序列學習(2014年)推動了機器翻譯等任務的發展。對大規模神經網路推理需求的預見,促使Google開發了張量處理單元(TPU),這種專為低精度、高密度線性代數運算設計的硬體,在推理任務上實現了遠超當時CPU/GPU的性能和能效。TPU隨後發展為支援訓練和推理的大規模Pod系統,通過高速互連和光交換網路連線數千晶片,計算能力和能效在七年內分別提升了約3600倍和30倍。          開源框架如TensorFlow、PyTorch和JAX的普及,極大地促進了機器學習社區的發展和應用的廣泛性。2017年,“Attention is All You Need”論文提出的Transformer架構,通過注意力機制擺脫了循環模型的順序限制,以更少的計算量和模型大小實現了更優性能,成為現代大型語言模型(LLM)的基石。自監督學習利用海量無標籤文字(通過預測文字自身,如自回歸或掩碼語言模型)進行訓練,是LLM能力強大的關鍵。視覺Transformer(ViT)則將Transformer架構成功應用於圖像處理,統一了處理不同模態資料的模型基礎。          稀疏模型(如混合專家模型MoE)通過僅啟動模型的一小部分(如2%),在保持巨大模型容量的同時,顯著降低了訓練和推理的計算成本,實現了演算法上的又一次效率飛躍。為管理超大規模分佈式訓練,Google開發了Pathways軟體抽象,它將數萬個TPU晶片虛擬化為單一處理程序下的裝置集,簡化了跨資料中心、跨地域的複雜計算任務編排。          在模型應用層面,“思維鏈”提示鼓勵模型展示推理步驟,顯著提升了其在複雜問題(如數學題)上的精準性。知識蒸餾技術則能將大型“教師”模型的知識有效遷移到小型“學生”模型中,利用教師模型輸出的機率分佈作為更豐富的訓練訊號,使得小型模型在少量資料下也能達到接近大型模型的性能。針對高效推理,研究者們探索了不同的計算對應策略(如權重聚集),發現最優選擇依賴於批次大小和延遲等因素。推測解碼技術利用小型“草稿”模型快速生成候選序列,再由大型模型驗證,通過分攤記憶體頻寬成本來加速推理過程。          這些進展——包括更好的硬體加速器(TPU、GPU)、軟體抽象(Pathways、框架)、模型架構(Transformer、ViT、MoE)、訓練演算法(自監督、蒸餾、RLHF/SFT)和推理技術(CoT、推測解碼)——共同塑造了現代AI模型的能力。          迪恩以Google的Gemini項目為例,說明了這些技術的融合應用。Gemini是Google多部門合作的產物,旨在建構世界領先的多模態模型(處理文字、圖像、音訊、視訊),其開發利用了TPU、Pathways、JAX、Transformer、MoE、蒸餾等技術。Gemini 1.5引入了百萬級token的長上下文能力,使得模型能直接處理和推理大量資訊(如多篇論文或書籍),上下文中的資訊因其高保真度而尤為有效。最新的Gemini 2.5 Pro在編碼、多項基準測試和使用者偏好(如LM Arena ELO評分)上均取得顯著進步,體現了模型在質量與成本帕累托前沿的持續最佳化。          管理如此大規模的項目(涉及全球分佈的數百位研究人員)需要有效的組織結構(按領域劃分團隊)、溝通機制(大量使用聊天工具、正式評審流程)和資料驅動決策(排行榜、基線比較)。擴展計算規模也面臨挑戰,如靜默資料損壞(SDC),需通過監控梯度范數、確定性重放等方法來檢測和緩解硬體錯誤。Gemini展示了強大的能力,如修復程式碼、通過上下文學習掌握冷門語言(卡拉芒語)、處理多模態輸入(視訊轉JSON、視訊摘要)、數位化歷史資料以及高級程式碼生成。          最後,迪恩強調了AI的社會影響,並提及了他參與合著的《塑造AI》論文。該文旨在聯合學界、工業界力量,通過有針對性的研究和政策,主動引導AI發展,以服務公共利益,最大化其積極影響(如普及專業知識),同時警惕並減輕潛在風險(如虛假資訊傳播)。他認為,雖然當前AI在某些複雜任務上仍有不足,且使用者需要學習如何有效利用這些工具(提示工程),但模型能力正快速迭代提升。資料質量至關重要,雖然原始資料似乎尚未枯竭,但更高效地利用資料、讓模型從資料中學習更深層次的理解是重要的研究方向。AI的未來潛力巨大,需要社會各界共同努力,負責任地塑造其發展軌跡。          當前模型能夠將相對簡單的任務分解為少數幾個步驟,並借助有限的工具使用來完成,其精準率大約在60%到70%。然而,這些模型尚無法獨立地將非常複雜的事情分解成大量的子步驟(例如50個或更多),並使用多種複雜工具來完成可能耗時數月的重要任務。目前的技術水平與人們期望達到的、能夠以極高精準率(如95%)在一千個步驟中完成長期工作的理想狀態之間,存在著巨大的鴻溝,這種理想狀態目前肯定無法實現。能力的提升可能是一個連續的過程,而非一蹴而就的突破。未來會看到模型的性能逐漸增強,例如能夠以90%的精準率完成10步操作,這可以視為一個中間發展階段。訪談Bolt.new 首席執行官 Eric Simons 20250423視訊和全文連結:https://www.bilibili.com/video/BV1hELfzuEnd/內容精讀:這篇訪談的核心內容,圍繞著一家名為StackBlitz的公司及其產品Bolt的戲劇性崛起展開,堪稱一個“歷時7年才實現的一夜成名”的故事。公司創始團隊最初的願景,是讓建構全端Web應用像使用Canva或Figma一樣簡單,為此投入了七年時間研發核心技術WebContainer——一個能在瀏覽器標籤頁內運行、毫秒級啟動的作業系統。然而,儘管技術領先,公司在商業化上步履維艱,主要面向開發者的IDE產品並未獲得足夠市場牽引力,年經常性收入(ARR)僅在70萬美元左右徘徊,一度瀕臨解散。          轉折點出現在公司將前沿AI技術與自身核心技術結合,推出了Bolt——一個通過文字提示即可生成應用程式的工具。這一創新徹底改變了公司的命運。Bolt上線後,年經常性收入在短短兩個月內從70萬美元飆升至2070萬美元。令人意外的是,Bolt的主要使用者群體(約60%-70%)並非開發者,而是產品經理、設計師、創業者等非技術背景人士,他們借助Bolt將產品構想直接轉化為實際可運行的軟體,這揭示了AI正在賦能一個全新群體進行軟體創造。          Bolt的成功,很大程度上歸功於其底層WebContainer技術。這項技術使得應用能在使用者本地瀏覽器中快速(百毫秒級啟動)、低成本、高可靠性地運行,避免了傳統雲IDE依賴虛擬機器帶來的延遲、成本和安全問題。使用者只需輸入提示,即可在極短時間內獲得一個功能看似完備的應用原型(如Spotify克隆),體驗流暢且“神奇”,入門門檻極低,甚至可以輕鬆部署到線上。          公司強調,早期長達七年的技術積累和社群建設雖未直接帶來商業成功,卻為Bolt的爆發奠定了堅實基礎。WebContainer技術是Bolt的核心競爭力,而多年積累的社群和品牌聲譽,使得Bolt僅憑一條推文就能迅速引爆市場。艱難時期學到的精益營運經驗,使得僅有15-20人的小團隊能夠有效應對使用者和收入的爆炸式增長,保持了高度的敏捷性和效率,例如僅用3名支援人員服務超過6萬付費客戶。          展望未來,公司認為隨著AI能力的提升(如更可靠的程式碼生成),產品將進一步簡化,可能隱藏更多面向開發者的技術細節,以更好地服務非技術使用者,同時仍為專業開發者提供深度定製的能力,如同一個適用於專業人士和普通使用者的“電鑽”。公司正在推出Bolt Builders計畫,連接使用者與專家解決開發難題,並可能將服務延伸至行銷、分銷等公司建立的全流程環節。他們認為,在一個產品建立成本趨近於零的時代,競爭優勢將更多地體現在品牌、分銷管道和卓越的客戶服務上。最終,這種由AI驅動的軟體開發民主化趨勢,將為消費者帶來更多競爭和更好的產品。公司也計畫在近期開始投入付費使用者獲取,以擴大這一顛覆性技術的認知度和影響力。✧ ✧ ✧ ✧ ✧如何最大限度地利用Vibe Coding - YC創業學校 20250425視訊和全文連結:https://www.bilibili.com/video/BV1p1jAzTEKn/內容精讀:近一個月來,我嘗試在幾個副項目中使用“氛圍編碼”,發現效果顯著,只要願意嘗試並掌握最佳實踐,就能取得可衡量的進步。如同幾年前的提示工程,人們每周都在發現新方法,而最佳技術往往與專業軟體工程師所用的相似。有人認為這已是軟體工程而非“氛圍編碼”,但這不重要,關鍵在於如何利用這些工具獲得最佳結果。          一些利用AI工具的建議包括:當AI IDE陷入困境時,嘗試直接訪問LLM網站介面,貼上程式碼提問或許能解決問題。可以同時使用Cursor(速度快,適合前端和全端)和Windsurf(思考時間長)處理同一項目,利用等待一個工具思考的時間在另一個工具上工作,甚至讓它們基於相同上下文生成同一功能的不同迭代版本供選擇。將AI視為一種新的程式語言,用自然語言程式設計,因此需要提供非常詳細的背景和資訊。推薦從測試用例入手,手工編寫測試用例作為防護欄,讓LLM在此基礎上自由生成程式碼,看到測試通過即可。在將任務交給AI編碼工具前,先在純LLM中規劃好範圍和架構至關重要。要監控LLM是否陷入困境,不斷重新生成程式碼或需要反覆貼上錯誤資訊,此時應退一步分析根本原因,可能是上下文不足或模型能力限制。          對於初學者,推薦Repl.it或Lovable這類提供可視化介面的工具,它們便於直接在程式碼中嘗試新UI,許多產品經理和設計師已開始這樣做,速度快於在Figma中設計。但若需精確修改後端邏輯,這類工具可能力不從心。對於有編碼經驗者,可以直接使用Windsurf、Cursor或ClaudeCode等工具。首要步驟不是直接編碼,而是與LLM合作制定一份全面的計畫(存於Markdown檔案並持續參考),然後逐節實施,每完成一節進行檢查、測試並執行Git提交,再讓AI標記計畫完成的部分,逐步推進而非試圖一次完成。版本控制至關重要,務必虔誠地使用git。儘管某些工具有恢復功能,但尚不可靠。每次開始新功能前確保Git狀態乾淨,以便AI偏離軌道時能回滾到可用版本。若AI不工作,不要猶豫使用`git reset head --hard`重設後重新開始。多次提示AI修復同一問題往往導致程式碼質量下降,因為它傾向於堆疊糟糕的程式碼層。發現有效解決方案後,最好是`git reset`,然後基於乾淨的程式碼庫將該方案輸入給AI。          接下來應編寫測試,或讓LLM編寫測試,它們在這方面做得不錯,但通常默認編寫低級單元測試。推薦編寫高等級整合測試,模擬使用者端到端的操作流程,確保功能正常工作。在開發下一個功能前完成測試,因為LLM有更改無關邏輯的壞習慣,測試套件能及早發現這些回歸。          記住LLM不僅用於編碼,也可用於非編碼任務,如組態DNS伺服器、設定Heroku託管(充當DevOps工程師),或建立網站favicon並編寫指令碼調整尺寸格式(充當設計師)。遇到錯誤時,直接將錯誤資訊(來自伺服器日誌或瀏覽器控制台)貼上給LLM通常足以讓其識別並修復問題,無需過多解釋。未來,期待編碼工具能自動攝取錯誤,無需手動複製貼上。對於複雜錯誤,可讓LLM先思考多種可能原因,每次修復嘗試失敗後用`git reset`重設,避免累積無用程式碼。加入日誌記錄也很有幫助。如果遇到困難,嘗試切換不同模型(如Claude Sonnet 3.7、OpenAI模型、Gemini),它們各有擅長。找到棘手錯誤的根源後,建議重設所有更改,在乾淨程式碼庫上給出非常具體的修復指令。          為LLM編寫指令(存放於各工具特定的規則檔案中)能顯著提高效果,有些創始人為此編寫了數百行指令。關於指令內容網上有很多建議。對於文件訪問,線上訪問效果不一,建議下載特定API的文件到本地子目錄,讓LLM在本地訪問,並在指令中明確要求先閱讀文件。LLM也可作為老師,讓它逐行解釋程式碼實現,是學習新技術的好方法。          處理複雜新功能時,建議先在乾淨程式碼庫中將其作為獨立項目開發,獲得一個小型可工作的參考實現(或下載GitHub上的參考實現),然後讓LLM參照該實現在主程式碼庫中重新實現。保持檔案小巧和模組化對人類和AI都有利,未來可能向更模組化或基於服務的架構轉變,清晰的API邊界讓LLM更容易工作。          技術堆疊的選擇會影響AI表現。使用Ruby on Rails效果很好,可能是因為其擁有大量完善約定和一致的高品質線上訓練資料。相比之下,Rust或Elixir等較新語言的訓練資料較少,效果可能稍遜。          利用截圖貼上到編碼代理中,可用於展示UI錯誤或借鑑其他網站的設計靈感。語音輸入(如使用Aqua)是另一種高效互動方式,能以遠超打字的速度輸入指令,且AI對輕微語法錯誤容忍度高。          程式碼可運行且測試到位後,應經常重構。可以請LLM識別程式碼庫中重複或適合重構的部分。這符合專業軟體開發實踐,保持檔案小巧模組化有助於理解。          持續進行實驗至關重要,該領域技術每周都在變化。嘗試不同模型(如Gemini擅長規劃,Sonnet 3.7擅長實現,GPT-4.1目前表現尚不突出),找出它們在不同場景下的優劣勢,並根據需要選用。 (Web3天空之城)