#工程師
ChatGPT背後的中國工程師曝光!不是清華姚班的...
在華人如雲的OpenAI,不少人或許聽過清華姚班大神陳立傑或姚順雨的名號,但鮮少有人知曉翁家翌的名字。他不是競賽金牌得主,也不是清華姚班神話,在博士遍地的AI圈裡,他是極少數碩士生。近日,他在一個播客採訪中首次講述求學經歷和在OpenAI工作細節,外界才知道到,如此低調的他,竟是OpenAI各大核心模型的幕後推手。翁家翌拒絕DeepSeek,在2022年加入OpenAI,全程深度參與了ChatGPT系列幾乎所有關鍵大模型的強化學習、後訓練和基礎設施搭建。從我們熟知的爆款ChatGPT初始版本上線(基於GPT-3.5),到GPT-4、GPT-4V、GPT-4o,再到GPT-5等,都有這位中國工程師的貢獻。(圖源|翁家翌個人網站)在成為OpenAI研發工程師之前,他就潛水在各大技術論壇,用開源資料和自研工具默默影響過無數人。疫情期間刷屏網路的美簽網站tuixue,正是出自他之手。兩個多小時的播客聽下來,許多人被他思考的深度、表達的克制和謙虛的態度圈粉,更重要的是,翁家翌的成長之路,也給無數中產家庭的孩子點亮了燈。在AI圈天才少年的光環下,求學期間的翁家翌顯得格外慢熱。回想小時候,翁家翌說:“我學新東西,經常要花別人兩三倍的時間。”這個福建95後,小時候被爸媽拉去聽了某進修校的奧數課和語文課,此後一發不可收愛上奧數,從小學一年級到中學從未停止過。小翁家翌是數學口算小神童,同齡人剛做到一半,他不過腦就能得到正確答案。但他又是個龜速學習者,遇到新概念,需花大量時間和精力建構知識樹,徹底理解過後才能上手實踐。小學語文背誦,別人早背熟了,他還在琢磨記憶法,磕磕巴巴。但一旦掌握了,一覺睡醒也能倒背如流。“因為慢,我練習跆拳道時,一到上場實戰就被別人揍。”他笑著回憶。圖源unsplash正所謂笨鳥先飛,提前學成了翁家翌生存策略。他初中時自學高中數學,遇到難題追著老師問,初二把高中數學啃完,初三又開始攻微積分。“數學給了我巨大成就感和正反饋...提前學就是在投資未來,與其刷題,不如學更多對未來有用的東西,收益會更高。”初中在福建私立校就讀,因為學校有程式設計興趣班,加上父母支援,他便抱著玩的態度學了程式設計。沒專業程式設計裝置,他就用普通iPad敲程式碼,活脫脫一個程式設計苦行僧。(圖源|YouTube)高中因升學壓力,他正式進入競賽體系。起初,他同時沖數學和資訊學競賽,高一數學競賽小有成績。但再往上衝,資源和天賦門檻越來越高,學起來相當困難的他果斷放棄,轉攻資訊學競賽。但資訊學競賽這段經歷也一波三折。高一參加省選時,翁家翌幾乎不會做題。但高二,他就靠摸索出來的解法拿到全場最高分,進了省隊。後來在清華夏令營表現出色,翁家翌拿到高考加60分及有條件一本線錄取資格。但真正全國賽時,他嚴重失利,僅摘得福建省銅牌,省內排倒數第一。競賽失利對他心態影響很大,因為高二沒系統學文化課,他擔心高考沒把握,反覆權衡之後,他選了風險更高的路。2016年按清華降60分的協議,翁家翌進了自動化系。入讀後因自動化高年級課程不符合他的預期,2017年他轉到了電腦系。(圖源|知乎@Trinkle)本科一開始,翁家翌就按照電腦博士申請來規劃未來。大一找圖形學老師,但讀論文時發現水平不夠,外加對方向不感興趣,就不了了之了。大二報名學術新星計畫,加入清華朱軍教授的TSAIL實驗室,起初他什麼都不懂,誤打誤撞選了喜歡的強化學習領域,惡補知識後,在程式設計和AI方面才有了質的飛躍。實驗室期間,他參與了AI競賽ViZDoom項目,憑藉紮實工程和演算法能力,他所在團隊獲得多個獎項,也是賽事歷史上首個中國區冠軍。2020年疫情隔離在家的翁家翌自己重新寫了一套強化學習訓練流程,Tianshou(天授)框架誕生,開源之後迅速出圈,在GitHub上獲得幾千星標。後來,他成功加入圖靈獎得主Yoshua Bengio的實驗室,深入研究強化學習和自然語言處理,接觸到了全球頂級學術資源。申請碩博申請時,因競爭激烈,外加外語分數不高,翁家翌只拿到了美國卡耐基梅隆大學碩士Offer。他也是後來極少數以碩士應屆生直接進入OpenAI核心團隊的人。(圖源|翁家翌個人網站)播客採訪中,翁家翌多次提到,追求影響力是自己初心和動力。他喜歡且想做賣鏟子的人,創造價值,幫助他人,實現自我。這一想法是高三突然從他腦海裡蹦噠出來的:“如果人生是一場遊戲,遊戲的結算分數就是有多少人記得你的名字。”得益於人生遊戲結算的靈感,之後,他的每一步都在踐行自己的價值追求。剛進清華時翁家翌就做起了「慈善」。他把收集到的所有無版權課程作業、項目程式碼、實驗材料和筆記等全部放到了GitHub上,公開分享給了全世界,讓所有人站在同一起跑線。“我想打破資訊差,不想讓後人重蹈覆轍,不想讓大家花十幾二十小時鑽牛角尖。很多人能力強,只是不擅長收集資訊。如果我能做到資訊平權,學弟學妹們可能會在清華活得更好。”圖源unsplashOpenAI現在員工數千人,但它依然保持著小團隊的人才密度,擁有硬核的創新。翁家翌認為這背後因為資訊平權,它讓每個人都能發揮出最大潛力,而不是自掃門前雪。但他也因曾經的開放原始碼專案而遭到想要盈利者的蛋糕。有人認為他破壞了傳統規則,遭到不少網路惡評。但無數同學靠它完成了任務,節省了大量時間,對他而言這就是最好的回報。“去清華隨便抓個電腦系的學生問,你認識捐樓的人嗎?他們大機率不認識。但你問認識翁家翌嗎?他應該認識。因為大家都看過我的作業。”這是翁家翌在播客中的原話。圖源unsplash2019年2月,大三的翁家翌還心血來潮買了阿里雲伺服器,註冊了tuixue.com的域名。命運的齒輪就在那一刻慢慢啟動了。他起初只是做一些愚人節惡作劇、放課程答案、資料庫作業、演算法模擬器等網頁。誰知道2020年三月,因為疫情美國突然傳出暫停簽證的消息,全球留學生一片恐慌。當時翁家翌在網上刷到某中介整理的5個城市未來三天美簽預約情況,他覺得這個資訊很實用,等待簽證的留學生肯定迫切需要。於是他利用自己的爬蟲技術,做了個即時監控美簽預約名額的網站,高峰期時該網站每日訪問量破百萬,服務了數千萬人,成了留學生的救命稻草。圖源unsplash業餘時間他還搞過許多網路安全的東西,甚至修了不少校園網的漏洞。強化學習框架開源Tianshou(天授)也是放大他影響力的典型案例,這個由他主導的項目,降低了強化學習研究的門檻,讓新人快速上手實驗。再到如今OpenAI貢獻列表裡,翁家翌的名字頻繁出現,比如ChatGPT原始團隊第六作者、GPT-4o的RLInfra主要作者等。這意味著大家都在用他底層架構的鏟子,這遠比單一的演算法研究起到的作用更明顯。所有技術發展到終局都將是普及,翁家翌認為:“做技術是為了讓自己能影響到更多的人,做更有意義的事情,技術只是手段,不是目的。”(圖|翁家翌簡歷部分)從國內頂級學府到海外頂級大廠,往往是天才敘事的經典範本。但最為可貴的是,在翁家翌的自我描述裡,這一切靠的不是天賦。他認為,除了找到了喜歡且擅長做的領域,最重要的是清楚自己的目標,並建立了一套獨屬於自己的評價體系。翁家翌有著超乎同齡人的哲學深度,他說:“人生可算作是種體驗,既然你已經來到這個世界上了,那就不要浪費這段旅程。如果你不喜歡被外部評價推著走,那就建立自己的標準。”圖源unsplash在全省狀元聚集的清華,周圍人幾乎都在為GPA、競賽、科研、論文拚搏。「博士強過碩士、學歷越高越好」的固有認知也在校園蔓延開來,無數人為直博耗盡心血。初置身其中,翁家翌不可避免承受了巨大壓力,他坦言花了好長時間才從這個框架裡跳出來。方法簡單卻殘酷,那就是先把該做的事用最低限度的時間達到標準,而後把全部注意力投入到自己長期想做、真正重要的方向。受導師影響,本科期間他把電腦系的成功指標總結為,論文+比賽+GitHub三位數以上的Star,後來又進一步演化為做對現實世界人有沒有幫助、有沒有作用的東西。這套自己的評價體系後來也得到了OpenAI聯合創始人John Schulman的讚許,在面試時特意提到他的GitHub很乾淨、工程質量很好。(圖源|知乎)讀研期間,他敏銳捕捉到AI行業的風向,相比學術能力,工程的價值越來越大,於是便把自己的重點放在了工程能力的培養上,為進入工業界打好基礎。他在播客中尖銳地指出,如果想進工業界,讀博就是浪費生命,因為工業界看重的是你能否規模化,解決現實複雜問題,而非發論文。“教一個研究員(researcher)如何做好工程(engineering),遠比教一個工程師如何做好研究要難。”在他看來,現在這個時代不缺創新和好的想法,真正稀缺的是能在單位時間內驗證更多正確有效的想法,成功率和迭代次數成正比。圖源unsplashCMU碩士畢業後,他海投18家公司,順利拿到了Google、OctoML、幻方浩方(後來的DeepSeek)、OpenAI、輝達等Offer。因為對頂級研究方法的追求以及想在成熟工業級研究體系中訓練,他選了OpenAI,放棄了DeepSeek。(圖源|Github)去年科技領域的諮詢顧問Ram Srinivasan判斷稱,AI軍備競賽的人才之爭已進入2.0階段。1.0階段是圍繞那一小撮最聰明的人的戰爭,企業靠天價薪酬招收高度學術化的頂級研究者。而2.0超越了單純燒錢留人的階段,高薪只是入門票。真正拉開差距的是基礎設施、機會和願景。從這個角度看,翁家翌的選擇恰好踩中了這場轉變的節點,堅守初心,利用模型和工程工具快速迭代落地,將技術的價值帶入千萬家。(圖源|Ram Srinivasan)不管是翁家翌走過的路,還是人才之爭進入2.0階段的判斷,這都預示著傳統精英教育的劇本正在一步步失效。卷名校學歷、刷高GPA、競賽和論文等也很重要,但絕大多數人捲到極致也到不了頂端,只落得個分母的下場,跟他人之間沒有差異。在這樣的大背景下,未來的教育最重要的或許是,鼓勵孩子去定義自己的成功,不能被別人家孩子牽著走。這是一個個性越發凸顯的時代,成功樣本也會層出不窮,每個孩子都有機會去找到的閃光點。也正是如此,不能因害怕孩子失敗或是偏離主流賽道,亦或者走得太慢、走了彎路而放棄追求自己的路。圖源unsplash那又該如何找到孩子的成功之路呢?答案往往藏在那些日常生活中。比如孩子對那門學科感興趣、平時喜歡談論什麼話題、每天會把時間花在那裡...這些長期穩定的關注點都是打開成功的一把鑰匙。但這一切都有個更為根本的大前提,那就是讓孩子找到「為什麼要做這件事」的內驅力。今天的孩子常被形容為空心一代,究其根本是他們太早為分數、排名和名校奔命,從未真正有時間思考自己為什麼出發?一旦這個外在的評價標準消失了,他們的內心就會迅速坍塌。當孩子知道自己在為何而努力,即便沒有掌聲和鮮花,即便身邊牛人一堆,Ta依然不受干擾,能保持自我,持續向前。 (INSIGHT視界)
薩姆·奧特曼談AI的未來:AI 將顛覆“工程師”定義;人類注意力成稀缺資源;AI 成本將降 100 倍……
Sam Altman在 OpenAI 的 Town Hall 會議上與AI建構者們進行對話,他主要談了以下觀點:Sam Altman 認為,AI 正在重新定義“工程師”與“創造者”的角色。未來的軟體開發門檻極低,人類不再主要手寫程式碼,而是通過指令與 AI 協同完成複雜建構。AI 會讓人人都能開發、擁有個性化的軟體,但真正的瓶頸將轉向“如何讓人關心”——在注意力稀缺時代,創意與市場執行力仍是核心競爭力。他強調,多智能體(agent)與工具生態將百花齊放,不會形成單一壟斷。最大機會是在人機互動層——讓更多人真正高效使用模型。AI 的通用性與專業性會不斷融合,未來的模型既能推理又能寫作溝通。Altman 預測,AI 是強通縮力量,將極大降低創造成本並改變經濟結構,同時帶來巨大的個人賦能與潛在不平等風險。政策應防止權力過度集中。科學研究將進入“人機共研”階段,AI 扮演“無限博士後”,而人類提供直覺與判斷。在安全上,他主張從“限制訪問”轉向“提升韌性”,尤其關注生物安全領域。教育與創意領域中,人類仍以情感與洞察為核心,AI 是思維與合作的放大器。未來關鍵技能不再是程式設計,而是主動性、創造力、判斷力與合作。總體而言,Altman 描繪的是一個“人人可借 AI 實現想法”的時代——技術普及,但人性與社會設計將決定其真正價值。訪談完整實錄如下:Sam Altman: 非常感謝大家前來。當我們著手構思下一代開發者工具,以及如何駕馭即將問世的強大模型時,我們渴望聽取大家的想法與顧慮,並回答各位的疑問。希望今天的交流能讓我們更清晰地知道該為大家建構什麼,以及如何讓這些強大的模型真正發揮效用。我想先從 Twitter 上的一個問題開始。關於軟體工程領域的傑文斯悖論(Jevons paradox),你們持何立場?如果人工智慧大幅降低了程式碼生成的門檻和成本,這會減少對軟體工程師的需求嗎?還是說,更廉價的定製軟體會極大地刺激需求,讓工程師在未來幾十年仍有飯吃?我認為“工程師”的定義將發生巨變。 未來的價值創造,將更多地源於指揮電腦完成自己的工作、替他人完成工作,以及構想如何為他人創造有價值的體驗。工作的形態——無論是在編寫程式碼、偵錯,還是其他任務上花費的時間——都將徹底改變。工程領域經歷過多次類似的演變,每一次——至少到目前為止——結果都是更多人得以參與其中,發揮作用,世界也因此變得更加“軟體化”。對軟體的需求似乎從未放緩。我的預測是,未來我們許多人將使用專為個人或極少數人編寫的軟體,並且我們將持續定製屬於自己的軟體。因此,我認為我們將見證更多人指揮電腦去實現他們的想法,這與我們今天的工作方式截然不同。如果你們把這也算作軟體工程,那麼我們將會看到這種實踐的大爆發。我相信,全球 GDP 中將有更大比例通過這種方式創造和消費。現場提問者: 首先感謝給我們提問的機會。作為消費者,我是 ChatGPT 的重度使用者。我在 Reddit 上看到大家用 Codex、Lovable 或 Cursor 建構各種東西。但現在的瓶頸似乎變成了“推向市場”(Go-To-Market, GTM),對吧?我可以把東西造出來,但如何找到願意為此買單或受益的人?這才是瓶頸。我想聽聽您的看法。Sam Altman: 在我之前於 Y Combinator 工作時,創業者們常說:“我原以為最難的是建構產品,結果發現最難的是讓別人關心、使用或喜愛它,或者是建立人與產品的連接。”這一點從未改變,只不過現在建構產品變得如此容易,才讓這種反差更加明顯。對此我沒有簡單的答案。建立成功的企業、尋找差異化價值、搞定市場推廣,這些始終是難題。舊的商業法則依然適用。 AI 降低了軟體開發的門檻,但這並不意味著其他環節也會隨之變得簡單。當然,就像 AI 改變了軟體工程一樣,人們也開始利用它實現銷售和行銷的自動化,並取得了一定成效。但這註定是艱難的,因為即便在一個物質極大豐富的世界裡,人類的注意力依然是極度有限的資源。你永遠在與其他試圖建立市場管道、爭奪分銷網路的人競爭,而每一個潛在客戶都忙得不可開交。我可以構想一個未來:當一切都極大豐富時,人類的注意力將成為僅存的稀缺商品。所以,這依然會很艱難,你必須有極具創意的想法,打磨出偉大的產品。George: 謝謝 Sam,我是 George,一名獨立開發者。我正在基於 Codex SDK 開發,試圖建構一種協調多個智能體(Agents)的方法。我有關於你們的“智能體建構工具”及其產品願景的問題。目前它主要是工作流和鏈式提示詞。我想知道,作為一個基於此開發的開發者,我的處境安全嗎?你們認為未來會有各種不同的多智能體協調 UI 共存的空間嗎?還是說 OpenAI 會壟斷這一領域?Sam Altman: 不,我們並不認為自己掌握了最佳介面的終極答案,也不確定人們最終會如何使用它。我們確實看到有人建構了令人驚嘆的多智能體架構,也有人做出了極佳的單一互動式線程。我們無法獨自解決所有問題,而且並非所有人的需求都一致。這就好比老電影裡的場景,有人喜歡坐在 30 個螢幕前,監控著瘋狂的系統,進行各種操作;也有人只想要一種非常平靜的語音模式,每小時只跟電腦說一句話。電腦在後台處理大量事務,不需要持續監督,他們只需深思熟慮後下達指令。就像許多事物一樣,人們需要嘗試不同的方法來找到自己的偏好。世界可能會收斂於幾種主流模式,但我們無法預知一切。我認為,建構工具來幫助人們高效利用這些極其強大的模型,是一個極好的方向。這正是目前所缺失的。模型的能力與大多數人理解並利用這些能力之間,存在著巨大且不斷增長的鴻溝。 肯定會有人建構出真正填補這一鴻溝的工具,但目前還沒人完全做到。我們也會嘗試推出自己的版本,但這個領域空間廣闊,且使用者偏好各異。如果你們有任何希望我們建構的功能,請告訴我們,我們會嘗試。Valerie Chapman: 你好 Sam,我是 Valerie Chapman,我正在 OpenAI 平台上開發 Ruth。我很想聽聽你的看法:目前女性因薪酬差距遭受了巨大的經濟損失。你認為人工智慧如何解決這幾十年來存在的經濟不平等問題?Sam Altman:這有個好消息——當然情況也很複雜——但在我看來,主要的利多在於:人工智慧將帶來強大的通貨緊縮效應。我對此做過反覆推演,雖然你可以想像一些極端情況,比如全世界的資金都湧向自我複製的資料中心等,但總體而言,特別是考慮到腦力勞動的進步,以及機器人技術等領域即將到來的突破,我們將面臨巨大的通貨緊縮壓力。我之所以說“絕大多數是好消息”,是因為雖然仍有一些複雜的問題待解,但事物的成本將大幅降低。除了那些受限於社會或政府政策阻礙的領域(比如在舊金山建造更多住房),我預計這種變化將相當強勁且迅速。無論社會結構是否天然向個人傾斜,個人賦權(Personal Empowerment) 看起來都將日益增強。我至今仍覺得很難完全消化這一變革的深遠意義。我敢斷言,到今年年底,僅需幾百或一千美元的推理算力成本,你就能完成以前需要一個團隊耗時一年才能建構的軟體。 這真的很難——至少對我來說——很難完全理解這種經濟變革的規模。這應當是一件極具賦權意義的事情。海量的資訊觸手可及,創造新事物、新公司以及發現新科學的成本急劇下降。我認為這應該成為推動社會公平的力量,讓那些未曾獲得公平對待的人擁有真正的機遇。當然,前提是我們不能在政策上搞砸,因為風險確實存在。我擔心在一個想像中的世界裡,人工智慧會導致權力和財富的過度集中。因此,避免這種情況發生,必須成為政策的主要目標之一。Ben Hilak: 大家好,我是 Raindrop 公司的 CTO Ben Hilak。我想請教一下,在展望未來時,您如何看待模型“專業化”與“通用化”之間的平衡?比如 GPT-4.5,我認為它是第一個真正擅長寫作的模型。我至今記得看到它的輸出時感嘆:“寫得真棒”。最近在 Twitter 和 X 上有很多關於 GPT-5 寫作能力以及 ChatGPT 變得有些難以駕馭、晦澀難懂的討論。當然,GPT-5 是一個更好的代理模型,在工具使用、中間推理等方面都表現出色。感覺現在的模型有點“偏科”(Spiky),甚至更極端了——在程式設計等領域非常突出,而在寫作等領域則稍遜一籌。我想知道 OpenAI 是如何看待這一特徵的?Sam Altman: 我們在這方面確實做得不夠好。我們希望未來的 GPT-5 系列版本在寫作上能比 4.5 更出色。我們確實決定——並且我認為理由充分——將 5.2 版本的大部分精力投入到提升智能、推理、程式設計和工程能力上。我們的精力畢竟有限,有時難免顧此失彼。但我相信未來將主要是非常優秀的通用模型。即使你想開發一個專精程式設計的模型,如果它也能寫得一手好文案,那就更完美了。比如,當你讓它生成一個完整的應用程式時,你會希望其中包含優質的文字;當它與你互動時,你會希望它擁有周到、敏銳的個性並能清晰溝通。我所說的“寫得好”是指思路清晰,而非單純的辭藻華麗。所以我希望未來的模型能在所有這些方面都變得非常出色。我相信我們能做到。智能具有相當的靈活性,我們可以讓單個模型兼顧各方。現在確實是推動“編碼智能”的關鍵時刻,但我們也會努力在其他方面迅速補齊短板。稍後我會回答幾個來自 Twitter 的問題,請繼續。現場提問者2: 我是 Unify 公司的 CTO。您剛才提到我們正在做市場推廣自動化。我們一直在思考並投入精力的是“永遠線上的 AI”,也就是您之前提到的“智能將便宜到可以隨意使用”。對我們而言,為客戶運行數百萬甚至上億個代理(Agents)的最大瓶頸是成本。您如何看待小模型的發展、成本問題,以及未來幾年開發者將迎來的顯著成本降低?Sam Altman: 我認為我們可以在 2027 年底之前提供類似 GPT-5 水平的高級智能……有人想猜猜成本嗎?我猜至少會便宜 100 倍。但還有一個我們過去沒太考慮的維度。現在隨著模型輸出變得越來越複雜,人們對交付速度(Latency)的要求甚至超過了成本。我們在降低成本曲線上一直做得很好——你可以看看從最初的 o1 preview 到現在的進步。但我們之前沒有過多考慮如何在保持同樣輸出質量的前提下大幅提升速度,這可能導致成本上升。對於你提到的許多應用場景,人們會非常需要高速度。我們必須弄清楚如何在這兩者之間取得平衡,不幸的是,這是兩個截然不同的難題。假設我們只關注成本,假設這是你和市場想要的,那我們可以將成本降得非常低。也就是回答幾個關於介面的問題:當前的介面並非為代理而設計。關於定製化代理介面的創新如何加速微應用趨勢?我在自己最近使用 Codex 的過程中注意到了這一點。我不再將軟體視為靜態的事物。 如果我有一個小問題,我希望電腦能立即編寫程式碼來解決它。這種趨勢將進一步發展。我預感,我們要徹底改變使用電腦和作業系統的方式。我不認為每次需要編輯文件時,都會當場編寫一個新版本的文書處理器,因為我們習慣了固定的介面,按鈕的位置也很重要。但對於很多其他事情,我們會期望軟體是為我們“量身定製”的。也許我每次都用同一個文書處理器,但我有一些獨特的使用習慣,我希望軟體能越來越適應我——即核心軟體是靜態或緩慢演進的,但體驗是高度定製的。我的用法和你的不同。這種工具不斷演變並僅為我們個人收斂的趨勢,似乎即將發生。當然,在 OpenAI 內部,大家已經將 Codex 融入工作流程,每個人都有自己的定製小功能,使用方式大相逕庭。這一點似乎是肯定的。關於“建構者應該如何考慮持久性”以及“初創公司的功能是否會被模型更新取代”的問題,也就是你問的“OpenAI 承諾不會吞噬那一層堆疊”?認為商業的“物理定律”已經完全改變是很誘人的,但實際上並沒有。或許它們會隨時間改變,但目前唯一改變的是:你可以更快地完成工作,更快地建立新軟體。但是,建構成功初創公司的所有其他規則——獲客、市場切入、使用者粘性、護城河、網路效應、競爭優勢——這些統統沒有變。這對我們也一樣。有很多初創公司做了我們在完美世界裡本該早點做的事,但現在已經太晚了,因為他們已經建立了真正的持久優勢。這種情況將繼續發生。我總是給人們一個通用的思考框架:如果 GPT-6 是一次驚人的重大升級,你的公司會因此高興還是難過? 我鼓勵大家建構那些隨著模型變強而受益的產品。有很多東西可以這樣建構。反之,那些僅僅依靠修補模型缺陷(而模型升級後缺陷消失)的生意,雖然如果積累了足夠優勢也能存活,但這是一條更艱難、壓力更大的道路。最後一個問題,關於代理(Agent)。代理能夠自主運行長時間工作流程而無需持續人工干預的現即時間表是多久?考慮到即使簡單的鏈上任務通常在五到十步後就會中斷。OpenAI 有人想回答嗎?現場提問者3: 我覺得這很大程度上取決於任務類型。在 OpenAI 內部,我們看到人們以一種非常特殊的方式使用程式碼提示(Code Prompting)。也許他們在使用 SDK,就像一個自訂框架,不斷提示它繼續運行。所以,這主要不是“何時”的問題,而是“視野拓展”的問題。如果你有一個非常具體的、你非常瞭解的任務,不妨今天就去嘗試。如果你一開始就想“我要提示模型去建立一家公司”,那是一個過於開放的問題,驗證循環會非常困難。所以我建議你思考:如何將其分解成不同的子問題,讓代理可以自我驗證,最後由我來驗證最終輸出?隨著時間推移,我們可以讓代理處理越來越廣泛的任務。Sam Altman: 還有其他問題嗎?Sam: 嗨,Sam。我想回到關於人類注意力和 GTM(市場推廣)的問題上。我一直認為,從消費者角度看,人類的注意力是限制因素;而對於建構者來說,限制因素是想法的質量。我想問的是:我花了很多時間幫助 AI 公司制定 GTM 策略,但很多時候,他們的產品實際上並不值得人們關注。那麼,人們如何才能提出好想法?你們可以建構什麼樣的工具來提高人們想法的質量?Sam Altman: 很多人喜歡將 AI 的輸出稱為“垃圾內容”(Slop),但世界上也有很多人類製造的“垃圾內容”。提出好的新想法非常困難,我越來越相信,我們思考的邊界受到工具的限制。我認為我們需要建構幫助人們產生好想法的工具。隨著創作成本的持續暴跌,我們將能夠建立非常緊密的反饋循環,從而更快地篩選出好想法。隨著 AI 能夠發現新的科學知識並編寫複雜的程式碼庫,我相信全新的可能性空間將會打開。很多人都有過這種體驗:坐在 AI 面前(比如一個程式碼生成器),卻不知道下一步該問什麼。如果我們能建構工具,分析你過去所有的工作和程式碼,找出對你可能有用或有趣的東西,並不斷提出建議,這將非常有幫助。這就好比提供一個極佳的“頭腦風暴夥伴”。我生命中有三四個人,每次見完他們,我都會帶走很多新想法。像 Paul Graham 在這方面簡直是頂級的。如果我們能建構一個“Paul Graham 機器人”,你可以與之互動來激發新想法——即使其中大部分都很糟糕,即使你對 100 個想法中的 95 個都說“絕對不行”——我認為這也將對世界上誕生的優秀事物數量做出重大貢獻。模型似乎有能力做到這一點。在使用內部的 5.2 版本時,我們第一次聽到科學家們說,這些模型帶來的科學進展不再是微不足道的。我簡直無法相信,一個能夠提出新科學見解的模型,會無法通過不同的框架和訓練,提出關於產品建構的新見解。Theo: 嗨,我是 Theo,一名開發者 YouTuber 兼 YC 創始人,我也非常想要那個 Paul Graham 機器人。我想問一個偏技術的問題。我真的很喜歡像我們使用的建構塊這樣的技術不斷演進。我經歷過 Web 開發的幾次重大變革,比如遷移到 TypeScript 和 Tailwind 等等。我擔心的是,隨著建構工具越來越好,我們可能會被困在現有的工作方式中。就像美國的電網,一旦建成便難以翻新,導致情況惡化。你是否看到了這種潛在風險?我們是否正在用現有技術建構未來的“地基”,導致未來難以更換?因為即使是讓當前模型使用兩年前的技術去更新程式碼,有時也像“拔牙”一樣痛苦。你認為我們未來能引導模型足夠快地使用新事物嗎?還是說我們已經無法改進現有的技術基建了?Sam Altman: 我認為我們將非常擅長讓模型使用新事物。歸根結底,如果我們正確使用這些模型,它們就是一個通用推理引擎。目前的架構雖然也內建了大量的世界知識,但我們正朝著正確的方向前進。我希望在未來幾年內,模型更新知識、使用新事物以及學習新技能的速度能夠大幅提升,甚至比人類更快。一個值得我們引以為豪的里程碑是:當模型面對全新的事物、環境、工具或技術時,你只需要解釋一次——甚至無需解釋,模型就能自行探索,隨後便能可靠且正確地加以利用。這一天似乎已不再遙遠。現場提問者4: 抱歉,我有一個問題。作為一名較為年長的科學家,我知道做一個科研項目往往會衍生出多個新想法。想法是呈指數級增長的,但科學家用於執行研究的時間卻是線性遞減的(或者說有限的)。 這些工具正在加速這一過程,這太不可思議了。但是我們都很貪婪,想要更多。除了幫助我們在更短時間內追求這些有趣的想法,是否存在一個過渡點,即模型將徹底接管整個科學研究事業?如果會,這通過現有演算法就能實現,還是需要新的想法或世界模型?Sam Altman: 我認為,在大多數領域,距離模型能夠進行真正完全閉環的自主研究,還有相當長的一段路要走。以數學為例,它不需要“濕實驗室”(生物/化學實驗室)或物理輸入。也許只要通過極其深入的思考和不斷更新模型,就能取得巨大進展。但即便如此,目前利用模型取得最大突破的數學家們依然高度參與其中,觀察中間過程並指出“這感覺不對”。直覺告訴我,這是一條人機協作的獨特路徑。我遇到過幾位整天與最新模型協作的數學家。他們進展神速,但所做的工作與模型截然不同。這讓我聯想到國際象棋史上“深藍”(Deep Blue)擊敗卡斯帕羅夫(Kasparov)後的那個時期。曾有一段時間,AI 比人類強,但“人類+AI”(人類挑選 AI 的最佳步法)比單獨的 AI 更強。隨後很快,AI 變得過於強大,人類的介入反而成了累贅。我懷疑許多研究領域也會經歷類似過程。隨著時間推移,事物將變得極其複雜,AI 理解多步邏輯的能力將超越大多數人,甚至所有人。但是,這就涉及到了創造力、直覺和判斷力的問題,這些是我們目前這一代模型還遠未企及的。雖然我找不到原則性的理由說我們永遠無法達到那一點,所以我假設最終會達到。但今天,僅僅說“嘿,GPT-5,GPT-6,去解決數學問題”,肯定不如幾個優秀的專家利用它探索方向來得有效。即使我們可以驗證結果並將其反饋回訓練集,過程中仍有其他因素在起作用。不過,你確實觸及了一個痛點:解決一個問題往往會產生更多新問題。與那些積極使用 AI 的科學家交流非常令人興奮,他們確實燒了很多 GPU,但他們掌握了一項新技能:“這裡有20個新問題,我要對它們進行廣度優先搜尋。我不會深入研究每一個,而是把 AI 當作‘無限的學生助理’。”我最近把這個稱呼升級為“無限的博士後助理”。在物理科學方面,我們常討論是該為每個領域建立自動化濕實驗室,還是依靠全球科學家構思實驗、利用現有裝置並樂意貢獻資料。從科學界擁抱這些工具的熱情來看,分佈式的方式似乎是可行的。這顯然會建構一個更簡單、更美好、更分佈式、匯聚更多聰明才智和多樣化裝置的世界。Emmy: 你好 Sam,我是 Emmy。我是史丹佛大學的學生,經營一家生物安全初創公司。關於科學實驗、雲實驗室及其發展方向,我的團隊花了很多時間思考如何防止 AI 驅動的生物設計帶來危害,同時利用 AI 提升安全基礎設施。我想問的是,在 2026 年的路線圖中,安全處於什麼位置?您是如何思考這些問題的?Sam Altman: 你是指廣泛的安全,還是特指生物安全?Emmy: 都可以,但更傾向於生物安全。Sam Altman: 到 2026 年,AI 會帶來許多潛在風險,其中生物領域的風險讓我們非常擔憂。模型在生物學方面表現得相當出色。目前,全球的戰略主要是限制存取權,並設定各種分類器來阻止人們製造新型病原體。但我認為這種做法不會長久。我認為世界需要為 AI 安全——特別是生物安全——做出轉變:從“阻擋”轉向“韌性”(Resilience)。 我的聯合創始人 Wojciech 用了一個我很喜歡的關於消防安全的類比。火為社會帶來了美好,但也曾燒燬城市。我們曾試圖限制火的使用(比如“宵禁”一詞 cur-few 本意就是 cover fire,掩蓋火源),但這並不是長久之計。後來我們對火災有了更好的“韌性”意識,發明了消防法規、阻燃材料等。現在,社會在這方面做得很好。我認為我們需要以同樣的方式思考 AI。AI 將對生物恐怖主義和網路安全構成重大威脅,但 AI 也是解決這些問題的關鍵。我們需要全社會共同努力,建設這種具有韌性的基礎設施,而不是單純依賴實驗室去“攔截”它們該攔截的東西。未來世界上會有很多強大的模型。我們與許多生物研究人員和公司交流過,探討處理新型病原體所需的條件。很多人報告說 AI 在這方面非常有幫助,但這不會是一個純粹的技術解決方案,世界需要轉換思維方式。我非常擔心現狀,除了“韌性”方案外,我看不到其他出路,而 AI 確實能幫助我們快速實現這一點。如果今年 AI 領域出現某種明顯的重大危機,我認為很可能源於生物領域。到了明年及以後,可能還會出現其他糟糕的情況。Meghna: 你好,我是 Meghna。我的問題關於人類協作。AI 模型非常擅長獨自學習,這讓我反思:如果我能隨時隨地獲得答案,為什麼還要花精力去問另一個人?這涉及到了“人類+AI”的高效產出,但我更想問的是“人類+人類+AI”的協作模式。希望我表達清楚了。Sam Altman: 完全理解。提到教育,雖然我比你們年長,但我上中學時 Google 剛出現。當時老師們試圖讓學生承諾不使用它,理由是“如果你能隨時隨地查到資訊,為什麼還要上歷史課?為什麼還要死記硬背?”這簡直是瘋了。我認為,擁有工具只會讓我更聰明、學得更多、做得更多。禁止使用 AI 就像幾十年前因為有了計算器還要強迫人學算盤或計算尺一樣——這不是一項有價值的技能。我對 AI 工具也持同樣看法。按照目前的教學方式,AI 確實是個挑戰。但這表明我們需要改變教學方式,而不是拒絕 AI。你仍然需要學會思考,而寫作是練習思考的重要方式。但我們如何教授思考以及如何評估思考能力,必須隨之改變,我們不應迴避這一點。所以我認為這會沒事的。那些極具自學能力的人已經做得非常出色了,我們會找到新的教學方法帶動其他學生。關於你提到的協作,即如何讓這件事不僅僅是個人的單打獨鬥?我們正在努力衡量這一點。我懷疑在 AI 普及的世界裡,人際聯絡將變得更加有價值,而非貶值。人們會更加重視與他人的相處和合作。 我們已經開始看到人們探索更便捷的協作介面。在思考製造硬體裝置時,我們首先考慮的就是協作式的“多人+AI”體驗。雖然還沒有人完全掌握,但你會驚訝於 AI 在這方面的潛力。AI 帶來了前所未有的賦能。想像一下,五個人圍坐在一張桌子旁,旁邊有一個 AI 助手(可能是個小機器人),你們作為一個團隊將更具生產力。這將成為常態。每次小組頭腦風暴都會有 AI 參與,幫助團隊做得更好。最後提醒一下,如果你們有什麼需求並告訴我們,我們很可能會去實現它。現場提問者5: 謝謝。我很好奇,隨著代理(Agent)越來越多地投入生產系統,尤其是在大規模部署下,您認為最被低估的故障模式是什麼?是安全、成本還是可靠性?另外,目前那些方面的工作投入不足?Sam Altman: 你提到的問題都很重要。有一件事讓我個人感到驚訝,我相信也讓許多人感到驚訝:當我第一次開始使用 Codex 時,我曾確信絕不會給它完全無監督的電腦存取權。但我只堅持了大約兩個小時。然後我就想,這看起來很合理,代理似乎在做正確的事,我討厭每次都要批准命令。於是我決定開啟一會兒看看——結果從此我就再也沒關過,一直給它完全存取權。我認為其他人也有類似的經歷。所以我的普遍擔憂是,這些工具既強大又便利,但一旦發生故障,後果可能是災難性的。雖然故障率很低,但我擔心我們會因此麻痺大意,抱著“船到橋頭自然直”的心態,逐漸滑向一種聽之任之的境地。隨著模型能力日益增強,我們越來越難以完全理解它們的行為。如果模型出現偏差,或者在長期使用中暴露出隱蔽的複雜問題,你可能會在不知不覺中引入安全漏洞。對於AI失控這種科幻場景,大家看法不一。但我認為,採用這些工具的誘惑——不僅是壓力,更有其帶來的樂趣和力量——將是巨大的。人們會被裹挾其中,甚至來不及充分考慮運行這些工具的複雜性,或是沙箱機制的可靠性。我擔心的是,隨著能力的急劇提升,我們會習慣並盲目信任模型的現有表現。如果我們沒有建立起完善的——我稱之為“宏觀安全基礎設施”——我們將不知不覺地陷入困局。這也是我認為目前極佳的創業機會。Claire: 你好,我是克萊爾,伯克利分校大二學生,主修認知科學和設計。我想聊回教育的話題。讀高中時,我就看到同學用 ChatGPT 寫論文和作業。現在到了大學,我們也在探討跨學科的 AI 政策和課程。我想回到關於 K-12 階段的討論,當孩子們正處於學習解決問題、寫作和思考的關鍵成長期,如果課堂上引入 AI 會是什麼樣?作為一位新晉父親,你如何預測 AI 將如何改變和塑造這些關鍵階段的教育?Sam Altman: 總的來說,我不建議在幼兒園階段使用電腦。孩子應該在戶外奔跑,玩實體玩具,學習人際互動。所以,我不讚成在幼兒園大量使用 AI,甚至不讚成使用電腦。從發展角度看,我們要警惕技術對低齡兒童的影響。關於社交媒體對青少年的負面影響已有諸多討論,但我預感,很多技術對更年幼孩子的影響可能更為嚴重,卻鮮有人關注。在對此有更深入理解之前,我認為幼兒園的孩子不需要大量接觸 AI。Alan: 你好,我是艾倫,在生物製藥行業工作。生成式 AI 在臨床試驗、文件撰寫和加速審批方面表現驚人。我們正嘗試用它進行藥物設計,特別是化合物設計。但我們遇到了一個難題:三維空間推理。我想知道這是否會有一個臨界點,或者您怎麼看未來的發展?Sam Altman: 我們會解決這個問題的。雖然我不確定具體時間,但這確實是一個非常普遍的需求,我們也知道技術路徑。目前還有許多緊迫領域需要推進,但這一天終會到來。Dan: Sam 你好,我是 Dan。我剛從倫敦一所大學輟學,加入了 Y Combinator 的 W26 批次。我有兩個問題:第一,父母還在催我讀完大學,你認為目前的大學教育是否有時會限制個人發展?第二,你現在還做個人投資嗎?Sam Altman: 我輟學後,父母念叨了十年才放棄讓我回去讀書的念頭。父母就是這樣,他們愛你,想給你他們認為最好的建議。你需要耐心解釋:如果你想回學校,隨時都可以,但世界變了,而且還在不斷變化。每個人都要做自己的決定,而不是盲從社會灌輸給你的既定路線。我個人認為,如果你是一名 AI 開發者,現在可能不是待在大學裡的最佳時機。對於雄心勃勃、主動解決問題的人來說,這是一個千載難逢的特殊時期。記住,學校隨時可以回去讀。你應該告訴父母:這並不意味著上學對很多人來說是錯誤的,也不意味著未來這對你不是正確的選擇,但此刻,你必須抓住機遇。他們最終會理解的。至於第二個問題,我不再做個人投資了。我很懷念那段時光。但我因 OpenAI 分身乏術,而且存在利益衝突——如果我投資的公司成了 OpenAI 的大客戶,情況會變得很尷尬,不做投資反而更省心。Michael: 嘿 Sam,我是 Michael,來自 WorkOS。我們主要做身份驗證。我有個功能請求:允許使用者使用 ChatGPT 帳戶登錄第三方應用。我覺得很多人會喜歡這個。Sam Altman: 我們會做的。Michael: 終於等到了。Sam Altman: 你具體想要什麼功能?是想要使用者自帶 Token 預算,還是自帶 ChatGPT 的記憶,還是全部?Michael: 這正是我想問的。首先當然是 Token 預算。使用者應該能使用自己的帳戶權限訪問模型。但更有趣的是其他方面,比如我的公司能訪問那些 MCP 伺服器?ChatGPT 擁有我的那些記憶?它知道我正在做什麼項目嗎?這涉及很多工作和個人隱私。我很想知道你們怎麼考量這些。Sam Altman: 我們確實在研究如何實現這一點,但這同時也令人擔憂。ChatGPT 確實掌握了大量使用者隱私。即使你告訴密友很多秘密,你也確信他們懂得社交分寸,知道何時分享、與誰分享。我們的模型雖然表現不錯,但還沒完全達到那種微妙的社交判斷力。如果我把 ChatGPT 帳戶連接到很多網站,然後讓它“憑判斷隨意分享”,我會感到非常不安。不過,如果是單純的“自帶 Token 預算”,比如我在其他服務上使用我已經付費的 Pro 模型,這聽起來是個很棒的功能。我們至少會先做到這一點,同時探索如何妥善處理資訊共享。我們必須非常謹慎,不能搞砸。Oleg: 嘿 Sam,我是 Oleg。大家都同意軟體開發作為一門手藝已經發生了巨變,但我看 LinkedIn 上 OpenAI 還在招軟體工程師。我想知道,過去這段時間,你們的面試方式發生了什麼變化?Sam Altman: 我們會繼續招聘軟體工程師,但這是我們第一次——我知道其他創業公司也在思考這個問題——計畫大幅放緩人員增長速度。因為我們認為,利用 AI 可以實現“少人多效”。現在的障礙在於,大多數公司的既有政策還沒準備好接納大量的“AI 同事”。這需要時間調整。企業最不該做的就是瘋狂擴招,然後突然發現有了 AI 並不需要這麼多人,最後不得不進行痛苦的裁員。所以,對我們而言,正確的策略是放慢招聘,但保持精選。我並不認為 OpenAI 最終會變成“零員工”公司。在很長一段時間裡,我們將擁有一群能力倍增的人才,這大概就是未來經濟的形態。至於面試,目前變化不大,但我們正在討論改革。我們的目標是:讓應聘者坐下來,在 10 到 20 分鐘內,完成一項在去年可能需要一個人花兩周才能完成的任務。是的,這是重中之重。我們要考察人們能否利用新工具高效工作。傳統的軟體工程面試早已過時,現在更是離題萬里。這就引出了一個普遍問題:未來的贏家是那些“只有少量員工但擁有大量 AI 同事”的公司,還是“完全由 AI 組成、只有一排排 GPU 而沒有人類”的公司?我非常希望是前者。但如果傳統公司不積極採用 AI,不招聘善用工具的人才,它們最終會被那些完全由 AI 組成、沒有繁文縟節束縛的新型實體淘汰。這對社會來說將是極大的動盪。我們一直在思考如何表達這一觀點,這聽起來像是在推銷自己,但我真心認為:企業迅速、大規模地採用 AI 至關重要。Cole: Sam 你好,我是 Cole,一名創作者兼攝影師。過去一年,AI 徹底改變了我們講故事和表達自我的方式。在創意領域出現了許多有趣的動態,比如用 Sora 作為畫布,將自己置身於各種奇幻場景中。隨著模型不斷進化,你認為人類的創作身份與 AI 輔助創作之間的關係將走向何方?Sam Altman: 我們可以從圖像生成(Image Gen)領域尋找答案,它發展得最早。創意界對它的態度可謂愛恨交織。其中一個有趣的觀察是消費者的反應。研究顯示,如果被告知作品是人類而非 AI 創作的,人們的欣賞度和滿意度會大大提高。我認為這將是未來幾十年的重要趨勢:我們深切關注人類,卻對機器漠不關心。 在所有對 AI 的貶稱中,我最喜歡“Clanker”(原本指發著金屬撞擊聲的機器人/鐵皮人),它非常能喚起情感反應。你可以看到那些由“Clanker”生成的、令人難以置信的精美圖像,但一旦知道真相,許多人的主觀評價就會大打折扣。我在網上看過一個視訊,採訪那些聲稱痛恨 AI 藝術的人……有些人常說:“我肯定能分辨出 AI 生成的圖像,因為它們太糟糕了。” 於是,研究人員做了一個測試:給這些人看 10 張圖片,讓他們按喜愛程度排序。這其中一半完全由人類創作,另一半完全由 AI 生成。結果相當一致,人們往往會將 AI 創作的圖片排在前面。然而,一旦被告知真相,他們的態度就會立刻反轉:“其實我不喜歡它,這並不是我想要的。” 這恰恰揭示了真正的試金石:即你的情感共鳴究竟源於何處。 當我讀完一本我深愛的書,第一件事就是去查閱作者的生平,瞭解他的人生經歷以及創作動機,因為我感到與這個陌生人建立了一種精神聯結,我渴望瞭解他。同樣,如果我讀了一部偉大的小說,最後卻發現是由 AI 寫出來的,我會感到某種失落和沮喪。我認為這不僅是一種深刻的情緒,更將是一個持久的趨勢。不過,如果藝術作品中包含了人類的指導——那怕只有一點點——人們似乎就不會產生那種強烈的牴觸情緒。這種情況由來已久,就像人們依然欣賞數字藝術家使用 Photoshop 創作的作品一樣。基於目前的觀察,我的預測是:創作者本身、他們的人生故事,以及他們在創作過程中所做的編輯、策劃等工作,依然至關重要。 總體而言,我們並不想要完全由 AI 生成的藝術作品——至少從我們在圖像領域的經驗來看是這樣。Dan: 我們還有時間回答兩個問題。Keith Curry: 嗨 Sam,我是 Keith Curry,剛從舊金山州立大學畢業。我的問題關於個性化和記憶功能。首先,您認為這方面未來會如何發展?其次,關於更精細的控制權,比如對記憶進行分組——例如區分“工作身份”和“個人身份”。這樣在不同的提示場景下,您可以更精確地選擇希望 AI 呼叫的內容,您對這一點怎麼看?Sam Altman: 是的,我們將大力投入記憶和個性化功能。這顯然是使用者所需,也能顯著提升工具的可用性。我個人在這方面也經歷了一個觀念轉變的過程,但現在我已經準備好了:讓 ChatGPT 訪問我電腦和網際網路上的所有資訊,讓它變得“全知全能”。這帶來的價值將是巨大的。我不再像以前那樣對此感到顧慮。當然,我真心希望所有 AI 公司——以及整個社會——都能高度重視安全和隱私,因為 AI 的效用實在太大了。AI 將瞭解我生活的方方面面,我不會去阻礙這一點。 雖然出於多種原因,我還沒準備好佩戴那種時刻記錄一切的眼鏡,但我確實準備好說:“嘿,你可以訪問我的電腦,去弄清楚正在發生什麼,來幫助我、理解一切,並完美地呈現我的數字生活。”我很懶,我認為大多數使用者也是如此。所以,合理的呈現方式至關重要。我不想坐在這裡手動分類:這是工作記憶,那是個人記憶,那是別的什麼。我想要的是——這也確實是可能的——AI 能深刻理解我生活中複雜的規則、互動及層級關係,知道在何時使用什麼資訊,在那裡展示什麼內容。我們需要解決這個問題,因為這才是大多數使用者真正想要的。Luan: 嗨 Sam,我是 Luan,一名來自越南的國際學校學生。我的問題是:您認為在 AI 時代,人們應該掌握的最重要的技能是什麼?Sam Altman: 最重要的將是那些“軟技能”。過去那種“去學程式設計”的顯而易見的建議,現在已不再絕對適用。我認為,擁有高度的主動性(Agency)、擅長產生創意、極具韌性,以及對快速變化的世界保持極強的適應能力,這些將比任何具體的技術技能都更重要。 而且,這些都是可以習得的。作為一名風險投資人,曾讓我大感意外的是,人們可以通過一個為期三個月的訓練營式項目,在上述領域取得驚人的進步。這是我認知上的一次重大刷新。所以,我認為這些才是最重要的技能,而且它們並不難學。時間到了嗎?好的。非常感謝大家前來交流。我們非常希望能收到關於“你們希望我們建構什麼”的反饋。設想一下,未來我們將擁有一個比當前模型強大 100 倍、上下文長度增加 100 倍、速度快 100 倍、成本降低 100 倍的模型,它能完美呼叫工具,並具備極高的連貫性。我們會實現這一切。 請告訴我們你們想要什麼。我們會留在這裡,無論你需要 API、某種基礎功能、某種執行階段環境,還是其他任何東西,我們都在為你建構,並且希望能把它做好。再次感謝大家的到來。 (藍血研究)
Manus 向上,智譜向右:中國工程師紅利,只有出海才能兌現價值?
兩條路徑,一種宿命清晨的科技圈被一條消息刷屏了:成立不久的 AI Agent 創業公司 Manus 被 Meta 以 20 億美金的價格收入囊中。創始人肖弘更直接獲封 Meta 副總裁。就在 Manus 在新加坡慶祝“技術套現”的同時,國內大模型領頭羊智譜清言也在同一時間啟動了香港上市的招股。招股書顯示,智譜預計市值超 511 億港元,但繁華背後卻是沉重的財務壓力——2025 年上半年虧損 17.5 億元,平均每月“燒掉”近 3 億。按此速度,帳上現金僅夠維持 9 個月。同樣是頂尖的華人技術團隊,一個在 Meta 的生態裡輕裝上陣,一個在資本市場的博弈中求生。這種巨大的體感差異,真的只是因為“出海”與否嗎?估值博弈:被“土壤”攤薄的價值我們將坐標拉長到全球視野。智譜即便頂著“中國 OpenAI”的光環,其市銷率(P/S)在 64 倍至 78 倍之間,相較於國內 AI 應用公司已是巔峰,但對比美國同行卻略顯落寞。大洋彼岸做企業服務的 Anthropic,2025 年營收預計超過 50 億美金,二級市場隱含估值高達 3500 億美金,更不用上篇文章提到的Palantir,市值已經突破4500億美金。就算有美股的泡沫和對AI價值的高估,可那又怎麼樣呢?泡沫的繁榮也是繁榮,總比理性的貧瘠強,普通人創業,首先要獲得市場和資本的認可,讓創始人和投資人先賺到錢。可為什麼智譜既有 Anthropic 的訂閱邏輯,又有 Palantir 的服務屬性,市值卻難以跨越數量級的鴻溝?答案不在技術指標,而在於中國企業級市場的“三大泥潭”:私有化部署、定製化開發、資料治理。這並非新鮮事,但為何難以破解?我曾經以為這不過就是中國企業現階段的無奈之舉,直到我無意中翻開一百多年前傳教士明恩溥的那本《中國人的性格》,才發現如今中國企服市場的每一個痛點,都能在百年前的社會心理中找到底層編碼。社會心理一:互相猜疑這種心理在企服市場中的體現就是猜疑的高牆與私有化的執念。明恩溥觀察到,中國民居最顯著的特點就是環城、環村、環房而建的高牆。這種防禦不是針對外敵,而是針對彼此。“據說,人與人之間之所以相互不信任,原因有兩個:一是不瞭解對方;二是太瞭解對方。”書中舉例:一個婦女聽到院內喧嘩便勃然大怒,認定人們在議論她;一個僕人被辭退,會固執地猜疑所有人都在背後中傷;中國人分錢時,大家很難相信既定方案,總覺得錢被別人剋扣了。這種深植骨髓的“不安全感”,完美對應在當下的數位化決策中。許多大中型企業不惜支付數倍溢價,也要搞私有化部署,理由如出一轍:“資料交給別人,我不放心。” 甚至有企業寧可雇上千人團隊從頭研發商業成熟產品,美其名曰“自主可控”,實則是擔心資料被外人窺視。在這些決策者心中,私有化部署等於絕對安全。這正如明恩溥描述的“高牆心理”——寧可把現金埋在自家的床底,也不願存入銀行。他們寧願相信月薪八千、三本畢業的自家維運,也不信大廠投入幾十上百億研發的技術能力和安全機制。這種心理帶來的效率損耗,正是中國企業軟體難以規模化增長的第一個病灶。社會心理二:“順而不從”與定製化黑洞為什麼中國企業的個性化需求如此之多?是因為業務真的特殊嗎?未必。更多時候,是為了遷就不合理的舊流程和人的操作習慣。明恩溥將其總結為“順而不從”。書中寫道:給苦力一把快鐮刀,他笑著接過,轉身卻繼續用那把鈍滯的舊刀,理由是“舊的更好用”;給洗衣工脫水機,他棄之不用,寧可手搓得破爛不堪;園丁不按吩咐修牆,反而插滿樹枝,被質問時還能講出一堆優越性。有位地方官命僕人去遠方取水,僕人卻私自到近處取甜水,只要結果滿意,官員便不追究其抗命這種“會捉老鼠就是好貓”的實用主義,在企業數位化中演變為對標準化軟體的天然抵制。管理層呼籲標準化,下級表面尊重,實際操作中卻繞過規則。如果上級持續施壓,壓力便逐級下移,直至消解,一切恢復如初。這種博弈導致廠商不得不針對每個企業、甚至每個部門開發特定的補丁。定製化開發不是在適配業務,而是在適配那些不願改變的“舊習慣”。社會心理三:漠視精確帶來的“資料負債”“大數對得上就行”,是中國企業資料治理的隱秘真相。明恩溥提到,中國人對數字的敏銳度往往讓位於“模糊的體面”。AI的底層邏輯是資料,而資料要求的是絕對的精確。但我們的傳統心理中,似乎自帶一層“模糊濾鏡”。明恩溥發現:說老人七八十歲,可能才滿七十;去看戲花了173弔錢,口述時一定是“兩百吊”,因為“沒區別”。這種對數字的無所謂,直接導致了企業內部的資料斷層。當年我代表就職的企業與合作方簽署了一個970萬的軟體合同,於是對方在簽約喜報中就體現了合作金額“千萬大單”,反正看起來接近1000萬就行,實際上還差了整整30萬。我服務過一家年營收數百億的集團,不管是集體總部還是眾多二級單位之間,的資料幾乎沒有一個能完全對上。真正用的好就一個財務系統,做核算出報表,你搞你的我搞我的,對不上就對不上,以財務資料為準。這種對精確性的漠視,導致了國內企業普遍面臨極高的“資料債務”。當 AI 進入這些企業時,面對的是一堆邏輯混亂、口徑不一的髒資料。為了讓 AI 說句“人話”,廠商不得不投入大量精力在底層治理上,這種苦活累活,讓任何業務都變得沉重且低效。結語:在鹽鹼地外尋找“增長範式”鹽鹼地裡固然能種出莊稼,但需要極高的改良成本。Manus的成功,本質上是利用了中國的工程師紅利,但在產品設計之初就對準了規則明確、生態成熟的海外市場。這為新一代軟體創業團隊提供了一個極其清晰的生存指南:跑出原型,然後快速融入國際化生態。而對於像智譜這樣根植本土的先行者,真正要獲得商業上的成功,還需要極大的戰略定力和資本支撐。未來相當長一段時間內,國內市場或許會繼續維持這種“高投入、慢回報”的常態,這是由社會心理和商業環境共同決定的。而那些希望快速兌現技術價值的團隊,出海不再是選項,而是必然。無論如何,還是要祝福Manus,他們證明了本土教育背景的技術團隊一樣能做出世界頂尖的產品,同時還能賺到錢;同時也要致敬智譜,走入資本市場,迎接更大的挑戰。 (岩聊數位化)
AI取代不了程式設計師,明年全流程上AI!谷歌工程負責人自曝:2026年AI程式設計完整工作流程!經典軟體工程紀律沒過時,在AI時代更重要
2025年,AI 程式設計助理真正成為了改變遊戲規則的工具。不少開發者已經擁抱了AI程式工具,例如大家熟知的Claude Code、Codex CLI、Cursor、Gemini CLI等等。但要真正有效率地駕馭它們,還需要技巧和結構化的方法。前幾天,Google工程負責人、Chrome DevTools 和JS Patterns 的設計者Addy Osmani 結合自己一年多的專案實務經驗,總結了一套AI Coding 的工作流程。進入2026 年,他對LLM 輔助編程的理解已經非常清晰:它不是“自動駕駛”,而是一位能力極強、但需要被正確引導的結對程式設計師。Andy系統性複盤了自己在走向2026 的過程中,如何把AI 真正納入日常工程體系——從前期規劃,到代碼生成,再到團隊協作,幾乎覆蓋了一整套可復用的實戰方法論。在他的實踐中,AI 並不是“寫代碼的黑箱”,而是被當作工程流程中的一環來精細管理。具體來說,這套方法包括:在任何程式碼產生之前,先與AI 一起打磨一份足夠具體、可執行的專案方案,把需求、邊界和目標一次說清楚;在prompt 中大量使用明確的註釋、約束和規則,主動限定AI 的行為,而不是被動接收結果;針對不同任務選擇不同模型,而不是迷信「一個模型包打天下」;保持高頻、小步的程式碼提交,避免一次性產生或修改過多程式碼,導致專案狀態失控;為每一個新功能單獨創建worktree,將實驗性改動與主線程式碼嚴格隔離;透過規則檔案約束AI 的程式碼風格、目錄結構和工程習慣,讓產生程式碼更像「團隊成員」而不是「臨時外包」。他的核心結論是:經典的軟體工程紀律,不但沒有過時,在AI 時代反而更重要!先設計、再編碼;寫入測試;用版本控制;守住標準。當AI 參與寫一半程式碼時,這些原則的價值被進一步放大。此外,Andy也分享了一個有趣的觀點。很多人可能認為,AI Coding會加速程式設計師失業,取代程式設計師的職位,但Andy認為,用好AI才能加速你的成長。在審AI 的程式碼、糾AI 的bug、讓AI 解釋思路的過程中,其實能夠學到大量新知識;而對於有紮實基本功的人來說,AI能讓生產力倍放大。Andy表示,2026 年他將全面擁抱AI,但方式是審慎、由專家主導的。這是一種更自律的「AI 輔助工程」方法:在激進地利用AI 能力的同時,依然對最終產出的軟體負全部責任。以下是他的乾貨分享,enjoy!從清晰的計畫開始:先寫方案,再寫程式碼不要只是把「願望」一股腦丟給LLM,應先定義問題,再規劃解決方案。一個非常常見的錯誤,是在提示語還很模糊的情況下,直接讓AI 產生程式碼。在我的工作流程中(以及許多成熟實踐中),第一步並不是寫代碼,而是和AI 一起頭腦風暴,產出一份詳細的規格說明,然後再整理出清晰的分步計劃。對於一個新項目,我通常會先描述整體想法,並讓LLM 不斷向我反問,直到需求、邊界條件和潛在的邊緣情況都被充分挖掘出來。最終,我們會把這些內容整理成一份完整的 spec.md,其中包含:功能需求、架構決策、資料模型,甚至是測試策略。這份規格文件會成為整個開發過程的基石。接下來,我會把這份spec 交給一個具備推理能力的模型,讓它產生專案計畫:把實作過程拆解成邏輯清晰、粒度適當的小任務或里程碑。某種意義上,這是一個「迷你版設計文件/ 專案計畫」。我通常會多次迭代這份計劃——親自修改,再讓AI 批判性地審視、優化——直到它足夠完整、連貫,然後才進入真正的編碼階段。這種前期投入乍看之下有點慢,但回報極高。正如Les Orchard 所說,這就像是“15 分鐘完成一次瀑布式設計”,一個快速而結構化的規劃階段,讓後續編碼變得異常順暢。有了清晰的規格和計劃,當我們真正「釋放」程式碼產生能力時,人和AI 都非常清楚:我們要做什麼,以及為什麼要這麼做。簡而言之,先規劃能讓你和AI 站在同一頁上,避免無效反覆。很多人會跳過這一步,但如今有經驗的LLM 開發者,已經把高品質的spec / plan 當成整個工作流程的核心。把工作拆分成小而可迭代的區塊範圍管理是一切的關鍵:給LLM 可控的小任務,而不是一次塞進整個程式碼庫。我學到的一個重要教訓是:不要讓AI 一次輸出大量、整體性的程式碼。相反,應把專案拆成一系列小步驟或“工單”,逐一完成。這本來就是良好的軟體工程實踐,但在引入AI 之後變得尤為重要。LLM 在聚焦型任務上表現最好:實作一個函數、修復一個bug、增加一個小功能。例如完成規劃後,我會直接對程式碼產生模型說:「好,我們來實現計畫裡的第1 步。」完成後測試,再進入第2 步,如此循環。每一個chunk 都夠小,小到AI 能在上下文中處理乾淨,而你也能真正理解它產生的程式碼。這種方式能有效防止模型「跑偏」。如果一次性要求太多,模型往往會迷失方向,產生一堆“糾纏在一起的程式碼垃圾”,非常難以維護。許多開發者都有類似體驗:讓LLM 一口氣產生一個完整應用,結果程式碼風格不統一、邏輯重複,「就像10 個程式設計師各幹各的,彼此完全沒溝通」。我自己也踩過這個坑,解決方法只有一個:停下來,退一步,把問題切小。每一輪迭代,我們都在已有上下文的基礎上,增量式地推進。這也非常適合測試驅動開發(TDD):每個步驟都可以同步編寫或產生測試(後面會詳細講)。不少編碼Agent 工具已經明確支援這種「分塊」工作流程。例如,我有時會產生一個結構化的「prompt plan」文件,裡麵包含每個任務對應的一條提示語,讓Cursor 這類工具依序逐條執行。核心原則只有一個:避免大躍進。透過小步快跑,我們大幅降低災難性錯誤的機率,也能更快糾偏。 LLM 在快速、受限的任務上非常擅長,要順勢而為。提供充足的脈絡和明確的指導LLM 的品質上限,取決於你提供的上下文品質。把相關程式碼、文檔和約束條件都給它。在處理真實程式碼庫時,我會確保AI 擁有完成任務所需的一切資訊:相關原始碼、技術約束、已知坑點、推薦或禁止的方案。現代工具在這方面已經很強了:例如Claude 的Projects 模式可以直接匯入整個GitHub 倉庫;Cursor、Copilot 會自動把目前開啟的檔案放進上下文。但我通常還會做得更多。如果我懷疑模型缺乏某些關鍵訊息,就會透過MCP(如Context7),或乾脆手動把重要模組、API 文件黏進對話裡。資深LLM 用戶普遍強調這種“上下文打包(context packing)”的重要性,例如在編碼前來一次完整的“信息傾倒”,包括:高層目標與不變量正確解法的範例明確警告那些方案不要用如果任務本身比較棘手,我甚至會提前告訴AI 那些樸素解法性能不行,或者給它一個外部參考實作。如果使用的是冷門庫或全新API,我會直接貼官方文件或README,避免它「蒙著眼睛飛」。所有這些前置上下文,都會顯著提升輸出質量,因為模型不需要猜測,而是基於事實和約束進行生成。現在也有不少工具能自動化上下文整理,例如gitingest、repo2txt,它們可以把程式碼庫的關鍵部分匯出成一個文字文件,讓LLM 一次讀入。對於大型專案來說,這是救命工具。原則很簡單:不要讓AI 在資訊不完整的情況下工作。一個bug 如果涉及四個模組,就把這四個模組都給它。當然要注意token 限制,但如今前沿模型的上下文視窗已經非常大(幾萬token),合理利用即可。我通常只選取與目前任務相關的程式碼,並明確告訴AI 那些內容可以忽略,以節省上下文空間。我個人也很看好Claude Skills 這個方向:它把原本脆弱、一次性的提示,封裝成可復用的“技能”,把指令、腳本和領域知識模組化。當請求匹配某個Skill 時,工具可以自動套用這些能力,效果遠勝於通用prompt。這讓我們從一次性交互,走向可重複使用、可沉澱的工程流程。目前社群已經有不少Skills 集合,我很喜歡的例子是frontend-design skill,它能終結LLM UI 裡氾濫的「紫色設計風」。在官方工俱全面支援之前,也已經有一些可行的變通方案。最後,在prompt 裡用明確的註解和規則引導AI。例如,我會在程式碼前面加一句:「這是X 的當前實現,我們需要擴展它來做Y,但一定不要破壞Z。」這種小提示非常有效。 LLM 本質上是“字面主義者”,你給什麼指令,它就照著執行。上下文越清晰,幻覺和跑偏就越少,產生的程式碼也越貼合項目實際。為不同任務選擇最適合的模型並不是所有編碼LLM 都一樣,要有意識地選工具,必要時中途換模型。到2025 年,我們已經擁有大量強大的程式碼模型。在我的工作流程中,一個重要環節就是:為不同任務選擇最適合的模式或服務。有時候,我甚至會並行嘗試兩個模型,看看它們對相同問題的想法有何不同。每個模型都有自己的「性格」。關鍵在於:如果一個模型卡住了或輸出平庸,立刻換另一個。我常常把同一個prompt 原封不動地複製到另一個服務裡,結果往往立竿見影。這種「模型輪換」在遇到盲點時非常救命。另外,盡量用最新、最強的版本。如果條件允許,優先使用最新的Pro 級模型。是的,這通常意味著付費,但生產力提升往往物有所值。說到底,選一個「合拍」的AI 結對程式設計師也很重要。我認識一些人偏愛某個模型,只是因為它的回應風格比較順眼,這完全合理。當你要和AI 長時間對話時,體驗和語氣真的很重要。就我個人而言,最近很多程式設計工作我會優先用Gemini,因為互動更自然,第一次就理解需求的機率更高。但我從不猶豫在必要時切換模型;有時候,「第二意見」能讓解法突然浮現。總結一句:為任務選對工具,並記住你手上有一整套AI 工具箱可用。在整個軟體生命周期中使用AI 編碼能力在SDLC 的各個階段引入AI,讓開發體驗全面提速。在命令列層面,新一代AI Agent 已經出現:Claude Code、OpenAI Codex CLI、Google Gemini CLI,都可以直接在專案目錄裡對話,讀取檔案、執行測試,甚至多步驟修復問題。我也用過Google 的Jules、GitHub Copilot Agent——它們是異步的編碼Agent,會把你的倉庫複製到雲端VM,在後台完成任務(寫入測試、修bug),然後直接給你一個PR。第一次看到這種體驗時真的很詭異:你只下了一條指令,例如“重構支付模組以支援X”,過一會兒就收到一個測試通過的Pull Request。我們確實活在未來。關於這一點,可以參考《From conductors to orchestrators》。當然,這些工具並不完美,必須清楚它們的邊界。它們非常擅長加速機械性工作,樣板​​程式碼、重複性修改、自動跑測試,但仍然高度依賴你的引導。例如,當我讓Claude 或Copilot Agent 實現某個功能時,通常會把前面整理好的計畫或待辦清單一起給它。如果工具支持,我會直接把 spec.md 或 plan.md 加進上下文,讓它嚴格地按步驟執行。我們還遠遠沒到可以完全放手,讓AI 獨立實現完整功能並期待完美結果的階段。我的使用方式始終是「有人監督」:讓AI 產生、運行程式碼,但我隨時盯著進度,一旦有異常就介入。也有一些編排工具(如Conductor)支援並行運行多個Agent,讓不同Agent 同時處理不同任務。本質上是在「規模化AI 勞動力」。我也嘗試過這種「多Agent 並行」模式,效率驚人,但同時也非常耗費心智去監控。多數情況下,我還是選擇一個主Agent,再加一個輔助Agent 做評審。記住:這些都是電動工具。你仍然掌控扳機。始終讓人留在迴路中:驗證、測試、審查一切AI 可以寫出看起來很像真的程式碼,但品質責任始終在你身上。我有一條鐵律:永遠不要盲信LLM 的輸出。正如Simon Willison 所說,把LLM 當成一個「自信過頭、但容易犯錯的配對程式設計師」。它會以100% 的確信寫出包含bug 的程式碼,除非你指出來,否則它不會意識到問題。因此,我把每一段AI 產生的程式碼,都當成來自初級工程師的提交:逐行閱讀、運行、測試。一定要測試。跑單測、手動驗證功能是否符合預期。對此我強烈建議閱讀《Vibe coding 不是低品質的藉口》。事實上,我把測試直接嵌入工作流程。前期規劃時就會包含測試清單或測試策略。如果使用Claude Code 這類工具,我會明確指示它在完成任務後運行測試,並在失敗時繼續調試。只要測試存在,AI 在「寫程式→ 跑測試→ 修bug」的閉環裡表現非常出色。這也是為什麼最能榨乾coding agent 價值的人,往往也是測試做得最好的人。有完善測試套件的項目,對AI 來說就像裝了安全網;沒有測試,Agent 很容易在「看起來一切正常」的幻覺中破壞多個模組。除了自動化測試,程式碼審查同樣必不可少——包括人工和AI 輔助審查。我經常會暫停下來,逐行審查目前產生的程式碼,甚至開一個第二個AI 會話(或換一個模型)來做review。例如讓Claude 寫程式碼,再讓Gemini 審一遍:「你能檢查這個函數有沒有潛在問題嗎?」這種方式常常能抓住一些微妙bug。 AI 寫的程式碼,反而更需要審查,因為它往往「表面上很合理」。我也會使用Chrome DevTools MCP(這是我和上一個團隊一起做的)來增強調試和品質閉環。它相當於“給AI 裝上眼睛”,讓Agent 能看到瀏覽器實際狀態:DOM、效能追蹤、控制台日誌、網路請求。這極大減少了上下文切換的摩擦,使LLM 能夠基於真實運行數據進行UI 測試和精確修復。忽視人類監督的代價已經有人替我們踩過。曾有開發者在趕專案時大量依賴AI 生成,結果程式碼結構混亂、邏輯重複、命名不一致。他後來意識到自己一直在“往前堆代碼”,卻從沒停下來整體審視。最終只能痛苦重構,發誓再也不讓事情失控。我把這個教訓牢記在心:無論AI 用得多狠,我始終是最終負責的工程師。在實踐中,這意味著:只有在我真正理解程式碼之後,才會合併或上線。如果AI 產生的程式碼太複雜,我會讓它加註解解釋,或者乾脆重寫成更清晰的版本。只要感覺不對勁,就深入挖——就像對待任何人類同事的可疑提交一樣。歸根究底是心態問題:LLM 是助手,而不是可靠的自主程式設計師。我是資深工程師,AI 是加速器,而不是判斷替代品。這種立場不僅帶來更好的程式碼,也能保護你作為開發者的長期成長。只要你始終參與其中、主動理解和審查,你不是在退化,而是在更高速度下鍛鍊判斷力。一句話總結:保持警惕,頻繁測試,永遠審查。程式碼庫最終仍然是你的。頻繁提交,把版本控制當作安全網永遠不要提交你解釋不清楚的程式碼。在AI 能快速產生大量程式碼的情況下,事情很容易失控。我的應對方式是:極端細粒度的版本控制習慣。我提交得比純手寫程式碼時代還要頻繁。每完成一個小任務或一次成功的自動修改,就立刻提交一次,提交資訊寫清楚。這樣一來,如果AI 的下一步引入了bug 或糟糕改動,我可以迅速回滾到最近的穩定點,或者cherry-pick,而不是損失幾個小時的工作。有人把這種做法比喻為“遊戲裡的存檔點”,我非常認同。有了這種安全感,你才敢大膽嘗試AI 的激進重構。版本控制還能彌補AI 的「記憶缺陷」。我經常翻看最近的提交記錄,來給AI(或自己)複盤發生了什麼。甚至可以直接把git diff 或commit log 黏給AI,它們非常擅長理解diff,用 git bisect 找bug 也毫無怨言——前提是你的提交歷史足夠乾淨。另一個好處是:小提交+ 清晰訊息,本身就是文件。無論是人類還是AI 做code review,都比較容易定位問題。如果所有改動都塞在一個叫「AI changes」的巨大提交裡,基本上等於災難。所以我強迫自己遵守紀律:完成任務→ 跑步測試→ 提交。我也會大量使用分支或git worktree 來隔離AI 實驗。一個我很喜歡的進階技巧(受Jesse Vincent 啟發)是:為每個新功能或子任務創建一個獨立worktree。這樣可以在同一個倉庫裡並行跑多個AI 會話,互不干擾。失敗了直接丟棄,成功了再合併。版本控制正是讓這種AI 協作成為可能的基礎架構。總結一句:多提交、用好分支、把git 當成AI 時代的控制系統。用規則和範例客製化AI 的行為透過風格指南、範例,甚至「規則檔」來引導AI,前期一點調校,能換來長期高品質輸出。我學到的一點是:你完全不必接受AI 的預設風格。你可以強力引導它。我自己維護了一個 CLAUDE.md 檔案(用Gemini CLI 時也有 GEMINI.md),裡面寫的是流程規則和偏好,例如:遵循專案程式碼風格透過lint 規則禁用某些函數偏好函數式而非OOP每次會話開始時把這個檔案餵給模型,效果非常好,能顯著減少「跑偏」。這就像Jesse Vincent 說的:它能讓模型始終沿著既定軌道前進。即使不用規則文件,你也可以透過自訂指令或system prompt 達到類似效果。 Copilot、Cursor 都支援專案層級的行為配置。我通常會寫一小段說明,例如縮排規格、React 中避免箭頭函數、變數命名要求、必須通過ESLint 等。設定好之後,AI 的輸出就更像一個真正融入團隊的工程師。 Ben Congdon 曾經感慨,很少有人使用Copilot 的自訂指令,但效果卻出奇地好——我完全贊同。另一個非常有效的技巧是:給範例。如果我希望AI 以某種方式寫函數,就先給它看一個現有實作;如果想要特定的註解風格,就先自己寫一段範例。 LLM 非常擅長模仿,一兩個例子就夠了。社群裡還有不少「規則集」來約束模型行為,例如明確寫上「如果不確定,請提問而不是編造答案」。我自己常加一條:「修bug 時請在註解中簡要說明原因。」這樣後續review 就非常省心。總結來說:不要把AI 當黑箱。像onboarding 新同事一樣給它規則、範例和期望。投入產出比極高。把測試和自動化當作擴大機CI/CD、lint、程式碼審查機器人,會讓AI 發揮最大價值。這是前面原則的自然延伸:強自動化的工程環境,會極大放大AI 的生產力。我確保所有大量使用AI 的倉庫,都有完善的CI:自動測試、程式碼風格檢查、最好還有staging 部署。這樣一來,AI 打開PR 後,CI 失敗的日誌就能直接餵回給AI:「整合測試失敗,錯誤是XYZ。」問題修復立刻變成一個高速回饋迴路,AI 非常擅長這種模式。我甚至會把linter 的報錯直接貼進prompt,讓AI 修復。只要它「看到」工具回饋,就會非常努力地糾正。這也是為什麼有些Agent 會在測試全綠之前拒絕宣稱「完成任務」——這正是你希望看到的行為。當AI + 自動化形成閉環時,你會感覺像是:一個極快的初級工程師,配上一個永不疲倦的QA。前提是,你得先把環境搭好。沒有測試和自動檢查,AI 的問題往往會被拖到很後面才會暴露。展望2026,我計劃進一步強化AI 程式碼貢獻的品質閘門:更多測試、更多監控,甚至AI 審AI。聽起來有點悖論,但確實有效。重點很簡單:AI 友善的工作流程,一定是自動化成熟的工作流程。用好AI,能加速你的成長把每次AI 編碼當作學習機會,形成正向回饋循環。使用LLM 的一個意外收穫是:我學得更多了,而不是更少。AI 讓我接觸到新的語言、框架和技巧,否則我可能不會主動嘗試。一個普遍規律是:AI 會獎勵良好的工程基礎。有紮實基本功的人,生產力被倍增;基礎薄弱的人,困惑也會被放大。 LLM 讓你能站在更高抽象層上思考(設計、介面、架構),但前提是你本來就具備這些能力。正如Simon Willison 所說:幾乎所有「高階工程師」的核心能力,正是如今用好AI 的關鍵。對於擔心AI 會讓人「退化」的聲音,我的看法相反:只要你始終參與審查和理解,AI 反而會加速成長。透過審AI 的程式碼、糾AI 的bug、讓AI 解釋思路,我學到了大量新知識。 AI 也成了我隨時待命的研究助理,幫我比較方案、分析權衡。宏觀來看,AI 放大的是你的專業能力。進入2026 年,我並不擔心它“搶工作”,而是期待它把我從體力活中解放出來。當然,前提是要有紮實基礎,否則AI 可能會製造「鄧寧-克魯格效應加強版」。一句建議:持續打磨基本功,用AI 加速這個過程。開發者+ AI 的組合,遠比任何一方單獨強大。結論:2026年全面擁抱AI編程進入2026 年,我已經全面擁抱AI,但方式是審慎、由專家主導的。這是一種“AI 增強的軟體工程”,而不是“AI 自動化的軟體工程”。我的核心結論是:經典的軟體工程紀律,不但沒有過時,在AI 時代反而更重要。先設計、再編碼;寫測試;用版本控制;守住標準-當AI 參與寫一半程式碼時,這些原則的價值被進一步放大。未來一定會繼續演進。也許會有更自主的“AI 實習生”,也許會出現全新的調試和程式碼探索範式。但無論如何,我都會始終留在迴路中,引導AI、向它學習、並負責任地放大自己的生產力。對我來說,最終結論只有一句:AI 程式設計助手是強大的槓桿,但人類工程師仍然是導演。那麼,祝你在2026 年,建造愉快。(51CTO技術棧)
年薪百萬的華人狀元工程師,被矽谷大廠逼到自殺…美國華人職場的悲歌
2019年9月19日,陳勤從Facebook加州總部的樓頂一躍而下。他本應是“別人的孩子”的終極範本,卻在38歲走到了生命的盡頭...38歲,福建高考狀元、浙大優等生、南加大全獎博士、Facebook工程師、年薪22萬美元——這串耀眼的履歷背後,卻是一場沉默的失聲:2019年9月19日,陳勤從Facebook加州總部的樓頂一躍而下,當場身亡。在那間他曾為之加班無數夜的辦公室裡,留下了一封未發出的郵件草稿:“爸媽,我讓你們失望了。”陳勤,1981年出生於福建農村。1999年,他以全省理科狀元的優異成績考入浙江大學。2002年,憑藉南加州大學的全額獎學金,他遠赴美國深造,僅用三年時間就取得了電腦博士學位。2015年博士畢業後,他順利加入Facebook,年薪高達22萬美元。回顧陳勤的成長軌跡,他無疑是許多家長眼中的“寒門貴子”,也是眾多留學生心中的“終極範本”——憑藉才智與勤奮改變命運,最終站上全球頂尖的職業平台。然而在現實的職場環境中,他不過是龐大績效系統中的一個普通ID,一名被評價為“不善溝通、需要改進”的華人工程師。陳勤的印度裔上司常將棘手項目分配給他,卻在評審時刻意壓低評分。2019年,陳勤因負責的廣告系統出現重大故障,被列入PIP(績效改進計畫)。在矽谷,這幾乎等同於收到“預備解僱”的通知。儘管事故的根源在於需求文件混亂、職責分工不明,陳勤仍被默認為事故的“背鍋者”。他曾向經理申請調崗,經理口頭應允,卻拒絕簽字確認;他也嘗試內部轉組,卻因系統限制未能成功。那個“績效失敗者”的標籤,如同無法抹去的水印,牢牢印在他的職業身份上。更令他窒息的是現實壓力:因為工作簽證限制,失業後他只有60天時間尋找新工作,否則就必須離開美國。而競業協議又規定,他在離職後半年內不得從事同類工作。這意味著他不僅失業,還被鎖死了出路。悲劇發生當天,陳勤與上司發生了激烈爭吵。監控錄影顯示,他衝出辦公室時臉色慘白。一小時後,他出現在公司頂樓。警方後來在他的工位上發現了一張寫有“不公平”字樣的紙條,而他的電腦螢幕上,停留著一封未傳送的郵件草稿,上面寫著:“爸媽,我讓你們失望了。”這場悲劇不僅僅是個體抗壓能力的崩潰,而是一個高度制度化的“多重鎖鏈”。第一個便是簽證鎖鏈:H-1B身份使他必須在極短時間內找到新僱主,否則將被遣返。第二個是財務鎖鏈:兩套在加州的房貸、每月還款壓力,令他無法“裸辭”。第三個則是職場鎖鏈:PIP標籤+競業協議,將他從Facebook之外的出路一併堵死。他不是不努力,相反,他“太努力了”——習慣加班到深夜,周末仍在改程式碼,最佳化演算法;卻因為沉默、內斂、不善權謀,被貼上“不合群”的標籤,功勞歸於團隊,黑鍋卻由他一人承擔。Facebook內部資料顯示,華人技術員工佔比高達15%,但在高層管理崗位上,不足2%。這不是個例,而是“系統性看不見”:在話語權稀缺、晉陞路徑不清的文化環境中,太多華人工程師被困在“高薪但無權”的崗位中。他們不抱怨,不內卷,不逃跑,默默忍耐,拚命刷存在感——但一旦陷入制度性危機,就像懸在系統邊緣的玻璃人,沒人伸手。陳勤的死,在華人工程師圈裡炸響。有人在總部門前擺上38朵白菊,寫下:“他沒有輸給自己,而是輸給了系統。”陳勤去世後,其父母將Facebook告上法庭,指控其“縱容職場霸凌”。但案件因“證據不足”被駁回,公司最終以200萬美元賠償達成和解,但要求家屬簽署保密協議。從山村走到矽谷、用20年翻越階層,卻用3秒墜落結束。更令人唏噓的是:陳勤的故事並非個例。2021年,亞馬遜華裔工程師張一自殺;2023年,Google印度裔員工蘇雷什跳樓;他們有著類似的履歷、相似的掙扎——被高壓績效制度和身份焦慮聯合碾壓。在許多留學生與父母眼中,“只要努力夠、學校好、平台大”,未來人生就能一路綠燈開掛。但現實是:當這些“別人家的孩子”在系統齒輪下奔跑,任何一次微小失誤、任何一次資源博弈失敗,就足以讓人墜入深淵。如果說拼盡全力送孩子去美國,是希望他們“有選擇”,那麼為什麼,最後留給他們的卻只剩“不能失敗”?海外華人與留學生所面臨的壓力,往往是複雜而多重的。文化隔閡、身份焦慮、職業瓶頸、家庭期望……這些無形的負擔,常被“高薪”“精英”的光環所掩蓋,卻真實地壓在每一個異鄉人的肩上。社交媒體上,我們不時聽到類似的聲音——它們不是孤例,而是一種群體的共鳴。在這樣的環境中,建立自己的支援系統至關重要。無論是尋找可信賴的同事朋友,加入能彼此理解的華人社群,還是在必要時尋求心理幫助,都是構築情感緩衝的方式。請記住,表達脆弱不是失敗,而是一種自我保護。此外,我們也需要在既定軌跡之外,為自己開闢一方空間。發展工作之外的身份認同,培養與職業無關的興趣愛好,保持與國內家人的真實溝通——不只報喜,也敢報憂,允許自己展現完整的情緒與生活。這些看似微小的行動,恰恰是在異質文化中保持精神獨立的重要方式。或許,我們該重新思考“成功”的定義。它不應只是一個終點,而可以是一段容納喘息、允許失敗、接受轉向、擁抱重啟的旅程。從這個意義上說,每一個在異國他鄉認真生活的你,無論此刻是否光鮮,是否偶爾軟弱,其實都已走在了屬於自己的成功道路上——人生的意義不在於永遠登頂,更要有擁抱重啟的勇氣。 (留學生日報)
他被FBI全球通緝,卻用一篇清華論文,打贏了中美晶片戰爭
導讀:"一個晶片工程師被美國全球通緝的背後,是一場寫在程式碼裡的科技戰爭。從拆收音機的少年到突破美日壟斷的‘技術教父’,陳正坤用半生顛沛詮釋:真正的核心技術不是專利,而是打不垮的中國骨氣。"朋友們,魔幻現實主義這詞兒,你以為只在拉美小說裡有?天真了。現實比小說魔幻一萬倍。2020年,美國司法部聯合FBI,搞了個全球通緝令,照片掛網站上,懸賞25萬美刀,指名道姓要抓一個中國人。這陣仗,不知道的以為是那個國際大毒梟或者軍火販子,再不濟也是個把白宮Wi-Fi密碼給破解了的頂級駭客。結果定睛一看,通緝令上的老哥,戴著眼鏡,文質彬彬,一臉“程式碼寫不完別叫我吃飯”的社畜氣質。這人叫陳正坤,一個晶片工程師。這就很離譜了。一個超級大國,動用國家機器,滿世界追著一個工程師跑,這畫面像什麼?就像一個渾身肌肉的壯漢,非說幼兒園掰手腕大賽的冠軍威脅到了他的生命安全。這背後不是簡單的技術糾紛,這是一場寫在程式碼裡的戰爭,是科技叢林裡的血腥絞殺。而陳正坤,就是那個一不小心,捅了馬蜂窩的人。故事得從一個愛拆收音機的熊孩子說起。每個技術大佬的童年,似乎都離不開一台被拆得七零八落的家電。陳正坤禍害的是他爹的寶貝疙瘩,一台黑鐵皮收音機。在那個年代,這玩意兒約等於現在的頂配外星人電腦,還是帶RGB燈效的那種。趁著大人午睡,小陳同學就把這寶貝給肢解了,零件分門別類,線路畫在紙上。結局自然是被他爹一頓愛的教育,嘴裡罵著“敗家子”,心裡可能在想“這小子別是個人才”。事實證明,他爹有遠見。這股子拆東西的勁兒,硬是把他送進了清華,又送到了加州大學伯克利分校,讀博。那會兒的陳正坤,妥妥的天之驕子,前途一片光明,以為自己拿的是爽文男主劇本。但他不知道,劇本的開頭有多爽,後面的坑就有多大。在美國,他第一次見識到了什麼叫“技術霸權”的閉環。他在導師手下搞DRAM儲存晶片,原型機出來了,大家都很激動,覺得這玩意兒能改變世界。結果,美國企業立馬找上門,冷冰冰地甩下一句:“這技術涉及我們的專利,你們不能對外用。”導師拿著原型機,那聲嘆息,估計陳正坤記了一輩子:“技術不是自己的,連成果都做不了主。”這話什麼意思?意思就是,你在我的地盤上蓋房子,蓋得再漂亮,房產證也是我的。你只是個高級裝修工。博士畢業,他進了英特爾,成了技術骨幹,薪水高,地位也高。他主導研發的低功耗晶片,能讓筆記本續航憑空多倆小時。擱現在,這就是能讓所有996的兄弟們磕頭的功德。他以為自己證明了實力,但在一次會上,一個美國同事輕飄飄的一句話,直接把他幹破防了:“中國人也就只能買我們淘汰的技術,想碰核心?還早著呢。”這話的殺傷力,比扣一個月獎金還大。它翻譯過來就是:你很能幹,但你不是我們的人,永遠都不是。那天晚上,陳正坤失眠了。童年拆收音機的興奮,導師的嘆息,同事的嘲諷,在他腦子裡循環播放。他突然想明白了,給別人當金牌打工人,就算幹到退休,也只是讓人家的帝國大廈更高一點。自己的家,還是個茅草屋。這口氣,嚥不下去。於是,2002年,他辭掉了英特爾的高薪工作,提桶跑路,回了台灣,加入了一家叫瑞晶電子的公司。那時候的瑞晶,離倒閉也就差一口氣。他帶著一個五人小組,死磕當時國產晶片的癌症——散熱。晶片一跑就發燒,一燒就罷工,跟夏天不開空調的胖子一樣脆弱。陳正坤直接把鋪蓋搬進無塵車間,穿著兔子一樣的防護服,一待就是兩天兩夜。最後,他們找到一種國產散熱矽膠,配合設計最佳化,硬是把晶片功耗乾下來40%。這一搞,直接捅破了美日長達20年的技術壟斷。瑞晶股價三年翻了400%,陳正坤成了圈裡的“技術教父”。你以為故事到這就圓滿了?太年輕了。現實專治各種不服。沒過幾年,財大氣粗的美國巨頭美光,直接把瑞晶給收購了。陳正坤雖然當上了台灣區總裁,但身份又回到了高級打工人。當他想把更牛逼的32奈米技術在本土落地時,美國總部一句話就給否了:“核心技術必須留在我們手裡。”更騷的操作是,他連核心研發資料都碰不到,每次去要,都被“商業機密”四個大字給懟回來。這叫什麼?這就叫明明你是廚房總管,但菜譜在老闆的保險櫃裡,你每天只能按他的要求炒那幾個菜。這種憋屈,比在英特爾時更甚。因為這一次,他是眼睜睜看著自己的孩子,被別人抱走,還不讓自己親近。2016年,他再次遞交了辭呈。這一次,他要去一個能自己說了算的地方。海峽對岸,福建晉江,一家叫“晉華”的公司剛剛成立。陳正坤帶著幾個老部下,義無反顧地紮了進去。條件比瑞晶初期還苦,裝置沒有,人才沒有,什麼都沒有。但人有一口氣,就能幹出奇蹟。他們的目標,是25奈米DRAM晶片。這玩意兒,是所有電子產品的“短期記憶”,我們95%都靠進口,是真正卡脖子的領域。人家一斷供,你的手機電腦就得集體變磚。陳正坤帶著一群兩岸的工程師,沒日沒夜地干。終於,資料出來了:良率從60%幹到90%,速度比美光同代產品還快8%,成本低了12%。這一下,不是捅了馬蜂窩,是直接把人家的祖墳給刨了。美國人徹底坐不住了。他們不能容忍,在自己定義的遊戲規則裡,居然有人要掀桌子,自己另開一局。於是,一場針對陳正坤和晉華的“霸權主義豪華午餐”開始了。首先是輿論戰和法律戰,也就是開頭那幕,全球通緝,把你污名化成“商業間諜”。然後是供應鏈絞殺。美國商務部一紙令下,晉華被拉進“實體清單”。美光聯合一眾美國裝置廠商,瞬間斷供。荷蘭ASML的光刻機也別想了。晉華的生產線一夜之間變成了廢鐵,幾個月損失超200億美元。最狠的是釜底抽薪。他們逼著晉華的合作夥伴,台灣聯電,終止合作,反過來“協助調查”晉華。聯電交了6000萬美元罰款,乖乖照辦。這套組合拳,招招致命,就是要讓你死。所有人都以為晉華完了,陳正坤完了。但他們低估了一個技術宅的倔強。陳正坤沒跑也沒躲,他幹了一件讓所有人驚掉下巴的事:起訴美光。你告我偷竊?我反告你侵犯我的專利。庭審上,戲劇性的一幕出現了。美光指控陳正坤“竊取”的核心技術,被律師拿出了一份證據——一篇1988年發表在清華學報上的論文,作者,正是當年還是個青澀大學生的陳正坤。這就相當於,你指責鄰居偷了你家的傳家寶,結果人家拿出族譜證明,這玩意兒壓根就是他爺爺傳下來的。這就叫天道好輪迴,蒼天饒過誰。美光的指控不攻自破,最後反被判賠償1.96億,多款產品被禁售。法律上贏了,只是出了口惡氣。真正的戰場,還是在實驗室。裝置被斷供,陳正坤就帶著團隊硬改國產裝置,把裡面的美國技術佔比從68%壓到12%。沒有光刻機,他們就搞堆疊封裝技術。你卡我脖子,我就自己長出三頭六臂。當外界的喧囂還在繼續時,2021年,一個消息從晉江傳出:晉華搞出了完全自主的25奈米儲存晶片,功耗還能再降15%。這個方案,後來還成了行業技術標準。什麼叫話語權?我定的標準,就是話語權。到了這一步,美國的圍剿已經成了一個笑話。2023年底,美光主動提出和解。2024年,美國司法部在夜深人靜的時候,悄悄刪掉了網站上的通緝令,連句“不好意思搞錯了”都沒說。就這麼算了。風波過後,陳正坤沒有開香檳慶祝,而是回到了實驗室,繼續帶著年輕人,朝著3奈米晶片的更高峰攀登。如今,中國的晶片產業,正在從被圍堵的絕境中,硬生生殺出一條血路。28奈米裝置國產化率超過60%,各種關鍵材料開始自給自足。而那個當年拆收音機的少年,早已兩鬢斑白。他的白大褂袖口磨出了毛邊,眼鏡上或許還沾著煙塵,但他用半輩子的顛沛流離和堅持,詮釋了一個最樸素的道理:真正的核心技術,不是程式碼,不是公式,更不是什麼狗屁專利。真正的核心技術,是打不垮、罵不倒、壓不彎的那口氣。是中國人的骨氣。 (走向科學)
Meta白人員工破大防:華人工程師扎堆,“說中文”成原罪?
在北美矽谷大廠裡用中文聊天到底算不算一種“文化冒犯”?部分白人員工:不懂普通話的我像身處地獄華人員工be like:1. Meta上熱搜,因為中國人太多?最近,Meta 的華人員工又一次被推到了風口浪尖。cr. Blind大概意思是,有個哥們在Blind發帖稱Meta華人太多,結果底下有個回覆就開始控訴華人四宗罪:1、中國人在正式會議中說英文,但一結束就用中文交流;2、中國人會排斥非中國人,比如午餐絕不會邀請非中國人加入;3、他們當中很多人英語水平很差,以至於很難理解他們所說的內容;4、他們當中有些人沒有邊界感。這位樓主表示,Meta廣告部門尤其是在門洛帕克總部,他所在的團隊中國人佔比80%。這對於完全不懂普通話的他來說簡直是噩夢。有多少朋友看完第一反應be like:以下是辯方有理有據的發言“英語母語者終於體會到了非英語者在英語世界裡的邊緣處境,我願稱之為當白人成為minority之後的破防”:“吃飯不帶非華人,有沒有可能是白人飯太難吃”以及“合理懷疑是三哥在挑撥離間”:總結一下大家的最終論點:以上截圖源自xiaohongshustatista曾在2022年統計過Meta技術部門和非技術部門中各大族裔的佔比,技術部門中亞裔佔比最高,達到了55.8%:cr. statista2. Meta不是個例,華人改變科技格局其實這已經不是Meta第一次因為華人太多而被控訴,一年前也有類似的吐槽帖出現在Reddit:評論區的資料其實比樓主的吐槽更精彩。“在矽谷隨便挑一家公司,你就會發現工程部門大多是中國人和印度人,不僅僅是在Meta”“大型科技公司60%是印度人,30%是中國人,初創公司仍有70%是白人的原因大機率是不提供sponsor…”以上截圖源自Reddit矽谷正走向“華人時代”最好的例子,就是2023年馬斯克創辦的xAI,創始團隊的12人中,有5位是華人科學家:吳宇懷:xAI核心科學家之一,出生在浙江,2021年獲多倫多大學機器學習博士學位,師從諾貝爾獎得主、深度學習之父Geoffrey Hinton;張國棟:本科畢業於浙大,後於多倫多大學獲得博士學位,同樣師從Geoffrey Hinton,加入xAI前,其職業經歷覆蓋微軟亞洲研究院、Google大腦、DeepMind等頂尖機構;此外,還有本碩就讀於哈佛大學數學系的楊格,本科畢業於清華大學,碩博畢業於卡內基梅隆大學的戴子航,以及吳宇懷的導師、同樣畢業於多倫多大學的Jimmy Ba。cr. 網路,左起分別為馬斯克、吳宇懷、Jimmy Ba今年科技AI圈反反覆覆的搶人大戰,更是證實了華人科學家正成為頂尖科技公司的核心力量。今年6月Meta成立了“超級智能實驗室”,整個團隊44個核心成員中,有超過一半是華人,小扎更是不惜重金招兵買馬,組建的“AI夢之隊”中,華人學者依舊超半數:7月,Meta又從Apple挖走了華裔基礎模型負責人龐若鳴(Ruoming Pang),年薪高達2億美元。Nvidia老總黃仁勳,6月直聘了量化華人、清華校友朱邦華和焦劍濤:黃仁勳與95後清華校友朱邦華根據MacroPolo資料,2019年美國頂級AI研究機構中,擁有本科中國國籍背景的研究人員佔比為29%,僅僅三年後的2022年,這個數字飆升至47%,而美國本土只有18%。毫無疑問的是,2025年隨著AI競爭的加劇,華人科學家的價值將進一步凸顯。為什麼華人工程師在矽谷如此受歡迎?簡單來說是因為他們在AI時代格外具有“最稀缺的高價值資源”。2025年第66屆國際數學奧林匹克競賽(IMO)共產生了72塊金牌,其中中國6名隊員全員奪金,滿分的5位金牌選手中,有2名是中國學生。中國教育體系從小就關注孩子的數學、物理等基礎學科訓練,華人工程師從小接受高強度數理教育,具備深厚的數學功底,如線性代數、機率論等。從晶片到模型,從硬體驅動到演算法驅動,AI競爭的核心已轉向演算法設計、架構創新與資料理解,而這些,恰恰是華人工程師與生俱來的強項。“華人科學家正在接管矽谷”正在成為事實。7月,黃仁勳在北京脫下標誌性皮衣,身著唐裝,用中文演講的行為似乎也在回應這一趨勢。黃仁勳 NVIDIA“中國做得太棒了!全球50%的AI研究人員是中國人,你無法阻止他們推進AI發展。”3. 華人站在矽谷中央,留學生如何入局?前兩年我們看科技圈,總是從layoffs.fyi的裁員資料上感到焦慮。但2025年,裁員大幅減少的同時,AI發展對華人的歡迎也給了所有向往矽谷的新人一顆定心丸。cr. layoffs.fyi如果想在未來的灣區擁有一席之地,有那些熱門的崗位值得留學生沖?1)演算法工程師Algorithm Engineer人工智慧領域的核心人才,主要負責研究、開發和最佳化各種人工智慧演算法。需要深入理解機器學習、深度學習等演算法原理,針對不同的業務場景設計和實現合適的演算法模型。要求從業者具備紮實的數學基礎(線性代數、機率統計)和機器學習理論,精通Python等程式語言,熟悉TensorFlow、PyTorch等深度學習框架,並且能夠從海量資料中挖掘有價值的資訊來最佳化演算法。學歷上本科是門檻,頭部企業更傾向碩士/博士。2)機器學習工程師Machine Learning Engineer機器學習工程師是專注於將機器學習模型落地應用的技術專家,主要負責模型訓練、最佳化和部署。他們需要紮實的Python/Java程式設計能力,精通TensorFlow/PyTorch框架,熟悉資料預處理、特徵工程和模型調優。與演算法工程師相比更側重工程實現,與資料科學家相比更專注技術落地。核心技能包括分散式運算、模型壓縮和雲端部署,需掌握Docker/Kubernetes等工具。企業招聘時看重工程能力和項目經驗,薪資範圍20-60萬,自動駕駛、推薦系統等領域需求旺盛,需具備將演算法轉化為實際產品的能力。3)提示詞工程師Prompt Engineer提示詞工程師(Prompt Engineer)是AI時代的新興職業,負責設計、最佳化和調整與大模型(如GPT、Claude等)互動的提示詞(Prompt),以提升AI輸出的精準度和實用性。企業招聘時通常要求本科及以上學歷(電腦、AI、語言學相關專業優先),熟悉Python程式設計及主流大模型(如LLaMA、DeepSeek)的調優方法,掌握思維鏈引導、角色扮演等Prompt Engineering技巧。還有更多AI時代熱門的崗位以及工作內容和招聘要求,WST為大家整理了一份檔案,需要的同學可以加入小助理獲取。過去幾年,就算你不是尖子生,但只要你畢業於名校,依舊可以收到多個工作類型、地點、薪水和僱主都很有吸引力的工作邀請。但現在的情況是,很多GPA高達4.0的優秀畢業生,連一個Offer也拿不到。時間線為王,低年級是超車的好機會對於想要留美上岸科技大廠的留學生們來說,2025年的機會是比2024年多,但相比繁盛時期依舊更少,但門檻卻因為AI的強勢加入而水漲船高,想要絲滑上岸也需要經歷一番苦戰。簡言之,大一大二打基礎階段則要付出更多的努力。這裡就不得不提許多海外頂級公司都會開放針對低年級學生的早期項目,既能快速瞭解行業狀況,感受企業氛圍,又可以瞭解公司內部的招聘流程,進而加速求職過程。別以為低年級項目只是諮詢/金融行業的專屬,基本上我們熟悉的幾個科技大廠都會開放低年級項目申請。有的是針對大一大二學生,而有的項目已經將年齡捲到了高中畢業生。Nvidia Ignite ProgramDuolingo Thrive ProgramMicrosoft Explore ProgramUber STAR項目Lyft Early Talent ProgramGoogle STEP項目(大一、大二學生可申請);Summer of Code(面向高中畢業生的實習)Palantir Sophomore internship;Meritocracy Fellowship(面向高中畢業生的實習)Meta University項目Amazon Propel ProgramSalesforce、LinkedIn、Amex、Micron、Dropbox 、Capital One等公司也有相關低年級項目申請。 (WallStreetTequila)