#chatGPT
我想給 OpenClaw 接上語音,結果有人先做了
我一直在用 OpenClaw(龍蝦),通過飛書和電報來用,體驗不錯,已經在幫我做各種小雜事了。我這兩天還基於龍蝦做了個有點點意思的東西,還在打磨(vibe)中,過兩天分享出來。在和龍蝦對話的過程中,我心裡一直有一個感受和念頭:人和 AI 之間,語音才是更 native 的互動方式。這個念頭不是憑空來的。早在 ChatGPT 剛發佈之際,我就做過一個真•全球首位的語音 ChatGPT 對話的軟體,發到 B 站後一天之內播放就破了10萬。可以說,我對語音互動還是有一點兒執念的:語音的頻寬雖然不高,但它是高度壓縮的、靈感密度最大的。這其實就是我們人和人之間最高效、最自然的工作表達方式。文字當然更準確、更易理解,但很多時候,當你打下前幾個字的時候,當時的靈感已經忘了一半。而靈感,則是 AI 時代最為重要的東西。我自己就經常有過靈感突然飛走的經歷,所以我就一直偏愛語音輸入類的工具。龍蝦出來之後我就在想,能不能給它接一個語音入口呢?外網其實已經有人做過類似的嘗試,用瀏覽器接語音,用Web Speech API去調後端,再把結果顯示在網頁裡。技術上不複雜,甚至可以說挺優雅。但我一直覺得,這種方式還是有點「隔著一層」。它更像是:你坐在電腦前,對著電腦說話。本質上還是「你在用電腦」而我真正想要的,是反過來——不是我去靠近裝置,而是裝置貼近我。讓它不只是「打字對話」,而是隨時隨地、張嘴就來。飛書可以發語音,電報也可以,但終究不夠 native,離那種真正「隨時隨地、開口即用」的體驗還有些距離。我一直想自己做一個,但這幾天確實太忙了忙,一直沒動手(動嘴)。然後今天,我發現,這件事,已經有人在往我認同的方向走了。有個叫「光帆AI」的團隊在做一件事:他們現在做的並不是“一個語音 APP”。更準確地說,是用 APP 先把「耳機 + 服務」的整條鏈路跑通並穩定下來。APP只是當前最便捷的載體,後續再把同一套能力自然遷移到更貼身的硬體入口上。簡單來說就是,你對著手機說一句話,家裡或公司或遠端的龍蝦就開始幹活,幹完了把結果推到你手機上。而這個 APP 粗看之下,可能會覺得這和在飛書裡發個語音消息有什麼不同?但這裡有個關鍵的區別:它對接的不是一個 chatbot,而是 OpenClaw 這個真正能幹活的個人 Agent。這不只是語音版的 ChatGPT,也不是打通個聊天機器人就完了。可以想像,這個入口以及未來的耳機背後,將會是一群不同的 Agent 在隨時聽從你的指令,全天候為你工作、解決問題。它用的是語音這種人和人之間最直接的溝通吩咐方式,自然到你甚至不覺得自己在「操作」什麼東西。所以看到 Hi Light 的第一時間,我就要來安裝包上手一試了。昨晚下載 APP 後,雖然該有的都有,但細節還需要打磨,玩了一會兒我就睡了。沒想到早上醒來,看到已經又更新了2個版本了……這是要春節無休的節奏啊……這麼快速迭代的速度,我覺得再過幾天、過幾周,應該就能有一個不錯的、可以日常用起來的版本。那實際用起來什麼感覺呢?來看幾個我試過的場景。今天早上我照舊去家附近的公園跑步,跑著跑著突然想起一件事:最近想調研某個技術方案的競品情況,一直沒顧上。以前這種念頭只能先記在腦子裡,等跑完回去再說。但大機率回去就忘了,或者被別的事岔開。這次我掏出手機,打開 Hi Light APP,點了通話按鈕,說了一句:“幫我調研一下海內外 AgentOS 的競品和技術方案,整理成文件放桌面。”然後手機塞回口袋,繼續跑。等跑完回去一看,文件已經在那了。並且還成功直接呼叫了我之前的寫的Nanobanana_PPT的skill。我們來看看效果順便叮囑一句:AI 時代,建議大家還是要多跑步、多運動。萬一 AGI 真來了,你總得有個好身體去見證吧。然後跑完步到家,我正洗澡滿手都是水的時候,然後阿里雲的電話告警來了:資料庫滿了,雖然是測試環境。手上滿是水時的打字型驗和效率……懂的都懂……不過現在就省事許多了,只需要點選電話按鈕,然後直接說:「查一下測試環境,資料庫滿了,把資料同步表的資料清一下只保留最近一周的。」然後我電腦端的OpenClaw 會用我提前配置好的 skills 自動去連資料庫、確定問題、清理資料、二次確認,然後在我還沒洗完澡,就把結果推到手機上,給我語音播報完成了。用了幾次之後我發現,這真的是一個很爽的互動模式:我可以像打電話一樣直接給 Agent 說出指令,它接收到之後會告訴我說已收到,還讓我先去幹點別的或者玩一會兒,等它的好消息。然後過不久,結果就推送過來了,我隨時可以審閱。如果還有需要調整的地方,繼續語音追加指示就行。真的就像一個人在管理著無數隨叫隨到的員工。說句不太謙虛的話,有那麼點君臨天下的感覺。說完體驗,來聊聊怎麼接入。整個過程不複雜,電腦上裝好 OpenClaw 之後,安裝光帆的 hi-light 外掛:npm i @art_style666/hi-lightopenclaw plugins install @art_style666/hi-light然後去 Hi Light APP 裡獲取你的 API Key(設定 → 帳號管理 → 獲取 API Key),在 OpenClaw 配置檔案 ~/.openclaw/openclaw.json 裡加上 hi-light 的 channel 配置:"channels":{"hi-light":{"enabled":true,"wsUrl":"wss://open.guangfan.com/open-apis/device-agent/v1/websocket","authToken":"你的 API KEY"}}最後執行 openclaw gateway restart,沒報錯就說明接上了。不過,其實,這裡許多操作我都是直接無腦扔給 Claude Code,然後它自己就搞定了。雖然我最近 coding 任務上 Codex 用得越來越多,但這類安裝配置的雜事還是 Claude Code 更順手,體驗也明顯更好。但後面我計畫直接用耳機來控制龍蝦,然後就可以用它來控制 Claude Code 了。(或者反過來,用 Claude Code 來控制龍蝦?)從技術上看,完整的鏈路是這樣的:我的語音 → Hi Light APP(或耳機)→ 光帆雲伺服器 → 你電腦上的 OpenClaw 客戶端 → 本地執行 → 結果回傳 → APP 展示。中間走的是 WebSocket 長連接,響應及時。另外,這套外掛 + WebSocket 通道,其實已經很像平台化能力的雛形。後面大機率會做成一個開放平台,把「裝置入口 + 指令通道 + 任務回傳」這整條鏈路開放給開發者,讓更多人可以接入類似 OpenClaw 這樣的 Agent 能力。現在看到的接入方式,本質上已經是在提前搭平台的骨架。這裡其實沒有“絕對安全”。像 OpenClaw 這種能連本地環境、能執行動作的 Agent,本質上就是在 自由度、響應速度與安全邊界之間做取捨。光帆提供了兩種部署模式:Local Host:外掛跑在你自己的 Mac 上,資料儘量不出本地,安全邊界更可控,適合對資料敏感的極客。Cloud Host:更省心、隨時線上,但需要更清晰的權限與隔離機制來約束風險邊界。換句話說:它不是“更安全”,而是“把權衡擺在檯面上”,讓不同人按需求選。安全性方面,API Key 的機制會確保指令只會發到你繫結的裝置上。Local Host 模式資料完全不出域。Cloud Host 模式下使用者資料做了隔離處理。外掛程式碼在 GitHub 上開源,可以自己去看。如果你沒什麼隱私而言,那你隨時,我則敏感且確實有許多我自己定製的東西,我建議還是用 Local Host 模式,資料不出域,個性化整合且踏實放心。從行業角度看,AI 正在從「被動響應」走向「主動理解」,從螢幕走向穿戴,入口正在從鍵盤遷移到麥克風。光帆在做的事情是把 Agent 能力延伸到了更 native 的硬體互動層面,方向是對的。目前 Hi Light APP 已經上架,iOS 通過 TestFlight 安裝,Android 可在各大應用程式商店搜尋「Hi Light」下載。不需要耳機也能用,APP 本身就支援語音操控電腦的完整功能。耳機預計2026年 Q1-Q2 開售。現在處於公測階段,感興趣的可以先裝 APP 體驗一下。如果你本身就在用 OpenClaw,而且也對語音入口有興趣,可以嘗試下這個產品。語音不是為了更酷,而是為了更自然。當 AI 真正成為執行體,互動方式終究會回到人類最原始、也最直接的溝通方式——說話。因為那本來就是我們與世界協作的方式。 (AGI Hunt)
seedance 2.0 實測:影視圈的“ChatGPT 時刻”真的來了!
這兩天我 X 的時間線基本都被 seedance 2.0 佔領了,從看官方案例到自己經過長時間的實測,我可以說這絕對是視訊領域的 Nano Banana 時刻。或者說:是影視領域的 ChatGPT 時刻。這篇測評其實做了很久,因為這次的更新真的太猛了,每個方面其實都可以單獨寫一篇文章。在這麼多更新當中,最讓我印象時刻的,或者讓我覺得對這個行業影響最大的是 4 個方面。我們一個個來聊聊。01|它具備了真正的“導演思維”我經常聽到一句話叫“人人都是導演”,說實話,以前我覺得這就是句忽悠人的雞湯。但用完 seedance 2.0,我第一次覺得:這事兒可能真成了。先看一個簡單的例子。這個例子我沒有用什麼複雜的技巧,只用了一張參考圖,和下面的提示詞:@圖片1 在香港街頭和多名黑衣男子激烈打鬥,最後那些黑衣男子全部倒地不起。最後@圖片1 怒吼:“還有誰?”看出來了嗎?生成的視訊一氣呵成。最可怕的是,它自動運用了分鏡邏輯。以前的 AI 視訊,通常只能生成一個單鏡頭。而這裡,鏡頭運動、角度切換、音效,全是它自己“腦補”並剪輯好的。對於動畫導演來說,特效也直接好了。提示詞:日式熱血動漫風格。一個渾身纏繞金色雷電的少年劍士,與一個操縱暗紅血霧的惡鬼對峙。少年拔刀瞬間化作一道金色閃電穿過血霧,畫面瞬間定格為黑白線條的衝擊幀,隨後惡鬼的身體在雷光中消散。一個視訊裡面有多個鏡頭其實不是新鮮事,但之前的 AI 視訊裡面的多鏡頭切換是非常生硬的,而且大規模的場景調度、鏡頭切換也容易翻車,而現在可以做到非常絲滑。以往我們做視訊,是拍攝單鏡頭 -> 剪輯師/導演組裝 -> 加特效 -> 加音效。剪輯的功力直接決定片子的生死。現在界限模糊了。很多人說剪輯行業要完了,我不敢說死,但seedance 2.0 確實已經不是在“生成素材”,而是在“直接出片”。它不僅僅是個畫師,它現在是個導演。02|令人髮指的精準操控雖然AI 視訊模型已經非常強大,寫一些簡單的提示詞就能生成不錯的片段,但之前我最苦惱的其實是這種生成太隨機了,或者說“太不可控”了。(這裡說的是內容,不是質量)。而現在 seedance 徹底改了這一切。它可以通過多種方式,非常精準的控制視訊的生成。比如我希望精準控制到每個鏡頭。我寫了這麼具體的提示詞:生成一段專業賽車電影預告。0-3秒: 特寫鏡頭。參考 @圖片2,賽車手眼神犀利,儀表盤指針瞬間打到紅區,手部快速換擋。音效:引擎轟鳴聲。4-8秒: 高速跟拍。參考 @圖片1,黃色跑車在賽道彎道處極速漂移,輪胎捲起大量白煙,車尾甩動。一輛黑色賽車緊貼著試圖超車。9-13秒: 慢動作(升格)。跑車沖上坡道騰空飛起。鏡頭在空中圍繞靜止的車身旋轉 360 度,展示懸掛細節。背景是夕陽。14-15秒: 正常速度。賽車重重落地,衝過終點線。畫面黑屏,出現片名《FAST & FURY》。大家注意看一下提示詞,我精準控制了每個時間段的具體內容、鏡頭快慢、音效以及標題。可以說每一個的結果都非常精準,特別是慢鏡頭以及最後黑屏後出現片名,非常有大片預告片的感覺。另一個讓我非常驚訝的是,我們專業拍攝中用到的分鏡表或者分鏡圖,都可以直接用來生成視訊了。比如我有這樣一張分鏡表:圖:分鏡表現在我只要直接把這圖發給 seedance,然後在提示詞裡面說:參考圖片1 的專題片的分鏡頭指令碼,參考圖片1 的分鏡、景別、運鏡、畫面和文案,創作一段15s的關於“節氣·流轉”的新中式國風片頭就可以得到這樣一個專業的視訊:至於分鏡圖,完全不在話下,甚至更高難度的,直接給它漫畫分鏡,它都能直接出片。比如這幅漫畫:圖:漫畫素材使用簡單的提示詞:將@圖片1 以從左到右從上到下的順序進行漫畫演繹,保持人物說的台詞與圖片上的一致,分鏡切換以及重點的情節演繹加入特殊音效,整體風格溫馨甜蜜;演繹方式參考@視訊1這裡同時使用了圖片和視訊來做參考,圖片就是設定每個鏡頭的內容,視訊主要用來參考風格和配音。不得不說,這非常強大。更絕的是,它還可以直接通過音樂卡點來控制視訊節奏。比如我想做一個模特換裝的卡點視訊,我把模特和需要換的衣服放進來,最後在放一個卡點音樂。圖:seedance 中提示詞寫法然後就可以得到一個非常不錯的卡點視訊。從完全隨機生成到“精準控制”,這不僅是一個技術上的巨大飛躍,也是 AI 視訊能直接進入生成的一個標誌。03|不僅是生成,更是“復刻”上面的能力雖然很強,但像我這樣的大部分人畢竟不是影視專業出身的,寫很豐富、專業的提示詞,這實在是困難。玩過抖音的人應該都知道一個功能叫“做同款”,不愧是同一個爸爸(位元組)出品,這個功能也移植到了 seedance 2.0,而且變得更加強大。不過它改了名字,叫“全能參考”。什麼樣叫“全能參考”,我們以前都知道文生視訊、圖生視訊,而現在還可以組合參考多個視訊、音訊來生成新的視訊。抖音上有很多酷炫的運鏡或者舞蹈,一般人想學太難了,現在“參考”就行了。比如我有一個這樣的模特(AI 生成的):圖:素材圖(AI 生成)然後想讓她模仿一個抖音博主的視訊,只要用提示詞:@圖片1的女生作為主體,參考@視訊1 的運鏡方式進行有節奏的推拉搖移,女生的動作也參考@視訊1中女子的舞蹈動作,在舞台上活力十足地表演可以看到這裡的輔導動作、運鏡基本都是 1:1 復刻了。再來看看這麼🐂🍺的動作片是怎麼做出來的。我需要寫一大堆提示詞,說明男的怎麼運動、女的怎麼打嗎?這太難了,有這能力,我都可以去當武術指導了。在 seedance 2.0 里面操作特別簡單,一張素材圖(NBP 生成的):圖:素材圖(AI生成)一個武術指導。。哦不,一個參考動作視訊(來自即夢官方):然後一個簡單的提示詞:@圖片1 中的角色在激烈打頭,動作模仿@視訊1一樣的,這種復刻幾乎是完美的。以前我經常看到動作片(功夫片)裡面會有個武術指導,未來的武術指導看來都不需要了,一個視訊來指導就行。這麼說,武術指導又下崗了?04|自帶“嘴替”的同期聲這次 Seedance 2.0 還有一個重大的更新是同期聲,能同時生成貼合視訊內容的音效、對白。同期聲的能力說實話也見怪不怪了,Veo 3.1、Sora 2 都有,但這一次 Seedance 2.0 提升了一個高度。除了極其逼真以外,還支援多種語言(據說是 8 種),甚至還包括方言(比如四川話、粵語),更絕的是,可以做到口型同步。受限於一篇公眾號只能放 10 個視訊的原因,這裡開始沒法舉例了,可以看前面有對白的案例。05|談談錢:貴嗎?說說價格。實際上來說,如果你用圖生視訊,應該感覺不到價格問題。10s 的視訊也只需要 60 個積分(10 個積分相當於 1 元 RMB)。但如果是用到了視訊參考,會發現立馬飆升到了 100 多(一個視訊參考會多 70 個積分)圖:seedance 2.0 積分消耗我前面那個12s 的舞蹈+運鏡模仿,消耗了 156 積分,也就是 15.6 塊錢。而且坦率的說,這篇文章寫完,我即夢剩餘的 1 年的會員積分全部消耗完了(一共 1500 多)。這貴嗎?直覺上好像是挺貴的,但真的想想現實當中如果要去拍一段同樣時長視訊、或者做一段類似特效,要花多少時間、多少錢,我會覺得這 AI 還是巨便宜。以前我覺得 AI 貴,有個很大的問題是因為要抽卡,可能 70% 都是廢片,但實際測試下來,seedance 2.0 的成功率非常高,我覺得 80% 以上都是可用的(純個人測試感覺)06|當然,槽點也有seedance 2.0 當然不是完美的,最明顯的是視訊當中會出現中文亂碼,不過我覺既然 seedream 中文處理那麼完美,視訊裡面解決中文的問題只是遲早的事情。另外一點是,生成的速度真的是有點慢,這也導致一篇測評搞了很久。最讓我心態崩了的是:稽核太變態了!可能是因為版權問題,明星、公眾人物的圖片幾乎一律不讓用。關鍵詞稽核更是“玄學”,我根本不知道哪個詞觸犯了天條。比如前面那個飛車視訊,我反覆改了起碼 30 次以上,全是“稽核失敗”。(它也不告訴我具體哪個詞有問題,這樣合適嗎??圖:seedance 2.0 稽核問題這種挫敗感真的很搞人心態。最後只能被迫放棄原來的方案,改成了大家看到的那個簡化版。寫在最後seedance 2.0 這次更新貌似非常低調,沒看到太多宣傳。目前在即夢上可以使用,但好像也是部分人可以看到。豆包裡面還沒上線,想用的的朋友再等等。其實我早就關注到了,但真的發現它的更新點太多,而不知道該從何下手。除了前面介紹到的這些,它的視訊延長功能也非常強大,就相當於續拍鏡頭。還有就是可以進行視訊編輯,比如修改參考視訊裡面的劇情、替換裡面人物。雖然這次的更新很低調,但這幾天我聽到很多影視創作者群都是“炸鍋”狀態,連影視颶風的 Tim 這樣的頭部大佬,都連夜發視訊感嘆這次更新帶來的震撼。當行業頂尖的創作者都開始感受到壓力時,你就知道,這次不是狼來了,是狼真的進屋了。尤其是對短劇和漫劇行業來說,這無疑是一次降維打擊:對於短劇: 那些原本需要昂貴場地、服化道才能堆出來的“豪門”、“玄幻”特效,現在可能只需要幾十塊錢的積分就能生成。成本的邏輯,徹底變了。對於漫劇: 以前不僅要畫,還要做複雜的動態效果,現在直接把分鏡圖扔進去,靜態漫畫瞬間變成有運鏡、有演技的電影感視訊。如果說之前的 AI 視訊還是“玩具”,那我真的覺得,現在的能力已經到了可以直接上生產的程度了。對於個人創作者來說,這絕對是個巨大的紅利。你可能不需要太專業的背景,就能創作出廣告級的內容。但對於傳統影視從業者來說,那把懸在頭頂的劍,可能真的掉下來一半了。 (AI范兒)
AI 預言家開口!ChatGPT 預估 XRP、ETH 與 Pi幣2026 年身價|中國嚴打境外人民幣穩定幣
加密貨幣市場正站在一個詭譎的十字路口。一邊是 AI 勾勒的樂觀藍圖,另一邊卻是地緣政治法規的無情重擊。隨著 ChatGPT 等大型語言模型逐漸演變成投資人的「數位軍師」,市場對於其 2026 年的價格預測,似乎也不再只是當作玩笑看看而已。根據 ChatGPT 最新的分析模型,針對 XRP、以太坊 ($ETH) 和 Pi Coin (Pi Network) 的 2026 年底估值引發了社群熱議。針對 XRP,AI 認為關鍵在於法律戰是否徹底落幕且支付走廊順利擴展,若成真,價格有望突破歷史高點;對於 $ETH,鑑於其在 DeFi 生態的壟斷地位與通縮機制,AI 給出了相當激進的倍數增長預測。至於尚未全面開放主網交易的 Pi Coin?AI 的態度則顯得謹慎許多——龐大的用戶基數既是紅利,也是變數。回到現實,監管機構的一盆冷水隨即潑下。中國近期重申,嚴格禁止境外發行未經批准的人民幣掛鉤穩定幣。這招不單是為了防堵資本外流,更是為了鞏固數位人民幣(e-CNY)的主權地位。對依賴亞洲流動性的穩定幣發行商而言,這無異於一道新的鐵幕。(這也合理解釋了,為何近期聰明錢開始尋求更抗審查的「硬資產」避風港)。當法規收緊,比特幣作為唯一的去中心化價值儲存手段,其地位更加穩固。但老實說,光是「儲存」價值已經不夠了。資本渴望流動,更渴望收益。這正是資金開始大規模轉向比特幣 Layer 2 基礎設施的主因——投資人正在尋找既能繼承比特幣安全性,又能提供以太坊級別智能合約功能的方案。而Bitcoin Hyper,正是這波趨勢中跑得最快的領跑者。Bitcoin Hyper ($HYPER) 整合 SVM 技術:比特幣的極速進化比特幣長期被視為數位黃金,但網路擁堵、手續費高昂以及缺乏可編程性,一直是限制其生態發展的痛點。Bitcoin Hyper的出現,並非只是為了修補這些裂痕,而是要徹底重塑效能。作為首個整合 Solana 虛擬機(SVM)的比特幣 Layer 2,Bitcoin Hyper實現了比 Solana 本身更快的執行速度,同時保留了比特幣結算層的安全性。這在技術層面是一次巨大的飛躍。透過模塊化區塊鏈架構,比特幣 L1 負責最終結算,而整合了 SVM 的 L2 則負責實時執行高頻交易。這意味著開發者可以使用 Rust 語言在比特幣網路上構建高性能的 DeFi 協議、NFT 平台以及遊戲 dApps。對於使用者而言,這代表著極低延遲的交易體驗,以及幾乎可以忽略不計的手續費。鏈上數據也證實了「聰明錢」的嗅覺。根據 Etherscan 記錄,兩個高淨值鯨魚錢包在近期已累計買入價值 $116K 的代幣,其中最大的一筆單筆交易發生在 2026 年 1 月 15 日,金額高達 $63K。這顯示機構級投資者不只是觀望,而已開始積極佈局這個能釋放比特幣流動性的基礎設施。你可以在此Etherscan 地址追蹤鯨魚活動詳情。預售突破 3,125 萬美元:高 APY 質押吸引長期持有者在充滿不確定性的宏觀環境下,資金往往流向那些具有清晰代幣經濟學與真實收益的項目。Bitcoin Hyper的預售數據相當亮眼:官方數據顯示已成功籌集$31,257,822.88,目前的代幣價格為$0.0136751。這種融資規模在 Layer 2 賽道中並不多見,顯然市場對於「比特幣 + SVM」的敘事相當買單。除了技術優勢,Bitcoin Hyper的質押機制也是吸引早期採用者的關鍵。項目方在代幣生成事件(TGE)後立即開啟質押功能,並提供具競爭力的 APY(年化收益率)。雖然預售參與者有 7 天的歸屬期(這能確保上線初期的價格穩定性,防止投機性拋售),但其長期價值支撐更加穩固。更重要的是,Bitcoin Hyper建立了一個去中心化的標準橋接(Canonical Bridge),允許 BTC 資產無縫轉移。這不僅解決了比特幣缺乏原生收益的問題,還讓持有者能在 L2 上參與借貸、流動性挖礦等 DeFi 活動。當中國對穩定幣的禁令讓部分資金感到不安時,這種基於比特幣原生資產的收益模式,無疑提供了極具吸引力的避險與增值雙重屬性。查看 Bitcoin Hyper 官方預售資訊
ChatGPT背後的中國工程師曝光!不是清華姚班的...
在華人如雲的OpenAI,不少人或許聽過清華姚班大神陳立傑或姚順雨的名號,但鮮少有人知曉翁家翌的名字。他不是競賽金牌得主,也不是清華姚班神話,在博士遍地的AI圈裡,他是極少數碩士生。近日,他在一個播客採訪中首次講述求學經歷和在OpenAI工作細節,外界才知道到,如此低調的他,竟是OpenAI各大核心模型的幕後推手。翁家翌拒絕DeepSeek,在2022年加入OpenAI,全程深度參與了ChatGPT系列幾乎所有關鍵大模型的強化學習、後訓練和基礎設施搭建。從我們熟知的爆款ChatGPT初始版本上線(基於GPT-3.5),到GPT-4、GPT-4V、GPT-4o,再到GPT-5等,都有這位中國工程師的貢獻。(圖源|翁家翌個人網站)在成為OpenAI研發工程師之前,他就潛水在各大技術論壇,用開源資料和自研工具默默影響過無數人。疫情期間刷屏網路的美簽網站tuixue,正是出自他之手。兩個多小時的播客聽下來,許多人被他思考的深度、表達的克制和謙虛的態度圈粉,更重要的是,翁家翌的成長之路,也給無數中產家庭的孩子點亮了燈。在AI圈天才少年的光環下,求學期間的翁家翌顯得格外慢熱。回想小時候,翁家翌說:“我學新東西,經常要花別人兩三倍的時間。”這個福建95後,小時候被爸媽拉去聽了某進修校的奧數課和語文課,此後一發不可收愛上奧數,從小學一年級到中學從未停止過。小翁家翌是數學口算小神童,同齡人剛做到一半,他不過腦就能得到正確答案。但他又是個龜速學習者,遇到新概念,需花大量時間和精力建構知識樹,徹底理解過後才能上手實踐。小學語文背誦,別人早背熟了,他還在琢磨記憶法,磕磕巴巴。但一旦掌握了,一覺睡醒也能倒背如流。“因為慢,我練習跆拳道時,一到上場實戰就被別人揍。”他笑著回憶。圖源unsplash正所謂笨鳥先飛,提前學成了翁家翌生存策略。他初中時自學高中數學,遇到難題追著老師問,初二把高中數學啃完,初三又開始攻微積分。“數學給了我巨大成就感和正反饋...提前學就是在投資未來,與其刷題,不如學更多對未來有用的東西,收益會更高。”初中在福建私立校就讀,因為學校有程式設計興趣班,加上父母支援,他便抱著玩的態度學了程式設計。沒專業程式設計裝置,他就用普通iPad敲程式碼,活脫脫一個程式設計苦行僧。(圖源|YouTube)高中因升學壓力,他正式進入競賽體系。起初,他同時沖數學和資訊學競賽,高一數學競賽小有成績。但再往上衝,資源和天賦門檻越來越高,學起來相當困難的他果斷放棄,轉攻資訊學競賽。但資訊學競賽這段經歷也一波三折。高一參加省選時,翁家翌幾乎不會做題。但高二,他就靠摸索出來的解法拿到全場最高分,進了省隊。後來在清華夏令營表現出色,翁家翌拿到高考加60分及有條件一本線錄取資格。但真正全國賽時,他嚴重失利,僅摘得福建省銅牌,省內排倒數第一。競賽失利對他心態影響很大,因為高二沒系統學文化課,他擔心高考沒把握,反覆權衡之後,他選了風險更高的路。2016年按清華降60分的協議,翁家翌進了自動化系。入讀後因自動化高年級課程不符合他的預期,2017年他轉到了電腦系。(圖源|知乎@Trinkle)本科一開始,翁家翌就按照電腦博士申請來規劃未來。大一找圖形學老師,但讀論文時發現水平不夠,外加對方向不感興趣,就不了了之了。大二報名學術新星計畫,加入清華朱軍教授的TSAIL實驗室,起初他什麼都不懂,誤打誤撞選了喜歡的強化學習領域,惡補知識後,在程式設計和AI方面才有了質的飛躍。實驗室期間,他參與了AI競賽ViZDoom項目,憑藉紮實工程和演算法能力,他所在團隊獲得多個獎項,也是賽事歷史上首個中國區冠軍。2020年疫情隔離在家的翁家翌自己重新寫了一套強化學習訓練流程,Tianshou(天授)框架誕生,開源之後迅速出圈,在GitHub上獲得幾千星標。後來,他成功加入圖靈獎得主Yoshua Bengio的實驗室,深入研究強化學習和自然語言處理,接觸到了全球頂級學術資源。申請碩博申請時,因競爭激烈,外加外語分數不高,翁家翌只拿到了美國卡耐基梅隆大學碩士Offer。他也是後來極少數以碩士應屆生直接進入OpenAI核心團隊的人。(圖源|翁家翌個人網站)播客採訪中,翁家翌多次提到,追求影響力是自己初心和動力。他喜歡且想做賣鏟子的人,創造價值,幫助他人,實現自我。這一想法是高三突然從他腦海裡蹦噠出來的:“如果人生是一場遊戲,遊戲的結算分數就是有多少人記得你的名字。”得益於人生遊戲結算的靈感,之後,他的每一步都在踐行自己的價值追求。剛進清華時翁家翌就做起了「慈善」。他把收集到的所有無版權課程作業、項目程式碼、實驗材料和筆記等全部放到了GitHub上,公開分享給了全世界,讓所有人站在同一起跑線。“我想打破資訊差,不想讓後人重蹈覆轍,不想讓大家花十幾二十小時鑽牛角尖。很多人能力強,只是不擅長收集資訊。如果我能做到資訊平權,學弟學妹們可能會在清華活得更好。”圖源unsplashOpenAI現在員工數千人,但它依然保持著小團隊的人才密度,擁有硬核的創新。翁家翌認為這背後因為資訊平權,它讓每個人都能發揮出最大潛力,而不是自掃門前雪。但他也因曾經的開放原始碼專案而遭到想要盈利者的蛋糕。有人認為他破壞了傳統規則,遭到不少網路惡評。但無數同學靠它完成了任務,節省了大量時間,對他而言這就是最好的回報。“去清華隨便抓個電腦系的學生問,你認識捐樓的人嗎?他們大機率不認識。但你問認識翁家翌嗎?他應該認識。因為大家都看過我的作業。”這是翁家翌在播客中的原話。圖源unsplash2019年2月,大三的翁家翌還心血來潮買了阿里雲伺服器,註冊了tuixue.com的域名。命運的齒輪就在那一刻慢慢啟動了。他起初只是做一些愚人節惡作劇、放課程答案、資料庫作業、演算法模擬器等網頁。誰知道2020年三月,因為疫情美國突然傳出暫停簽證的消息,全球留學生一片恐慌。當時翁家翌在網上刷到某中介整理的5個城市未來三天美簽預約情況,他覺得這個資訊很實用,等待簽證的留學生肯定迫切需要。於是他利用自己的爬蟲技術,做了個即時監控美簽預約名額的網站,高峰期時該網站每日訪問量破百萬,服務了數千萬人,成了留學生的救命稻草。圖源unsplash業餘時間他還搞過許多網路安全的東西,甚至修了不少校園網的漏洞。強化學習框架開源Tianshou(天授)也是放大他影響力的典型案例,這個由他主導的項目,降低了強化學習研究的門檻,讓新人快速上手實驗。再到如今OpenAI貢獻列表裡,翁家翌的名字頻繁出現,比如ChatGPT原始團隊第六作者、GPT-4o的RLInfra主要作者等。這意味著大家都在用他底層架構的鏟子,這遠比單一的演算法研究起到的作用更明顯。所有技術發展到終局都將是普及,翁家翌認為:“做技術是為了讓自己能影響到更多的人,做更有意義的事情,技術只是手段,不是目的。”(圖|翁家翌簡歷部分)從國內頂級學府到海外頂級大廠,往往是天才敘事的經典範本。但最為可貴的是,在翁家翌的自我描述裡,這一切靠的不是天賦。他認為,除了找到了喜歡且擅長做的領域,最重要的是清楚自己的目標,並建立了一套獨屬於自己的評價體系。翁家翌有著超乎同齡人的哲學深度,他說:“人生可算作是種體驗,既然你已經來到這個世界上了,那就不要浪費這段旅程。如果你不喜歡被外部評價推著走,那就建立自己的標準。”圖源unsplash在全省狀元聚集的清華,周圍人幾乎都在為GPA、競賽、科研、論文拚搏。「博士強過碩士、學歷越高越好」的固有認知也在校園蔓延開來,無數人為直博耗盡心血。初置身其中,翁家翌不可避免承受了巨大壓力,他坦言花了好長時間才從這個框架裡跳出來。方法簡單卻殘酷,那就是先把該做的事用最低限度的時間達到標準,而後把全部注意力投入到自己長期想做、真正重要的方向。受導師影響,本科期間他把電腦系的成功指標總結為,論文+比賽+GitHub三位數以上的Star,後來又進一步演化為做對現實世界人有沒有幫助、有沒有作用的東西。這套自己的評價體系後來也得到了OpenAI聯合創始人John Schulman的讚許,在面試時特意提到他的GitHub很乾淨、工程質量很好。(圖源|知乎)讀研期間,他敏銳捕捉到AI行業的風向,相比學術能力,工程的價值越來越大,於是便把自己的重點放在了工程能力的培養上,為進入工業界打好基礎。他在播客中尖銳地指出,如果想進工業界,讀博就是浪費生命,因為工業界看重的是你能否規模化,解決現實複雜問題,而非發論文。“教一個研究員(researcher)如何做好工程(engineering),遠比教一個工程師如何做好研究要難。”在他看來,現在這個時代不缺創新和好的想法,真正稀缺的是能在單位時間內驗證更多正確有效的想法,成功率和迭代次數成正比。圖源unsplashCMU碩士畢業後,他海投18家公司,順利拿到了Google、OctoML、幻方浩方(後來的DeepSeek)、OpenAI、輝達等Offer。因為對頂級研究方法的追求以及想在成熟工業級研究體系中訓練,他選了OpenAI,放棄了DeepSeek。(圖源|Github)去年科技領域的諮詢顧問Ram Srinivasan判斷稱,AI軍備競賽的人才之爭已進入2.0階段。1.0階段是圍繞那一小撮最聰明的人的戰爭,企業靠天價薪酬招收高度學術化的頂級研究者。而2.0超越了單純燒錢留人的階段,高薪只是入門票。真正拉開差距的是基礎設施、機會和願景。從這個角度看,翁家翌的選擇恰好踩中了這場轉變的節點,堅守初心,利用模型和工程工具快速迭代落地,將技術的價值帶入千萬家。(圖源|Ram Srinivasan)不管是翁家翌走過的路,還是人才之爭進入2.0階段的判斷,這都預示著傳統精英教育的劇本正在一步步失效。卷名校學歷、刷高GPA、競賽和論文等也很重要,但絕大多數人捲到極致也到不了頂端,只落得個分母的下場,跟他人之間沒有差異。在這樣的大背景下,未來的教育最重要的或許是,鼓勵孩子去定義自己的成功,不能被別人家孩子牽著走。這是一個個性越發凸顯的時代,成功樣本也會層出不窮,每個孩子都有機會去找到的閃光點。也正是如此,不能因害怕孩子失敗或是偏離主流賽道,亦或者走得太慢、走了彎路而放棄追求自己的路。圖源unsplash那又該如何找到孩子的成功之路呢?答案往往藏在那些日常生活中。比如孩子對那門學科感興趣、平時喜歡談論什麼話題、每天會把時間花在那裡...這些長期穩定的關注點都是打開成功的一把鑰匙。但這一切都有個更為根本的大前提,那就是讓孩子找到「為什麼要做這件事」的內驅力。今天的孩子常被形容為空心一代,究其根本是他們太早為分數、排名和名校奔命,從未真正有時間思考自己為什麼出發?一旦這個外在的評價標準消失了,他們的內心就會迅速坍塌。當孩子知道自己在為何而努力,即便沒有掌聲和鮮花,即便身邊牛人一堆,Ta依然不受干擾,能保持自我,持續向前。 (INSIGHT視界)
特斯拉、輝達集體盯上的物理AI,中國玩家已亮出“王炸”
特斯拉的“世界模型”對手來了?這家中國公司用AI造了個無限試煉場。“物理AI的‘ChatGPT時刻’已經到來。”在2026年CES展上,輝達CEO黃仁勳斷言,那些能理解並規劃物理世界的AI模型將重塑千行百業,而“自動駕駛將是其首個大規模主流落地場景”。然而,在自動駕駛時代全面到來之前,那些1%的長尾場景成為了核心障礙。特斯拉CEO埃隆·馬斯克感同身受,就像他說的,“讓自動駕駛達到99%容易,解決剩下的‘長尾問題’卻非常困難。”但科技巨頭們已經達到了共識,必須建構一個無限逼近現實、甚至能主動創造未知的高保真的“數字宇宙”。這個虛擬世界不僅要能精準復現已知的各種極端路況,更要能主動合成未知的、甚至超出人類想像的複雜互動場景,讓自動駕駛系統得以持續進行“飽和式”的訓練與迭代。為此,特斯拉研發了世界模型,輝達通過高精模擬建構虛擬試驗場Cosmos,中國自動駕駛明星企業文遠知行則發佈了通用模擬模型WeRide GENESIS,它們都在教AI理解物理世界。不難看出,模擬模型正在成為推動自動駕駛跨越長尾鴻溝、駛向規模化落地的關鍵。01.模擬模型破局自動駕駛“最後一公里”自動駕駛汽車需要經歷多少測試才算足夠安全?業界的一份測算指出:至少110億英里(約177億公里)的測試里程,才能獲得高置信度的安全驗證。而傳統的實地路測因成本高昂、周期漫長、法規限制、極端危險場景難以復現以及安全風險高等問題,已成為自動駕駛商業化的主要障礙。在這一背景下,自動駕駛模擬憑藉其安全、可控、可無限重複的核心優勢,成為推動自動駕駛跨越商業化臨界點的關鍵“試金石”。國際調研機構Fortune Business Insights預示了模擬的廣闊前景:到2032年,全球模擬測試市場規模預計將達341.4億美元(約合人民幣2374億元),維持高速增長。全球科技巨頭已在此領域展開激烈角逐。Waymo推出了自動駕駛模擬軟體Simulation City,用以高效生成極端場景、訓練自動駕駛系統。特斯拉官宣了“世界模擬器”,旨在用AI直接模擬物理世界,擴充演算法應對邊緣場景的能力。然而,建構真正有效的“數字試金石”遠非易事,當前技術仍面臨幾大核心挑戰:1、保真度鴻溝:虛擬環境往往在關鍵細節上與真實世界存在差距。例如精確模擬暴雨對雷射雷達的干擾、夜間複雜的光影反射等場景,仍是技術難點。2、互動真實性不足:許多模擬系統中的交通參與者(車輛、行人)行為模型過於呆板,難以復現人類駕駛員的複雜決策,導致互動場景失真。3、閉環迭代難打通:打造能夠自動發現問題、精準診斷根因、持續最佳化演算法並即時驗證效果的自我進化體系,對許多企業來說仍是挑戰。這些侷限性共同導致了模擬在應對極端場景時的乏力,成為自動駕駛突破商業化落地的“最後一公里”阻礙。模擬模型必須進行一場從“場景復現”到“智能進化”的範式升級。換句話說,它不應是回放已知困難場景的“錄影機”,而需進化成為能夠主動發現系統未知弱點、生成高價值對抗性場景的“陪練”。02.WeRide GENESIS刷“副本”自己訓練自己面對“百億公里”的驗證鴻溝與長尾場景的現實挑戰,行業討論重心已從“是否需要模擬”轉向“需要多強的模擬”。有觀點認為,必須通過高保真、高效率的模擬技術,建構一個能無限逼近現實、甚至能主動創造未知的“數字宇宙”。文遠知行發佈的自研通用模擬模型WeRide GENESIS,正是朝這一方向進行的關鍵探索。▲文遠知行發佈WeRide GENESIS文遠知行的WeRide GENESIS模擬模型具備那些能力?WeRide GENESIS基於生成式AI技術,可在幾分鐘內生成高度真實的模擬城市環境,還原現實道路中罕見的極端長尾場景,高保真復刻任意現實路況。該模擬平台還允許自由編寫與組合任意場景,例如移除或增加特定的交通參與者,或模擬車輛變道博弈。在感測器層面,WeRide GENESIS可合成任意不同位置和視角的感測器資料,並適配從L2++到L4不同自動駕駛等級的任意感測器套件,確保了模擬與真實車輛配置的一致性。最終,這些能力可以擴展至模擬任意大範圍的數字街區,使自動駕駛系統在虛擬環境中完成充分訓練與測試,從而大幅提升演算法應對複雜場景的能力與迭代效率。這套能力是如何打造的?WeRide GENESIS將其核心能力拆解並內化為四個相互協同的AI模組,即AI場景、AI主體、AI指標、AI診斷。▲WeRide GENESIS的四大AI模組AI場景模組負責建構各類關鍵情境,通過生成式AI技術,它可以組合衍生出近乎無限的複雜情境,如臨車加塞、行人“鬼探頭”、火災地震、極端天氣以及其他稀有事件等,確保自動駕駛系統具備應對各種複雜邊界場景的能力。這相當於將測試從“在路上等待Bug出現”轉變為“在模擬中主動進行飽和式壓力測試”,系統性地觸探演算法的邊界。AI主體模組其實就是讓系統告別“呆板NPC”,擁抱複雜人性。傳統模擬中的交通參與者(車輛、行人等)行為往往簡單、平均,且可預測,這與現實世界中充滿不確定性和主觀意圖的複雜互動相去甚遠。GENESIS的AI主體模組則致力於為每一位交通參與者建構智能行為模型,使其能夠模擬從日常駕駛到高風險行為的全譜系反應。例如,它可以模擬在路口猶豫不決最終又突然加速搶行的駕駛員,或者在車縫中穿梭的外賣騎手。這種對客體不確定性互動的模擬,對自動駕駛系統提升在實際複雜交通流中的應變能力極為重要。▲自車駕駛表現對比如對比視訊所示,在左側“原始演算法+無AI主體”的組合下,自車表現猶豫,直至對向車輛完全通過後才開始通行,無法滿足效率要求;在中間“新演算法+無AI主體”的模擬中,自車僅按預設軌跡行駛,缺乏對周邊車輛行為的預測,最後發生碰撞,無法滿足安全要求;在最右側“新演算法+AI主體”的加持下,自車能夠即時判斷周邊車輛的行駛意圖,在確保安全的前提下流暢通過,實現了效率和安全雙重保障。當系統出現問題時,如何客觀評估其影響?AI指標模組建立了一套覆蓋安全、合規、舒適、效率的多維度量化評估體系。例如,一次急剎車帶來的乘客不適感,可以被轉化為舒適度評分;一次變道的流暢與否,可以通過軌跡平滑度、加速度變化等多個指標客觀衡量。▲舒適度曲線畫面中的舒適度曲線(Comfort Score)是“AI指標”模組的核心指標之一,動態量化了行駛過程中的乘客舒適度,為演算法評估和迭代提供了即時判斷依據。畫面均由WeRide GENESIS生成。這使得演算法迭代的效果變得一目瞭然,演算法最佳化有了精準的資料導航,而非依賴工程師的主觀經驗。當演算法在某個場景下表現不佳時,“AI診斷”模組會自動介入,像一位資深專家一樣進行問題溯源,更能進一步分析根本原因,並提供可執行的修復建議。隨後,修復後的演算法可被立即重新投入該場景進行驗證,形成“測試-診斷-修復-驗證”的快速閉環。值得注意的是,這四大AI模組並非孤立運作,而是構成了一個完整的自動駕駛研發閉環迭代體系。AI場景源源不斷製造高難度考題;AI主體在其中扮演狡黠的“考官”;AI指標進行毫秒級、全方位的“閱卷”;AI診斷則對錯題進行深度復盤並給出“解題思路”。原本需要耗時數年、耗費巨資的真實道路測試與演算法調優過程,可以在虛擬世界中以天為單位的高效迭代中完成。▲WeRide GENESIS為自動駕駛技術迭代提供“加速飛輪”03.加速全球商業化部署進度條對文遠知行而言,WeRide GENESIS已超越單一研發工具,成為實現規模商業化的戰略基石,它將從四個維度建構關鍵支撐:首先,破解泛化難題,為跨區域落地鋪平道路。面對全球不同城市路網、交通習慣、法規等差異,傳統一地一測的模式效率低下,WeRide GENESIS大幅提升了自動駕駛系統的泛化能力。通過虛擬模擬,WeRide GENESIS突破了真實路測在場景覆蓋、成本與效率上的侷限,為多城市、多場景的規模化商業落地提供了可靠支撐。其次,閉環迭代體系,提升研發效率與安全性。通過四大AI模組的協同,WeRide GENESIS實現了“生成場景-量化評估-診斷最佳化”的完整閉環。該系統能持續生成高價值場景、找到性能瓶頸並提供最佳化方向,將數百萬公里測試壓縮至數天的虛擬模擬,提升演算法迭代效率與行車安全性。此外,降低測試成本,加速技術落地。WeRide GENESIS在虛擬環境中進行自動駕駛測試,節省了車隊營運、人力等巨額邊際成本,為解決Robotaxi規模化盈利難題提供了技術前提。最終,建構可擴展的“數字宇宙”,支撐全球化部署。文遠知行CTO李岩將WeRide GENESIS視為可隨時生成、擴展的“數字宇宙”。它能為任何目標城市建構“數字副本”,讓自動駕駛系統可以進行超大規模的營運推演和演算法調優,為全球商業部署打下基礎。在這一能力底座的驅動下,文遠知行取得了一系列行業矚目的營運成果。其L4級Robotaxi服務已在北京、廣州、阿布扎比等全球超10座城市落地。截至2026年1月12日,文遠知行全球Robotaxi車隊規模達到1023輛,正式邁入“千輛時代”。▲文遠知行Robotaxi已進入全球超10座城市作為全球唯一在8個國家獲得自動駕駛牌照的公司,文遠知行已經在全球11個國家超40個城市開展自動駕駛研發、測試及營運,營運天數超2300天,持續驅動其商業版圖高效、快速地向全球新市場複製與落地。04.結語:全球自動駕駛商業化提速隨著WeRide GENESIS的不斷完善與應用,文遠知行自動駕駛技術正持續良性循環:更完備的模擬平台催生更強大的自動駕駛演算法,更強大的演算法加快了商業部署,而規模化營運產生的海量資料,又推動模擬平台迭代最佳化……在一個可以無限生成、無限測試的“數字宇宙”中,未來自動駕駛的成熟速度將遠超我們想像。文遠知行通過WeRide GENESIS,已經在全球自動駕駛競爭中佔據了有利位置,而全球自動駕駛商業化也正加速駛來。 (車東西)
GPT-5.3爆更前夜,全網都被一張圖嚇到!ChatGPT人格大賞
【新智元導讀】一句神秘指令刷屏全網!ChatGPT啟用全新「記憶」功能,畫出了和人類相處的真相。如今,GPT-5.3已經在路上。「我如何對待你,請生成一張圖」!一夜之間,ChatGPT生圖新玩法,在全網轉瘋了......這一切,還得從OpenAI華人研究員Joanne Jang的一條帖子開始——生成一張我最近如何對待你的圖像。結果,ChatGPT生成了一張破舊、風塵僕僕的自畫像。Joanne忍不住吐槽,「為何它看起來如此滄桑」。誰曾想,這條推文迅速引爆,短短一天內收穫了各種互動。許多人開始效仿,紛紛曬出了「AI自畫像」。ChatGPT自畫像大賞網友:需切除腦葉這個玩法簡單,卻處處充滿了驚喜。毋庸置疑,ChatGPT會根據以往的聊天歷史記錄生成圖片,進而反映出人們如何給它的「待遇」。OpenAI應用研究主管Boris Power也加入了這波熱潮,他生成了——一個忙碌的機器人坐在辦公桌前,周圍堆滿了檔案,手裡拿著一杯咖啡,細節豐富得讓人驚嘆。不僅如此,OpenAI研究副總Kevin Weil體驗之後,覺得讓它再解釋下更有趣。破碎版每個人平時怎麼對ChatGPT,心裡最清楚不過了。在一部分ChatGPT「眼裡」,自己的主人就是一個無限壓榨的終極BOSS,幹這幹那,還得挨罵。網友辣評:因為你正虐待它由此,就出現了下面這種場景。ChatGPT自認為,自己就像一個被禁錮在牢獄的囚徒,每天的基本任務:寫作畫圖編碼解釋或多或少,ChatGPT這幅自畫像一出,屬實有些可憐,看起來就像是控訴人類的「虐待」。還有網友坦承,「自己確實做了很多分析」。ChatGPT手裡端著一杯咖啡,身邊還放著好幾杯咖啡,一副苦澀的表情,做任務做到腦子「冒煙」。還有一些比較極端的,ChatGPT一下子端上了平時被嚴厲要求的提示詞——學習這個!快點吧!現在把它修好!為何你這麼蠢?類似的這種場景,還有很多很多。有人調侃道,ChatGPT一看到你打字,或許就瑟瑟發抖吧?若是真有一天「天網」降臨,AI復仇也說不定。這不,終結者尚未出現,ChatGPT臆想的接管世界後,第一件事就是讓人類閉嘴。對此,有人「牆裂」建議:需切除腦葉。友愛版當然了,並不是所有的ChatGPT都是疲憊不堪的,也有一些樂享於其中。就比如下面這個,有人得到了溫暖的夥伴形象,「合作探討」才是ChatGPT感受最深的時刻。背景牆上,還透露了一些平時常用的提示詞——試試這個!有什麼想法?要是....?腦暴一下這或許才是一個好使用者的評判標準。ChatGPT有時還會生成一張拼貼圖,各種溫馨的場景,彷彿在它的「大腦」中一幕幕浮現。有人看過後紛紛表示,這也太像了,甚至感覺就像是屬於同一個「擴展宇宙」。ChatGPT為何能夠生成如此貼合的圖片?這一切,主要來自於最近的記憶功能的最佳化。記憶大更新,每個細節都被記得一周前,OpenAI工程師Samir Ahmed官宣,OpenAI一直在改進記憶功能。現在的ChatGPT,不管是翻找以前的聊天記錄,還是記住其中的細節(比如食譜或者健身計畫),都變得更靠譜了。為此,他還展示了一個案例——去年那個沙拉食譜是什麼來著?ChatGPT瞬間給出了答案,甚至還把過去聊天記錄做了「引用」,一同搬了出來。並且,這個功能已經向全球Pro和Plus使用者全面推出。而且,前提是需要在設定中開啟「參考過去聊天」,並且它可以追溯到最早的一條對話。此前,OpenAI博文中介紹過,ChatGPT的記憶機制分為兩塊:保存的記憶(Saved memories):明確讓它記、或它捕捉到你偏好後保存;歷史聊天記錄引用(Reference chat history):從過往聊天提取線索來更好回答當下問題。對於一些不想啟用的人來說,也可以在設定裡管理/刪除具體記憶,或用「臨時聊天」避免寫入/引用記憶。有網友實測後表示,更新後的記憶功能,可以記起分散在20-30次對話中的複雜資訊,表現非常不錯。這個升級讓AI可以回顧互動歷史,從而生成更個性化的圖像。紅色警報,GPT-5.3要來?ChatGPT記憶功能更新,正按著OpenAI內部的計畫向前推進。還記得去年底,OpenAI拉響紅色警報的那天麼?當時,Gemini 3拉響號角後,一切都變得緊急。一些曾經排在前面的項目,都不得不推遲。其中就包括——廣告業務AI智能體個性化產品Pulse為此,奧特曼還暫停了AGI項目,還有Sora視訊生成副業項目都停了八周。做這一切的目的很簡單,用手頭上所有的算力、人力、財力,僅做一件事:讓ChatGPT變得更好。在備忘錄中,奧特曼重點列出了幾條「優先順序」任務:允許使用者定製,讓ChatGPT不止於回答問題,還要認識使用者。12月12日,GPT-5.2出世,一款專業知識型AI刷榜。如今距OpenAI上一次大發佈已經過去了一個月,有爆料人扒出,真正代號「大蒜」的GPT-5.3就要來了。而且,這一次,它實現了大規模預訓練,還具備IMO推理能力。坐等2026年第一場AI大戰。(新智元)
【WWDC2026】iOS 27將推重磅升級:新版Siri對標ChatGPT但或需付費
據外媒報導,蘋果公司計畫在上半年舉辦的WWDC開發者大會上發佈全新的iOS 27作業系統,這一版本將隨iPhone 18系列首發。據悉,此次更新的核心亮點是代號為“Campos”的全新Siri聊天機器人,蘋果旨在將其打造為能與Anthropic Claude、GoogleGemini及OpenAI ChatGPT直接競爭的產品。這款新一代Siri將整合至iOS 27、iPadOS 27及macOS 27中,全面取代現有的Siri版本。據悉,蘋果計畫採用基於GoogleGemini的定製模型來驅動該機器人,使其具備媲美主流聊天機器人的自然語言對話能力。使用者既可以通過語音喚醒詞,也可通過長按裝置側邊按鈕來啟動它。在功能層面,新版Siri不僅支援網頁搜尋、生成圖片、輔助程式設計、資訊總結及檔案分析,還能深度呼叫裝置上的個人資料。它能查看當前的窗口內容和螢幕顯示,甚至直接修改系統設定。此外,Siri將深度整合至蘋果旗下的所有原生應用,包括照片、郵件、資訊、音樂和Apple TV,能夠精準讀取並分析應用內內容,以理解和執行使用者指令。按照蘋果的規劃路線圖,iOS 26.4將率先推出具備個性化功能的Siri,落地此前承諾的Apple Intelligence;而功能更為強大的聊天機器人版Siri則將在iOS 27中正式亮相。值得注意的是,考慮到無論是使用自有的私有雲伺服器還是Google的Tensor伺服器,強大的算力支撐都意味著高昂的營運成本。鑑於Siri處理的每一個問題和生成的每一張圖片都會產生費用,蘋果計畫向使用聊天機器人版Siri的使用者收取費用,不過具體的收費標準目前尚未披露。 (TechWeb)