#AI加速器
OpenAI千億級合作遍地開花,資金從那來?
OpenAI與博通(AVGO.US)傳聞已久的合作終於擺上桌面。兩家公司於10月13日聯合官宣了這一合作關係:OpenAI將與博通合作建設10吉瓦定製AI加速器項目,其中OpenAI將負責加速器與系統的設計,而博通則共同參與開發部署。OpenAI表示,通過自研晶片與系統,其將可把前沿模型與產品研發經驗直接植入硬體,釋放更高階的智能能力。在OpenAI自有設施及合作夥伴資料中心部署博通乙太網路及其他連接解決方案的機架,將可滿足全球對AI算力需求激增。雙方已就AI加速器的共同開發與供應達成長期協議,並簽署包含AI加速器及博通網路解決方案的機架部署條款清單。博通擬於2026年下半年啟動AI加速器及網路系統機架的部署工作,預計於2029年底前完成全部部署。博通成為最大得益者?博通致力於設計、開發及供應涵蓋半導體、企業軟體及安全解決方案的廣泛產品,其優勢是以定製晶片和乙太網路技術為基石,通過全端解決方案繫結頭部客戶,在AI時代將計算、網路、軟體深度整合,也因此成為生成式AI浪潮的最大得益者之一,超大規模雲服務商爭相採購其企業級定製AI晶片(即XPU)。早前,博通曾在財報電話會議中確認獲得某客戶百億美元訂單,引發其股價的大漲,傳聞這名客戶為OpenAI,但博通高管否認了這一說法。博通與OpenAI官宣的這項交易並沒有公佈財務細節,但博通的股價仍大漲9.88%,今年以來的股價累計漲幅高達54.95%,市值突破1.68兆美元。OpenAI的攤子越鋪越大自9月下旬以來,OpenAI持續與全球頂尖的科技巨頭達成巨額交易。今年年初,OpenAI與甲骨文(ORCL.US)和軟銀在川普的見證下組建“星際之門”朋友圈,承諾投資5,000億美元建設10吉瓦算力。今年7月,OpenAI與甲骨文達成協議,將為“星際之門”新增4.5吉瓦算力,雙方未來五年合作規模將突破3,000億美元。而在9月23日,OpenAI與甲骨文和軟銀共同宣佈在“星際之門”計畫框架下新增五處美國AI資料中心基地,將與德州的阿比林旗艦基地及CoreWeave(CRWV.US)合作項目發揮協同效應,使“星際之門”計畫未來三年的規劃容量突破7吉瓦,投資總額超4,000億美元,並有望趕在2025年底前達成5,000億美元、10吉瓦總投資承諾的目標。10月1日,OpenAI與三星和SK海力士建立新的戰略合作夥伴關係,作為OpenAI“星際之門”計畫的延伸,三星電子與SK海力士將加速擴產先進儲存晶片,目標是實現每月90萬片DRAM晶圓的產量,以支撐OpenAI先進AI模型的運行。不過最受矚目的,還是OpenAI與當前AI晶片兩大供應商的交易。2025年9月22日,OpenAI宣佈與輝達(NVDA.US)達成戰略合作夥伴關係,輝達向其投資千億美元,而OpenAI則通過輝達建構並部署10吉瓦的AI資料中心,為OpenAI的新一代AI基礎設施投入數以百萬計的GPU,其中首個吉瓦的輝達系統將在2026年下半年通過輝達的Vera Rubin平台部署,換言之,輝達向OpenAI投資的千億美元,最終將成為OpenAI支付給輝達購買AI晶片和服務的費用。10月6日,OpenAI與超微半導體(AMD.US)宣佈達成6吉瓦算力協議,AMD將為OpenAI下一代AI基礎設施部署多代AMD Instinct GPU。首批1吉瓦規模的AMD Instinct MI450 GPU叢集計畫於2026年下半年啟動部署。據行內專家估算,這項晶片供應交易的貨值為900億美元。作為協議組成部分,為進一步強化戰略協同,AMD已向OpenAI發行可以每股0.01美元名義行權價認購1.6億股普通股的認股權證,該權利將隨特定里程碑達成分批生效。首期權益隨首批1吉瓦部署啟動,後續權益將隨採購規模擴大至6吉瓦逐步釋放。權證生效還與AMD達成特定股價目標、以及OpenAI實現規模化部署所需的技術與商業指標緊密關聯。需要注意的是,AMD當前的股價為216.42美元,OpenAI若悉數行使全部權證,則可免費獲得價值346.27億美元的AMD股份。換言之,AMD為了拉攏OpenAI這個客戶,不惜“貼股”達成買賣,OpenAI可通過行權並出售AMD的股份套現,來支付給AMD。再加上這次與博通的合作,OpenAI在短短三周內就達成了超過30吉瓦的算力部署,而根據CNBC的報導,OpenAI當前營運的算力只有2吉瓦。根據早前黃仁勳等透露的一些資料,1吉瓦資料中心的成本大約為500億美元,其中350億美元用於晶片,這意味著30吉瓦的資料中心總成本可達1.5兆美元,其中晶片成本或達到1.05兆美元。從以上的交易來看,“星際之門”的費用可能由軟銀通過其在金融方面的專長來融資埋單,而輝達和AMD傾向於通過入股或“貼股”為OpenAI輸血,再由OpenAI出資購買其產品,對於與儲存晶片供應商和博通的交易,OpenAI均沒有披露財務條款,未知這份帳單是否由OpenAI支付,但可以預計,即使有輝達、軟銀等大佬的資助,OpenAI為組建算力、營運和研發,仍需要巨大的資本支援。OpenAI表示其周活躍使用者已突破8億,並且獲得了全球跨國企業、中小企業和開發者的廣泛應用,但就算有如此多的使用者,OpenAI的收入似乎並不足以支撐其投資,其收入主要來自訂閱、API介面許可費、企業定製解決方案、廣告業務等。The Information早前曾透露,OpenAI今年上半年或錄得收入43億美元,較2024年全年營收還要高出16%,其今年的目標或是要實現130億美元的年收入。即便如此,該機構預計,OpenAI的2024年研發開支或達到25億美元,2025年上半年更飆升至67億美元,遠超其產生的收入,以此來看,要支付數以千億計的資本開支,仍是杯水車薪。當前,OpenAI的估值或達到5,000億美元,超越字節跳動和馬斯克的航天公司SpaceX,成為全球估值最高的獨角獸,但其5,000億美元是建立在AI未來的強勁增長預期上,其最大股東或仍是微軟(MSFT.US),但通過與輝達、AMD、軟銀等的合作和深度股權繫結,後者不僅與其擁有密切的業務往來,還鎖定了股權的利益關係。一旦OpenAI的投資回報不如預期,宏大的藍圖出現裂痕,其引發的連鎖反應可能席捲整個科技行業,甚至演變成一場波及全球資本的科技泡沫。巨頭的押注與潛在的隱憂OpenAI的“攤子”之所以能越鋪越大,核心在於其成功地將自身塑造成了AI時代的“關鍵資產”,吸引了各大巨頭不得不下注的“牌桌”。微軟需要它來鞏固雲業務和Copilot生態;輝達和AMD需要通過它的認證來證明其GPU(及未來CPU/GPU)的競爭力;博通等基礎設施供應商則依賴其巨額訂單來驅動增長。軟銀等財務投資者更是將其視為抓住下一代技術浪潮的船票。這種深度繫結看似穩固,實則暗藏風險。從合作方層面來看,輝達、AMD、軟銀等“輸血者”首當其衝。輝達千億美元投資本質是“以投資換長期晶片訂單”,若OpenAI算力需求不及預期,不僅千億美元投資難以收回,還可能導致輝達GPU產能過剩——要知道這筆投資對應的10吉瓦資料中心,需數百萬顆GPU支撐,一旦部署放緩,輝達的晶片庫存、營收增長都會直接承壓。AMD向OpenAI發行的1.6億股認股權證,行權價僅0.01美元,若OpenAI因資金問題無法完成6吉瓦算力採購,或AMD股價因合作不及預期下跌,OpenAI將無法行權,AMD“以股權換大客戶”的策略將落空;更關鍵的是,AMD為適配OpenAI需求投入的GPU定製研發成本,也將成為沉沒成本。軟銀作為“星際之門”的早期參與者,其對資料中心的基建投資依賴OpenAI的長期租賃訂單,若OpenAI縮減部署規模,軟銀在俄亥俄、德州的站點建設可能陷入“建成即閒置”的困境,前期土地、硬體投入難以變現。對博通而言,雖未披露財務細節,但風險隱藏在“長期協議”的繫結中。博通為OpenAI定製的AI加速器與乙太網路機架,需匹配OpenAI自研系統的技術標準,屬於“非通用化產品”——若OpenAI因資金或技術調整放棄部分部署,博通已投產的定製晶片、機架元件可能無法轉售給其他客戶,導致產能浪費。從OpenAI自身來看,攤子鋪得越大,資金鏈斷裂的風險越高。當前其年收入目標僅130億美元,卻要支撐千億級的資本開支,即便有合作方的“股權補貼”“延遲付款”等靈活條款,仍需依賴外部融資填補缺口。若未來AI應用市場增長放緩、面對競爭不得不“卷”價格,導致企業客戶減少ChatGPT API採購或是壓價、消費者對訂閱服務的付費意願下降而轉向性價比更高的同類產品,OpenAI的營收增長將失速,進而無法吸引新的VC/PE投資。一旦外部融資管道收緊,OpenAI可能陷入“拆東牆補西牆”的惡性循環:要麼縮減算力部署,要麼暫緩模型研發,導致技術迭代落後於GoogleGemini、Anthropic Claude等競爭對手,形成營收下滑—研發停滯—市場份額流失的負面循環。更深遠的影響可能波及整個AI產業鏈。OpenAI作為全球AI行業的“標竿企業”,其大規模算力投資原本是帶動晶片、資料中心、儲存等上下游產業增長的重要引擎——三星、SK海力士為支撐其需求計畫每月擴產90萬片DRAM晶圓,若OpenAI採購放緩,儲存晶片市場可能從“供不應求”轉向“供過於求”,三星、SK海力士的擴產計畫或被迫擱置,進而影響整個半導體行業的產能規劃。此外,OpenAI的高估值也帶動了一批AI獨角獸的融資熱情,若其投資回報不及預期,資本市場對AI行業的信心將大幅降溫,中小AI企業的融資難度會陡增,整個行業可能從“狂熱擴張”回歸“理性收縮”,甚至引發AI領域的“退潮效應”。當然,OpenAI並非毫無緩衝空間——其8億周活使用者、與微軟的深度合作仍是“安全墊”。但問題在於,當前的投資規模已遠超“使用者基數”能支撐的合理範圍:8億使用者帶來的營收,連維持現有模型的訓練成本都顯緊張,更遑論支撐新的算力部署。若OpenAI不能在未來1-2年內找到營收規模化增長的突破口(比如推出高附加值的企業級AI解決方案、探索更多的變現模式),終將面臨要麼兌現增長、要麼被迫收縮的抉擇。而無論那種結果,與其深度繫結的合作方、依賴其拉動的產業鏈,都將為這場不確定性“買單”。 (財華網)
30億裝置100億TOPS算力!解密Arm CPU最強AI黑科技
性能5倍暴漲背後,Arm晶片黑科技如何顛覆手機AI體驗?今天,AI正給整個手機產業帶來巨大影響和變革,從底層晶片到作業系統,再到上層應用生態,幾乎都在被AI重構。越來越複雜的模型、越來越強大的AI Agent,都對計算效率、延遲、功耗、記憶體頻寬等方面提出了新的挑戰。從蘋果到三星、聯發科、小米,手機晶片玩家們都在加速AI能力在晶片端的整合,上周蘋果剛剛發佈的A19晶片,直接在GPU的每一個核心中都塞入了一顆神經網路加速器。晶片底層技術創新,是加速端側AI落地、推動AI手機體驗升級的核心支撐。在這樣的行業趨勢下,晶片底層技術領域的核心玩家Arm再次向行業拋出一枚AI重磅大招。近日,Arm在上海正式亮出了旗艦級Arm Lumex計算子系統(CSS)平台,這也是Arm CSS平台的一次重要更名和升級。Arm Lumex包括新的CPU、GPU、DSU等模組,在性能、能效顯著提升的同時,突破性地將第二代可伸縮矩陣擴展(SME2)技術引入到CPU中,這也是這類技術首次在Android手機晶片中落地。而據筆者瞭解,蘋果晶片CPU中使用的仍然是第一代SME技術。Arm特別強調稱,這是一個完整的“AI優先”的平台。今天,AI正成為全行業瞄準的核心方向,而面向這一新時代,Arm的計算平台正成為AI與個人計算發展不可或缺的計算底座。此次Arm重磅技術升級背後有那些關鍵思考、對產業和消費者有那些價值和意義?我們將一起深入挖掘。01. CPU裝上“AI加速器” 攜手支付寶、vivo等企業讓端側AI從“能用”到“好用”AI手機經過近兩年的迭代,在發展方向和AI功能種類上已經基本達成行業共識。今天各家的重點毫無疑問是端側AI體驗的最佳化。在端雲結合的混合AI成為基礎模式之下,如何更高效地在手機上落地模型、如何在手機上實現更佳的AI應用體驗,成為需要行業共同破解的難題。縱觀Arm整場發佈會,AI是當下Arm技術迭代圍繞的核心主題,正如Arm高級副總裁兼終端事業部總經理 Chris Bergey所說,新的Arm Lumex是一個“AI優先”的平台。如何實現AI優先,Arm此次最核心的改進是將SME2技術引入了CPU中。在5倍性能提升、3倍能效提升這些亮眼數字的背後,Arm實際上在做的就是給CPU這一手機中最核心、通用性最強的模組配備新的矩陣加速器,讓AI時代的各類複雜計算變得更快、更省電,進而讓我們能在智慧型手機上獲得更好的AI體驗。目前,SME2這一技術已經獲得了阿里巴巴、支付寶、三星System LSI、騰訊、vivo等科技領域頭部企業的支援和採用。基於SME2技術,Arm與這些合作夥伴深度合作,已經在諸多AI應用中實現了直觀的升級。總體來看,這種AI體驗的升級最突出的特點就是讓AI功能從“能用”到“好用易用”前進了一大步。如何去定義“好用易用”呢?就是要讓裝置“更懂你”,且能“無縫響應”。手機行業的創新與競爭,是最貼近使用者應用場景的領域之一。過去捲攝影、快充等,是最佳化單點場景痛點;如今在AI時代,生成式AI應用以及AI與計算攝影、通訊、性能等各領域的融合成為焦點,其本質是用AI重構各場景價值,實現從“被動響應”到“主動服務”的轉變。我們在現場看到了一項“智能瑜伽教練”的演示,在演示中,AI教練可以快速流暢地將文字轉換為語音進行輸出,據稱其生成速度提升了2.4倍之多,這樣使用者就可以在健身過程中即時獲得姿勢反饋與指導,並且全程都不用擔心裝置的電池續航問題。▲智能瑜伽教練其實AI健身教練類似功能我們並不陌生,但讓AI真正能夠像真人一樣快速、精準、高效地與我們進行交流、互動,仍是產業持續努力的目標,Arm無疑將這一願景向現實推近了一大步。在Arm與支付寶和vivo的三方深度合作中,AI手機體驗的升級給我帶來了更多驚喜。支付寶端側AI引擎xNN整合了SME2技術,在vivo的旗艦智慧型手機上完成了基於Arm SME2技術的大語言模型推理驗證,在預填充與解碼階段,性能分別實現了超過40%和25%的提升,大語言模型互動響應時間縮短了40%。據稱,在SME2加持下,vivo手機實現了額外20%的性能提升。從應用效果來看,vivo手機在一些視覺、語音、文字等AI計算任務中,性能都實現了顯著加速,比如在全域離線翻譯這樣的真實場景中,AI響應時間明顯加快,讓整個翻譯的過程更加流暢自然。▲本地離線即時翻譯可以說,這些翻倍式的改善,都標誌著CPU後端能力的重大突破,證明了SME2可為終端裝置帶來更快的即時生成式AI體驗,端側AI的各類本地功能,都得到了顯著提升。再來看看使用者非常看重的計算攝影。搭載SME2單核心運行神經攝影機降噪功能,可以在1080P解析度下實現每秒120幀的超高影格率,即使在4K高解析度下,也能實現每秒30幀的影格率表現。這意味著,我們日常使用手機拍照,即使在光線昏暗的場景中,也可以拍出更加清晰、銳利的照片。縱觀此次發佈的產品和技術,從CPU、GPU到軟體庫的一系列升級,都讓我們看到了Arm Lumex在AI時代給廠商、開發者、消費者帶來的價值。而對於開發者而言,從軟體工具到生態層面的完善支援更能讓他們迅速將這些新技術與自身的產品相結合,將AI創新成果更快推向市場。根據Arm預測,到2030年,SME與SME2技術將為全球超過30億台裝置新增超100億TOPS的計算能力,端側AI性能呈現指數級提升。02. 深耕計算數十年,年均兩位數IPC提升用技術和生態領跑行業今天,我們看到Arm基於底層技術創新實現了移動裝置端側AI性能的大幅提升,實現這一切,一方面源於Arm的技術硬實力,另一方面也源於數十年來Arm在移動技術和生態領域的持續引領,在技術和產業發展的關鍵節點,Arm始終跑在前列。從技術演進來看,Arm對AI的佈局實際已持續十餘年:Armv8架構時代,通過最佳化NEON模組以提升AI效率;Armv9架構引入SVE2與SME以適配更多AI場景;到Armv9.3-A架構時代,整合SME2技術,最佳化現代AI工作負載的吞吐量、延遲與精度。Arm通過架構層面改進SoC設計,為AI應用的爆發提前蓄力。如今,智能裝置的海量爆發讓計算變得無處不在,從手機、PC、汽車到各類AIoT裝置,萬物智聯的趨勢變得愈發顯著。與此同時,產業對能效比的極致追求、對功耗的死磕、對大模型的支援最佳化、對AI算力的需求都成為行業共同面對的挑戰——Arm終於等到了AI的東風。回到手機行業,如果只是架構上的革新,還不足以跟上端側AI應用的步伐。ArmLumex計算子系統(CSS)平台給出了新的解題思路,它從系統性層面,整合搭載SME2技術的最高性能Arm CPU、GPU及系統IP,加速端側AI的落地和普及。軟體工具和生態層面,KleidiAI已經整合至所有主流移動作業系統及AI框架中。開發者能在各類Arm裝置上獲得最佳AI性能,無需進行任何額外操作。縱觀手機行業的發展,Arm一直跑在技術浪潮的最前沿。每一個版本更新都為行業注入新的活力,給行業玩家提供最堅實的底層技術“資源池”。Arm及其生態系統在奠定計算基礎方面所做的努力,讓行業能夠時刻把握新興的機遇。03.從手機PC到全生態,算力產業激變模式轉型構築“核心基石”今天,AI新浪潮正在快速席捲整個科技行業。終端大廠們紛紛“All in AI”,從產品到服務圍繞AI升級;大模型迭代從半年更、月更到今天的周更,競爭進入白熱化階段;底層晶片層,各路晶片廠商都在產品中密集融入AI新特性。從手機、PC、汽車、物聯網到資料中心,從十億級、百億級到兆級、數十兆級模型,AI正在快速重構各行業各領域,同時也給計算產業也帶來了新的挑戰和機遇。Arm顯然是在這股AI浪潮中行動頗為積極的一家。作為驅動AI應用的技術基石,不論是要快速上市兌現性能價值,還是要深度設計配置,從高端智慧型手機、PC到新興AI智能裝置,Arm總能幫助廠商找到峰值性能、持續能效與晶片面積之間的靈活平衡“甜點”。AI浪潮之下,曾深耕幕後的底層技術廠商正逐步走向台前,以核心技術重塑產業格局。全力衝刺AI的Arm,從技術到生態,從產品到服務,已經全面做好了準備。04.結語:打牢AI時代計算根技術端側AI提速今天,從Android到蘋果生態,端側AI的快速發展需要更多底層技術創新的支撐,AI應用體驗仍有較大提升空間,Arm Lumex的發佈,給行業提供了一套紮實的計算平台基礎,讓廠商和開發者們面對AI這場硬仗有更充足的彈藥。未來,AI手機之戰會愈發焦灼,晶片層的創新仍然會長期是行業競爭的焦點領域。從廠商到開發者,面對AI時代的機遇和挑戰,Arm生態已經成為AI創新的肥沃土地。 (智東西)
Google最強AI晶片狙擊輝達B200,性能狂飆3600倍!Google版MCP一統AI智能體宇宙
【新智元導讀】Google重磅發佈第七代TPU Ironwood,專為推理設計,性能較從初代飆升3600倍,可與輝達B200一較高下。不僅如此,Google還帶來了Veo 2等多款模型全新升級,就連「Google版」MCP協議也公佈了。推理時代的首款TPU誕生了!昨晚,一年一度的Google雲大會上,首次亮相了Google第七代TPU——Ironwood,直接叫板輝達Blackwell B200。它是Google迄今為止性能最強、可擴展性最高的定製AI加速器,也是首款專為推理設計的加速器。相較於2018年的第一代TPU,Ironwood推理性能飆漲3600倍,效率提升了29倍。甚至,第七代全新TPU的性能是世界第一大超算的24倍。Google將於今年晚些時候正式推出TPU v7。繼MPC之後,Google大會上首次亮相Agent2Agent(A2A)開放協議,為智能體提供一個通用語言,可以在不同生態系統溝通協作。還有ADK、Agentspace,為開發者提供了全面建構、操作、管理AI智能體的能力。此外,Google雲大會精彩紛呈,Veo 2、Imagen 3、Chirp 3紛紛迭代升級,文字轉音樂模型Lyria,Vertex AI成為唯一覆蓋視訊、圖像、語音和音樂的全新生成式AI平台。下一步,極具性價比Gemini 2.5 Flash也將登錄Vertex AI。推理時代首款TPU出世,媲美B200Ironwood的誕生,不僅標誌著Google在AI硬體又一大突破,還代表著AI基礎設施的重大轉變。在Google看來,當下被動「響應式」模型,正轉變為主動「生成式」智能體。這種轉變的核心在於,AI不再僅僅停留在提供原始資料層面,而是能夠主動檢索資訊、生成見解。這正是在這個「推理時代」,Google對未來AI基礎設施的定義:更智能、更主動、更具協作性。主要特性· 性能顯著提升,同時注重功耗效率,使AI工作負載能夠更具成本效益地運行。相比起第六代TPU Trillium,Ironwood在功耗效率(perf/watt)上實現了2倍的提升;比2018年推出的首款Cloud TPU,更是高出了近30倍。同時,Google先進的液冷解決方案和最佳化的晶片設計,即使在持續、繁重的AI工作負載下,也能可靠地維持高達標準風冷兩倍的性能。圖 3. 功耗效率相較於TPU v2提升了29.3倍· 高頻寬記憶體(HBM)容量大幅增加Ironwood晶片搭載了高達192GB的視訊記憶體,是Trillium的6倍。如此一來,便可以處理更大的模型和資料集,同時還減少了頻繁資料傳輸的需求,進而提高了性能。· HBM頻寬顯著提高Ironwood晶片在頻寬方面提升到了驚人的7.2 Tbps,是Trillium的4.5倍。極高的頻寬確保了快速的資料訪問,這對於現代AI中常見的記憶體密集型工作負載至關重要。· 晶片間互連(ICI)頻寬增強Ironwood的雙向頻寬已增加到1.2 Tbps,是Trillium的1.5倍。這種晶片之間更快的通訊,有助於大規模高效的分佈式訓練和推理。用Ironwood驅動推理時代Ironwood為要求最嚴苛的AI工作負載提供了所需的大規模平行處理能力,例如用於訓練和推理的、具有思考能力的超大規模稠密LLM或MoE模型。對於GoogleCloud客戶,Ironwood可根據AI工作負載需求提供兩種規格——256晶片或9,216晶片。圖 1. FP8浮點運算峰值性能相較於TPU v2提升了3600倍其中,每個單獨的晶片峰值算力達4,614 TFLOPs。當擴展到每個pod 9,216個晶片,總計達到42.5 Exaflop時,Ironwood的算力是世界上最大的超級電腦El Capitan的24倍以上——後者每個pod僅能提供1.7 Exaflops。不僅如此,Ironwood還配備了增強版的專門用於處理高級排序和推薦任務的加速器——SparseCore。從而為更廣泛的工作負載提供加速,包括超越傳統AI領域,進入金融和科學領域。Pathways是由GoogleDeepMind開發的ML執行階段,可在多個TPU晶片上實現高效的分散式運算。GoogleCloud上的Pathways使得超越單個Ironwood Pod變得簡單直接,能夠將數十萬個Ironwood晶片組合在一起,從而快速推進生成式AI計算的前沿。圖 2. Ironwood原生支援FP8,而v4和v5p的峰值TFlops為模擬值OpenAI研究員針對Ironwood與輝達GB 200做了性能對比,並表示TPU v7與GB200性能相當,甚至略勝一籌。全模態AI平台來了,Veo 2再升級隨著音樂功能的加入,Vertex AI 現在是唯一一個擁有涵蓋所有模態——視訊、圖像、語音和音樂——的生成式媒體模型的平台。這次放出的重大更新共有四項:· 文字轉音樂模型Lyria,讓客戶可以從文字提示詞開始,生成完整的、生產就緒的素材。· Veo 2的新編輯和攝影機控制功能,可幫助企業客戶精確地最佳化和再利用視訊內容。· Chirp 3現在包含了Instant Custom Voice,這是一種僅需10秒音訊輸入即可建立定製語音的新方法。· Imagen 3改進了圖像生成和圖像修復能力,用於重建圖像中缺失或損壞的部分,並使物體移除編輯的質量更高。Lyria:文生音樂模型Lyria能生成高保真音訊,細緻捕捉精妙之處,並能在多種音樂流派中提供豐富、細節詳盡的樂曲。· 企業可以提升品牌體驗根據品牌獨特的調性,為行銷活動、產品發佈或沉浸式店內體驗快速定製配樂。通過Lyria,企業可以建立與目標受眾產生深度共鳴的聲音,培養情感聯絡並增強品牌記憶度。· 創作者可以簡化內容創作流程對於視訊製作、播客和數字內容創作而言,尋找完美的免版稅音樂可能是一個耗時且昂貴的過程。而Lyria可以在幾分鐘內生成定製音樂曲目,直接契合您內容的情緒、節奏和敘事,從而幫助加速製作工作流程並降低授權成本。例如:創作一首高能的比波普 (Bebop) 曲調。優先突出令人眩暈的薩克斯管和小號獨奏,以閃電般的速度交換複雜的樂句。鋼琴應提供打擊樂式的和弦伴奏,行進貝斯 (walking bass) 和快節奏的鼓點驅動著狂熱的能量。基調應是令人振奮且激烈的。捕捉深夜、煙霧繚繞的爵士俱樂部的感覺,展示精湛技藝和即興創作。要讓聽眾無法安坐。Veo 2:擴展編輯功能Veo 2則為視訊的建立、編輯和視覺效果加入了一套強大的功能集,使其從一個生成工具轉變為一個全面的視訊創作和編輯平台:· 視訊修復 (Inpainting):無需手動修飾即可獲得乾淨、專業的編輯效果。你可以移除視訊中不需要的背景圖像、徽標或干擾物,使它們在每一幀中都平滑完美地消失,看起來就像從未存在過一樣。· 畫面擴展 (Outpainting):擴展現有視訊素材的畫面,將傳統視訊轉換為針對網頁和移動平台最佳化的格式。你可以輕鬆調整內容來適應不同的螢幕尺寸和寬高比——例如,將橫向視訊轉換為用於社交媒體短影片的縱向視訊。· 應用複雜的電影拍攝技術:新功能包括指導鏡頭構圖、攝影機角度和節奏等。團隊可以輕鬆運用複雜的電影拍攝技術,無需複雜的提示詞或專業知識。例如,使用攝影機預設向不同方向移動攝影機、建立延時攝影效果或生成無人機風格鏡頭。· 通過連接兩個現有素材建立連貫的視訊。借助插值(Interpolation)功能,你可以定義視訊序列的開始和結束,讓Veo無縫生成連接幀。這確保了平滑過渡並保持視覺連續性,從而創造出精美且專業的最終成品。Chirp 3:即時定製語音和轉錄功能更新Chirp 3的高畫質語音(HD voices)功能提供了超過35種語言的自然逼真語音,並有8種說話人選項。除此之外,Google還新增了兩個功能:· 即時定製語音(Instant Custom Voice)只需要10秒的音訊輸入,即可生成逼真的定製語音。這使得企業能夠個性化呼叫中心、開發無障礙內容,並建立獨特的品牌聲音——同時保持一致的品牌形象。· 帶說話人日誌功能的轉錄(Transcription with Diarization)這項強大的功能可以精確地分離和識別多人錄音中的單個說話人,顯著提高轉錄內容的清晰度和可用性,適用於會議紀要、播客分析和多方通話錄音等應用場景。Imagen 3:改進質量和編輯功能作為Google最高品質的文字轉圖像模型,Imagen 3能夠生成具有比之前更好細節、更豐富光照和更少干擾性偽影的圖像。這次,Google顯著改進了Imagen 3的圖像修復(inpainting)能力,用於重建圖像中缺失或損壞的部分。尤其是在物體移除(object removal)方面,不僅質量更高,而且效果也更加自然。MCP之後,Google再造A2A協議智能體可以幫助人們做很多工作,從訂購新電腦,到協助客服人員,再到支援供應鏈規劃。智能體越來越實用的關鍵在於讓它們能夠在一個動態的多智能體生態系統中相互協作,跨越孤立的資料系統和應用程式。為此,Google推出了全新的開放協議——Agent2Agent(A2A),獲得了超過50家合作夥伴的支援和貢獻。A2A協議將使AI智能體能夠相互通訊,安全地交換資訊,並在各種企業平台或應用程式上協調行動。它是一個開放協議,與Anthropic的模型上下文協議(MCP)相輔相成。A2A設計原則A2A遵循了五大核心原則:· 擁抱智能體的能力:A2A致力於讓智能體以它們自然、非結構化的方式協作。· 基於現有標準:A2A建構在已有的、廣泛使用的標準之上,比如HTTP、SSE、JSON-RPC。· 默認安全:A2A從設計之初就支援企業等級的認證和授權,與OpenAPI的認證機制保持一致,確保安全性。· 支援長時間運行的任務:設計A2A時考慮了靈活性,它能勝任從快速任務到需要數小時甚至數天的深入研究等多種場景,尤其是在有人的參與下。· 不限模態:智能體的世界不只有文字,因此我們設計A2A時支援多種模態,包括音訊和視訊流,讓它更加多樣化。A2A如何工作A2A讓「客戶端」智能體和「遠端」智能體之間的溝通變得更順暢。客戶端智能體負責制定和傳達任務,而遠端智能體則負責執行這些任務,儘量提供正確的資訊或採取正確的行動。這個互動涉及幾個關鍵功能:· 能力發現:智能體可以通過JSON格式的「Agent Card」來展示自己的能力。客戶端智能體可以根據這個「名片」找到最適合執行某項任務的智能體,並通過A2A與遠端智能體溝通。· 任務管理:客戶端智能體和遠端智能體之間的交流以完成任務為核心,目的是滿足使用者的需求。· 協作:智能體之間可以互相傳送消息,分享上下文、回覆、產物或使用者指令。· 使用者體驗協商:每條消息中包含「parts,」,這是一個完整的內容單元,比如一張生成的圖片。實例:尋找候選人使用者(比如招聘經理)可以讓自己的智能體去尋找符合職位描述的候選人。這個智能體會與其他專業智能體互動,幫你挖掘潛在候選人。使用者收到推薦名單後,可以再指示智能體安排後續面試,讓找人的過程更順暢。面試結束後,還可以讓另一個智能體幫忙做背景調查。A2A有望開啟一個智能體相互操作的新時代,推動創新,打造更強大、更靈活的AI智能體系統。我們相信,這個協議將為未來鋪平道路,讓智能體能夠無縫協作,解決複雜問題,提升我們的生活。我們致力於與合作夥伴和社區一起,公開建構這個協議。我們會把協議開源,並為貢獻者設立清晰的參與路徑。GoogleAI程式碼助手,變身超強智能體此次大會的另一個更新,就是Google的AI編碼助手——Gemini Code Assist,已經在預覽中獲得了「智能體」能力!在Cloud Next大會上,Google宣佈:Code Assist現在可以部署新的AI智能體,這些智能體可以執行多個步驟,來完成複雜的程式設計任務。例如,這些智能體可以從Google Docs中的產品規格建立應用程式,或者將程式碼從一種語言轉換為另一種語言。另外,Code Assist現在除了其他編碼環境外,還可在Android Studio中使用。這次升級,也是Google被GitHub Copilot、Cursor和Devin這些競爭者給逼瘋了。肉眼可見,現在AI程式設計隱含著巨大的掘金市場,各家的競爭也日趨白熱化。不過,Code Assist能做到什麼程度,目前還不清楚。研究表明,即使是今天最好的程式碼生成AI,也往往會引入安全漏洞和錯誤,這是由於程式設計邏輯理解能力的弱點。比如對Devin的一項評估就發現,它只完成了20項任務中的3項。接下來,就讓我們期待Gemini Code Assist在實際程式設計環境中的表現了。 (新智元)