夏日漸去、秋日將至,眾多科技界人士開始擔憂寒冬的到來。上月末,彭博社專欄作家提出疑問:“人工智慧寒冬終於要來了嗎?”英國《每日電訊報》則態度更為篤定:“下一輪人工智慧寒冬即將來臨”。與此同時,社交平台X上關於“人工智慧寒冬或將來臨”的討論也甚囂塵上。
“人工智慧寒冬”是人工智慧領域從業者用以指代特定時期的稱謂:這一時期,大眾對“機器能如人類般學習、思考”這一理念的熱情漸趨冷卻,對人工智慧產品、企業及研究的投資也隨之枯竭。這一詞彙之所以頻繁從人工智慧評論員的口中說出,實則有其深刻緣由——在長達70年的人工智慧研究歷史中,我們已經歷過數次“寒冬”。倘若如部分人所憂慮的那樣,我們即將步入新一輪“寒冬”,那麼這至少將是第四次。
近期關於寒冬將至的討論,根源在於投資者愈發憂慮人工智慧技術可能無法達成炒作營造出的預期,且諸多人工智慧相關公司估值過高。在最糟糕的情況下,這場人工智慧寒冬可能伴隨著人工智慧概念催生的股市泡沫的破裂,進而對整個經濟產生影響。雖然此前也曾經歷人工智慧炒作周期,但從未有那次像本輪生成式人工智慧熱潮這樣,吸引投資者投入高達數千億美元資金。因此,若新一輪“寒冬”到來,其衝擊力或將如極地渦旋般猛烈。
近期OpenAI首席執行官薩姆·奧爾特曼(Sam Altman)的言論引發了市場恐慌。他向記者坦言部分風投支援的人工智慧初創企業估值嚴重虛高(當然,OpenAI不在此列,它是史上估值最高的風投支援型初創企業之一)。隨後,麻省理工學院發佈的研究報告指出95%的人工智慧試點項目以失敗告終。
回顧過往的人工智慧寒冬及其成因,或許能幫助我們判斷當前空氣中的“寒意”究竟只是一陣短暫的涼風,還是“冰河時代”即將來臨的先兆。有時人工智慧寒冬是由學術研究揭示特定人工智慧技術的侷限性引發的;有時則因人工智慧技術在現實應用中屢屢受挫;有時兩者兼而有之。但歷次人工智慧寒冬的共同之處在於:當承載厚望的新進展未能兌現炒作所賦予的過高期待時,出資方便會陷入幻滅。
冷戰初期,美國及其盟國政府便在人工智慧研究領域投入了巨額資金。彼時與當下情形一樣,美國政府將這項技術視為可能帶來戰略和軍事優勢的領域,因此美國國防部提供了大部分人工智慧研究經費。
當時,人工智慧領域存在兩種對立的方法論。其一,是借助硬編碼邏輯規則,將輸入資料分類為符號,再通過對這些符號進行操控來得出輸出結果。依靠此方法,電腦在跳棋、國際象棋領域首次取得重大突破,世界上首批聊天機器人也由此誕生。
另一種方法則基於感知器技術——即當今神經網路的前身,是大致模仿大腦運行機制的人工智慧。感知器並非從規則和邏輯出發,而是通過資料學習歸納完成特定任務的規則。美國海軍研究辦公室為感知器的早期研究提供了大量資金支援,而康奈爾大學神經科學家兼心理學家弗蘭克·羅森布拉特(Frank Rosenblatt)是該技術的開創者。美國海軍和中央情報局(CIA)均對感知器進行了測試,試圖驗證其能否對目標進行分類——例如識別敵艦輪廓,或辨別航空偵察照片中的潛在目標。
兩大對立陣營都高調宣稱,其技術將迅速催生出與人類智力相當甚至超越人類智力的電腦。1958年,羅森布拉特在接受《紐約時報》採訪時表示,他研發的感知器很快就能識別人臉並喊出其姓名,距離實現即時語言翻譯“僅一步之遙”,最終人工智慧系統還將具備自我複製能力並擁有意識。與此同時,麻省理工學院人工智慧實驗室聯合創始人、符號人工智慧陣營領軍人物馬文·明斯基(Marvin Minsky)在1970年接受《生活》雜誌採訪時宣稱:“未來三到八年內,我們將擁有具備普通人類通用智能的機器。”
這正是人工智慧寒冬的首要前提:炒作。如今多位人工智慧領域知名人士的言論與彼時存在明顯的相似之處。今年1月,OpenAI首席執行官薩姆·奧爾特曼在其個人部落格中寫道:“我們如今篤定——已掌握建構具備傳統意義上人類水平的通用人工智慧的方法”,並表示OpenAI正日益將重心轉向研發超越人類的“超級智能”。他還稱,今年“我們可能見證首批人工智慧代理'加入勞動力隊伍',並切實改變企業的產出”。Anthropic聯合創始人兼首席執行官達里奧·阿莫迪(Dario Amodei)曾預測,具備人類水平的人工智慧將於2026年問世。與此同時,GoogleDeepMind聯合創始人兼首席執行官戴密斯·哈薩比斯(Demis Hassabis)則表示,在所有認知領域均達到人類水平的人工智慧將在未來“五到十年內”誕生。
但引發人工智慧寒冬的,是部分確鑿證據表明炒作的願景無法兌現。第一次寒冬的爆發源於一系列沉重打擊:1966年,受美國國家研究委員會(National Research Council)委託的委員會發佈了一份關於自然語言處理和機器翻譯現狀的負面報告,結論是電腦翻譯比人工翻譯成本更高、速度更慢且精準性更低。該委員會此前已為早期語言人工智慧研究投入2000萬美元(按如今幣值計算,至少相當於2億美元),隨後便停止了所有資金支援。
隨後在1969年,明斯基又揮出第二記重拳。這一年,他與人工智慧研究者西蒙·派珀特(Seymour Papert)合著的專著對感知器進行了全面批判。在書中,明斯基與派珀特通過數學論證證明:單層感知器(如羅森布拉特1958年高調展示的那種)僅能進行精確的二元分類——換言之,它只能識別物體是黑是白、是圓是方,卻無法將事物歸入兩個以上的類別。
事後證明,明斯基與派珀特的批判存在重大缺陷。儘管多數人將此書視為基於神經網路的人工智慧永遠無法企及人類智力水平的決定性證據,但他們的論證僅適用於結構簡單的單層感知器:輸入層由若干接收資料的神經元構成,且所有輸入層神經元僅與一個輸出層神經元相連。他們很可能刻意忽略了這樣一個事實:早在1960年代,部分研究者已開始探索多層感知器——這種感知器在輸入層神經元與輸出層神經元之間增設了一個由神經元構成的中間“隱藏層”。作為當今“深度學習”技術的真正前身,多層感知器實際上具備將資料歸入兩個以上類別的能力。但當時訓練這種多層神經網路難度極大。而這已無關緊要——損害已然造成。明斯基與派珀特的著作出版後,美國政府對基於神經網路的人工智慧方法的資金支援基本終止。
明斯基與派珀特的批判不僅說服了美國國防部的資助機構,還讓眾多電腦科學家相信神經網路研究已走入死胡同。部分神經網路研究者甚至指責明斯基使該領域的發展倒退了數十年。2006年,曾助力重新點燃神經網路研究熱情的研究員特倫斯·謝諾夫斯基(Terry Sjenowski)在一次會議上公開質問明斯基:“你是魔鬼嗎?”明斯基無視提問,轉而詳細闡述他眼中神經網路存在的缺陷。謝諾夫斯基繼續追問,惱怒的明斯基大聲回應道:“沒錯,我就是!”
但明斯基代表的符號人工智慧,很快也面臨資金短缺的困境。同樣是在1969年,美國國會強制要求曾為兩種人工智慧研究方法提供大量資金支援的美國國防部高級研究計畫局(Defense Advanced Research Project Agency,DARPA)改變撥款方式。該機構被告知要資助那些具有明確軍事應用場景的研究項目,而非更側重理論探索的“藍天研究”(指無明確實用目標、純基礎領域的研究)。儘管部分符號人工智慧研究符合這一標準,但大多數研究並不符合。
1973年,致命一擊降臨:英國議會委託劍橋大學數學家詹姆斯·萊特希爾(James Lighthill)對英國人工智慧研究現狀展開調查。他在結論中指出,在實現與人類智力水平相當這一宏大目標上,人工智慧未能顯露出任何希望,其推崇的諸多演算法雖能解決“玩具級問題”(指簡單模擬場景中的問題),卻永遠無法應對現實世界的複雜性。基於萊特希爾的這一結論,英國政府終止了對人工智慧研究的所有資金支援。
儘管萊特希爾的調查僅聚焦於英國的人工智慧研究,但美國國防部高級研究計畫局以及其他資助人工智慧研究的美國機構均注意到了這一結論,這進一步加深了他們對人工智慧的懷疑態度。到1974年,美國對人工智慧項目的資助額僅為1960年代的零頭。人工智慧寒冬就此降臨,並一直持續到20世紀80年代初。
如今,當研究表明人工智慧未能達到預期時,也出現了與第一次人工智慧寒冬相似的情形。蘋果公司與亞利桑那州立大學近期發表的兩篇研究論文,對前沿人工智慧模型是否真正具備推理能力提出質疑——這些模型本應通過“思維鏈”推理如何回應提示詞。兩篇論文均得出一致結論:這些模型並未像人類理解的推理那樣,學習如何將可泛化的邏輯規則和問題解決技巧用於解決新問題,而僅僅是試圖將當前問題與訓練資料中出現過的問題進行匹配。這些研究或許會成為當代版“明斯基與派珀特批判感知器”的標誌性事件。
與此同時,關於當前人工智慧模型實際影響的研究正日益增多,這類研究與萊特希爾報告及美國國家研究委員會的報告類似。例如,麻省理工學院的一項研究得出結論,95%的人工智慧試點項目未能推動企業營收增長。賽富時(Salesforce)研究人員近期發佈的研究發現,當前多數大型語言模型無法精準執行客戶關係管理(CRM)任務——這一結論頗具諷刺意味,因為賽富時自身正大力推廣人工智慧代理,以實現客戶關係管理流程自動化。Anthropic的研究表明,其Claude模型無法成功營運自動售貨機業務——相較於科技鼓吹者宣稱將被人工智慧代理“徹底顛覆”的眾多業務,這已是相對簡單的業務。人工智慧研究機構METR的研究還揭示:實際上,相較於不借助人工智慧程式設計助手的情況,使用這類工具的軟體開發人員,完成任務的速度降低19%。
但存在部分關鍵差異。最顯著的是,當前的人工智慧熱潮並不依賴公共資金。儘管包括美國軍方在內的政府機構正成為人工智慧企業的重要客戶,但推動當前熱潮的資金幾乎完全來自私營領域。自2022年11月ChatGPT推出以來,風險投資機構已向人工智慧初創企業投入至少2500億美元。這還不包括微軟、Google母公司Alphabet、亞馬遜和Meta等大型上市科技公司在自身人工智慧項目上的巨額投入。僅今年一年,用於建設人工智慧資料中心的支出就高達3500億美元,預計明年這一數字還會進一步攀升。
此外,與第一次人工智慧寒冬時期人工智慧系統主要停留在研究實驗階段不同,如今人工智慧已在各行業廣泛部署。人工智慧還成為一項規模龐大的消費技術——僅ChatGPT的周使用者量就達7億——這在以往是從未有過的情況。儘管當今的人工智慧似乎仍缺乏人類智能的某些關鍵要素,但相較於過去的人工智慧系統已有顯著進步,而且人們確實發現這項技術在大量任務中具有實用價值,這一點毋庸置疑。
第一次人工智慧寒冬在20世紀80年代初逐漸消退,這主要歸功於計算能力的提升和演算法技術的改進。這一時期,人工智慧領域的炒作主要集中在“專家系統”上——這類電腦程序旨在將特定領域人類專家的知識編碼為邏輯規則集,軟體根據這些規則執行特定任務。
儘管如此,企業界仍熱情高漲,認為專家系統將推動生產力大幅提升。在這輪人工智慧炒作周期的鼎盛階段,近三分之二的《財富》美國500強企業宣稱已部署專家系統。到1985年,美國企業在這方面的總投入已超過10億美元,圍繞該技術的完整產業也應運而生,其中大部分得到了風險投資的支援。大部分資金用於研發名為LISP機的專用電腦硬體,這些硬體經過最佳化可運行專家系統——其中許多系統正是用LISP程式語言編寫的。此外,自1983年起,美國國防高級研究計畫局通過新推出的“戰略計算計畫”重新資助人工智慧研究,最終向全美多所大學的90余個人工智慧項目投入逾1億美元資金。
儘管專家系統借鑑了符號人工智慧研究者開創的諸多方法,但許多電腦科學領域的學者擔憂,過高的期望值將再次引發“繁榮-蕭條”周期,進而對該領域的發展造成損害。明斯基和人工智慧研究學者羅傑·尚克(Roger Schank)在1984年的一場人工智慧會議上創造了“人工智慧寒冬”這一術語。他們選用這個新詞,意在呼應“核冬天”——大規模核戰爭後可能出現的、不見天日的毀滅性蕭條時期。
隨後發生的三件事引發了新一輪寒冬。1987年,太陽電腦系統公司(Sun Microsystems)推出新型電腦工作站。這類工作站,以及IBM和蘋果推出的性能日益強大的桌上型電腦,使得專用LISP機變得不再必要。不到一年時間,LISP機市場便徹底崩塌。許多風險投資機構血本無歸,從此對人工智慧初創企業避之不及。同年,紐約大學電腦科學家傑克·施瓦茨(Jack Schwartz)出任美國國防部高級研究計畫局計算研究部門負責人。他向來對人工智慧持否定態度,尤其反對專家系統,隨即大幅削減相關經費。
與此同時,企業逐漸發現專家系統的建構與維護成本高昂且難度極大。這類系統還存在“脆弱性”——雖能高效處理高度常規化任務,但遇到稍有異常的情況,就難以應用預設的邏輯規則。此時,系統往往會輸出怪異且不精準的結果,甚至直接徹底崩潰。事實證明,要制定出能覆蓋所有極端情況的規則,是一項不可能完成的任務。因此到20世紀90年代初,企業開始放棄專家系統。與首次人工智慧熱潮中科學家和政府資助方對技術產生質疑不同,第二次寒冬的主要推手是企業的失望情緒。
如今人工智慧領域的發展,與彼時存在明顯的相似之處。例如,微軟、Alphabet、亞馬遜雲科技、埃隆·馬斯克的X.ai以及Meta正斥資數千億美元建設人工智慧資料中心。OpenAI正與軟銀、甲骨文及其他投資者共同推進耗資5000億美元的“星門計畫”資料中心項目。輝達之所以能憑藉4.3兆美元市值成為全球市值最高的公司,很大程度上是因為其生產的人工智慧晶片滿足了資料中心的需求。資料中心熱潮背後的核心假設之一是:最前沿的人工智慧模型,其規模即便不比現有頂尖模型更大,至少也會與之相當。而訓練和運行這類規模的模型,需要極其龐大的資料中心支援。
然而與此同時,多家初創企業已找到巧妙方法,成功研發出規模小得多卻能模擬大型模型諸多功能的模型,且所需計算資源遠少於後者,有些甚至無需使用輝達生產的專用人工智慧晶片,規模小到可在智慧型手機上運行。若這一趨勢持續下去,那些巨型資料中心可能會變得不再必要——就像當年LISP機被證明並非必需品一樣。這意味著,投入人工智慧基礎設施的數千億美元資金,最終可能淪為“擱淺資產”。
當今的人工智慧系統在諸多方面比20世紀80年代的專家系統更強大、更靈活。但企業仍發現其部署過程複雜且成本高昂,投資回報往往難以捉摸。儘管當下的人工智慧模型比專家系統更具通用性與韌性,但依舊不可靠,尤其是在處理訓練資料未充分覆蓋的特殊案例時。它們容易產生幻覺,會篤定地輸出錯誤資訊,有時甚至會犯人類絕不會犯的錯誤。這意味著企業和政府無法將人工智慧用於關鍵任務流程自動化。企業是否會像當年對專家系統那樣,對生成式人工智慧和大型語言模型失去耐心,目前尚難預料,但這種情況確實存在發生的可能性。
20世紀80年代,另一種人工智慧方法——神經網路也重新引發關注,這在一定程度上得益於大衛·萊姆哈特(David Rumelhart)、傑弗裡·辛頓(Geoffrey Hinton)和羅納德·威廉姆斯(Ronald Williams)的研究。1986年,他們成功找到了破解自20世紀60年代以來便一直困擾多層感知器的關鍵難題的方法。他們的創新成果被稱為反向傳播(backpropagation,簡稱backprop),這種方法能在每次訓練過程中對中間“隱藏層”神經元的輸出結果進行修正,從而讓整個神經網路實現高效學習。
反向傳播演算法,再加上性能更強大的電腦,共同推動了神經網路的復興。很快,研究人員建構的多層神經網路便具備多種能力:能識別信封和支票上的手寫字母、分析家譜中人物的親屬關係、識別列印字元並通過語音合成器朗讀,甚至能為早期自動駕駛汽車導航,使其保持在高速公路車道內行駛。
這在20世紀80年代末引發了短暫的神經網路熱潮。但神經網路也存在顯著缺陷:訓練過程需要海量資料,而許多工根本無法獲取所需的海量資料;在當時的電腦硬體條件下,訓練速度極慢,有時運行過程中會出現遲滯。
這意味著神經網路仍存在大量無法完成的任務。與當初企業爭先恐後地採用專家系統不同,如今企業並未急於引入神經網路——因其應用場景似乎極為受限。與此同時,其他統計機器學習技術正快速取得進展,這些技術所需資料量更少、對計算能力要求更低。如此一來,許多人工智慧研究者和工程師再次對神經網路失去信心,又一個長達十年的人工智慧寒冬來臨。
推動第三次寒冬回暖,有兩大因素發揮作用:其一,網際網路產生了海量數字資料,且獲取這些資料變得相對輕鬆,這解決了20世紀80年代神經網路發展面臨的資料瓶頸問題;其二,自2004年起,先是馬里蘭大學的研究者,隨後是微軟的研究者,開始嘗試使用“專為電子遊戲設計的新型電腦晶片”——圖形處理器(GPU)——來訓練和運行神經網路。圖形處理器具備平行執行大量相同運算的能力,而這恰恰契合了神經網路的運算需求。很快,傑弗裡·辛頓及其研究生證明:基於海量資料集訓練的、在圖形處理器上運行的神經網路,能夠完成諸如將圖像分類為上千種類別等任務——這在20世紀80年代末是不可能實現的任務。現代“深度學習”革命就此拉開序幕。
這場熱潮至今仍在持續。最初,對神經網路的訓練多以實現單一特定任務為核心目標——下圍棋或人臉識別。但2017年Google研究人員設計出名為轉換器的特殊神經網路,它擅長解析語言序列,這一突破將人工智慧的盛夏推向了更深層次。2019年,OpenAI的一項研究讓這股熱潮再獲助力——他們發現,依託海量文字資料完成訓練的轉換器模型,不僅具備生成高品質文字的能力,還能掌握翻譯、摘要等多種語言任務。三年後,基於該模型的神經網路升級版GPT-3.5,成為風靡全球的聊天機器人ChatGPT的核心引擎。
如今ChatGPT推出三年後,人工智慧的炒作熱度空前高漲。若以過往人工智慧寒冬為參照,如今確實出現若干秋日徵兆——隨風飄落的零星落葉。這究竟是“又一場將讓人工智慧投資陷入長達一代人冰封期的極寒風暴”的前奏,還是“陽光重現前短暫的寒流”,唯有時間才能給出答案。(財富中文網)