“當AI從奇觀變成基礎設施之後,批判和反思的空間反而收縮了。2016年,AI是一個外在的‘他者’,作為人類的對手引發公共討論;今天,人們害怕的是自己的不足,怕自己跟不上AI的節奏。焦慮的對象從機器轉向了自身。”“技術以什麼方式部署、應用在什麼場景、由誰來監管,這些都不是註定的,都是可以被討論和塑造的。問題在於,進行這種討論需要空間,而當下‘趕緊學AI否則就被淘汰’的敘事恰恰在壓縮這個空間。”▲2016年韓國首爾圍棋人機大戰,李世石1-4不敵AlphaGo 圖/視覺中國2026年是“人機大戰”十周年。2016年3月,全球超過兩億人線上觀看了AlphaGo(Google旗下DeepMind開發的人工智慧圍棋軟體)與李世石九段的“人機五番棋大戰”。AlphaGo以4比1的總比分擊敗李世石,震驚了世界。那場人機較量也是人工智慧在沉寂多年後重新掀動公共想像的開始。十年後的同一天,李世石再次回到那個賽場。對面不再是AlphaGo,而是一款韓國初創公司開發的AI系統。這一次,他與AI對話,而非對弈。這十年,李世石從“神之一手”的創造者,到宣佈退役時說“AI讓圍棋不再是藝術”,再到如今主動參與策劃圍棋應用、與AI協作探索——他的個人軌跡,恰如圍棋社群與AI共存的縮影。青年學者賀久恆自小學習圍棋。2016年的“人機大戰”激發了他重拾圍棋的興趣,他的棋力也快速升至國內業餘5段、野狐7D。對圍棋社群和人機關係的關注,讓他確定以此作為自己的博士論文研究方向。博士畢業於康奈爾大學科學技術學系、現為上海紐約大學博士後研究員的賀久恆,以圍棋社群為田野,完成了博士論文《圍棋社群與AlphaGo:一項人機相遇的民族志研究》。他訪談了44位受訪者,除了包括古力九段在內的28位職業棋手,還有圍棋AI工程師、高水平業餘棋手、圍棋老師、圍棋比賽組織者。這些豐富的樣本共同呈現了一個行業、社群在面對AI衝擊前後的完整圖景。▲2023年,賀久恆在美國分享自己的博士論文研究成果 圖/受訪者提供“圍棋世界的改變有AlphaGo這個標誌性事件,全世界都看到了那個瞬間。”賀久恆說。而這種斷裂,在2022年年底ChatGPT3.5橫空出世後,正在全社會範圍內以更隱蔽、更分散的方式重演。在邊界模糊、評價標準不統一的領域,AI的滲透更像是緩慢的滲水,而不是決堤。“沒有一個單一的時刻讓所有人同時意識到‘AI已經超過我們了’。寫作領域不會有一個‘AlphaGo時刻’,教育領域也不會有。這也意味著這些領域的掙扎可能會更漫長、更隱蔽,也更難被外界看到。”賀久恆和其他STS(Science and Technology Studies,科學技術學)學者的田野調查證明,“AI並不是均等地改變所有人,它在加劇已有的不平等。誰能成功重新定位自己,誰只能被動承受,很大程度上取決於你在變局到來之前就已經擁有的資源、地位和社會關係。這一點放在圍棋界成立,放到更大的社會圖景中恐怕也一樣成立。”“AI是不可阻擋的趨勢”這句話在今天似乎已經不是一個需要論證的命題,而是所有討論的前提。賀久恆說,這個判斷本身其實就是一種“技術決定論”——好像技術發展的方向是註定的,人只能順從。“一旦你接受了這個前提,所有對話就只能圍繞‘怎麼適應AI’展開,而‘要不要發展AI’‘能不能放慢速度’‘某些領域是否應該限制AI的介入’就變成了幼稚的、落後的、不值得討論的問題。”“STS這個學科幾十年來一直在做的事情,就是把這些被自然化的前提重新變成可以追問的問題。技術的發展方向從來不是註定的,它是被選擇的:被資本選擇、被政策選擇、被特定的利益結構選擇。既然是選擇,就可以被追問、被討論、被改變。”賀久恆感嘆AI技術的發展速度突破了既往討論和管控的框架設計:“技術以什麼方式部署、應用在什麼場景、由誰來監管,這些都不是註定的,都是可以被討論和塑造的。問題在於,進行這種討論需要空間。”賀久恆希望能將學者們被攔在學術期刊付費牆後面的觀察與思考,以更大聲量向社會傳播:“當前AI的公共敘事很大程度上由科技公司主導。真正需要的是讓更多不同立場的人擁有對技術的解釋權。社會學家、哲學家、人類學家的角色,是幫助把這些分散的、日常的聲音連接起來,賦予它們理論的力量和公共的能見度,讓它們不至於被技術樂觀主義的敘事輕易消解。”▲賀久恆 圖/受訪者提供AI從奇觀到日常,焦慮的對象從機器轉向了自身南方人物周刊:十年前AI戰勝人類棋手的時候,還有不少類似於機器是否會對人類構成威脅的討論,那個時候AI更像一個對手。但當ChatGPT橫空出世,AI技術有了一個超級應用,一個“明星產品”,人們從最開始的嘲弄,轉變為愛上這個工具,更關心它好不好用,甚至拿它當朋友、諮詢師。AI安全和社會衝擊的議題,越來越侷限於少數技術專家和社會學者,這裡面是否有出乎你意料的地方?這個演變路徑在技術對社會的形塑中是普遍性的嗎?賀久恆:說實話,這個演變方向並不讓我意外,但速度超出了我的預期。從STS的角度來看,新技術進入公眾視野通常會經歷一個從“奇觀”到“日常”的過程。2016年AlphaGo挑戰李世石,那是一個精心策劃的媒體事件,全球兩億多人線上觀看,它以一種戲劇化的方式把AI推到公眾面前。那時候人們討論的是很宏大的問題:機器會不會超越人類、AI是不是一種威脅。但這種討論之所以可能,恰恰是因為AI當時還是一個“奇觀”,是一個可以被圍觀、被審視的對象,大家可以站在外面去評判它。ChatGPT的出現改變了這個格局。它的特殊性在於,從奇觀到日常的轉化速度空前地快,滲透的領域空前地廣。圍棋AI再強大,它隻影響圍棋這一個社群。但大語言模型幾乎同時進入了寫作、程式設計、教育、醫療、法律等所有領域。當一個技術變成你每天都在用的工具,你就很難再站在外部去質疑它了。我想指出的是,你提到人們“愛上了這個工具”,這個說法值得推敲。表面上看,大家確實從恐懼變成了擁抱,但我認為這不是焦慮的消失,而是焦慮的內化。今天很多人拚命學AI工具、刷AI課程,本質上是一種FOMO(錯失恐懼症),害怕被時代拋下、害怕在職場中被取代。2016年人們害怕的是一個外在的“他者”,AI作為對手;今天人們害怕的是自己的不足,怕自己跟不上AI的節奏。焦慮的對象從機器轉向了自身。▲2025年10月15日,在北京市海淀區第四實驗小學《多彩的活動》主題語文公開課上,老師借助AI評改指導學生 圖/新華社南方人物周刊:你的博士論文是關於AI對圍棋社群的改變和影響,在你對職業棋手群體的大量訪問和田野調查中,有類似的改變軌跡嗎?賀久恆:我在圍棋社群的田野調查中非常清楚地觀察到了這個過程。AlphaGo之後,職業棋手們很快就開始用AI輔助訓練、用AI做比賽解說。這看起來是主動的擁抱,但背後是非常現實的生存壓力:如果你不研究AI推薦的下法,你在比賽中就會落後;如果你不會借助AI做解說,你的位置就可能被別人取代。棋手們並不是真的“愛上”了AI,而是清楚地意識到,不學會與AI共處,就會失去自己的職業合法性。圍棋社群其實是整個社會面對AI的一個微縮預演。我們今天在各行各業看到的焦慮、適應和轉型,圍棋界在2016年之後就已經經歷過。真正值得關注的是,當AI從奇觀變成基礎設施之後,批判和反思的空間反而收縮了。你沒有餘裕去思考AI到底好不好,因為你忙著追趕。“要不要用AI”不再是一個問題,“你會不會用AI”才是。這本身就是一種深層的社會衝擊,只不過它不再以公共辯論的形式出現,而是以每個人內心的焦慮來呈現。▲2026年3月9日,韓國首爾,圍棋棋手李世石(右)演示AI初創企業Enhance開發的AI圍棋模型 圖/視覺中國南方人物周刊:李世石十年後重新回到當年比賽的地方,為一個AI智能體做推廣,他從那麼深的痛苦中也恢復了過來,接受AI作為探索圍棋的“協作夥伴”。圍棋社群其實幾乎沒有什麼掙扎,就迅速接受了AI對其秩序的改變,因為這個群體是爭勝的,“弱肉強食”的。三年前ChatGPT剛出來,還算不上一個好用的工具。那時候我們有一次深度交談,你說,在其他競爭性沒有那麼強的領域,人類的行業秩序可能沒有那麼容易被AI改變,你現在怎麼看?賀久恆:首先我想稍微修正一下這個前提。從外部看,圍棋社群好像很快就接受了AI,沒什麼掙扎。但我做了一年的田野調查,觀察到的實際情況要複雜得多。AlphaGo贏了之後,圍棋界經歷了非常劇烈的震盪。舉一個具體的例子:AlphaGo第二局下出了一步棋叫“Move 37”,當時整個圍棋界都震驚了,很多職業棋手覺得這是一步超越人類理解的“神之一手”,賦予它近乎神話般的意義。但後來隨著更多AI系統出現,大家發現這步棋其實在統計上並不特殊,也並不是什麼神來之筆。這個從神話化到祛魅的過程本身就是一種掙扎,它意味著職業棋手需要不斷重新校準自己的判斷框架。再比如AI普及之後,圍棋界出現了大量的作弊爭議。因為人的下法與AI的下法越來越像,你很難判斷一個人是真的下得好還是偷偷在用AI。這種信任危機對圍棋社群的衝擊是非常深的。還有職業棋手的角色轉型,他們過去是圍棋知識的最高權威,現在要學會去做AI輸出的“翻譯者”和“解讀者”,這個轉變也不是一帆風順的。李世石本人的經歷恰恰說明了這一點。他花了將近十年,才從那場比賽的衝擊中走出來,走到今天能夠接受AI作為協作夥伴的位置。如果“接受”真的那麼容易,就不需要十年。圍棋社群看起來適應得快,核心原因不是因為他們沒有掙扎,而是因為圍棋這個領域有一個非常特殊的性質:規則邊界清晰,勝負標準明確。AI比你強就是比你強,沒有太多可以爭辯的空間。結果上你不得不接受,即使情感上、認知上、制度上的調適是漫長的。▲2026年3月17日,在湖南湘江新區雷鋒小學體育課上,老師通過平板電腦監測學生的心率 圖/新華社至於我三年前的那個判斷,現在看來需要修正,但也沒有完全錯。需要修正的部分是,我當時低估了大語言模型(LLM)的滲透力。LLM的特殊之處在於,它不需要通過打敗你來改變你。圍棋AI改變圍棋界,靠的是在競技層面碾壓人類,這需要一個很強的競爭邏輯。但GPT改變寫作、教育、翻譯這些領域,靠的不是“比你寫得好”,而是“夠好了而且特別快”。它繞過了競爭這個變數,直接從效率和實用性的層面嵌入了日常工作。所以,即使在競爭性不那麼強的領域,改變也在深刻地發生。沒有完全錯的部分是,改變的方式確實不同。圍棋的改變是斷裂式的——有一個明確的“之前”和“之後”。圍棋界有AlphaGo這個標誌性事件,全世界都看到了那個瞬間。但在邊界模糊、評價標準不統一的領域,AI的滲透更像是緩慢的滲水,而不是決堤。沒有一個單一的時刻讓所有人同時意識到“AI已經超過我們了”。寫作領域不會有一個“AlphaGo時刻”,教育領域也不會有。這也意味著這些領域的掙扎可能會更漫長、更隱蔽,也更難被外界看到。圍棋的痛苦是集中的、劇烈的、有明確事件標記的,而其他領域的痛苦可能是緩慢的、瀰散的,甚至難以命名的。那一種更深重,其實很難說。▲2026年3月21日,美國舊金山,人們參加“停止AI競賽”抗議活動,呼籲主要人工智慧公司暫停前沿AI系統的開發 圖/Petr Salba南方人物周刊:技術與資本的高度結合,科技大佬們的競爭雄心是否使得普羅大眾更加容易成為時代的“人質”,被裹挾著前往新的應用場景?關於AI將要大面積取代人類工作的分析文章很多,並且已經快速變成現實。但人們除了被動接受,似乎沒有什麼更好的辦法,我們都很像超市的收銀員,一邊積極教授顧客學會掃碼自助付費,一邊等著被機器替代。賀久恆:這個收銀員的比喻非常生動。我想從兩個方面來回應:一方面承認這背後確實存在真實的權力不對稱,另一方面指出這個比喻可能遮蔽了一些更複雜的東西。先說權力不對稱的部分。技術的推進從來不是純粹的技術邏輯在驅動,而是資本和制度力量介入的結果。AlphaGo的挑戰賽就是一個很好的例子——那不是一場自然發生的比賽,而是DeepMind和Google精心策劃的媒體事件,目的是向全世界展示它們的AI能力。今天大語言模型的推廣也是一樣的,大量的資本投入、媒體敘事和平台策略在共同塑造著一種“你必須擁抱AI”的氛圍。我們前面討論的FOMO,那種焦慮感不全是自然產生的,在相當程度上它是被製造出來的。當科技公司和媒體不斷告訴你“不用AI就會被淘汰”的時候,你很難不焦慮。從這個意義上說,“人質”這個說法有它合理的部分。但我不太同意“除了被動接受沒有更好的辦法”這個判斷。這個判斷本身其實就是一種“技術決定論”——好像技術發展的方向是註定的,人只能順從。STS這個學科幾十年來一直在做的一件事,就是打破這種“沒有別的辦法”的敘述。技術以什麼方式部署、應用在什麼場景、由誰來監管,這些都不是註定的,都是可以被討論和塑造的。問題在於,進行這種討論需要空間,而當下“趕緊學AI否則就被淘汰”的敘事恰恰在壓縮這個空間。你忙著追趕的時候,就沒有餘裕去問“真的一定要這樣嗎”。回到我的圍棋研究,我觀察到的情況比“收銀員”的比喻要複雜。職業棋手面對AI的時候,並不是坐在那裡等著被替代。他們主動地重新定義了自己的角色——從圍棋知識的最高權威,變成了AI輸出的翻譯者、解讀者、教育者。他們在一個被極大壓縮的空間裡,進行了創造性的談判與適應。這裡有一個很重要的限定,我不想把這說成一個“人類終將適應”的勵志故事,因為在圍棋社群內部,適應的能力是高度不平等的。能夠成功轉型的往往是頭部棋手——世界冠軍等級的選手,他們有名氣,有社會資本,可以成為AI時代的解說明星或教育者。但大量中低段位的職業棋手,他們原本就處在這個職業體系的邊緣,AI的到來讓他們的處境更加艱難。對這些棋手來說,他們的經歷可能確實更接近那個收銀員的比喻。這不是一個“樂觀還是悲觀”的問題,而是一個分化的問題。面對同樣的技術衝擊,不同位置的人擁有的重新談判的空間是極不平等的。AI並不是均等地改變所有人,它在加劇已有的不平等。誰能成功重新定位自己,誰只能被動承受,很大程度上取決於你在變局到來之前就已經擁有的資源、地位和社會關係。這一點放在圍棋界成立,放到更大的社會圖景中恐怕也一樣成立。▲2017年5月26日,2017年烏鎮圍棋峰會人機大戰團隊賽,五位圍棋國手聯手仍不敵AlphaGo 圖/視覺中國那些力量讓AI瘋狂加速南方人物周刊:如同DeepMind創始人哈薩比斯所說,他和科學家朋友的AI夢想發展進步如此神速,他原本應該十分開心,但是他心中也有很多的擔心,因為“事情發展得如此瘋狂,如此倉促”。AI競爭不會停步,國家競爭更使得AI的發展遠遠超出科學研究所能控制的節奏。AI安全作為一個公共必需品“懸停”在空中,這種現象歷史上是否常見?賀久恆:這種現像在歷史上不僅常見,甚至可以說是一種規律。技術治理領域有一個經典的概念叫科林格里奇困境(Collingridge dilemma,一種關於技術治理的兩難),是1980年提出的,核心意思非常簡單:當一項技術還在早期、容易管控的時候,你看不清它的影響,所以沒有動力去管;而當影響已經清楚了,技術已經深度嵌入社會,你又管不動了。管得動的時候看不清,看得清的時候管不動。核能、基因工程、社交媒體,幾乎所有重大技術都經歷過這個循環。所以AI安全作為公共必需品“懸停”在空中,從歷史的角度看並不是例外。但AI安全的“懸停”有幾個特殊性值得關注。第一是速度。哈薩比斯自己說“事情發展得如此瘋狂”,這不是修辭。核能從理論到應用,發展了幾十年,基因編輯從CRISPR技術出現到引發廣泛的倫理恐慌也有一段緩衝期。這些緩衝期雖然不夠長,但至少給了社會一些反應時間——學術界可以展開研究,公眾可以形成意見,立法機構可以開始討論。但大語言模型從實驗室產品到全民應用只用了幾個月,所有傳統的治理機制——立法、監管、行業自律——都是為更慢的節奏設計的,根本來不及響應。安全議題不是沒有人想接住,而是現有的制度工具跟不上這個速度。第二是國家競爭的維度。這一點非常關鍵。冷戰時期的核技術治理之所以最終建立了一套框架——雖然不完美,部分原因是雙方都有動機避免互相毀滅,恐怖平衡反而催生了軍控協議。但AI競爭的邏輯不同,它更像是一場誰都不敢先停下來的“軍備競賽”——每個國家、每個公司都在說:“我也擔心安全,但如果我放慢速度,對手就會超過我。”哈薩比斯的矛盾心態恰恰體現了這種結構性困境:個人層面的擔憂和系統層面的激勵方向是錯位的。你是一個真誠地關心AI安全的科學家,同時也是一個不得不參與競速的公司領導者。這兩者之間的張力不是靠個人道德可以解決的,它是一個結構性的問題。第三,我想稍微推進一下你用的“懸停”這個意象。說AI安全“懸停在空中”,好像暗示它是一個等待降落的東西,只要條件成熟,安全框架就會自然到位。更準確的說法可能是,安全議題不是在“懸停”,而是被多方力量托舉在那個位置,阻止它降落。資本不希望安全框架限制創新速度,國家競爭不允許任何一方單方面減速,而公眾的FOMO——我們前面討論過的——又在消解批判和反思的空間。這三股力量合在一起,讓安全議題始終停留在“大家都覺得重要但沒有人真正落實”的狀態。▲2026年3月6日,人們在深圳騰訊大廈北廣場排隊等待安裝“龍蝦”(OpenClaw)。4月1日,OpenClaw發佈消息稱,國內社交平台QQ實現原生接入;同日,國家智慧財產權局發佈風險提示,OpenClaw等智能體工具易引發嚴重安全風險 圖/新華社南方人物周刊:圈內人其實也有疑問:“我們一定要發展AI嗎?人類做得很好的事情,非要AI來取代嗎?”這個階段讓AI討論重回公共輿論場,有能力瞭解和參與其中的社會學家和哲學家發出更大的聲音特別重要。面對複雜的局面,我們如何打破技術的解釋壟斷和商業的焦點轉移,以及媒體和社會關注的“預警疲勞”,讓AI安全和倫理的討論在公共輿論中始終保持熱度,並且有一個適當的公共討論空間?賀久恆:“我們一定要發展AI嗎?人類做得很好的事情,非要AI來取代嗎?”我覺得這個問題非常重要,但它在公共空間中幾乎不會被認真討論。不是因為它不重要,而是因為它在當前的話語結構中被預設為一個不可問的問題。“AI是不可阻擋的趨勢”這句話在今天已經不是一個需要論證的命題,而是一個討論的前提。一旦你接受了這個前提,所有對話就只能圍繞“怎麼適應AI”展開,而“要不要發展AI”“能不能放慢速度”“某些領域是否應該限制AI的介入”就變成了幼稚的、落後的、不值得討論的問題。STS這個學科幾十年來一直在做的事情,就是把這些被自然化的前提重新變成可以追問的問題。技術的發展方向從來不是註定的,它是被選擇的:被資本選擇、被政策選擇、被特定的利益結構選擇。既然是選擇,就可以被追問、被討論、被改變。▲2025年9月5日,2025世界智能產業博覽會在重慶開幕,中國移動展台的AI+智慧酒店機器人在為觀眾調製咖啡 圖/新華社關於技術的解釋壟斷,當前AI的公共敘事很大程度上由科技公司主導。我在論文中詳細分析過,AlphaGo挑戰賽本身就是DeepMind和Google精心策劃的媒體事件:選擇什麼樣的對手、怎麼做直播、賽後怎麼發佈論文和紀錄片,這些都是敘事的建構。今天大語言模型的推廣也是一樣的,科技公司不僅在建造技術,更在定義我們理解技術的方式。打破這種壟斷,需要的不是讓所有人都去“懂技術”。這又回到了上一個問題講的“AI素養”的陷阱。真正需要的是讓更多不同立場的人擁有對技術的解釋權。圍棋棋手、教師、律師、工人,他們對AI的感受和判斷,包括職業棋手表達出來的職業意義感和價值感的喪失,包括亞特蘭大培訓課上那個工人說的“感覺像胡蘿蔔吊在前面”,這些都是關於AI的有效知識,不比工程師的知識低一等。社會學家、哲學家、人類學家的角色,是幫助把這些分散的、日常的聲音連接起來,賦予它們理論的力量和公共的能見度,讓它們不至於被技術樂觀主義的敘事輕易消解。我想誠實地說,學者在這方面能做的事情是有限的,而且學術界自身的結構也在制約這種介入。“有能力瞭解和參與其中的社會學家和哲學家的聲音特別重要”,我完全同意。但現實是,當前的學術獎勵系統並不鼓勵學者做這樣的公共介入。學術界評價一個學者,看的是你發了多少篇論文、發在什麼等級的期刊上、拿了多少引用。寫一篇面向公眾的文章、接受一次媒體採訪、參與一場政策討論,在學術評價體系中幾乎沒有價值,甚至可能被視為“不務正業”。這就造成了一個矛盾:社會最需要學者發聲的時候,恰恰是學術體制最不鼓勵學者發聲的時候。很多學者不是不關心AI安全和倫理,而是他們在職業生存的壓力下,不得不把精力集中在學術圈內部的產出上。而且,AI也加速了學術內部產出的競爭。還有一個更深的矛盾——好的社會研究需要時間。比如我的論文做了一年的田野調查,最近資料與社會研究所(Data & Society Research Institute)發佈了一份報告叫“(404) Job Not Found”,研究的是亞特蘭大的非洲裔工人在AI時代面臨的就業困境,研究者Akanegbu在亞特蘭大做了六個月的民族志。但AI的發展速度和公共討論的節奏要求你現在就給出判斷、現在就提供答案。學術研究的節奏與公共對話的節奏是錯位的。所以經常出現的情況是:在公共討論中發聲的,要麼是科技公司的人,因為他們有動力也有資源來塑造敘事;要麼是對技術細節並不瞭解的泛評論者。而真正在做深入研究的學者,他們的聲音要麼滯後、要麼被鎖在付費期刊的防火牆後面,無法進入公共空間。所以要讓AI安全和倫理的討論在公共空間中保持熱度,光呼籲學者發聲是不夠的,還需要改變讓學者能夠發聲的條件。包括學術評價體系對公共參與的認可、研究資助對快速響應研究的支援,以及媒體和學術界之間更有效的對接機制。這不是學者個人的責任問題,這本身也是一個結構性的問題。▲2025年7月2日,浙江東陽,學員獨立駕駛裝有AI教學系統的AI智能教練車進行科目二練習,駕校教練通過即時監控關注AI智能教練車行駛情況,並可隨時與學員語音交流 圖/新華社社會技術想像不是中性的,有它的代價承擔者南方人物周刊:三年前,我們談到棋手與AI的“雙向奔赴”,本質上還是棋手群體承擔了巨大的壓力,他們在巨大的知識混亂面前,用從小養成的堅韌和勤奮,快速掌握和消化AI所創造的圍棋知識,這對人類社會也是一個預演。如果全社會AI化,局面可能還要慘烈。賀久恆:你說得對,棋手群體確實承受了巨大的壓力,他們的堅韌和勤奮是真實的。但我想補充一些從田野調查中看到的更深層的東西。首先,棋手們面對的不僅僅是“需要學習更多的知識”。在AlphaGo之前,圍棋知識是一套有美學標準、有師承譜系、有直覺判斷的完整體系。一步棋好不好,職業棋手是用幾十年積累的感覺來判斷的。但AI帶來的知識是完全不同的——沒有解釋、沒有理由,只有一個勝率數字。棋手們真正面對的衝擊不是“有更多東西要學”,而是“我過去理解知識的整個方式可能需要被重新校準”。這種認識論層面的震盪,比單純的技能更新要深重得多。用我論文裡的話說,“這是一種知識體系的去穩定化,不只是知識內容的更新。”圍棋社群之所以看起來適應得相對好,有兩個很重要的條件。一個是圍棋有極其清晰的反饋機制——你學了AI推薦的下法,去比賽,贏了就說明學對了,輸了就繼續調整,這個反饋回路是即時的、明確的。另一個是圍棋的遊戲規則本身沒有變,棋盤還是19×19,“贏”的定義沒有改變,變的是策略和知識,但競技的框架是穩定的。推到全社會,這兩個條件都不具備。在大多數職業領域,“你有沒有成功適應AI”根本沒有清晰的答案。一個律師用了AI輔助寫文書,他的工作質量提高了還是降低了?一個教師用了AI備課,學生學得更好還是更差了?反饋是模糊的、滯後的、充滿噪音的。AI在很多行業改變的不只是“怎麼做”,還有“做什麼”,甚至“這個崗位還需不需要存在”。圍棋棋手至少不需要擔心“圍棋”這個東西會消失,但很多職業的從業者面對的恰恰是這種存在性的威脅。所以你說“局面可能還要慘烈”,從這個意義上說,是有根據的。我最想強調的一點是:圍棋的經驗告訴我們,最終決定適應結果的不是個人的勤奮和堅韌,而是制度安排和社會支援。圍棋界之所以還能運轉,不只是因為棋手們努力,更因為賽事體系還在、圍棋協會還在運作、線上平台提供了新的生態位、觀眾還願意看人類棋手比賽。如果這些制度性支撐不存在,個人再堅韌也無處施展。▲2026年3月1日,一名務工人員在位於福州市達明美食街的智慧就業艙內體驗。艙內智慧系統可根據求職者簡歷,提供解讀求職需求、精準匹配崗位、AI模擬面試、求職進度跟蹤等服務 圖/新華社資料與社會研究所那份研究亞特蘭大非洲裔工人就業困境的報告,提供了一個非常有說服力的案例來說明這一點。亞特蘭大有大量的數字技能培訓項目,鼓勵工人去“upskill”和“reskill”,就是咱們說的提升技能——學AI、學程式設計、考證書。這些項目的邏輯與圍棋社群裡“趕緊學AI否則就落後”的邏輯是一樣的,都是把適應的責任放到個人身上。報告發現,很多工人根本無法參加這些培訓,不是因為他們不想學,而是因為培訓時間與工作時間衝突、沒有人幫忙帶孩子、拿不到足夠的生活補貼。一個課程免費,但你上課期間不能工作、不能掙錢,這對很多人來說就是參加不了。報告裡有一個受訪者說得很直接:課程固然免費,“但你也掙不到錢,你的帳單還在那裡。”更深層的問題是,即便這些工人完成了培訓、拿到了證書,也不一定能找到穩定的工作。僱主可能還是偏好四年制大學學歷,AI相關崗位的定義本身就是模糊的——連什麼算“AI素養”都沒有統一標準。報告用了一個很精準的概念叫“strategic abstraction”,意思是戰略性模糊:告訴你要學AI、要跟上時代,但從來不告訴你具體學什麼、學到什麼程度才夠,這個模糊本身就是一種權力的運作。圍棋社群內部的不平等已經很明顯了,但圍棋畢竟是一個小社群,大家彼此認識,資源雖然有限但相對集中。推到全社會,當數以百萬計的人被告知“你要學AI”,而制度支撐跟不上的時候,結果就是:有資源的人適應得很好,沒有資源的人不僅沒有得到幫助,反而還要承受“你為什麼不學AI”的道德壓力。這其實就是把結構性的問題轉嫁為個人的責任。所以,僅僅告訴每個人“你要堅韌、你要勤奮、你要學習AI”是遠遠不夠的。如果社會不提供相應的制度性支援,個人的勤奮只會變成另一種形式的自我消耗。▲2025年7月6日,浙江省金華市金華之光文化廣場科技館內,小朋友與智慧型手機器狗互動 圖/新華社南方人物周刊:三年前,你給我講了一個詞——Sociotechnical Imaginaries(社會技術想像)。過去十年,是否也可以理解為關於這種技術想像的一個驗證過程?在AI帶來第四次工業革命,AGI(通用人工智慧)將讓人類社會進入“智慧量產”的想像背後,會否是巨大的社會代價和複雜的社會後果?賀久恆:2016年AlphaGo時期,AI的社會技術想像是相對聚焦的:“AI可以在特定領域超越人類最強大腦。”這個想像通過挑戰賽被戲劇化地呈現了,而且它有一個非常重要的特徵:它是被精心建構的。前面提過,AlphaGo挑戰賽不是一場自然發生的比賽,而是DeepMind和Google精心策劃的一場展示。選擇誰做對手、比賽在那裡舉行、怎麼做直播和媒體傳播,所有這些決定都在塑造公眾對AI的想像。所以,“AI超越人類”這個想像不是技術發展的自然結果,它是被特定的行動者有意識地生產出來的。到了ChatGPT時代,想像急劇膨脹。從“AI可以下圍棋”變成了“AI可以做一切”,從narrow AI(狹義人工智慧)變成了AGI的宏大敘事,從“機器在特定領域很強”變成了“智慧量產”和“第四次工業革命”。想像的規模和野心完全不同了。而且建構這些想像的行動者也更多了,不只是一家公司,而是OpenAI、Google、Meta等企業及各國政府,在競爭中共同推高了想像的天花板。每一個行動者都有動機把AI的未來描述得儘可能宏大,因為宏大的想像能吸引資本、影響政策、爭奪話語權。Jasanoff(社會技術想像的提出者)的框架最有力的地方在於它提醒我們:每一種社會技術想像都有它的受益者,也有它的代價承擔者。想像不是中性的,它是有選擇性的。“AI帶來第四次工業革命”這個想像呈現的是技術進步、效率提升、人類能力的擴展,但它系統性地遮蔽了一個問題:代價是什麼樣、代價由誰來承擔?圍棋界承擔了“AI超越人類智慧”這個想像的代價,職業棋手的權威被動搖、公平競技的規則被侵蝕、一個有兩千多年傳統的知識體系需要在幾年之內重新校準。柯潔說“感覺過去二十多年的付出毫無意義”,這就是被想像敘事遮蔽的那一面。▲2017年烏鎮圍棋峰會,柯潔0比3不敵AlphaGo 圖/視覺中國南方人物周刊:你在博士後階段開始了提示詞工程師的社會研究,有什麼洞見?賀久恆:做完圍棋AI的博士論文之後,我一直在思考一個問題:我在圍棋社群中觀察到的那些動態事情是不是正在其他領域以更大的規模發生?圍棋是一個AI衝擊既有專業社群的案例,但ChatGPT時代還出現了一個圍棋時代沒有的現象:AI不僅在改變舊的職業,還在催生全新的職業。其中最引人注目的就是“prompt engineer”,提示詞工程師。這個職業特別吸引我,因為它處在一個非常有趣的位置。圍棋棋手是被AI挑戰的一方,他們需要重新定義自己與AI的關係。而prompt engineer是一個因AI而誕生的角色:他們的工作就是與AI對話,讓AI按照人類的意圖來工作。在某種意義上,圍棋棋手和prompt engineer面對的是同一個問題的兩面:在人類與AI之間,誰在掌控?掌控意味著什麼?掌控的權威從何而來?我現在在做兩個相互關聯的研究。第一個從話語分析的角度,研究人們是如何理解和想像“prompting(訓練語言模型來完成特定任務的方法)”這個行為的。我發現存在三種競爭性的隱喻。一種是“工程”隱喻:把與AI對話理解為一種技術最佳化問題,強調可控性、可靠性、標準化,這背後是一種技術樂觀主義。第二種是“魔法”隱喻:把AI看作一個神秘的、不可完全理解的存在,prompting就像是唸咒語或者“低語”,強調的是AI的不透明性。第三種是“手藝”隱喻:把prompting理解為一種需要經驗積累和直覺判斷的實踐技能,類似於木匠與材料之間的關係。這三種隱喻不只是修辭上的差異,它們決定了非常實際的問題:誰有權與機器對話、誰為AI的輸出負責,以及AI勞動的未來被想像為一個科學學科、一門神秘藝術還是一種技能行當。第二個研究更加經驗性。我收集了在LinkedIn(領英,職業社交網站)上發佈的prompt engineer招聘廣告,做了系統的話語分析。這個研究有幾個發現我覺得對公眾來說會特別有意思。第一個發現是這個職業內部驚人的分化。同一個“prompt engineer”的頭銜下,薪酬差距有著天壤之別。在光譜的一端,AI巨頭公司招的prompt engineer年薪可以到40萬美元,工作內容是設計AI的核心行為規則。在光譜的另一端,資料標註平台也在招“prompt engineer”,時薪只有15美元,工作內容是反覆給AI的回答打分、排序,本質上是資料標註的零工勞動。第二個發現是“工程”這個詞本身就在做政治工作。當企業把與AI對話的行為稱為“工程”,它同時在做好幾件事:對外,它讓AI的不確定性看起來是可控的,客戶和監管者可以放心——“我們有工程師在管理這件事”;對內,它讓勞動重組看起來是技術進步,把原來的文案寫作、行政助理、內容編輯的工作重新包裝成“AI驅動的工程崗位”,實際上是在提高產出要求、壓縮人力成本,但這些變化被“工程”的光環掩蓋了,顯得像是創新而不是裁員。第三個發現,也是我個人覺得最有傳播力的一個觀點:prompt engineer這個職業很可能會走上與20世紀打字員相同的命運。打字員這個職業消失了,不是因為打字技能過時了,恰恰相反,打字變成了所有辦公室工作者都必須會的基本技能,它太普遍了,所以不再需要一個專門的從業者來做這件事。▲2025年10月14日,浙江義烏,兩名外籍客商在義烏全球數貿中心體驗AI翻譯互動屏 圖/新華社Prompt engineering現在被當作一種專門的技術能力,但隨著AI工具變得越來越易用,與AI對話會變成每個知識工作者的日常操作,就像今天沒有人會把“會用滑鼠”當作一項專業技能一樣。到那時候,“prompt engineer”這個獨立的職業頭銜就會消失。不是因為這個技能不重要了,而是因為它變成了空氣一樣的存在。從圍棋到prompt engineering,我一直在關注的核心問題其實沒有變:在AI時代,什麼算專業知識?誰有權定義它?這些定義的背後有著怎樣的權力安排?圍棋給了我一個已經走過一個完整周期的案例,而prompt engineering讓我看到同樣的動態正在即時展開,只不過規模更大、速度更快、涉及的利益更複雜。 (南方人物周刊)