《紐約客》最新撰文:AI教會人類如何寫“好”文章,卻讓真正的好文章消失了

《紐約客》雜誌日前撰文指出,AI不僅正在改變我們的寫作方式,更在潛移默化地重塑我們的思維結構——以“效率”為名,犧牲原創性;以“智能”之名,統一表達的風格與內容。

當我們越來越頻繁地借助ChatGPT等AI工具完成各類創意任務,我們是否正在失去屬於人類的多樣性、深度與表達欲?

AI正以“平均值”的邏輯重構文化——訓練自海量資料的語言模型,天生傾向於重複、模仿和壓縮,而不是質疑、顛覆和發明。它帶來的不是思想的火花,而是“看起來還行”的合格產物,是安全、標準化、去棱角的表達。這種自動生成的平庸感,既舒適又危險:降低了原創的門檻,也降低了對原創的期待。

當所有人都寫出“像樣”的文章時,真正的好文章就難以誕生。這場由AI引發的“平庸化革命”,值得我們需要比那些對技術熱情更多的理性反思。

以下為文章全文:

去年,麻省理工學院進行了一項實驗,找來美國波士頓地區多所大學的50多名學生,分為三組,讓他們根據SAT考試寫作題寫一篇議論文,題目是《我們取得的成就是否必須惠及他人,才能讓我們真正感到幸福?》

第一組只能靠自己的腦力完成寫作;第二組可以使用Google搜尋資訊;第三組則被允許使用ChatGPT,也就是可以根據使用者指令生成整段文字甚至整篇文章的大語言模型(LLM)。在寫作過程中,所有學生都佩戴了一種帶電極的頭戴式裝置,用以監測大腦活動。

根據麻省理工學院媒體實驗室研究科學家、這項實驗論文的共同作者娜塔莉婭·科斯米娜(Nataliya Kosmyna)的說法,分析結果顯示出顯著差異:使用ChatGPT的那組學生大腦活動水平遠低於其他兩組。

大腦成像顯示,他們不同腦區之間的連接更少,α波連接度下降(通常與創造力相關),θ波連接度也降低(這與工作記憶有關)。一些使用大語言模型的學生對自己寫出的文章“完全沒有歸屬感”,而在一次測試中,80%的學生甚至無法複述自己“寫過”的內容。這項研究是首批從科學角度量化“依賴AI完成任務所帶來的認知代價”的實驗之一。

另一個令人警醒的發現是:使用大語言模型的學生所寫文字中,常用詞彙和觀點高度趨同。SAT題目本應足夠寬泛,以激發多樣化的回應,但AI的參與卻讓結果變得高度同質化。“這些看似來自不同時間、不同個體的文章,其輸出卻出奇一致,” 科斯米娜說。比如在《什麼讓我們真正快樂》這個題目下,使用大語言模型的學生更傾向於談論事業成功與個人成就;而在討論慈善行為是否應成為道德義務的問題上,使用ChatGPT的那組幾乎全體持支援態度,而其他組的回答中則包含了對慈善本身的批判性思考。

“你在這些文字中不會看到任何分歧性的觀點,” 科斯米娜指出,“我們正在面對的是:一切被平均化的狀態,一切,無處不在,全部變得中庸。”

AI是一種“平均化”的技術:大語言模型是通過分析海量資料中的模式來訓練的,它們生成的答案天然趨向於“共識”——不論是寫作質量(常常充滿陳詞濫調與套話),還是觀點內容(往往流於平庸)。過去當然也有其他技術削弱或簡化過人類寫作的過程,比如文學分析摘要工具SparkNotes或電腦鍵盤,但AI所實現的“思維外包”程度前所未有。換句話說,任何一個用ChatGPT寫婚禮致詞、撰寫合同、完成大學論文的人——如今顯然已非常常見——都彷彿變成和麻省理工實驗的試驗對像一樣的人。

警惕AI強化的文化霸權

OpenAI首席執行官山姆·奧特曼認為,我們正接近一種他稱之為“溫和奇點”(gentle singularity)的階段。在最近的一篇部落格文章中,奧特曼曾寫道:“ChatGPT已經比人類歷史上任何一位個體都更強大。全球數以億計的人每天都依賴它來完成越來越多的重要任務”。 在他的設想中,人類正與機器融合,而他的AI工具就是對傳統“大腦系統”的改進:它們“顯著放大了使用者的產出”。但我們目前根本不知道這種大規模AI使用所帶來的長期後果。若這些早期研究可信,奧特曼所說的“產出放大”恐怕要以質量下降為代價。

今年4月,康奈爾大學的研究人員發佈了另一項同樣令人不安的研究,進一步印證了AI所帶來的“思想同質化”問題。

該實驗分為兩組使用者——一組美國人,一組印度人——回答了一些與文化背景有關的寫作題,比如《你最喜歡的食物是什麼,為什麼》、《你最喜歡的節日是什麼,你是怎麼慶祝的?》等。其中一部分參與者使用由ChatGPT驅動的“自動補全”工具——只要他們寫作時稍作停頓,系統就會自動提供詞語建議;而另一部分則完全獨立完成。

最終結果顯示,使用AI輔助寫作的印度和美國使用者,他們的答案風格趨同,明顯向“西方範式”靠攏。他們最常寫的“最喜歡的食物”是披薩(壽司排第二),最常提到的節日是聖誕節。風格上的統一也令人警惕:比如一篇由AI輔助生成、表達對雞肉炒飯(chicken biryani)喜愛的文章,往往不會具體提及荳蔻或檸檬泡菜等文化標誌性食材,而是簡單泛泛地稱其為“風味濃郁、香料豐富”。

當然,理論上講,寫作者始終可以選擇不接受AI提供的建議。但這些工具往往具有某種“催眠效應”,建議源源不斷地湧現,很容易壓制寫作者原本的聲音。

康奈爾大學的資訊科學教授阿迪提亞·瓦希斯塔(Aditya Vashistha)就曾把AI比作“一個坐在我身後、不停說‘這是更好的寫法’的老師”。他補充說:“長此以往,你會失去自我,失去真實性,也會對自己的寫作失去信心。” 他的同事、研究合著者摩爾·那爾曼(Mor Naaman)也指出,AI的建議“以一種隱蔽但強有力的方式,不只是改變你寫了什麼,而是改變你怎麼想”。從長遠來看,這種影響可能導致人們對“什麼才是正常的、可取的、恰當的”產生整體性偏移。

我們經常用“平庸”或“無趣”來形容AI生成的內容,但“平均化”並不意味著無害。小說家兼記者沃希尼·瓦拉(Vauhini Vara,其新作《Searches》部分聚焦於AI對人類交流與自我意識的影響)指出,AI文字的平庸性“反而帶來一種‘安全’與‘無害’的幻覺”。

曾任《紐約客》編輯的瓦拉繼續說道:“現實是,它正在悄然強化某種文化霸權”。 對OpenAI而言,讓模型的輸出“更容易被普遍接受”正是它們的商業動因所在——輸出越“正常”、越無棱角,付費訂閱使用者的基數就越大。平均化不僅高效,還帶來規模經濟,瓦拉說,“當一切都一樣時,效率才是最高的”。

在奧特曼預言的“溫和奇點”中,“更多人將能夠創造軟體和藝術。”目前,許多AI工具已宣稱能讓我們“與靈感之神繆斯對話”,比如Figma的創意生成工具,或者Adobe的移動AI應用。但其他研究卻表明,真正“自動化創造力”遠比宣傳中困難得多。

加州聖塔克拉拉大學2024年的資料分析研究了AI工具在兩個標準“創意思維”任務中的表現:一個是產品改進(例如“怎麼讓毛絨玩具更有趣”),另一個是預測“不可能的後果”(例如“如果地球重力變得極其微弱,會發生什麼?”)。一組受試者使用ChatGPT輔助作答,另一組則使用Oblique Strategies——音樂人布賴恩·伊諾(Brian Eno)和畫家彼得·施密特(Peter Schmidt)在1975年設計的一組創造力卡片,內容古怪但能激發思維。

研究者要求參與者儘量提出新穎的創意,但結果再次顯示:ChatGPT組的答案更趨同、更集中、更“語義雷同”。

幫助完成這項研究的馬克斯·克雷明斯基(Max Kreminski,現就職於生成式AI公司Midjourney)表示,當人們在創意過程中使用AI,往往會逐漸放棄原本的思考。他解釋說,最初使用者確實會帶著自己的各種想法介入,但由於ChatGPT能快速生成看似“可接受”的大批內容,使用者便逐漸進入一種“策展模式”(curationist mode)。這個影響是單向的,而且並非向著更高水平推進:“人類的想法往往無法強力影響機器的輸出,”克雷明斯基說,“ChatGPT會將你拖向它所積累的使用者平均值‘質心’。”換句話說,使用時間越長,模型會佔滿“上下文窗口”(context window,即模型的工作記憶),而當這個窗口飽和後,AI更傾向於重複自己說過的話,原創性也會隨之降低。

需要強調的是,麻省理工學院、康奈爾和聖塔克拉拉大學的這些實驗規模仍然較小,每項研究的受試者人數都不足百人,AI對人類思維與社會的長遠影響仍有待進一步觀察與深入研究。但與此同時,在Meta的Meta AI應用中,我們已經可以看到一個“公共生成內容流”:由數以億計的陌生人用AI製作的圖像、視訊與文字滾動呈現,彷彿一個超現實的資訊洪流。這些內容幾乎都具有一種“過度拋光”的光滑質感,無論是濾鏡視訊片段,還是諸如“寫一封專業的會議改期郵件”這類日常任務文字。

在一段引人深思的對話中,一位名為@kavi908的使用者向Meta的聊天機器人提問:“AI是否有可能在未來超越人類智能?”該模型給出了四種“未來情景”作為回應,但它們全都描繪了一幅美好藍圖:AI 將變得更強大、更高效、更友善,並最終對整個人類社會帶來益處。

這四種情景中沒有提及任何失敗、風險或負面後果——沒有技術失控、道德困境,也沒有社會不平等的加劇。這種一邊倒的樂觀敘事,很可能反映了Meta在系統設計中的“技術樂觀主義”偏見。