「死亡網路理論」刷屏矽谷! Reddit創辦人預警,奧特曼公開發聲

近段時間,「死亡網路理論」刷屏矽谷,OpenAI創辦人兼CEO Sam Altman、Reddit聯合創辦人Ohanian等紛紛對此發表評論。失去真實性的網絡等同於死亡。 AI生成內容正席捲社群平台,從圖片、影片到自動化評論。網路的未來不在真假之爭,而是重拾「真實」的信任與溫度。

當網路被AI內容淹沒,真正由人類創作的內容日益縮減。

「如今的互聯網,大部分已經死了」,近日Reddit聯合創始人Alexis Ohanian一語驚人。

Reddit共同創辦人Alexis Ohanian

他口中的「網路死亡」並不是指網路被關閉了,而是被鋪天蓋地的AI生成內容所淹沒,失去了真實的生命力。

Ohanian所言非虛。

曾經匯聚人類真實思想與交流的網絡,如今正被大量AI生成的內容所佔據:

你看到的熱帖、閱讀的文章、甚至與你爭論的「網友」,都可能根本不是人類,背後或許早已是演算法與AI的「迴響」。

AI生成內容的無序擴張,正在蠶食網路的真實性。

旅行類大V Chris Broad在X平台上表示,「死亡網路理論」現在已成為「死亡網路現實」:

每天都有普通人給我發訊息,讓我去一些根本不存在的地方,這些地方都是人們在Facebook、Instagram和Twitter相關主題帳號或頁面中提到的……這些帖子通常包含完全虛假的AI照片,下面還有機器人帳號在評論區盲目地稱讚照片。

Chris Broad提醒人們要小心自己追蹤和點擊的內容。 「要知道,大多數頁面、內容以及粉絲數量,都是被嚴重人為誇大的。」

網友Swarn也提到經常會刷到疑似AI生成的推文,他會透過內容中夾雜的「突然轉折、刻意堆砌的詞彙、借用的隱喻」來辨識「AI味」。

Goddess預測到下一年「死亡網路理論」會越來越受到關注,所有社群媒體帳號並非都是真實的人。

這股熱潮,甚至把OpenAI創辦人兼CEO Sam Altman也驚動了。

Sam Altman認為「死亡網路理論」可能有一定的道理。他提到「現在的確存在著許多由大模型驅動的Twitter帳號」。

這些AI生成內容的氾濫,讓Altman再度擔心「死亡網路」理論的影響。

不真實,毋寧死「死亡網路」理論的起源

「死亡網路理論」(DIT,Dead Internet Theory),傳遞出這樣一種核心態度:

不真實,毋寧死。

它認為只有真實才是網路的生命──失去真實性,等於是宣告了網路的「死亡」。

2021年,用戶IlluminatiPirate在Agora Road論壇發文提到了「死亡網路理論」,這位網友對其的定義就是「大多數網路變得虛假」。

伴隨著網路社會的發展,「死亡網路理論」思潮在網路論壇和社群中開始逐漸流行,背後的驅動因素正是「真實感」的逐漸喪失:

現代網路帶來了花樣百出的玩法,但真實感也被玩丟了。

早期網路那種有機的、使用者驅動的特性一點點消失,取而代之的是越來越依賴電腦產生的內容(資料)以維持活動和參與度。

隨著生成式AI的出現,讓「死亡網路理論」獲得了更多的「現實支撐」。

因為生成式AI更像人類,它們在社群媒體上被廣泛應用於放大點讚、評論和分享數據等。

就連Sam Altman,這位親手讓ChatGPT風靡全球的「AI之父」,也被鋪天蓋地的「程序味兒」搞破防,他忍不住吐槽Reddit上的AI腔調(LLM-speak),認為這讓人際互動「感覺很假」。

從早期互聯網,到社交媒體時代,再到生成式AI浪潮,原來那個真實的互聯網已逐漸被一個由AI主導的互聯網所取代,“技術登月”越來越多,但真實感卻越來越少了。

換句話說,「死亡互聯網」理論的市場越來越大了。

「死亡網路」的升級版

如今,如火如荼的AI浪潮,正按下「網路死亡」的加速鍵,也帶了它的升級版本。

根據Cloudflare的長期監測顯示,機器人流量約佔整體應用流量的31%左右,並在部分地區和時段階段性超越人類存取。

Imperva在2025年版的《Bad Bot Report》中則指出:自動化流量在2024年已達51%,其中從事惡意活動的「壞機器人」佔比升至37%。

這裡的「壞機器人」在生成式AI時代更為突出,因為它們更善於偽裝成人類行為。

它們有時只是在社群媒體上產生一些空洞或胡言亂語的評論,但也可能被惡意使用,例如製造虛假的頁面瀏覽量、用戶互動和使用時長,從而造成公司業績數據的扭曲。

不只活躍於社群媒體,生成式AI還在逐步接管人類表達領域。

Graphite的一項數據記錄了這一里程碑時刻:

2024年11月,網路上發表的AI生成文章數量超過了人類撰寫的文章數量。

根據Graphite觀察,自2022年11月ChatGPT推出以來,AI生成文章數量顯著增長,但在過去一年中AI生成文章的比例保持相對穩定,這可能是因為早期AI生成文章質量不佳導致的。

但隨著AI生成文章品質的提高,再加上AI生成文章的速度之高、成本之低也遠非人類可比,可以預見未來AI文章的數量還會穩定成長。

這意味著,AI生成內容的數量增長不僅改變了資訊來源的結構,也正在重塑網路生態真實感的「基線」,也可能帶來AI時代「網路死亡」的升級版——模型崩潰。

https://arxiv.org/pdf/2305.17493

這一點在牛津大學等研究機構發表的《遞歸的詛咒(Curse of Recursion):在AI生成資料上再訓練會導致模型遺忘》論文中已經得到了理論上的證實。

AI時代真正的危機是模型崩潰。

在大模型使用生成資料繼續訓練(continue training)的遞歸過程中,模型會慢慢「忘記」或偏離原始人類語言分佈的某些細節,尤其是那些少見或邊緣的模式。

這樣模型會逐漸失去多樣性淪為一切趨於平庸的同質化,最終出現模型崩潰(Model Collapse)。

這就好像把一張照片在上一代影印件的基礎上不斷影印,其清晰度會逐漸下降,最終變成一張模糊的、缺乏細節的照片。

當越來越多的AI內容成為模型的訓練數據,就可能帶來模型能力的下降,由此產生更多劣質的AI內容,這些內容再訓練出更差的AI模型,最終就是更嚴重的危機——模型崩潰。

從網路的「死亡」,到模型的「崩潰」,與科技發展同步的,是「失真」的演進。

讓網路更「人」一點,更「真」一點

Google CEO Sundar Pichai認為搜尋引擎會被AIGC 「深刻改造」,因此AI回答與人類內容的協同將成為主流互動範式。

Google CEO Sundar Pichai

輝達CEO黃仁勳,提出應當把AIGC視為時代性通用技術,將無所不在地嵌入創作、工程與組織工作流程。

隨著AI對於網路和人類社會的滲透,AI生成的內容將會像Sam Altman預言的那樣,不可避免地越來越多。

這就帶來一個難題:如何分辨AI和人類生成的內容。

隨著人類正越來越多地與AI合作,讓這一點變得更加困難。

的確,一個人在工作中利用AI的方式有很多種,比如用它來搜尋,整理材料等,因此很難明確地說某項內容是AI生成的還是人類生成的。

其實很多AI生成的內容,背後是人類在引導、編輯、校正。

用加州大學洛杉磯分校電腦科學教授、亞馬遜網路服務副總裁Stefano Soatto的話來說,「二者之間更像是一種共生關係,而不是非此即彼。並非所有AI生成的內容都是垃圾內容。」

在這種共生的關係下,用不用區分AI和人類生成的內容?

Sam Altman認為,「好不好比是不是AI產出更重要」,但他也提出要有「可驗證的來源」與治理工具,以識別那些是AI生成的並提升信任。

Altman認為辨識AI生成內容是為了提升對內容的信任度,他曾多次提醒不要過度信任模型,因為AI也會「自信地編造」。

同樣,Anthropic CEO Dario Amodei也認為,需要科學的方法和評估體系為此來兜底,他認為雖然模型「胡說」頻率可能低於人類,但出錯方式更「出其不意」。

Elon Musk也強調要用AI去檢測/溯源合成影片與深偽,在平台層面建構「內容鑑別器」。

這點隨著AI技術的發展變得特別重要。

近日,Sora 2上線後短時間內就有大量「以假亂真」的影片在社媒流通,YouTube、Meta正透過推出「貼標」「降權/限變現」等方式,試圖限制「AI灌水內容」的擴散。

對於AI生成內容的監管也在多加碼。

例如,美國政府在2025年5月19日正式推出《TAKE IT DOWN 法案》,將故意發布或威脅發布非同意的親密影像(包括AI 產生的深度偽造)定為犯罪行為。

歐盟首部關於人工智慧的法規《AI法案》明確合成內容必須標示、與使用者互動需透明提示。

識別AI內容是為了安全,避免AI噪聲,但即便是AI生成的內容優於人類,這種區別仍然是必須的。

因為相比較好壞,真實性永遠更重要。

不僅是互聯網,即使是AI時代的數位生命,本質仍然在於「真實」。

在人機共生的時代,我們需要關注的重點不在於人類與AI的差異或優劣,而是如何讓AI服務人類的真實。

無論未來科技如何演進,人類仍需守住那份「真實」的火種。 (新智元)