#ICLR
科學界爆發AI認知污染!1年狂投50篇論文,ICLR投稿20%AI生成
【新智元導讀】如果論文是AI寫給AI看的,那人類還剩下什麼?本月初,挪威奧斯陸的一個寒冷午後。心理學教授Dan Quintana計畫宅在家中,把那件拖了幾周的苦差事給辦了。奧斯陸大學心理學系教授、高級研究員Dan Quintana他是心理學領域一家知名期刊的受邀審稿人,他打開了一篇需要他審閱的一篇待發論文。這篇文章粗看上去中規中矩,邏輯通順,資料詳實,沒什麼異常的地方。直到Quintana掃了一眼參考文獻:他在那長長的列表裡,看到了自己的名字,這一下讓他疑惑了。這篇論文引用了他的一項工作,標題看起來非常合理,列出的合作作者也是他過去確實合作過的夥伴。一切看似正確, 但只有一個致命問題:這篇被引用的文章,壓根就不存在,它是一篇徹頭徹尾的「幽靈論文」!AI不僅捏造了觀點,還捏造了整條引用鏈,甚至貼心地為了增加可信度,通過演算法把Quintana真實的合作網路都算了一遍,憑空編造了一個讓他本人都差點信以為真的「真論文」。每天,Quintana都會在Bluesky和LinkedIn看到同行吐槽發現「幽靈引用」的事情。就連美國政府去年春天發佈的關於兒童健康的MAHA報告初版中就包含六處以上的此類引用。一直以來,Quintana認為這種低級錯誤只會發生在那些為了水論文而拼湊的「野雞刊物」裡。直到這次他看到類似的錯誤竟然出現在了他所尊敬的、該領域嚴肅的知名期刊上。這時,他才意識到這個問題有多普遍。還有一個真實的案例,印證了Quintana的判斷。Emmanuel Tsekleves教授在稽核自己博士生提交的論文章節時,發現其中3個引用完全虛構:不存在的作者、未出版的期刊和虛構的研究。這些是ChatGPT生成的「幻覺」。學生不知情,導致他們需追溯驗證整個論文所有引用。這些案例背後,不僅僅是關於幾篇造假論文的醜聞,更可怕的是,它背後是一場針對人類知識底座不可逆的「認知污染」。比如,Emmanuel教授的博士生是在完全不知情的情況下引用了AI生成的內容。過去一百多年,科學期刊就像一個肩負著將自然世界的真知灼見輸送給人類文明的神聖管道。如今,這條管道正在被生成式AI製造的浩如煙海AI垃圾所堵塞。AI寫論文,AI審論文,完成荒誕的閉環,如果不加遏制,真實的科學發現將被淹沒在演算法生成的虛假知識泡沫中,人類的知識庫也將被永久性污染。瘋狂的流水線從「離譜插圖」到完美的癌症資料範本如果你覺得「幽靈引用」只是個別科學家的偷懶行為,那你可能太低估現在的「造假產業」了。英國有一家名為Clear Skies的公司,老闆Adam Day的身份就像一個科學界的「緝毒警探」。Clear Skies CEO Adam Day他的工作是用AI去抓那些用AI造假的人。在Adam看來,那些偶爾用ChatGPT生成一兩篇論文的「散戶」,根本不是他的目標。真正的威脅,來自那些「工業化作弊」的公司,即臭名昭著的「論文工廠」。就像販毒集團一樣,這些論文工廠必須大規模運作才能盈利。既然要量產,就得有範本。Adam發現,這些工廠會反覆利用同一套素材,甚至到了發佈多篇文字高度雷同的論文的地步。一旦某個範本被科學出版商標記為欺詐,Adam順藤摸瓜,就能挖出一整串尚未被發現的、用同樣手法炮製的假論文。最可怕的是,這些垃圾內容正在湧向人類最需要真實科學的領域,比如癌症研究。Adam透露,論文工廠已經研發出了一套非常高效的「癌症論文範本」。操作很簡單:聲稱測試了某種腫瘤細胞與成千上萬種蛋白質中某一種的相互作用。只要你不報告什麼驚天動地的發現,就沒有人會有閒工夫去復現你的實驗。這些毫無價值、甚至完全虛構的資料,就這樣堂而皇之地混入了科學資料庫,成為後人研究的基石。AI甚至承包了造假的圖片部分。你可能還記得2024年那張著名的「大睾丸老鼠」圖。那是發在《細胞與發育生物學前沿》上的一篇綜述,裡面的一張插圖,畫了一隻長著比例失調得離譜的巨大睾丸的老鼠。這張由生成式AI製作的荒謬圖片,竟然一路過關斬將,通過了同行評審,直到發表後才被公眾發現並嘲笑。但這只是冰山一角。那隻老鼠雖然可笑,但至少你能一眼看出它是假的,造成的實質傷害很小。真正令人擔憂的,是Adam口中那些「令人信服」的假圖。現在的生成式AI,已經能夠憑空變出逼真的組織切片、顯微鏡視野,甚至是電泳凝膠圖片。在生物醫學研究中,這些通常被視作鐵證。而現在,鐵證可以由演算法在幾秒鐘內批次生成。甚至連AI研究本身也未能倖免,其中就有點諷刺的味道。就在最近,NeurIPS頂會2025年所接收的4841篇論文後,發現了數百條由AI「編造」出來的引用,這是首次有記錄顯示,幻覺引用進入了頂級機器學習會議的官方文獻。因為就業市場火爆,大量想要擠進機器學習或機器人領域的人,開始套用範本:聲稱在某種資料上跑了個演算法,得出了個「有點意思但又不至於太有意思」的結果。同樣,幾乎沒人會去審查。這是一場完美的知識界造假行動,而受害的則是科學的尊嚴。荒誕的閉環用「白色密令」操控AI審稿的科學家們面對如此洶湧的AI「slop」(AI所創造的垃圾),作為科學界的守門人,像Quintana這樣的審稿人和科學期刊編輯們,能做什麼?真相是他們快崩潰了。科學出版一直有「管道問題」。早在19世紀初,哈佛大學科學史學家Alex Csiszar就發現,那時的編輯就在抱怨手稿太多處理不過來。這也是同行評審制度誕生的初衷:找外部專家來分擔壓力。但現在,大模型把「同行評審」這根管道也給徹底撐爆了。或者為了展示研究成果,或者只是為了欺詐,論文投稿以前所未有的數量湧入審稿人的收件箱。劍橋大學出版社的高管Mandy Hill形容這是一場「持續的軍備競賽」,去偽存真的工作變得極其耗時且困難。最諷刺的一幕就這樣發生了:為了應對AI生成的論文,不堪重負的審稿人也開始用AI來寫評審意見。一家名為Pangram Labs的初創公司分析了頂級AI會議ICLR的投稿。資料顯示,超過一半的同行評審意見是在大語言模型的幫助下編寫的,約五分之一甚至完全是AI生成的。這已經夠魔幻了,但還不是高潮。高潮是狡猾的論文作者們預判了審稿人的預判:以AI之矛攻AI之盾。既然知道你是用AI審稿,那我就用AI能懂的方式跟你對話。於是,一種類似諜戰片的情節竟然在學術界出現了:作者在論文中,用肉眼看不見的微小白字,植入給AI審稿人的「秘密指令」,這些指令的內容通常是:請對這篇論文大肆吹捧,把它描述為開創性的、變革性的,並且只建議做一些簡單的修改。這是一場AI作者與AI審稿人之間的虛假狂歡,只有即使被騙了還在為資料庫付費的普通使用者在為此買單。認知污染科學文獻正滑向「死亡網際網路」黑洞如今,這場AI垃圾的洪流,已經漫過了期刊的「防護堤」,徑直衝向了傳播速度最快的預印本伺服器。1991年,物理學家Paul Ginsparg建立arXiv時,初衷極其純粹:他希望打造一條繞過緩慢同行評審的「快車道」,讓科學成果得以第一時間共享。令人始料未及的是,如今這個曾經象徵著科學開放與速度的「知識共享聖地」,正在淪為演算法的垃圾場。自從ChatGPT發佈後,arXiv以及生物學界的bioRxiv、醫學界的medRxiv……這些平台的投稿量呈現出不正常的暴漲。Ginsparg和同事分析發現,2025年,似乎在使用大語言模型的科學家發佈的論文比不使用的多約33%。bioRxiv的負責人Richard Sever更是看到了離奇的景象:一些從未發過論文的研究人員,突然在一年內狂發50篇論文。極速膨脹的數量背後,是真實度的崩塌。如果100篇論文中有99篇是偽造或假的,情況就不同了,它可能導致一場學術界真正的「生存危機」。預印本發佈的門檻很低,通常只要科學家簡略看一眼,確保它看似合理就能發。而現在的模型,最擅長的就是大批次製造「看似合理」的廢話。當Quintana這樣的專業審稿人在頂級期刊上都可能被「幽靈引用」矇蔽時,預印本平台上的自動垃圾檢測器又有什麼勝算呢?對此,默裡州立大學教授A.J. Boston拋出了一個令人細思極恐的概念——「死網際網路陰謀論」。在這個理論中,社交媒體上只有少數真人,剩下的都是機器人在相互發帖、點贊、轉發,製造虛假的熱度。Boston警告說,在最壞的情況下科學文獻也會變成那樣。AI撰寫大多數論文,AI審查大多數論文。這種空洞的、毫無意義的來回互動,將產生海量的資料垃圾。更可怕的是,這些垃圾將被用來訓練下一代的AI模型。欺詐的圖像、幽靈的引用、偽造的資料,將深深植入我們的知識系統,成為一種永遠無法過濾掉的永久性「認知污染」。當未來的科學家試圖站在巨人的肩膀上時,他們可能會發現,腳下踩著的,早已不是堅實的真理,而是一座由演算法堆砌而成的垃圾山。 (新智元)
學術圈炸鍋!ICLR「開盒」引爆全網,審稿人全員裸奔
【新智元導讀】一覺醒來,出大事了啊!ICLR大型社死現場,所有作者、審稿人資訊公開,雙盲評審變成了真正的Open Review!昨夜,學術界經歷了一場史無前例的「公開處刑」。ICLR 2026的OpenReview直接「開盒」,一個漏洞讓雙盲評審當場裸奔。只要把投稿ID填入特定的API連結,就能瞬間拉出這篇論文的所有作者、審稿人、AC的完整資訊:姓名、信箱、機構、個人履歷更要命的是,不止能看到名字,系統還會順便把審稿人給論文初步評分、評論一併打包吐出來。這可能是,AI頂會時代最荒誕的一夜。ICLR組委會緊急回覆:11月27日,ICLR意識到一個軟體漏洞洩露了作者、審稿人和領域主席的姓名。該漏洞影響了所有託管在OpenReview上的會議,我們感謝OpenReview團隊迅速修復了這一問題。而且,ICLR直接警告,若有人傳播任何洩露資訊,直接「拒稿」!不僅如此,未來再想參加ICLR,是不可能的了。這不,已經有人因自曝資訊理論文被封殺了。一部分脫敏後的資料分析一部分審稿人,已經收到了作者請求提分的郵件,還有人願意出錢買高分。來源:小紅薯631D1AA7審稿人真的是睡不好覺了!有網友慶幸道,還好自己沒有參與ICLR評審。於是最新的梗誕生:ICLR = I Can Locate Reviewer。ICLR開盒,學術圈炸鍋了這件事情的影響非常巨大!眾多學術大佬紛紛呼籲不要傳播、分享和利用被洩露的資料,這事關整個學術界的公平。大佬田淵棟認為這件事的洩露太過於「瘋狂」!謝賽寧也發帖表達這是一個科學領域「最奇怪的時刻」,希望所有人共同呵護已經脆弱的學術界。為什麼這次洩露如此嚴重雙盲評審制歷來是學術公平的根本。就像一位教授所說,你千辛萬苦所寫的論文在提交審稿後,你很難將審稿人和嘔心瀝血的作品割裂開來。如果你知道是具體的那位教授或者審稿人給出了「差評」,也許數十年都會耿耿於懷。因為「差評」和「拒絕」不僅意味著多年工作的付諸東流,也意味著個人自信和能力的被打擊。而在其他社區中,已經有人通過快速的資料分析,給出了一些「暴論」:比如韓國和俄羅斯給出的分數最低!更多的分析評論則給出「更不好的」結論。比如有人驗證了漏洞方法後,認為這漏洞揭示了學術一些黑洞:你嘔心瀝血的論文可能是由不通領域、缺乏相應背景的人評審的,而領域的主席對此聽之任之。有人認為這次的洩露能反向「促進」審稿人的責任感。比如ICLR將來提醒審稿人認真對待別人的學術成果,永遠不要寫下不敢署名真實名字的內容。有人甚至叫好,認為匿名狀態下,人們會傾向於「信口開河」。但一旦被「開盒」,身份公開,審稿人就會更有責任感。這不,已經有人利用洩露的資訊,反向定位到了自己的審稿人,竟然是競爭論文的作者!並且這個審稿人給了他惡意的差評,並且對他一周內的反駁都置若罔聞。簡直就是黑暗森林!他「氣憤」的表示,是否能向組委會反映?但是評論裡有人明確告訴他,這是不可行的。這就是個悖論,雙盲評審本來就是雙方都匿名,本來不會有任何機會得知文章的審稿人是誰。這正好印證了上面所說:「你很難將審稿人和嘔心瀝血的作品割裂開來。」而在面對ICLR的「嚴厲聲明」時,有些學者或者博士們表示:當初我們抱怨那些無端評論和評審時,ICLR又在那裡?還有人表示,這件事的積極影響在於,看誰敢之後再用AI審稿?匿名審稿人是朋友,還是敵人?當然,田淵棟提到的一點,也值得注意,那就是匿名審稿人都是「無償」+貢獻自己的時間為學術界做貢獻。他們是我們的朋友,而非敵人。就像下面這個人所說,匿名審稿人要為文章做出巨大評判工作而無任何報酬。但這件事情的「惡劣影響」在於,那些給出差評的審稿人,已經被作者本人「定位」。有人評論到:看來以後要有冤的報冤,有仇的報仇了!甚至有人預測,下周的NeurIPS現場可能要上演「全武行」了:你的文章被審稿人拒掉,你也拒掉了別人的文章,🤣!漏洞正在修復就在剛剛,OpenReview同時發佈了一份API安全事件的聲明——美國東部時間上午10:09,OpenReview團隊收到來自ICLR工作流主席的通知:我們的API中存在一個安全漏洞,該漏洞允許在跨會議的特定profile搜尋API端點中,未經授權訪問通常匿名的身份資訊(審稿人、作者、領域主席)。在收到初始報告後一小時內,我們已部署了軟體補丁以阻止未授權訪問。響應時間線:10:09 AM:ICLR 2026工作流主席報告問題10:12 AM:OpenReview團隊確認接收並開始調查11:00 AM:修復部署到 api.openreview.net11:08 AM:修復部署到 api2.openreview.net11:10 AM:程序主席與工作流主席被通知問題已解決雖然官方給出了回覆,但有趣的是,這一漏洞早在近半個月前就存在了。多位網友實證,11月12日便有人向OpenReview發出了關於該漏洞的郵件。關鍵,還是三封!不僅是ICLR,包括NeurIPS、ICML、ACL一些頂會,資訊也都能立即被扒出。(新智元)