2025年5月13日,美國聯邦法院發出了一項令人震驚的命令。該命令要求OpenAI“保存並隔離所有使用者活動記錄”,即使使用者或企業希望刪除這些記錄。這項命令意味著,從那天起,全球超過3億使用者每天傳送的超過10億條與ChatGPT的對話,正在被無限期保存——即使使用者點選了「刪除」。
該命令源自於《紐約時報》對OpenAI提起的一起版權訴訟。但法院的理由令人不安:「刪除資料的使用者很可能是試圖抹去痕跡的版權侵權者。」換言之,行使刪除權——一項基本的隱私保護——正被法院視為犯罪嫌疑的證據。
OpenAI首席執行官薩姆·奧爾特曼( Sam Altman)在社交媒體上警告稱,這一決定「損害了使用者隱私」並「開創了一個糟糕的先例」。但更令人不安的問題是:這些被強制保存的對話包含什麼?使用者向ChatGPT傾訴的醫療症狀、財務困難、職業規劃、個人秘密——所有這些「都可能被出售或贈與,被駭客侵入,或洩露給執法部門」。
這並非假設性的威脅。2023年,三星員工透過ChatGPT洩漏了公司的機密原始碼。這家韓國公司的律師警告說,這些資料「無法恢復,因為它們現在儲存在屬於OpenAI的伺服器上」。蘋果、亞馬遜、摩根大通、高盛、德意志銀行……從科技到金融,從健康到法律,一長串名單揭示了:全球最大、裝備最精良的公司都在限制員工使用ChatGPT。研究顯示,近70%的公司為保護機密資訊而阻止使用此工具。
如果連這些擁有最先進網路安全團隊的跨國公司都無法安全使用ChatGPT,全球南方的政府和企業又怎麼能做到呢?
企業監控只是冰山一角。當愛德華·斯諾登( Edward Snowden)——這位揭露美國大規模監控計畫「棱鏡」(PRISM)的舉報人——發出警報時,我們必須意識到,問題遠比企業資料外洩嚴重得多。
2024年6月,OpenAI任命美國國家安全域(NSA)前局長保羅·中曾根(Paul Nakasone)將軍為其董事會成員。愛德華·斯諾登在社交媒體上發佈了自被迫流亡以來最嚴厲的警告之一:“他們已經徹底撕下了面具:永遠不要信任OpenAI或其產品。這是對地球上每個人權利的有意識的、精心策劃的背叛。你們已經被警告了。”
斯諾登並非空穴來風。2013年,他冒著巨大的個人自由風險,揭露了NSA的「棱鏡」計畫——一個直接從Google、Facebook和蘋果等科技巨頭收集資料、在沒有司法授權的情況下進行大規模監控的計畫。 「棱鏡」醜聞引發了全球震盪,導致許多國家加強了隱私保護法律,歐盟也推出了《一般資料保護條例》(GDPR)。
史諾登現在警告說,ChatGPT是一個比「棱鏡」更強大的監控工具。為什麼? 「棱鏡」是被動地收集通訊資料;ChatGPT讓使用者主動提供他們最私密的想法。 「棱鏡」主要收集中繼資料(誰聯絡了誰);ChatGPT收集完整內容——人們的思想、計畫、擔憂、秘密。 「棱鏡」涉及數百萬使用者;ChatGPT擁有超過3億使用者,每天處理超過10億個訊息。更關鍵的是,「棱鏡」的曝光引發了抵抗和法律改革;而ChatGPT的監控行為已被公之於眾,卻繼續被廣泛接受和使用。
一些評論家甚至稱ChatGPT為「有史以來最大的監控資料庫——NSA夢寐以求的資料庫」。
史諾登的警告並非基於猜測,而是基於他對監控機器如何運作的深刻理解。更令人不安的是,我們甚至不需要舉報人來證明OpenAI在監控使用者。OpenAI自己的報告就已經承認了這一點。
2025年10月,該公司發布了一份題為《打擊惡意使用AI」的報告」。該檔案自豪地宣佈,自2024年2月以來,它「阻止並報告了」超過40個違反其使用政策的網絡。報告詳細披露,與中國政府有關的帳戶會使用ChatGPT起草大規模社交媒體監控系統的提案。據稱,俄羅斯組織試圖優化入侵病毒,以遠程訪問朝鮮系統併竊取了特權用戶的大規模社交媒體監控系統的提案。據稱,俄羅斯組織試圖優化入侵病毒,以遠程訪問朝鮮系統併竊取特權用戶的證據據稱攻擊。
OpenAI將這些揭露描述為打擊「惡意使用」的成就。但該報告無意中揭示了一個更深層的真相:為了識別這些特定的「惡意使用」案例,OpenAI必須擁有並使用其常規監控所有使用者對話的能力。
思考其技術邏輯:為了發現一個據稱正在開發維吾爾人監控系統的中國用戶,OpenAI需要存取和分析該用戶的所有對話內容;部署實時或近實時的監控系統;能夠分析內容並識別模式;能夠將用戶與特定國家或組織關聯;然後主動選擇披露那些案例。
最關鍵的問題是:OpenAI只揭露其認為是「敵對國家」(中國、俄羅斯、伊朗、北韓)的案例。那麼西方國家呢?美國的盟友呢?該報告保持沉默。這種選擇性揭露恰恰證明,OpenAI可以監控所有國家,但只選擇揭露符合美國地緣政治利益的部分。如果他們能監控中國和俄羅斯,他們就能監控巴西、印度、南非——以及全球南方的所有國家。
2025年8月,OpenAI在一篇官方部落格文章中公開承認,該公司正在掃描ChatGPT上的用戶對話,並向警方報告內容。具體機制是:使用者「計劃對他人造成傷害」的對話會被轉到專門的審查管道,由經過培訓的人工審核員進行審查。如果審核員確定某個案例涉及“對他人構成迫在眉睫的嚴重身體傷害威脅”,則該案例將被轉交給執法部門。
但標準何在?「對他人造成傷害」意味著什麼?由誰來定義?這些標準會隨著政治環境而改變嗎?今天是「迫在眉睫的暴力威脅」。明天是否會涵蓋政治異見、墮胎諮商、關於性取向的討論?
OpenAI的「官方執法部門使用者資料請求政策」明確聲明:只有在收到合法的搜尋令後,才會揭露使用者的對話內容。但現實如何?OpenAI主動監控所有用戶對話(上文引用的報告已證明了這一點);自行判斷什麼構成“惡意使用”,主動向執法部門報告(而不僅僅是響應請求),並發布威脅情報報告公開披露用戶行為——所有這一切都無需任何法律程序。
歐洲監管機構已意識到這一點。2024年12月,義大利資料保護局以「在沒有適當法律依據的情況下處理個人資訊」和「違反透明度原則」等理由,對OpenAI處以1500萬歐元的罰款。隱私權研究員Lukasz Olejnik在向波蘭資料保護局提交的17頁投訴中更為直接:「OpenAI似乎承認,ChatGPT工具模型的發展方式,在根本上不符合歐盟《一般資料保護規範》(GDPR)的要求」。
這不是OpenAI的疏忽,而是其商業模式的根本問題。OpenAI對義大利罰款的回應暴露了其邏輯:罰款「幾乎是(在該國)收入的20倍」——這意味著該公司在該國賺的錢很少,但數據收集的價值是巨大的。罰款僅僅是收集資料的「成本」。
OpenAI與美國政府的關係遠遠超出了普通的商業合作。從人事角度來看,OpenAI董事會成員保羅·中曾根是美國國家安全域的前局長,負責美國的情報和網路戰行動。另一位董事會成員威爾·赫德(Will Hurd)曾是中情局(CIA)的官員,並任職於In-Q-Tel(中情局的主要投資部門)的董事會。
從商業合作角度來看,OpenAI推出了ChatGPT Gov,這是專為美國政府機構設計的服務。令人震驚的細節包括與美國總務管理局的一項協議。該協議為這些機構提供ChatGPT企業版,每年每家機構僅需1美元。這實質上是一種捐贈。
從技術整合的角度來看,ChatGPT Gov允許美國政府機構將「敏感的非公開資料」輸入OpenAI的模型,進行絕密資料處理。OpenAI的GPT-4o透過微軟Azure整合到美國政府雲端。這意味著承擔秘密工作職責的聯邦機構,包括國防部,可以使用GPT-4o執行不向公眾披露的任務。
一個揭示性的雙重標準:OpenAI堅稱不會使用美國聯邦僱員輸入的資料來訓練其模型,這為美國政府提供了「資料防火牆」。但在其他國家的用戶卻沒有這樣的保護。
每年1美元的價格不是商業交易,而是策略合作。這9萬名政府用戶的1800萬個訊息包含什麼內容?這些資訊是如何被使用的?同時,中情局(CIA)也在開發自己版本的ChatGPT,名為Osiris,供美國18家監視機構的數千名分析師使用。大型語言模型(LLM)與間諜活動之間的界限正在消失。
安全專家布魯斯·施奈爾(Bruce Schneier)警告說,AI使得監控發生了質變——從「大規模監視」轉向「大規模窺探」。差別在於:監視是收集和儲存;窺探是理解和利用。傳統監視只能進行關鍵字搜尋;AI可以「理解」上下文和隱含意義,同時分析數十億次對話並識別複雜的模式。美國公民自由聯盟(ACLU)指出,大型語言模型使得「被有效監控的通訊數量將大幅增加」。
一個更隱密的威脅是訓練資料的污染。亞馬遜員工稱曾看到ChatGPT「模仿」了公司內部數據,雖然沒有完全複製——但「足夠令人信服」。這意味著:即使你沒有直接輸入訊息,ChatGPT也可以透過聚合他人的輸入來重建敏感資訊。在全球南方國家,即使政府禁止員工使用OpenAI的系統,只要第三方(外國情報機構、跨國公司)使用它,ChatGPT就可能「學會」他們的國家機密。
中國已完全禁止ChatGPT。2025年1月29日,印度財政部發布通知,限制政府僱員在公務工作中使用ChatGPT和DeepSeek等AI工具,理由是這些工具依賴海外伺服器儲存和處理數據,導致政府無法控制敏感資訊的使用。巴西研究人員已向資料保護局請願,要求調查ChatGPT違反巴西《通用資料保護法》(LGPD)的行為,指出OpenAI甚至會提供巴西公眾人物的個人稅號(CPF)。
但警覺不等於應對能力。聯合國貿易和發展會議(UNCTAD)指出,全球南方國家正面臨「新一輪的數位殖民主義」。一個三重困境:資料主權喪失、技術依賴(晶片、模型、雲端服務均由少數公司控制)以及價值觀被強加(矽谷價值觀透過AI在全球範圍內植入)。建構新的人工智慧極為昂貴,而晶片的取得受到嚴格控制。即使投入巨資,「你仍然無法消除對外國的依賴」。
AI時代權力不平等再現了歷史上的殖民模式:全球南方國家提供數據(原料)。這些數據流入美國的伺服器進行處理和利用。北方控制處理能力,然後向南方出售AI服務(成品)。利潤和控制權仍留在北方。這不是比喻,而是經濟現實。作者的研究表明,僅Google一家,在2024年為其資產增加了價值360億美元的用戶數據。然而,關於資料價值的核算、權利的確定和利益的分配的國際討論幾乎不存在。
最深層的殖民主義是意識形態。定量分析表明,即使是本土的大型模型也表現出中等到高度的西方意識形態偏見——因為訓練資料集嚴重依賴英語內容,西方控制的資訊來源獲得了過高的權重。
全球南方國家透過自力更生獨立建構完整的資訊通訊技術體系的歷史窗口已經關閉。現實是:中國和美國在AI研發上的投入達兆美元級別,而印度的IndianAI計畫僅12.5億美元。但這並不意味著絕望。全球南方有兩個選擇:要麼繼續使用美國的基礎設施,忍受資料攫取、意識形態灌輸和安全威脅;要麼在維持和加強數位主權的條件下,與中國建立技術合作。
根據數位主權指數(DSI)的評估,中國是除美國之外唯一擁有完全數位主權的國家,DSI得分為4.25。具體的合作路徑包括:第一,透過BOT(建設-營運-移交)等模式共建數位基礎設施;第二,合作開發資料要素,量化資料資產價值並協商互惠互利的機制;第三,互鑑治理經驗;第四,共同培養人才,包含技術轉移和能力建構。
2025年5月,美國法院命令OpenAI無限期保存所有使用者對話。全球超過3億的使用者中,很少有人意識到他們的醫療諮詢、財務規劃、職業焦慮、個人秘密,現在被強制儲存在OpenAI的伺服器上,可能「被出售或贈與,被駭客入侵或洩露給執法部門」。
2023年,當一位三星工程師打開ChatGPT尋求程式碼協助時,他以為只是在使用一個便利的工具。他沒有意識到,他公司的秘密「現在技術上已掌握在OpenAI手中」並且「無法恢復」。三星可以禁止ChatGPT,蘋果可以開發自己的AI工具,高盛可以阻止這項服務。但全球南方的小企業呢?他們的政府部門呢?研究機構呢?他們有三星的資源嗎?有蘋果的技術能力嗎?
當愛德華·斯諾登說OpenAI是「對地球上每個人權利的有意識的背叛」時,他並非危言聳聽。他是基於對美國監控機器的深刻理解發出這項警告。當安全專家布魯斯·施奈爾說我們正從「大規模監視」轉向「大規模窺探」時,他揭示了監視性質的轉變:不僅僅是收集資料,而是理解、處理和利用資料。
對全球南方國家而言,這不僅是隱私問題,更是主權問題。資料是新石油,AI是新基建。將資料和AI的控制權交給美國公司,就像歷史上將自然資源和基礎設施的控制權交給殖民者一樣。
歷史的視窗可能已經關閉,但選擇的視窗仍然敞開。全球南方國家可以選擇繼續被動接受美國的數位殖民主義,也可以選擇與中國等國家合作,在採用先進技術的同時,維持並強化自身的數位主權。數位主權指數(DSI)框架提供了評估和追蹤的工具。四項具體建議提供了一條行動路徑。所缺乏的不是方案,而是決心。
當政府員工使用ChatGPT起草官方檔案時;當企業使用ChatGPT進行商業規劃時;當研究人員使用它進行調查研究時,必須意識到:這些對話可能正在被OpenAI監控、分析,並與美國情報機構共享。
2025年5月法院命令的教訓是:即使你點選“刪除”,資料仍可能被強制保存。三星案例的教訓是:一旦上傳,資料就「無法恢復」。全球南方國家的教訓應該是:數位主權一旦喪失,就難以挽回。 (科工力量)