#數字服務法
《數字服務法》威力幾何?馬斯克 X 平台突遭歐盟調查
2026年1月26日,歐盟委員會正式宣佈,依據《數字服務法》(Digital Services Act,簡稱DSA)對馬斯克旗下的X平台(原Twitter)啟動一項新的正式調查。此次調查的核心焦點的是X平台內建的人工智慧模型Grok所驅動的推薦演算法,重點評估該演算法是否存在傳播非法內容的風險,包括偽造露骨色情圖像、兒童性虐待材料等違規內容。歐盟委員會明確表示,後續將通過發出更多資訊請求、開展訪談、實施現場檢查等多種方式持續收集證據,若X平台未能對其服務進行實質性調整以滿足合規要求,歐盟將依法採取臨時措施,並作出不合規認定,屆時X平台可能面臨巨額罰款乃至業務限制等嚴厲處罰。一、《數字服務法》(DSA)制定背景與主要內容歐盟此次對X平台的調查,核心依據是《數字服務法》(DSA)。2023年8月起,亞馬遜的第三方市場Marketplace、蘋果的App Store應用程式商店,以及其他16項網際網路服務受歐盟《數字服務法案》的約束,2024年2月17日起適用於歐盟所有線上平台。該法案是歐盟數字戰略的核心組成部分,也是全球範圍內最為嚴格、最為系統的數字服務監管法規之一,其出台並非偶然,而是基於數字服務快速發展帶來的諸多治理難題,旨在規範數字服務提供商的行為,保護使用者權益,維護數字空間的公平與安全。(一)制定背景隨著網際網路技術的飛速發展,數字服務已深度融入歐盟公民的日常生活,但數字空間的亂象也日益凸顯,成為歐盟監管部門亟待解決的難題。一方面,非法內容或不當內容在數字平台上的傳播愈發猖獗,不僅危害公民的人身權利、人格尊嚴,還可能引發社會矛盾,破壞社會公共秩序,甚至危害國家安全;另一方面,大型數字平台憑藉其壟斷地位,濫用市場優勢,隨意收集使用者資料、操控推薦演算法、限制競爭,既損害了使用者的隱私權益,也阻礙了數字行業的創新發展。《數字服務法》的制定,正是為了應對上述挑戰,其核心目標是建立一個安全、透明、公平的數字單一市場,平衡數字服務創新與使用者權益保護、公共利益維護之間的關係,同時強化歐盟在全球數字治理中的話語權。DSA通過建立統一的監管規則,覆蓋所有在歐盟境內提供數字服務的提供商,無論其總部是否位於歐盟,均需遵守該法案的要求,有效遏制了“監管套利”行為。(二)主要內容《數字服務法》的內容涵蓋了數字服務監管的各個方面,核心圍繞“分級監管、責任明晰、透明可追溯”三大原則展開,將數字服務提供商分為不同層級,根據其規模和影響力,施加不同程度的監管義務。一是明確監管適用範圍。DSA的監管範圍極為廣泛,覆蓋所有在歐盟境內向使用者提供數字服務的自然人、法人和其他組織,無論其總部位於歐盟內部還是外部,只要服務對象包含歐盟公民,就必須遵守該法案。具體而言,涵蓋社交平台、搜尋引擎、電商平台、雲服務提供商、應用程式商店等各類數字服務,其中,對“超大型線上平台”(Very Large Online Platforms,VLOPs)和“超大型線上搜尋引擎”(Very Large Online Search Engines,VLOSEs)設定了更為嚴格的監管要求——根據DSA規定,月活躍使用者超過4500萬的平台將被認定為“超大型線上平台”,X平台、Meta旗下的Facebook、Instagram等均在此列。二是分級設定平台責任。DSA根據數字服務提供商的規模和影響力,將其分為四個層級,分別設定不同的責任義務:第一層級是基礎服務提供商(如網路接入服務),僅需履行最基本的合規義務,如配合監管部門調查;第二層級是普通數字服務提供商(如小型社交平台、小眾電商),需履行內容稽核、使用者投訴處理等義務;第三層級是宿主服務提供商(如雲端儲存、論壇託管),需對使用者上傳的內容進行初步稽核,及時刪除明顯的非法內容;第四層級是超大型線上平台和超大型線上搜尋引擎,需履行最嚴格的監管義務,包括定期開展風險評估、建立獨立的合規體系、接受第三方審計等。三是規範演算法與內容管理。這是DSA的核心內容之一,也是此次歐盟調查X平台的關鍵依據。法案明確要求,數字服務提供商需對其使用的推薦演算法進行規範,確保演算法的透明度、可解釋性和公平性,不得利用演算法傳播非法內容、誤導使用者或實施歧視性行為。對於超大型線上平台,還需定期公開演算法的運行原理、推薦邏輯,以及演算法可能帶來的風險,並採取有效措施緩解演算法引發的系統性風險。同時,法案要求所有數字服務提供商建立健全非法內容稽核機制,及時處理使用者投訴的非法內容,對於明顯的非法內容(如恐怖主義宣傳、兒童性虐待材料),需在規定時間內刪除或下架。四是強化使用者權益保護。DSA將使用者權益保護放在重要位置,明確規定使用者享有知情權、選擇權、投訴權和資料隱私權。例如,使用者有權瞭解平台推薦演算法的基本邏輯,有權拒絕平台的個性化推薦;平台需建立便捷的使用者投訴管道,對使用者投訴的非法內容或違規行為,需在規定時間內予以回應和處理;平台不得隨意收集、使用使用者資料,需嚴格遵守《通用資料保護條例》(GDPR)的要求,保護使用者的隱私權益。此外,法案還特別關注未成年人、弱勢群體的權益保護,要求平台採取特殊措施,防止未成年人接觸有害內容。五是建立嚴格的執法與處罰機制。DSA明確了歐盟委員會、各成員國監管機構的執法權限,建立了統一的執法協調機制,確保監管規則的有效實施。對於違反DSA的數字服務提供商,歐盟將根據違規情節的輕重,採取不同的處罰措施:輕微違規將被處以警告、責令整改;嚴重違規的,將被處以最高相當於其全球年營業額6%的罰款,這一罰款比例遠超其他監管法規,具有極強的威懾力。此外,對於持續違規、拒不整改的平台,歐盟還可採取臨時措施,包括限制平台的功能、暫停平台在歐盟境內的服務,甚至強制平台退出歐盟市場。二、歐盟調查X平台的核心細節解析2026年1月26日歐盟啟動的對X平台的新調查,並非歐盟首次針對X平台採取監管行動——2025年底,歐盟委員會曾以X平台在“藍標認證”介面設計上對使用者構成誤導、廣告庫不透明、拒絕向研究者開放資料等為由,對其開出1.2億歐元的罰單。此次新調查則聚焦於X平台的AI推薦演算法,是歐盟依據DSA對超大型線上平台開展的常態化監管,也是對AI技術在數字平台應用的針對性監管。(一)監管主體此次歐盟對X平台的調查,監管主體呈現“歐盟委員會主導、成員國監管機構協同”的雙層架構,這一架構是根據DSA的規定建立的,確保監管工作的統一性和高效性。核心監管主體是歐盟委員會。根據DSA的授權,歐盟委員會負責統籌協調歐盟範圍內的數字服務監管工作,對超大型線上平台和超大型線上搜尋引擎擁有直接的監管權和執法權。此次調查由歐盟委員會直接發起,負責制定調查方案、收集相關證據、評估X平台的合規情況,最終作出是否違規的認定,並決定採取何種處罰措施。協同監管主體是各成員國的數字服務協調機構。DSA要求每個歐盟成員國設立專門的數字服務協調機構,負責配合歐盟委員會開展監管工作,處理本國範圍內的數字服務投訴、調查等事務。此次調查中,作為X平台在歐盟設立地所在成員國的國家數字服務協調機構,愛爾蘭數字服務協調機構Coimisiún na Meán已與歐盟委員會開展密切合作,參與此次調查的相關工作,包括協助收集證據、開展現場檢查、對接X平台在愛爾蘭的代表機構等。此外,其他歐盟成員國的數字服務協調機構也將根據歐盟委員會的要求,提供必要的支援,確保調查工作在歐盟範圍內順利推進。(二)監管對象此次調查的監管對象明確,核心是馬斯克旗下的X平台,具體聚焦於X平台的兩大核心要素:一是內建的人工智慧模型Grok,二是基於Grok驅動的推薦演算法。從平台層面來看,X平台作為全球知名的社交平台,其月活躍使用者遠超DSA規定的4500萬門檻,屬於“超大型線上平台”,因此需要履行DSA規定的最嚴格的監管義務,這也是歐盟將其作為監管重點的重要原因之一。X平台自被馬斯克收購後,進行了多次功能調整,其中就包括將AI模型Grok內建到平台中,用於驅動推薦演算法、生成使用者內容等,此次調查正是針對這一調整所帶來的合規風險。從具體功能來看,監管對象的核心是Grok AI模型及其驅動的推薦演算法。Grok是由X平台提供商開發的人工智慧工具,自2024年起,X平台已以多種方式將其部署到平台中,允許使用者生成文字和圖像,並為使用者發佈的內容提供上下文資訊,同時用於最佳化平台的推薦演算法,向使用者推送個性化內容。歐盟此次調查的重點,就是評估Grok AI模型驅動的推薦演算法是否存在傳播非法內容的風險,包括偽造的露骨色情圖像、兒童性虐待材料、反猶太內容等,以及X平台是否對Grok的應用進行了充分的風險評估,是否採取了有效的風險緩解措施。此外,調查範圍還涵蓋了X平台的風險評估報告提交情況。歐盟委員會指出,通過查閱X平台依據DSA提交的風險評估報告,發現Grok AI模型並未在報告中體現,這意味著X平台可能未對Grok自身,或將其整合到X平台中可能給歐盟公民帶來的風險進行評估,這也是此次調查的重要關注點之一。同時,歐盟委員會還擴大了此前對X平台推薦系統的調查範圍,將評估其近期宣佈改用“基於Grok的推薦系統”所產生的影響,判斷該系統是否全面識別並緩解了DSA所界定的系統性風險。(三)監管依據此次歐盟調查X平台的核心監管依據,是2023年正式生效的《數字服務法》(DSA),具體而言,主要依據DSA中的以下幾項關鍵條款,這些條款也明確了X平台的合規義務和歐盟的監管權限。一是DSA中關於“超大型線上平台”監管義務的條款。根據DSA第34條、第35條的規定,超大型線上平台需定期開展系統性風險評估,識別平台服務可能帶來的非法內容傳播、使用者權益受損等風險,並制定具體的風險緩解措施,編制專項風險評估報告,提交給歐盟委員會和各成員國監管機構。此次歐盟調查發現,X平台未在風險評估報告中體現Grok AI模型,可能違反了上述條款,未履行風險評估義務。二是DSA中關於演算法監管的條款。DSA第42條明確要求,超大型線上平台需對其使用的推薦演算法進行規範,確保演算法的透明度、可解釋性和公平性,不得利用演算法傳播非法內容、誤導使用者或實施歧視性行為;同時,平台需採取有效措施,緩解演算法帶來的系統性風險。此次調查的核心就是評估X平台基於Grok的推薦演算法是否符合上述要求,是否存在傳播非法內容的風險,若存在相關問題,則違反了DSA的該條款。三是DSA中關於非法內容處置的條款。DSA要求所有數字服務提供商建立健全非法內容稽核與處置機制,及時處理使用者投訴的非法內容,對於明顯的非法內容,需在規定時間內刪除或下架。歐盟委員會指出,在X平台上發現了反猶太內容、未經同意的深度偽造女性視訊,以及涉及兒童性虐待的內容,而X平台可能未及時採取處置措施,這可能違反了DSA中關於非法內容處置的相關條款。四是DSA中關於執法與處罰的條款。DSA第66條等相關條款明確了歐盟委員會的執法權限,包括發起調查、收集證據、採取臨時措施、作出不合規決定、實施處罰等。根據這些條款,歐盟委員會有權對X平台啟動正式調查,通過發出資訊請求、開展訪談、實施現場檢查等方式收集證據;若發現X平台存在違規行為,且未進行實質性整改,歐盟委員會有權採取臨時措施,並作出不合規決定,對X平台處以最高相當於其全球年營業額6%的罰款。此外,歐盟此次調查還參考了此前對X平台的監管記錄——2025年底,歐盟曾因X平台存在欺騙性設計、廣告透明度不足、研究人員資料訪問不充分等問題,對其開出1.2億歐元的罰單,此次調查也是對X平台合規情況的持續監管,確保其切實履行DSA規定的各項義務。三、歐盟此次調查的合理性與公平性歐盟此次依據《數字服務法》對X平台啟動調查,是歐盟履行數字服務監管職責、保護使用者權益、維護數字空間安全的重要舉措,具有一定的合理性。但同時,在調查的針對性、監管的公平性、可能帶來的負面影響等方面,也存在一些值得質疑的地方。因此市場普遍認為,若歐盟最終對X平台作出嚴厲的處罰決定,X平台可能會向歐盟法院提起訴訟,質疑歐盟調查的合法性和處罰決定的合理性,這將延長整個監管流程,也會成為全球數字監管領域的焦點事件。(一)總體上契合監管目標,符合行業發展需求歐盟此次調查的合理性,主要體現在以下幾個方面,與DSA的立法精神和全球數字治理的趨勢相契合。一是契合DSA的立法目標,能夠有效防範AI演算法帶來的風險。DSA的核心目標是規範數字服務提供商的行為,保護使用者權益,維護數字空間的安全與公平。此次調查聚焦於X平台的Grok AI模型及其推薦演算法,針對的是AI技術在數字平台應用中可能帶來的非法內容傳播風險,這與DSA的立法目標高度一致。隨著AI技術的快速發展,AI演算法帶來的風險日益凸顯,若不加強監管,可能會對使用者權益和社會公共秩序造成嚴重危害。歐盟此次及時啟動調查,能夠有效防範這類風險,督促平台履行合規義務,規範AI演算法的應用,符合DSA的立法精神。二是符合全球數字治理的趨勢,推動數字服務行業向合規化方向發展。當前,全球數字治理的核心趨勢是加強對數字服務平台的監管,尤其是對AI技術、推薦演算法的監管,保護使用者權益,維護數字空間的安全。歐盟此次調查,是全球數字治理的重要實踐,能夠推動數字服務行業向合規化、規範化方向發展,為其他國家和地區的數字監管提供借鑑。例如,許多國家和地區正在制定或完善數字服務監管法規,歐盟的此次調查和DSA的實施經驗,將為這些國家和地區提供參考,推動全球數字監管的規範化、統一化。三是針對X平台的實際違規風險,具有明確的監管針對性。歐盟此次調查並非盲目發起,而是基於X平台存在的實際違規風險。歐盟委員會指出,在X平台上發現了反猶太內容、未經同意的深度偽造女性視訊,以及涉及兒童性虐待的內容,而X平台未對Grok AI模型進行充分的風險評估,未在風險評估報告中體現Grok的相關情況,可能違反了DSA的相關規定。因此,此次調查針對的是X平台的實際違規行為和風險,具有明確的針對性,能夠有效督促X平台整改,保護使用者權益。四是履行監管職責的必要舉措,能夠強化DSA的監管權威。X平台作為全球知名的超大型線上平台,其合規情況對整個數字服務行業具有重要的示範作用。歐盟此次對X平台啟動調查,是履行監管職責的必要舉措,能夠向全球數字服務提供商傳遞明確的監管訊號,督促所有平台嚴格遵守DSA的規定,強化DSA的監管權威,確保監管規則的有效實施。(二)監管針對性、公平性與影響平衡存在爭議儘管歐盟此次調查具有一定的合理性,但在實踐過程中,也存在一些值得質疑的地方,主要集中在以下幾個方面,引發了行業內的廣泛討論。一是調查的針對性存在偏差,可能過度聚焦於X平台,存在“選擇性監管”的嫌疑。X平台作為馬斯克旗下的企業,自被收購後,多次與歐盟監管機構發生摩擦,歐盟此前已對X平台開出1.2億歐元的罰單,此次又啟動新的調查,難免讓人質疑歐盟的調查存在“選擇性監管”的嫌疑——即過度聚焦於X平台,而對其他類似平台的同類違規行為,監管力度不足。例如,Meta旗下的Facebook、Instagram,Google旗下的YouTube等平台,也內建了AI模型,其推薦演算法也可能存在傳播非法內容的風險,但歐盟此次並未針對這些平台啟動類似的調查,這引發了關於監管公平性的質疑。此外,X平台的Grok AI模型上線時間相對較短,其帶來的風險尚未完全顯現,歐盟此時啟動調查,可能存在過度監管的嫌疑,不利於平台的創新發展。二是監管標準過於嚴格,可能抑制AI技術的創新與發展。DSA對超大型線上平台的監管要求極為嚴格,尤其是對AI演算法的監管,要求平台公開演算法邏輯、開展風險評估、加強內容稽核等。這些監管要求雖然能夠有效防範風險,但也可能抑制AI技術的創新與發展。AI技術的發展需要一定的試錯空間,而過於嚴格的監管要求,可能會讓平台不敢大膽開展AI技術的研發和應用,擔心因違規而面臨嚴厲處罰。例如,平台可能會減少對生成式AI的投入,限制AI模型的功能,這將不利於AI技術的創新與進步,也可能影響數字服務行業的發展活力。三是監管的公平性有待考量,可能存在“地域保護”的傾向。DSA的監管範圍覆蓋所有在歐盟境內提供數字服務的平台,但在實際執法過程中,歐盟可能會對歐盟本土平台和非歐盟本土平台採取不同的監管標準,存在“地域保護”的傾向。X平台的總部位於美國,屬於非歐盟本土平台,而Meta、Google等平台雖然總部也位於美國,但在歐盟境內擁有龐大的業務佈局和更多的合規投入,可能會受到歐盟監管機構的“特殊對待”;而歐盟本土的數字服務平台,可能會享受更寬鬆的監管環境,這違背了DSA“統一監管、公平對待”的原則,也不利於全球數字服務行業的公平競爭。四是可能帶來的負面影響未得到充分考量,影響使用者體驗和行業發展。如前所述,此次調查可能會導致平台弱化個性化推薦功能、限制AI功能、提高服務費用等,影響使用者的使用體驗和權益;同時,過高的合規成本可能會導致中小型平台退出歐盟市場,推動行業集中度提升,形成壟斷格局,不利於行業的公平競爭和創新發展。但歐盟在啟動調查時,似乎並未充分考量這些潛在的負面影響,也未制定相應的應對措施,可能會導致監管效果與預期不符,甚至產生相反的效果。五是調查的程序透明度不足,可能影響調查結果的公正性。此次歐盟啟動對X平台的調查,雖然明確了調查的重點和依據,但調查的具體程序、證據收集的方式、評估的標準等,並未向公眾和X平台充分公開,這可能影響調查結果的公正性。X平台作為被調查對象,有權瞭解調查的具體情況,獲得充分的辯護機會,但歐盟此次調查的程序透明度不足,可能會導致X平台無法充分行使自身的權利,影響調查結果的公正性和合理性。 (數字新財報)