#騰訊集團
開除!字節打響“AI軍紀”第一槍
11月12日下午,字節跳動一則短短的人事消息,在科技圈炸開了鍋。任某某,字節跳動大模型團隊(Seed)的研究員,因洩密遭到公司開除。據澎湃新聞、證券時報等多家媒體證實,當事人已於11月11日辦完離職,距離通報僅隔一天。任某某是機器人系統整合的專家。作為擁有8.6萬粉絲的大V,他曾在知乎上透露,自己深度參與了字節機器人操作大模型GR-3的研發。而這一事件的意義遠不止於普通的人事處罰——這是中國大廠首次因洩密解僱AI核心研發人員,也象徵著字節跳動率先打響了大廠內部整頓“AI軍紀”的第一槍。據任某某在知乎帳號上展示的資訊,他於2015年畢業於浙江大學機電工程專業,2019年在義大利獲得機器人學博士學位,隨後回國進入機器人行業。▲來源:知乎入職字節跳動之前,任某某先後在山東的機器人公司珞石科技擔任機電工程師,之後加入小米公司,任高級研發工程師。2023年,他再次跳槽,進入字節跳動的Seed團隊,主要負責機器人系統整合相關研究。在字節期間,他很快接觸到新一代 Vision-Language-Action(VLA)模型——GR-3項目。今年7月,他曾對外詳細解讀過該項目的技術原理。不過,大皖新聞11月17日報導稱,據接近字節的知情人士透露,任某某的洩密行為是多次接受諮詢機構的付費訪談,洩露商業保密資訊,此事與他在知乎上的技術分享沒有關係。事實上,對資訊安全的重視在字節早已有跡可循。今年9月,字節跳動企業紀律與職業道德委員會發佈二季度員工違規處理情況,100名員工因觸犯公司紅線被辭退。通報中特別提到,有10名員工因違規參與外部付費訪談、洩露公司保密資訊而受到處罰。字節專門提醒員工,對外部諮詢公司以“專家訪談”“行業研究”等名義發起的有償邀約務必提高警惕,避免洩露機密。從任某某的處理結果可以看出,字節跳動在人工智慧領域的資訊保密機制正變得更加系統化,對單點洩密事件的容忍度也在不斷降低。對於觸碰紅線的行為,字節態度明確:絕不姑息。類似因為員工洩密而遭開除的案例,在其他大廠同樣出現過。今年9月,小米中國區市場部總經理王騰被辭退。小米集團職業道德委員會通報稱:“(王騰)洩露公司機密資訊,且存在利益衝突等嚴重違規違紀行為。”雖然並未披露具體洩露內容,但足以體現小米對資訊安全的重視。米哈游也在同月宣佈,對傳播《原神》《崩壞:星穹鐵道》未公開內容的洩密者採取刑事強制措施,並對多名參與“解包”的人員申請訴中行為禁令,要求立即停止侵權。各家大廠一向高度重視內部資訊安全。據澎湃新聞報導,阿里巴巴在2016年發佈的《員工紀律制度》中明確規定,“任何非對外公開資訊”都屬於保密範疇,員工若洩露,無論是否造成後果,均將被辭退。即便是公司內部網路資訊,也在被禁止洩露之列。2021年8月,第一財經即援引彭博社消息稱,阿里巴巴將開除對外洩露內部網路文章的10名員工,不過對於此事阿里並未回應。洩密嚴重者可能還會涉及司法。2025年1月16日,騰訊集團發佈“反舞弊通報”,公開點名了21人,其中就包括S3-CSIG人力資源中心方某,由於向外部人員洩露公司內部保密資訊,涉嫌犯罪被移送公安機關處理,騰訊已將其列入黑名單,永不錄用。目前,大廠雖鮮少公開專門針對AI的保密制度,但在2025年這一技術躍遷期,關鍵技術與模型細節成為核心競爭力,其安全性的重要性無需多言。字節跳動首次因洩密而開除AI高級研發人員,也意味著中國大廠正式吹響了整頓“AI軍紀”的第一槍。在全球AI競爭最激烈的矽谷,各大科技公司更是早將資訊安全視為核心防線,對洩密行為極度敏感,並建立了相對成熟、系統化的AI保密與應對機制。面對核心技術,包括涉及模型架構、訓練資料、演算法細節、推理框架、硬體最佳化方案或部署策略等關鍵環節資訊洩密事件的零容忍,已經成為矽谷公司行業共識,一旦發現員工洩密,輕則將其開除,重則都是——毫不猶豫地提起訴訟。今年備受關注的案例之一,是馬斯克旗下的xAI起訴前核心工程師李學宸的案件。李學宸是華人,他從xAI離職、套現約700萬美元股票後,便即刻加入了OpenAI。8月,xAI向加州聯邦法院提起訴訟,指控這位曾深度參與Grok聊天機器人訓練與開發的工程師,在離職前暗中拷走公司的核心商業機密——從模型原始碼、訓練資料,到未來數年的技術路線圖,幾乎涵蓋了一個大模型的命門。該案件目前還在初步訴訟階段,但法院已經對李學宸下達了臨時禁止令,禁止他在OpenAI參與任何與生成式AI技術相關的工作或交流。這起事件被媒體稱為今年最“狗血”的商戰案例——頂級工程師跳槽最直接的競爭對手、離職前涉嫌拷走大模型機密、臨走前還順手套現巨額股票,幾乎把矽谷最敏感、最戲劇化的元素一次性點滿。今年10月,巨量資料分析公司Palantir也爆出一樁重量級“AI商戰案”。公司將兩名前資深AI工程師告上紐約聯邦法院,指控他們在離職前擅自訪問並帶走了Palantir的“皇冠明珠”——包括核心演算法原始碼、模型架構,以及涉及政府與大型企業客戶的資料資產。更戲劇性的是,這兩人隨後成立了名為Percepta AI的新公司,被Palantir視為“對標產品”,幾乎是正面避險。Palantir的訴求十分激烈:禁止新公司繼續使用相關技術,並要求巨額賠償。目前風頭正盛的輝達,也因為洩密事件成了被告。2021年,法雷奧(Valeo)的一名前工程師跳槽至輝達後,在一次視訊會議中,意外洩露了法雷奧的智能泊車和高級駕駛輔助系統原始碼及相關文件。法雷奧隨後提起訴訟,指控輝達利用被洩露的技術加速自身研發,並要求巨額賠償。據報導,該工程師曾複製約27,000個檔案、6GB程式碼,其中涵蓋感測器融合、泊車任務、緊急剎車等核心模組。目前,案件仍在美國加州聯邦法院審理中,法院認為存在足夠的間接證據支援法雷奧的指控。但輝達方面否認故意利用對方商業秘密,並稱發現問題後已進行內部調查和清理。無論是李學宸案,還是Palantir案、輝達案,其本質都是生成式AI軍備競賽中的技術爭奪戰——一旦演算法、資料和核心人才三條線被同時撬動,對任何企業來說都如同被人掏空了根基,自然是無法容忍的。一些公司甚至對發表不當言論的員工,也會直接將其開除。2022年,公開聲稱Google大模型LaMDA對話式人工智慧具有感知能力的工程師Blake Lemoine,就因觸犯了公司禁忌而被問責。他關於“AI已經像人類一樣擁有情感和靈魂”的言論引發業內廣泛討論,有人認為他對AI潛在“感知”能力的敏感揭露了未來風險,也有人批評他的結論是主觀臆斷。但Google不管那麼多,立即以“違反保密協議”為由將其解僱。Google發言人在給媒體的一封郵件中證實了這次解僱:“我們希望Lemoine一切順利。”或許有人會覺得,矽谷對員工洩密的反應過於苛刻?但在很多公司高管的認知中,目前對洩密的懲處都還是太輕了。在大模型競賽中,每一次關鍵迭代都意味著巨額投入。一旦核心技術或訓練資料外洩,對企業來說不僅是經濟損失,更可能動搖其技術護城河,帶來災難性後果。比如GPT-4的訓練成本,曾被科技媒體和研究機構估算為約7800萬美元;而Google的Gemini Ultra,據多家分析報告推算,其單次訓練成本甚至達到1.91億美元的量級。arXiv上的論文《前沿AI模型訓練成本持續上漲》(The rising costs of training frontier AI models)進一步指出,前沿模型的訓練費用正以接近指數級的速度攀升,按照其趨勢估算,到2027年,單次訓練一次頂級模型的成本可能突破10億美元。在這種背景下,馬斯克對李學宸洩密事件如此震怒,也就不難理解了。Grok是xAI的王牌,是馬斯克押注未來的核心資產。今年7月發佈的Grok 4,被他稱為“世界上最聰明的人工智慧”,並宣稱已在綜合能力上超越包括OpenAI o3、Gemini 2.5 Pro、Claude 4 在內的主流頂級模型。更關鍵的是,xAI在訴狀中明確表示:如果洩露的Grok相關技術被競爭對手(例如OpenAI)採用,對方可能獲得“壓倒性優勢”。換句話說,這不是普通的資訊洩露,而是可能讓競爭對手直接跳躍數年的研發周期,從而改寫整個行業格局,並對xAI造成滅頂之災。‌因此,保密關乎安危,在AI軍備競賽中是“基礎軍紀”。一方面,AI技術本身就具有極高的敏感度。模型架構、訓練資料、最佳化演算法等核心資產全部是“純數位化”的,無需攜帶硬體即可被複製、外傳。一旦流出,複製成本接近於零,而造成的競爭損害卻幾乎不可逆。李學宸案、Palantir案以及輝達–法雷奧案之所以最終走上法庭,正是因為相關企業評估後認為:這些洩密可能帶來的損失巨大到無法承受——甚至動搖公司的核心護城河,因此只能通過法律手段儘可能阻斷影響、降低損害。另一方面,人才流動正在放大洩密風險。從前述三起矽谷訴訟案可以清楚看到,幾乎所有洩密事件都源自人員變動——工程師離職、跳槽、甚至跨界合作,都可能成為技術外流的缺口。這也促使各家公司把“離職環節的風險管控”提升到前所未有的高度。隨著中國大模型競爭全面提速,AI競爭進入深水區,中國科技公司也必將向矽谷看齊:保密不是制度選項,而是生存底線。 (華商韜略)