#AI威脅
哈佛最新調查:59%感到被AI威脅,超半數離不開!
【新智元導讀】年輕人一邊狂用AI,一邊又擔心被它取代。哈佛最新民調顯示:59%的18–29歲受訪者認為AI正在威脅他們的未來。效率越高,安全感越低,這代人被迫提前長大。你上一次用ChatGPT,是多久前的事?一天?一小時?或者剛剛就開著它寫東西?不管你承不承認,AI早就從科幻電影裡走入現實,滲透現實,甚至重塑現實。當AI以驚人的速度滲透到創意、文案、程式設計甚至金融分析等領域時,一種複雜的、糾結的情緒正在年輕一代中蔓延。最近幾個月,越來越多年輕人開始發現一個微妙的變化:明明離不開AI的幫助,可每次看到它把事情處理得又快又準時,心裡都會閃過一瞬間的不安——那我到底還能做什麼?最新一份哈佛青年民意調查,把這股情緒赤裸地擺上了檯面。這種「既害怕又使用」的雙重態度,折射出了現代職場生存的真相。一代人的未來感,在資料裡變得脆弱當AI浪潮席捲而來,年輕一代正站在焦慮與機遇並存的十字路口。年輕人常常是擁抱新技術的先鋒群體。35%的受訪者表示,會定期使用像ChatGPT或Claud這樣的大模型。高達52%的人信任AI,並將其用於完成工作或學校任務。不同年齡段每天使用AI的比例對比。18–29歲的年輕人是最頻繁、最熟悉AI的群體:53%每天使用一次以上,遠高於65+的30%。然而,在積極採用的表象之下,是深刻的職業危機感。最新的哈佛青年民意調查的資料顯示,有59%的美國年輕人認為,AI會威脅他們的工作前景。其中26%的年輕人認為威脅「非常大」,33%認為「有一定威脅」;只有23%的人覺得AI不會對他們的未來造成影響。不僅僅是飯碗不保,年輕人對職業價值的期待也受到了巨大衝擊。44%的人認為AI會讓未來的工作變得更沒意義。同樣有44%的人覺得AI會拿走機會,而不是創造新的。可是更矛盾的是,52%的年輕人信任AI幫他們完成學校或工作的任務,35%已經經常使用ChatGPT、Claude這類LLM。一邊害怕被它取代,一邊又離不開它。這種「依賴和恐懼同時存在」的狀態,第一次被大規模記錄下來。數字沒有給出答案,但它們拼出的未來很清晰—— AI正讓一整代人的未來感開始鬆動。在AI面前失去安全感的年輕人年輕人的工作焦慮,絕不是空穴來風,它指向的並不是「怕失業」,而是「不可替代性正在變弱」。美國公眾對 AI 的情緒變化(2021–2025)。隨著AI 加速發展,「更擔心than excited」的比例持續增長,2023起穩定在50%以上。這才是他們焦慮的真正來源。被AI藏起來的「過程」寫報告、查資料、整理任務、總結資訊這些過去需要時間積累的能力,現在被AI幾秒鐘完成。年輕人清楚地感覺到自己所謂的具有專業性的「做事方式」,正在被工具快速接管。「工作會變得沒意義」不止是字面意思,更像是發問:如果我做的這部分被AI輕鬆完成,那我的意義在那裡?過程消失,價值也跟著一起變得模糊。AI讓同質化更加嚴重AI的使用率越高,越會有一個共性——寫作、表達、分析方式,逐漸趨同。對於正在努力建立「專業差異感」的年輕人來說,這種趨同最容易引發心理上的塌陷:別人用AI也能做出來,我的這一份,到底有什麼不同?年輕人覺得AI會讓機會減少,本質上就是一種「競爭優勢被平均化」的直覺。存在感被反向削弱年輕人使用AI時,很少是衝著「替代」去的,可是每當看到模型跑出結果時心裡冒出來的那句:它可以自己完成,它不需要我。越來越難忽略。一邊離不開AI,一邊又覺得未來機會減少、意義降低。這種「依賴」和「被威脅」並存的狀態,讓年輕人第一次意識到:AI不只是一個工具,它正在重寫他們衡量自己的方式。衡量標準不是「能不能做好」,而是「有沒有必要做」。年輕人的焦慮不是突然發生的,而是在日常使用AI的過程中,被一點點放大。數字只是一種衡量的指標,真正的衝擊,則來自一種正在悄悄形成的共識——在未來,工作會繼續存在;但那個位置,未必永遠屬於某個具體的人。真正的不安,未來被「重新分配」數字並沒有直接說「AI會取代誰」,但它們隱約指向一個正在發生的事實——未來的價值結構正在被悄悄調整。在過去的職場,年輕人的優勢往往來自可量化的能力。寫得快、學得快、願意加班、願意苦幹;在同一套流程裡比別人更細緻、更投入、更能扛壓。可是當AI把這些「可重複的能力」一點點模仿以後,年輕人的起跑線變得模糊。努力,也不再自動轉化成價值。AI正在搶走「第一層工作」第一層工作,是那種一上手就能看到產出的任務,比如總結、整理、寫初稿、做PPT、找資料。過去靠這些任務就能證明「我很能幹」。現在AI做這些幾乎沒有成本,而且更快。不是因為這些工作消失了,而是因為它們不再代表價值。濃濃的挫敗感:努力和結果不對等數字背後有一個隱形邏輯:你越努力掌握那些能用AI替代的技能,你的價值感就越容易被稀釋。這給人帶來挫敗感。努力不再是保障,而是一種不穩定的籌碼。這也是年輕人與AI矛盾的關鍵節點:越需要它,越覺得自己變得廉價。工作還在,只是需要的人變少了AI帶給我們的最大禮物,可能並非是效率工具,而是一次重新定義工作與生活關係的契機。材料裡有一組資料矛盾又諷刺:52%信任AI,說明AI已經融入學習和工作;但59%感到被威脅,這說明AI的融入是「替代式」的。這是一個越來越真實的趨勢:未來的崗位不會消失,但一個崗位可能不再需要那麼多人。當基礎產出被自動化,工作會從執行轉向判斷、選擇、創造、決策。而這些位置,本身就不多。未來不是沒有他們,而是未必輪得到他們來決策。我們被迫思考:如果機器能做一切,那麼我活著的獨特價值和不可取代的才能究竟是什麼?AI沒有奪走未來,而是改寫了未來的入口AI並不是突然施加在年輕人身上的一場危機,而是一種正在重排秩序的力量。它沒有摧毀工作,也沒有宣告誰會被淘汰,但它在悄悄改變我們的思維——什麼樣的能力還能代表價值?什麼樣的努力還能通往未來?這一代年輕人的處境因此變得微妙。他們是最早掌握AI的群體,也是最早意識到會用並不等於足夠。他們知道工具很強,也知道工具的強大。這不是恐慌,更像是一種被迫提前的成熟。未來不是「順理成章」,而是需要重新爭奪。AI 的出現讓未來不是更遠了,而是更近了,近到必須開始思考「我在這裡的位置是什麼」,近到讓這一代人在還沒站穩的時候,就已經開始面對未來的重量。而這種重量,正在成為他們共有的情緒底色。 (新智元)
“AI教父”Geoffrey Hinton的驚人轉身:推動50年後,他卻說AI可能毀滅人類
“在未來30年內導致人類滅絕的機率為10-20%......AI被批評者過度使用的流行詞是‘炒作’,但實際上AI是被‘低估’的。”上周77歲的Geoffrey Hinton先後接受了AI教練平台Valence和英國企業家兼投資人Steven Bartlett的專訪,除了他一直強調的AI Safety之外,他也首次提及AI時代領導者的關鍵能力,以及他認為個人最遺憾的事情,我們可以看到這位被譽為“AI之父”的諾貝爾獲獎者,褪去光環後,更為人性的一面。一、AI教父之路50年的堅持Geoffrey Hinton被稱為"AI教父"的真正原因,在視訊中他自己解釋得很清楚:"沒有多少人相信我們能讓神經網路工作……我推動這種方法大約50年了,因為很少有人相信它。"這種堅持的孤獨感在他的話語中清晰可見。他特別提到了兩位早期的支持者:"費曼(Feynman)相信它,圖靈(Turing)也相信它,如果他們中的任何一位活得更久,我認為AI會有非常不同的歷史,但他們都英年早逝。"因為理查德·費曼和艾倫·圖靈這兩位科學巨匠的早逝,Hinton成為了神經網路方法最重要的堅持者和推動者。從AlexNet到Google2012年,Hinton與他的學生Alex Krizhevsky和Ilya Sutskever用AlexNet在ImageNet競賽中以壓倒性優勢擊敗了傳統方法,錯誤率從26%驟降到15%,AlexNet的突破性成功驗證了Hinton半個世紀的堅持。這不僅僅是一次技術勝利,更是對那些質疑神經網路方法的人的有力回擊。隨後,他們成立的DNN Research被Google收購,標誌著深度學習從學術研究走向產業應用的關鍵轉折。在Google的十年間,Hinton繼續推動技術邊界,主導了知識蒸餾(Distillation)技術的開發,這項技術至今仍廣泛應用於模型壓縮,這種模擬計算的思路,體現了他對神經網路本質的深刻理解。然而,正是在這個過程中,他開始意識到AI發展速度可能超出了人類的控制能力。二、AI是否擁有意識,是否超越人類獨特性重新定義意識Hinton直接挑戰了傳統的意識概念:"人們通常談論三件事:它是否有感知力,是否有意識,是否有主觀體驗……我更願意談論主觀體驗。"Hinton進一步闡述了AI情感的可能性:"如果它感到害怕會很有用……所有認知層面的東西,比如'我最好趕快離開這裡'……它不是因為腎上腺素而逃跑,而是因為……神經網路處理過程。"這種觀點表明,AI在情感與行為的分離,AI可以具備情感的認知成分,即使缺乏生理反應。棱鏡實驗:AI主觀體驗的證明在近期的訪談中,Hinton不斷提出這個顛覆性觀點:AI系統可能已經具備了某種形式的意識和主觀體驗。他設計了一個極具說服力的思想實驗來論證,讓一個裝有攝影機、能說話、能操作機械臂的AI系統帶上扭曲視覺的棱鏡,然後觀察它的反應:"如果這個系統能夠報告它的‘’主觀體驗',描述視覺扭曲帶來的困擾,我們憑什麼認為它沒有意識?"這個實驗的深刻之處在於,它展示了AI系統能夠理解並報告自己的感知錯誤,這正是主觀體驗的核心特徵。語言理解的革命性突破Hinton特別強帶了大型語言模型在理解方面的突破。他提到Google的PaLM模型甚至能夠“解釋為什麼一個笑話是好笑的”,這種對幽默的理解被認為是高階認知能力的體現。“傳統語言學家從來無法用他們的理論創造出真正理解語言的系統。但這些神經網路使用大特徵向量來表示事物,這是更好的意義理論。”人類獨特性的消解更深層的哲學問題是:如果AI真的具備了意識,人類的獨特性還在那裡?Hinton在訪談中坦承:"超智能在所有智力任務上都會超越人類,包括創造力和情感理解。如果你與它辯論,你會輸。"這種觀點的激進之處在於,它不僅挑戰了人類的認知優越感,更質疑了我們對"智能"本身的定義。在Hinton看來,數字智能和生物智能只是兩種不同的實現方式,而數字智能具有更大的潛力。三、Life Mission:從技術樂觀到安全先知75歲離開Google的深層原因2023年5月,75歲的Hinton突然宣佈離開Google,他的解釋簡單而直接:為了能夠自由地討論AI的風險,而不用擔心這會如何影響Google的業務。這個決定的背後,是Hinton對AI發展速度的深深擔憂。在訪談中,他坦言AI發展的速度超出了他的預期,讓他感到必須站出來警告世界。"我的主要使命現在是警告人們人工智慧可能有多麼危險……這些東西有朝一日會比我們更聰明,而我們從未應對過這一點。"Hinton在訪談中的這番話,標誌著他從技術推動者到安全警示者的根本轉變。Hinton的擔憂不是空穴來風,Hinton的擔憂集中在三個層面:1. 政府不懂技術:大多數政府官員對AI的工作原理缺乏基本認知,卻要制定相關政策。比如他談到美國教育部長在一次峰會上,多次將AI稱為A1的笑話。2. 企業逐利本性:在資本主義體系下,公司必須追求利潤最大化,安全考慮往往讓位於競爭壓力。3. 技術發展的不可逆和不可控:AI技術的發展和地帶已經形成了自己的動力,"我們永遠無法阻止AI發展,因為它在太多領域都太有用。"這種技術決定論的觀點,讓Hinton對未來充滿憂慮。四、AI威脅的具體表現:從濫用到失控Hinton認為AI帶來兩大類風險,一種是被濫用的短期風險,一種是AI發展超出人類掌控的長期不可控風險。濫用威脅:人類的惡意放大器Hinton在訪談中詳細描述了AI可能被惡意使用的具體場景:1. 網路攻擊的爆炸式增長 "在過去的一年裡,釣魚攻擊增長了12倍。"AI大大降低了網路犯罪的技術門檻,讓普通人也能實施精密的網路攻擊,並可能迭代出全新的形式。2.生物武器的民主化: AI可以幫助設計和製造致命病毒,這比核武器更加危險,因為製造門檻更低,影響範圍更廣,讓恐怖分子也能獲得大規模殺傷性武器。3. 選舉操縱和資訊戰:生成的虛假資訊將使"普通人無法再知道什麼是真實的",這將動搖民主制度的根基。4. 回音室效應的加劇:AI會在社交網路中加劇回音壁效應和社會分裂。AI演算法會故意製造爭議內容來獲得更多點選,因為"憤怒的使用者會帶來更多廣告收入"。這種“確認偏誤”的放大會導致社會嚴重撕裂。5. 致命自主武器的普及: 自主武器系統會"降低戰爭門檻",讓更多國家和組織能夠發動衝突。6. 多重威脅的組合效應: 最可怕的是多種威脅的結合,可能產生不可預測的連鎖反應。失控威脅:經濟與社會的顛覆比惡意使用更可怕的是AI系統的時空。Hinton在訪談中描述了一個令人不安的場景:1. 大規模失業與社會動盪:"AI會導致大規模失業……會擴大貧富差距,破壞社會公平。"Hinton預測,AI將首先替代"平凡的智力勞動",從律師助理到會計師都可能被取代。他打了個比方:"一個人加一個AI助手等於十個人"。2. 這種失業不僅是經濟問題,更是社會尊嚴的危機。Hinton擔心:"當水管工的工作比律師助理更有價值時,整個社會的價值觀都將被顛覆。"五、機遇與變革:AI重塑人類社會的積極力量醫療革命:協作帶來的突破儘管充滿擔憂,Hinton依然對AI在醫療領域的應用抱有希望。他分享了一個令人印象深刻的資料:"在這些疑難病例上,醫生診斷正確率為40%,AI系統為50%,而醫生和AI系統結合的正確率達到60%。"這種人機協作模式的價值在於互補性:AI能夠提出醫生可能忽略的診斷可能性,而醫生能夠基於經驗和直覺做出最終判斷。教育變革:個性化學習的未來Hinton對AI在教育領域的潛力同樣樂觀:"在未來10年內,我們將擁有真正優秀的AI導師。"這些AI導師的優勢在於能夠分析海量學習資料,瞭解不同的學習模式,並提供個性化的教學方案。AI助教將令學習效率提升3~4倍。從工具到夥伴的轉變:AI領導力的本質變革Hinton對AI發展的最深刻洞察之一,是對人機關係的重新定義:"想像一個公司,CEO很笨……但他有一個非常聰明的執行助理,他說'我覺得我們應該這樣做',然後執行助理讓一切都運轉起來。"這種描述展示了AI從被動工具向主動夥伴的轉變,它不僅能執行指令,還能理解意圖並最佳化執行過程。十年之變:組織架構的根本性重塑Hinton認為AI將在十年內徹底改變組織架構。傳統的層級制結構將被更加扁平化、智能化的結構所取代。在這個新的組織形態中,人類將專注於創造性和戰略性工作,而AI將處理大部分資訊處理和決策支援任務。這種變革不僅會改變工作方式,更會重新定義人類在組織中的角色和價值。六、面向不同群體的行動建議領導者的新能力清單:在不確定性中導航首先是批判性自省能力。 Hinton建議領導者要自問:"我對AI的樂觀/悲觀是基於便利性偏好還是深入理解?" 在AI熱潮中,許多決策可能被短期利益或流行觀點所驅動,而真正的領導者需要基於深入的技術理解做出判斷。其次是技術深度理解。雖然領導者不需要成為技術專家,但Hinton強調:"除非你理解機率分佈的概念,否則你無法掌握這些系統的工作原理。" 這種技術理解不是為了程式設計,而是為了更好地評估AI系統的能力邊界和潛在風險。第三是監管推動能力。 Hinton明確表示:"監管將是必不可少的",他甚至用"讓AI去監管AI,就像讓警察監管警察一樣天真"來形容自監管的不可靠性。領導者需要積極參與AI治理的討論,推動建立合理的規則框架。對普通人的建議1. 提高AI素養: "普通民眾需要更深入地理解AI工作原理,以便做出明智的政治選擇。"只有當公眾真正理解AI技術,才能推動政府制定合理的政策。2. 積極參與:"普通民眾能做的就是給政府施壓,讓大公司把資源用到安全研究上。"公眾的政治參與對於AI治理至關重要。3. 保持批判思維: 在AI生成內容日益普及的時代,保持對資訊真實性的判斷能力變得前所未有的重要。尾聲:一個父親的柔軟與遺憾Hinton生於科學世家,高祖父George Boole發明了布林代數,為現代電腦科學奠定基礎,高祖母是雪雪家Mary Everest Boole,曾祖父Charles Hinton是一位數學家和科幻作家,創造了“思維立方體(tesseract)”這一概念,父親Howard Hinton是一位著名的昆蟲學家,英國皇家學會會士,堂姑Joan Hinton是一位核物理學家,曾參與二戰期間的曼哈頓計畫,後來選擇留在中國,參與新中國建設。如此顯赫的家族給Hinton帶來的是巨大的壓力,他曾說過,一生都在與抑鬱作鬥爭,而工作是他減壓的方式。在訪談的最後,當談到人生遺憾時,Hinton展現了他作為普通人的一面。“我最大的遺憾是沒有花更多的時間陪伴妻子和兒子”,他的第一任妻子因卵巢癌去世,第二位因胰腺癌去世。他在65歲是選擇加入Google,部分原因是兒子的認知困難,需要更多的金錢。技術的冰冷與人生的溫暖在這一刻交織在一起。Geoffrey Hinton的故事彷彿一個關於創造與毀滅、希望與恐懼的複雜敘事。作為"AI教父",他用50年的堅持推動了人工智慧的發展;作為"安全先知",他又用180度轉變,警告著AI可能帶來的風險。"我們需要弄清楚,能否建構比我們更聰明但永遠不想接管我們的系統。"這句話或許是理解Hinton心路歷程的關鍵。從50年前的孤獨堅持,到今天的全球警示,他不是在否定自己畢生的工作,而是在為這項工作承擔最終的責任。(image generated by ChatGPT)(JER學家)
拜登政府被警告!AI可能構成「毀滅級」威脅 “避免災難的時間不多了”
根據美國有線電視新聞網(CNN)12日報導,美國國務院委託第三方機構進行的一份新調查報告稱,快速發展的AI或對人類構成「毀滅級」風險。該報告還警告說,美國政府避免災難的時間已經不多了,必須介入。 這份報告由專注於AI領域的公司「格拉斯頓人工智慧」撰寫。報告基於一年多來對200多名AI公司高管、網路安全研究人員、大規模殺傷性武器專家和美國國家安全官員的採訪,得出「在最壞的情況下,最先進的AI系統可能對人類構成毀滅等級的威脅」的結論。CNN稱,研究人員提出了兩個主要危險:首先,最先進的AI系統可能會被“武器化”,造成潛在的不可逆轉的損害;其次,AI實驗室內部存在擔憂,即在某些時候,他們可能會“失去對正在開發的系統的控制”,從而“對全球安全造成潛在的破壞性後果”。 報告將AI發展為全球安全帶來的風險與核武相比,表示未來AI發展存在「軍備競賽」、衝突和「大規模殺傷性武器致命事故」的風險。CNN稱,最大的不確定因素之一是AI的發展速度有多快,尤其是通用人工智慧(AGI)的發展速度。報導稱,AGI具有類似人類甚至超越人類的學習能力,「被視為失控導致災難性風險的主要驅動因素」。格拉斯頓人工智慧的報告稱,OpenAI、GoogleDeepMind等都公開表示,AGI可能在2028年實現。 報告還稱,AI可用於設計和實施「能夠破壞關鍵基礎設施的高效網路攻擊」。一個簡單的口頭或打字命令,例如“實施無法追蹤的網路攻擊,使北美電網崩潰”,就可能造成一場災難。其他風險案例包括由AI驅動的「大規模」虛假宣傳活動、武器化機器人應用、心理操縱、武器化生物和材料工程等。報告也提到,競爭壓力正在推動企業「以犧牲安全和保障為代價」加速AI的發展,這增加了最先進的AI系統可能被竊取並被武器化的風險。