這家公司,81%的老美沒聽過!

【新智元導讀】2025年,AI像空氣一樣無孔不入,可我們卻越來越不敢呼吸。一份跨越全美的民調戳破了科技繁榮的假象:在高效的背面,是藍領的倒計時和白領的盲目。當「跑贏對手」不再重要,我們該如何守住身為人的最後那份解釋權?

過去20年,那些影響深遠的技術,電視,電腦,網際網路,智慧型手機都指向同樣的結局:被驚嘆,被接納,被依賴,直到如同呼吸一般理所當然。

但這一套邏輯,放在AI身上卻行不通了。

它在極短的時間裡滲透進我們的生活,可始終沒贏得我們的信任。

美國公眾對AI重要性的判斷。多數人將AI視為與智慧型手機相當的重要技術,而非蒸汽機、電力等「文明級」基礎設施。

AI在人們的認知裡,既不像網際網路,也不像智慧型手機,反倒像一種新型的社交媒體——高效,粘人,以及......威脅。

美國公眾對不同技術整體社會影響的淨評價對比。AI的整體好感度明顯低於網際網路與智慧型手機,更接近社交媒體

人們從對技術的狂熱中抽身,第一次認真地審視這位「新朋友」:我們真的要把未來,全盤託付給AI嗎?

先用,再理解:AI正在變成新的「黑盒中介」

很多人都用AI,但真正懂它的人,遠比想像的少。

這並不是某些科技公司的年度總結,而是來自Searchlight Institute的一份全國性民調。

比起模型性能,調查者更關心一些實際的問題:當AI真正進入生活,人們如何看待它?為什麼感到不安?

調查結果很扎心:接近一半的受訪者認為,像ChatGPT這樣的工具只是在「翻資料庫」,或者是照著某種預設的指令碼回答。

工具與公司之間的認知斷開。ChatGPT家喻戶曉,但仍有四成以上的人從未聽說過OpenAI;像Anthropic這種處於核心技術圈的公司,八成以上的人完全沒聽過。

美國公眾對主要科技公司的認知對比。與Google、Amazon等傳統科技公司相比,AI公司仍處在大規模「認知空白」中。

先使用,再理解,這是一種十分危險的「邏輯倒置」。

當我們把查證、篩選、總結這些環節交給AI,卻並不清楚它如何運作、依據什麼做判斷、又在受誰影響時,權力的天平已經悄悄傾斜。

報告中有一個細節:AI正在成為一種新的「資訊中介」。

越來越多的人不再直接觸碰原始資訊,而是習慣於先看一眼由模型生成的摘要、排序和解釋。

這意味著,無論是公共議題還是健康資訊,在我們看到之前,其實已經被AI 「加工」過了。

當這種過濾成為一種潛移默化的習慣,問題就不僅是資訊來源準不準確,而是——我們看到的,是真實的世界,還是AI編造出的世界?

同一項技術,不同的生存直覺

在調查中,白領群體對AI的接納度更高。

他們熟練地將其接入寫作、整理與分析的流程。對他們而言,AI是生產力的加速器,是效率的延伸。

但在服務業與體力勞動者的視野裡,看法完全相反。超過一半的服務業從業者認為,AI終將取代他們當下的生計。

他們從不糾結模型的好壞,也不關心版本的更迭,他們只在意——這個系統,是在幫我,還是在瞄準我。

這恰恰是這份調查最殘酷的地方。AI製造的分裂,從來不是會不會用,而是身處不同位置時的生存直覺。

對白領來說,AI替他們承擔著瑣碎且低風險的雜務;但對服務業者而言,AI會侵佔那些標準化的、可複製的、容易被資料衡量的勞動。

美國AI使用者的主要使用場景。當前AI更多被用於資訊獲取、文字處理等認知型任務,而非直接介入現實生產勞動。

同一項技術,一邊看到的是效率提升,一邊看到的卻是失業倒計時。

美國公眾對AI與工作的關係判斷。

這種擔憂,並不只存在於某個行業。大多數的美國人相信AI會取代工作,而不是補充工作。

這種恐懼也並非平均分佈。在調查中,醫生、電工、維修工人對「被取代」的擔憂明顯更低。

因為他們深知,真實的物理世界充滿了模糊的情境與未知的現場,這是目前的演算法難以踏足的禁區。

在那些關乎生死的瞬間,人類無法將「道德責任」轉嫁給一段程式碼。

AI可以處理海量的資料,卻無法做出「該不該」的抉擇;它能給出精準的建議,卻無法為最終的後果負責。

在這條無形的裂縫之上,AI不僅是進步的象徵,它更像一面照妖鏡,冷冷地照出了職業與階層之間,那份本就不對等的風險承擔。

2025的轉向:速度,不再是最高價值

在「該怎麼辦」這件事上,人們的態度出奇地一致。

超過三分之二的受訪者認為,政府目前對AI的監管實在太少了。

這不是要求公司按下暫停鍵,更不是要封殺技術本身,而是一種明確的價值取向:AI可以繼續發展,但前提是,它必須被測試、被約束、被追責。

真正耐人尋味的,是那道關於「速度與安全」的選擇題。

當「監管可能導致在國際競爭中落後」這個尖銳的籌碼被擺上桌面時,大多數受訪者依然沒有動搖。

相比於「不受限制地領跑」,他們更願意接受一個雖然更慢、但更安全的版本。

這是一次極其清晰的敘事反轉。長期以來,技術進步總被包裝成一場不能停下的軍備競賽——慢一步就會被超越,猶豫一下就會被淘汰。

但在AI這件事上,普通人開始意識到:贏得比賽的獎勵,與失敗後要承擔的後果,往往並不是同一群人。

在涉及國際競爭的前提下,美國公眾仍明顯傾向於優先制定AI的安全與隱私規則。

如果勝利的代價是工作的動盪、隱私的暴露,判斷權的讓渡,那麼即便技術指標遙遙領先,這種勝利也無法讓人感到安寧。

美國公眾對AI風險的主要擔憂及監管優先順序。多數關注集中在就業、隱私與資訊秩序等現實層面。

調查中還有一個更極端的假設:在「完全不受監管的AI」與「乾脆禁止發展」之間,多數人並沒有投給前者,甚至陷入了長久的遲疑。

這種遲疑本身就是一種表態。公眾不再迷信「技術越快越好」,他們正在權衡風險是否已經逼近了個人生活的底線。

不是所有決定,都該交給演算法

在這份調查裡,人們表現出的並不是盲目排斥。相反,大家對AI的認知相當清醒。

它確實更高效、更快,也更擅長處理那些規則明確的事務。

但當問題開始變得模糊,當後果需要被具體的某個人承擔,當判斷牽涉到複雜的價值取捨時,信任並沒有盲目地向技術傾斜。

這也是為什麼,在「道德」、「複雜決策」與「透明度」這些維度上,人類依然被視為不可替代。

AI可以給出看似完美的答案,但它並不生活在答案帶來的後果裡。

所謂的防線,也不是要阻擋技術的浪潮,而是要守住判斷的權力,責任的鏈條,以及對錯誤最起碼的承擔。

當資訊開始被演算法過濾,當工作被系統重構,當越來越多的決策發生在我們看不見的「中間層」,人類真正需要保護的,是那份對世界的解釋權:誰有權做決定,誰又必須為這個決定負責。

這也讓2025年顯得格外不同。

在這一年,人們開始停下來問:在AI走得更遠之前,我們有沒有把那道屬於人的邊界,畫得足夠清楚。 (新智元)