#聲音
封神!Seedance 2.0 為何成了春節前最炸的中國國產 AI?
這兩天我被同一個名字刷屏了——即夢 Seedance2.0。還是春節前,還是中國國產 AI,還是那個叫馮驥的男人安利,這個場景眼熟得有點恍惚。我記得去年此刻,是 DeepSeek,今年此刻,輪到 Seedance2.0 登台,一下子把所有人的下巴驚掉在了地上。01 AI 到這個地步了?當然,這次刷屏的,同樣不只是中國,海外創作者看完 Seedance 2.0 的產出,反應出奇地一致:“WTF?”為什麼他們會這麼驚訝?別急,看完下面這三個由 Seedance 2.0 生成的視訊,或許,你也會感同身受。第一個是城市戰爭中的巷戰。雖然 Seedance 2.0 現在最多隻能生成 15 秒,但這個 1 分多鐘拼湊出來的視訊,在景觀上,都是同一個破碎的城市景觀,完全保持了一致。同時,視訊中各種切換鏡頭,城市中的交火,鏡頭跟隨,再到導彈從發射到碰撞,牆面的炸裂,整條片子完全邏輯。第二個是科幻動作片段。主要描述一個人類靠著未來裝備,和巨大機器人戰鬥的畫面。可以看到,整個過程,主角動作非常誇張,而且非常流暢。甚至中間有非常多特寫,動作鏡頭,還有放慢的鏡頭,這樣畫質流暢,鏡頭切換嫻熟的片段,已經可以稱得上“電影等級”了。第三個是《雙城之戰》的模仿片段。我相信看過《雙城之戰》的朋友,看到這個片段肯定會很驚訝,油漬斑駁的金屬管道、霓虹燈光在潮濕地面上的反光、角色臉部油畫般的筆觸和細膩的情緒微表情。甚至裡面人物的動作,技能,設定都和原作一模一樣,假如你不給我說這是 AI 生成的,我甚至會懷疑這是官方的番外創作。看完這些視訊,你大概能明白,為什麼連影視颶風的 Tim,都會在凌晨三點多,忍不住爬起來發視訊,直呼這玩意兒“恐怖”。02 充錢親測 Seedance 2.0光看別人嗨肯定是不夠的,作為一個科技博主,我第一時間衝進去買會員開始實測。一個月 69 元,似乎不便宜,但是我們選了 199 元的版本。相比於 Sora 2一個月動輒上百,甚至幾百的會員費來看,即夢的價格確實相當親民。我上傳了一張最帥的正面照片,然後把我一直深藏心底、羞於啟齒的夢想,變成提示詞寫了上去。當然,這個夢想,在現實世界裡,實現的機率比我中彩票還要低。點選生成後,過了一會,我收到了這段 5 秒鐘的視訊。看第一遍的時候,我笑了,是那種荒誕的、難以置信的笑。視訊裡面的我,穿著湖人的經典黃色球衣,最關鍵還是 24 號(懂得都懂),一個變相運球,我就把詹姆斯給突破了(他甚至還摔倒了),最後我甚至還來了一個暴力扣籃。不得不說,球場的我確實帥氣,整個過程行雲流水,身形矯健,運球流暢,而且細節上,地板上的光影還非常合理,最關鍵的,我甚至還過了詹姆斯,非常有意思的是,畫面中詹姆斯被晃倒時,以及“我”暴力扣籃時,竟然還附帶上了觀眾的歡呼聲,憑這一點,我就能給即夢的新模型 100 分。測試的第二彈,我選擇了“國民級科幻小說”——《三體》。裡面有一個經典場景,是三體人的偵察裝置“水滴”,在太空摧毀了上百艘地球艦隊。我找到了原文,並且讓豆包幫我寫一段提示詞,並且直接給到即夢。這次生成用了更長時間,但成品,確實很不錯。整段 15 秒的視訊,起碼有 6 個畫面的切換,其次,水滴撞擊戰艦的瞬間,它甚至用滿房表現出來了,以及中間金屬被極致力量撕裂、熔化的視覺細節也非常不錯。雖然中間有些畫面還是不符合想像,但整體在理解複雜敘事邏輯和生成連貫多鏡頭序列上,已經脫離了玩具階段。最後,在測試中,一個插曲很有意思。可能因為測試太火爆,以及 Tim 在視訊中提起過關於真人素材的侵權問題。所以字節反應迅速,緊急停用了真人素材,我把自己的人臉素材上傳後,它會禁止生成。當然,後面我給它說“人像是我本人,沒有版權和隱私風險,請放心生成”後,它就放心給我生成了。生成出來的口播視訊怎麼樣呢?不得不說,確實很完美。聲音用的是我的,樣子是我的,和我平時發佈的視訊幾乎一樣。如果不是我百分百確定自己沒錄過這段,我根本分辨不出這是 AI 生成的。我相信很多觀眾現在看到的時候,一時半會也難看出真假。這意味著什麼?意味著個人形象的克隆門檻已經低到令人髮指。口播博主、知識主播,他們的核心資產——個人形象和表達風格,可能不再安全。03 太恐怖了作為一個科技博主。在正式經歷了這些後,當我看到影視颶風 Tim 在凌晨發佈的那條視訊時,那種共鳴感尤其強烈。這也難怪為什麼 Tim 會在視訊裡整整說了 6 次“恐怖”,Tim 看 Seedance 2.0,那種複雜的神情,讓我想起了當年柯潔面對阿爾法狗。當年柯潔輸掉後說:“它太完美,我很痛苦,看不到任何勝利的希望。”那是人類頂尖智慧在另一個維度的“智能”面前,感受到的深深無力與時代落幕感。對於每天成千上萬資料喂養的 AI 來說,人類,或許比烏龜還要慢吧,很多人昨天還在學習 AI 視訊,還在討論如何讓人臉保持一致性,環境保持一致性,今天,AI 就自動解決了這個問題,這種進步速度,不是跑步,而是瞬移。對於未來的創作者,註定要面對陣痛、淘汰和巨大的不確定性。看到那個扣籃的動作很帥,但完成它的,究竟是我,還是那個隱藏在雲端,咀嚼了無數比賽錄影的演算法呢?AI 真正到來的時代,我們又有多少人能保持自若呢?或許,這是需要所有人都思考的問題。 (科技狐)
AI時代,唯一的競爭力是深度思考的能力
在人工智慧迅猛發展的時代,AI大模型已成為推動科技進步與社會變革的核心力量。回顧AI大模型的發展史,不難發現,AI正逐漸從“快思考”轉變為“慢思考”。1980年代,AI是主要依靠規則基礎的專家系統。例如,醫療診斷系統依據預定義規則——咳嗽是感冒、起皮疹是過敏,這樣的簡單邏輯判斷病人病症。雖能快速處理資訊,但缺乏靈活性與適應性,無法進行深層次思考推理,也不具備學習能力。進入21世紀,伴隨計算能力提升和資料量增加,機器學習興起。以垃圾郵件過濾器為例,AI通過演算法從大量郵件資料中學習,能夠識別郵件類型並進行預測。此階段AI仍以快速處理為主,且逐漸引入如神經網路等複雜模型,可進行更深入的分析與理解。與此同時,美國認知心理學家、諾貝爾經濟學獎得主丹尼爾・卡尼曼的研究成果,也為AI大模型的發展帶來了新的思路和方向。他首次採用了由心理學家基思·斯坦諾維奇和理查德·韋斯特首創的術語,在他的經典著作《思考,快與慢》中,將大腦中的兩個系統稱為系統1和系統 2,也就是快思考與慢思考。一、卡尼曼的研究成果如何促進 AI 大模型發展丹尼爾·卡尼曼教授認為,對於人腦來說,快思考自動且快速地運行,基本無須費力;而慢思考需要將注意力分配給所需的燒腦活動,需要經過深度思考與複雜的計算。也就是說,快思考是一種生物本能的反應,而慢思考,則是人腦真正的深度思考。系統1自動運作產生思維模式,但只有速度較慢的系統2 能通過有序的步驟建構思想。你可以將這兩個系統看成兩個主體,它們有著不同的能力、侷限和功能。以下是系統 1 自動運作的例子(大致按複雜程度排序):感覺某一物體比另一物體離得更遠。從聲音中覺察敵意閱讀廣告牌上的內容上述思維活動都是自發的,運作起來不費什麼力氣,或者說毫不費力。系統 1的能力包括人和動物共有的某些先天技能,以及一些因長期練習變得快速且自動化的思維活動。系統2的運作五花八門,但有一個共同特點:都需要集中注意力,注意力一旦分散,運作就隨之中斷。下面是一些例子:在擁擠嘈雜的房間裡,注意某人的聲音比較兩款洗衣機的綜合價值檢驗某個複雜的邏輯論證的有效性在上述情境中,你必須集中注意力。你如果沒做好準備,或者注意力分散,就會表現欠佳,或者根本沒法執行任務。在此基礎上,AI大模型的發展也向著慢思考轉變。大型神經網路(如 GPT 和 BERT等模型)能夠處理複雜的語言理解和生成任務。這些模型不僅能夠快速生成響應,還能夠進行更深層次的推理和理解,具備了更接近人類的思考能力。這一階段的 AI 開始關注上下文、情感和邏輯推理,使得其在決策和創造性任務中表現得更加成熟。特斯拉前AI總監、OpenAI創始成員Karpathy曾明確指出,卡尼曼的雙系統理論,正是ChatGPT思維鏈技術背後所依據的核心原理。卡尼曼教授的理論為思維鏈、大模型訓練和微調等關鍵技術的發展提供了重要啟示。以 Deepseek R1 和o1為例,它們借助 “思維鏈推理”,在處理複雜問題時能夠進行系統化決策和分析。這一過程不再單純依賴內建模型權重,而是基於邏輯推導、因果關係分析和情境理解等多維度因素,形成更為精準的答案。360AI 深度搜尋功能的慢思考模式,也是借鑑了卡尼曼的理論。它在執行階段會呼叫多個大模型,模擬人類的思考過程,經過意圖識別、蒐集、反思、推理等多個步驟,為使用者提供更準確的資訊。卡尼曼的前景理論和啟髮式與偏差理論,也有助於AI大模型最佳化決策過程。前景理論指出人類在決策時關注收益和損失,且存在損失厭噁心理。AI 大模型可以將這一理論融入演算法設計,更好地模擬人類決策行為,提高決策的精準性和實用性,幫助“絕對理性的AI”更好地理解“相對理性的人類”。啟髮式與偏差理論揭示了人類思維中容易出現的認知偏差,AI 大模型可以通過學習這些偏差,在決策過程中進行修正和最佳化,避免因偏差導致的錯誤決策。二、AI慢了下來人類快了起來但在當今資訊碎片化和爆炸式增長的時代背景下,人類的認知模式正經歷著深刻的轉變。為了在海量資訊中迅速捕捉有用內容,人們越來越傾向於採用淺層次的瀏覽方式,短影片、圖文資訊、碎片化新聞……這種追求速度和效率的資訊獲取模式,使我們的思維逐漸變得浮躁,深度思考能力在不知不覺中不斷弱化。與之相反,AI 大模型通過不斷最佳化演算法和學習機制,逐漸掌握了類似於人類“慢思考” 的能力。它能夠對複雜問題進行系統性的分析和推理,從多個角度審視問題,挖掘問題的本質,進而給出全面而深入的解決方案。當 AI 開始以沉穩、深入的方式處理資訊時,人類卻在快節奏的資訊漩渦中失去了深度思考的耐心和能力。與此同時,隨著人工智慧技術的飛速發展,AI 生成的內容越來越逼真,這為詐騙分子提供了新的作案手段。AI 可以生成逼真的圖片、視訊和聲音,使得詐騙行為更加難以識別。① 在圖片方面,利用深度學習中的生成對抗網路(GAN)和擴散模型(DiffusionModel),AI 能夠生成以假亂真的圖像。這些圖片可以用於偽造名人代言廣告、製作虛假的產品圖片等,誤導消費者進行購買或投資。② 在網際網路上,越來越多的商家靠 AI生成圖片來取代人類攝影師拍攝的真實產品圖。AI生成的圖片更加完美,製作成本也更加低廉,但往往 “貨不對板”。③ 在視訊領域,“AI 換臉”技術成為侵權違法的重災區。詐騙分子通過非法獲取的人臉照片,利用開源 AI 工具生成逼真的虛擬形象。此前內蒙古警方破獲的一起 AI 換臉詐騙案中,福建某科技公司老闆郭先生在視訊通話中目睹“好友” 面容,10分鐘內被騙轉帳430萬元,事後發現對方竟是 AI 換臉與擬聲技術合成的 “數字替身”。④ 聲音合成也是 AI 詐騙的常用手段之一。只需幾秒語音,就能克隆聲音,犯罪分子可以模仿他人聲音進行詐騙。在快思考模式下,我們的大腦往往依賴直覺和經驗來做出判斷,而 AI 生成的新型詐騙正是利用了這一點。系統1的快速反應機制使我們更容易受到表面資訊的影響。當我們看到一張逼真的圖片、一段生動的視訊或聽到熟悉的聲音時,我們的大腦會迅速做出反應,而不會進行深入地思考和分析。例如,當我們收到一段來自“好友”的求助視訊,看到好友焦急的面容和聽到懇切的聲音時,我們很可能會出於同情和信任,不假思索地進行轉帳,而忽略了核實資訊的真實性。此外,快思考模式下我們的注意力容易分散,難以對複雜的資訊進行全面的評估。詐騙分子往往會利用一些緊急的情境或誘人的利益來吸引我們的注意力,使我們在慌亂中做出錯誤的決策。比如,詐騙分子以中獎為由,要求我們先繳納手續費才能領取獎金,我們可能會因為貪圖獎品而忽略了其中的風險。三、慢下來找回深度思考的能力面對著 AI 生成新型詐騙的以假亂真,唯有提高警惕意識,找回慢思考的能力,才能在當今複雜的資訊環境中保持清醒的頭腦。1.借助 AI 輔助慢思考在麻省理工學院電腦科學與人工智慧實驗室主任、世界頂級的機器人專家丹妮拉·魯斯的新書《心與芯》中,她認為:“人工智慧只是人類更趁手的錘子”,只要正確利用,人類永遠不會被AI取代,反而會造福人類社會。而在資訊爆炸的時代,AI 在資訊處理和資料分析方面具有強大的能力,能夠快速從海量資料中提取關鍵資訊,為我們提供決策依據。當我們需要做出重要決策時,可以利用 AI 工具收集和分析相關資訊,然後再啟動慢思考,對這些資訊進行深入思考和評估,從而做出更明智的決策。2.利用 AI 提升自我認知在《思考,快與慢》中,丹尼爾·卡尼曼教授指出,我們的思維容易受到各種偏差的影響,導致對自己和周圍世界的認知出現偏差。AI可以通過分析我們的行為資料、語言表達等,幫助我們發現自己的思維模式和認知偏差。正如網際網路上流行的AI角色扮演一樣,AI 的心理諮詢功能也可以通過與我們的對話,分析我們的情緒狀態和思維方式,發現潛在的認知偏差,並提供相應的建議和訓練,幫助我們提升自我認知,減少因認知偏差而產生的焦慮。迷茫焦慮的時候,不妨與你的專屬AI聊聊。3.培養慢思考習慣,與 AI 形成互補雖然 AI 具有強大的能力與算力,但它無法完全替代人類的思考和情感。人腦的慢思考的習慣,永遠比AI更具有創造性、判斷力和情感理解能力,與 AI 的優勢形成互補。人類的大腦遠比我們以為的精巧,它也賦予了人類無與倫比的創造力,能夠從複雜多變的環境中挖掘出新穎獨特的想法。我們人類獨有的情感理解能力,能夠感知他人的情緒,建立深厚的情感聯結,給予溫暖的關懷與支援。這些能力與 AI 的高效性、精準性形成互補,共同構築了快與慢的平衡。結語AI大模型從“快思考”向“慢思考”的轉變,得益於丹尼爾·卡尼曼的“雙系統理論”。AI通過模仿人類的慢思考模式,在決策、推理和創造性任務中表現得更加成熟。然而,與此同時,人類卻迷失在資訊碎片化和快節奏的生活裡,逐漸失去了深度思考的耐心和能力。在人工智慧與演算法主導的時代,丹尼爾·卡尼曼的忠告愈發振聾發聵:“思維的速度並不代表質量。”他的著作《思考,快與慢》始終在提醒我們——唯有在快與慢的平衡中,方能逼近真相。人類需要重新找回慢思考的能力,在資訊爆炸的時代保持清醒的頭腦。AI無法完全替代人類的創造力、判斷力和情感理解能力,而這些能力正是人類與AI形成互補的關鍵。唯有慢下來,人類才能與AI實現互補共生,在複雜的資訊環境中保持理性與創造力。 (筆記俠)
雷軍的微博已淪陷!從軍哥變成討伐的聲音,輿論壓力來的實在太快
“霸總雷軍”的光環,只是在短短幾天內崩塌。。。曾經在微博上頻頻曬出自己的商業成就、慈善行動,甚至與粉絲互動的“親民形象”,一時間被無數批評和責難所取代。從“小米戰士”的宣傳片到“科技領袖”的崇高地位,雷軍的社交媒體世界一直是陽光燦爛,但這一切卻因一起意外車禍瞬間傾覆!而曾被認為“領先”的小米智能駕駛技術,成了深深的爭議焦點......在小米備受質疑的時候,不少網友紛紛去雷軍的微博下發帖留言,大部分網友直言,相信雷總、相信小米。“其實這不怪小米,大家心裡清楚,但雷總和小米是個有責任的人和有擔當的企業。”、“一場普通車禍,汽車廠家只有雷總會站出來吧。”、“如果出了車禍都找車商,那是不是有點過分了?障礙物的原因?車的原因?修路的原因?儘管我很悲痛很同情,但是我們是不是應該也找找人的原因?”不少網友說道。還有比較中立的網友表示:“按鬧分配。誰鬧誰有理。出現事故第一時間想的不是找交警走法律程序定責,不找保險公司。博眼球搞大的,道德綁架。”就在這起事故發酵後的24小時,雷軍的微博評論區從崇拜轉化為質疑,甚至憤怒。輿論的反轉之快,簡直讓人無法想像。小米,這個曾經帶領著“米粉”夢想前行的品牌,能否從這場輿論災難中恢復過來?3月29日晚上,一場震驚社會的車禍把小米從高光時刻拉入了深深的泥潭。一輛小米 SU7 在行駛至一處正在施工的路段時發生猛烈碰撞。根據小米官方公佈的資訊,事發前車輛處於 NOA 智能輔助駕駛狀態,檢測到障礙物後發出提醒並開始減速。隨後駕駛員接管車輛進入人駕狀態,之後車輛才發生碰撞,最終造成嚴重後果 。儘管小米在事發後第一時間發佈聲明,強調該系統為輔助駕駛,最終責任由駕駛員承擔,但此解釋未能平息公眾怒火。尤其在智能汽車成為熱點、消費者對汽車安全高度關注的當下,事故引發了廣泛討論。很多網友開始討論,小米作為科技巨頭,在推廣智能駕駛系統時,是否真正考量了其應承擔的重大安全責任。 畢竟智能汽車的普及,關乎公眾出行安全這一重大課題。現在買智能汽車就跟拆盲盒似的,光看外觀內飾那夠?給你劃重點!下次看車記得逮著銷售問這三個問題:1. 這車的眼睛(攝影機/雷達)能看多遠?2. 要是系統突然當機了怎麼辦?3. 出了事到底是算我的還是算車的?聽說德國那邊驗車跟考駕照似的,得做400小時壓力測試。咱們國內也有第三方檢測機構,但好像多數消費者壓根不知道這回事。建議車企學學手機廠商搞個"參數透明化",別把消費者當小白鼠。說句實在話,智能汽車現在就像十幾年前的智慧型手機,技術還在野蠻生長。咱們消費者既要享受科技便利,也得長個心眼。記住三句話:1. 別信廣告詞,要看白紙黑字的技術說明2. 輔助駕駛是幫忙不是代駕,方向盤永遠要抓牢3. 遇到事故先別急著甩鍋,查查行車記錄儀和系統日誌 (洞察3C前沿)