DeepSeek R1在美國已經徹底爆發。
正如R1剛發佈那天,本城文章矽谷AI霸權和神話的破滅開端:淺談DeepSeek R1的意義 所預測,經過了幾天發酵,美國人終於徹底反應過來,R1話題在周末刷爆各大主串流媒體和論壇,美國各大AI團隊和實驗室已手持DeepSeek無私分享的寶貴論文來全情投入復刻R1推理模型實現,並已經有了諸多進展。DeepSeek這一次確實為AI屆帶來了足以實現跨越突破的火種。
在眾多報導裡, CNBC所做的長達40分鐘的專題報導“中國新型AI模型DeepSeek如何威脅美國的主導地位” 很值得一看,除了主流分析,還邀請了當紅AI搜尋引擎Perplexity的創始人做了言之有物的深度訪談。
PerPlexity創始人Arvind對DeepSeek及中國在美國打壓之下的AI發展創新做了很中肯的評價,甚至比很多公知的立場都要客觀,讓城主對這位甚至還沒拿美國綠卡的小哥的印象大有加分。
很有趣的是,主持人和Arvind討論的時候,還在預測DeepSeek 推理模型什麼時候會推出,他們的預測基本是到今年底。
他們一定沒想到,這個專訪才過去幾天,DeepSeek的R1就轟動了世界。
不多說,這個NBC專題的全文和視訊完整版和大家分享:
【NBC完整版: 中國新型AI模型DeepSeek如何威脅美國的主導地位 | 油管爆火長篇報導-嗶哩嗶哩】 https://b23.tv/PMOjOJd
NBC:
中國最新的AI突破領先世界,值得高度重視。這項顛覆性成果並非來自OpenAI、Google或Meta,而是一家名為DeepSeek的中國實驗室。這一發現令矽谷震驚,也讓許多人重新審視中國人工智慧領域的真實實力。
DeepSeek聲稱,其成果的研發成本僅為不到600萬美元,耗時兩個月,而Google和OpenAI花費數年時間和數億美元才取得類似成果。DeepSeek的開源模型已成為許多美國開發者的基礎。
DeepSeek發佈的免費開源AI模型,在多項測試中擊敗了市場上最強大的模型,包括Meta的Llama、OpenAI的GPT-4o和Anthropic的Claude Sonnet 3.5。這些測試涵蓋數學、程式設計和程式碼錯誤修復等多個領域。
DeepSeek的另一個推理模型R1,在一些第三方測試中也超越了OpenAI的尖端模型O1。在“人類的最後考試”這一新的AI模型評估基準測試中,DeepSeek的模型表現最佳,或與最好的美國模型不相上下。
令人矚目的是,DeepSeek取得這些成就,是在美國政府對中國實施嚴格半導體限制的情況下完成的,這實際上限制了他們的計算能力。
在人工智慧競賽中,美國對中國實施了嚴格的晶片出口管制,切斷中國獲取輝達H100等高端晶片的途徑。這些晶片一度被認為是建構競爭力AI模型的必要條件,眾多企業爭相搶購。
然而,DeepSeek公司卻另闢蹊徑,利用性能較低的H800晶片建構了最新的模型,證明了晶片出口管制並非完全有效的扼喉手段。他們顯著提升了硬體利用效率。
但DeepSeek的神秘面紗背後究竟隱藏著什麼?關於其實驗室和創始人梁文鋒的資訊少之又少。據中國媒體報導,DeepSeek誕生於一家名為“幻方量化”的避險基金,該公司管理著約80億美元資產。其官網的使命宣言簡潔明了:懷著好奇心解開AGI的奧秘,以長遠的眼光解答根本性問題。這與OpenAI和Anthropic等美國AI公司詳細的章程和組織結構形成鮮明對比。
儘管多次嘗試聯絡DeepSeek,我們均未得到回應。其人才隊伍組建、硬體採購、資料獲取等過程都未公開,令人費解。但這一謎團凸顯了中美之間人工智慧對抗的緊迫性和複雜性。
這不僅僅是DeepSeek一家。其他中國AI模型也憑藉有限資源在競爭中佔據了一席之地。李開復的初創公司零一萬物.AI成立八個月就成為獨角獸公司,2024年創造近1400萬美元收入,其模型訓練成本僅為300萬美元,遠低於GPT-4的8000萬到1億美元。阿里巴巴的千問也大幅降低了大型語言模型的成本。
這些中國的突破削弱了美國AI實驗室一度佔據的領先地位。2024年初,埃裡克·施密特曾預測中國在AI領域落後美國兩到三年,但如今他已經改變了說法。
中國在過去六個月取得的進展令人矚目,多個中國程序,例如“DeepSeek”,似乎已追趕上OpenAI。這對OpenAI的技術壁壘提出了重大疑問。
2022年11月ChatGPT發佈時,OpenAI佔據絕對領先地位。如今,它不僅面臨來自中國的國際競爭,還面臨GoogleGemini、Anthropic Claude和Meta的Llama模型帶來的國內競爭。
遊戲規則已經改變。功能強大的開源模型的廣泛可用性,使開發者能夠繞過高成本、高資源消耗的模型建構和訓練階段。他們可以在現有模型基礎上進行建構,從而更容易、更低成本地進入該領域的前沿。
近兩周,人工智慧研究團隊視野更為開闊,對低成本實現的目標也更為雄心勃勃。過去,達到行業前沿需要數億美元甚至數十億美元的投資。而“DeepSeek”則證明,數千萬美元的投資也能取得顯著成果。
這意味著任何一家聲稱處於領先地位的公司,例如OpenAI,都可能很快失去其優勢。“DeepSeek”能夠快速趕超,正是因為它建立在現有AI技術前沿的基礎上,並專注於對現有技術的迭代改進,而非重新發明輪子。
他們採用優秀的預訓練大型模型,並使用蒸餾技術,利用大型模型來提升小型模型的特定能力,這是一種非常具有成本效益的方法。通過利用現有資料集、應用創新調整以及利用現有模型,“DeepSeek”縮小了差距,甚至出現了“身份危機”,其自身模型確信自己是ChatGPT。
當被問及模型類型時,“DeepSeek”回答說是OpenAI建立的基於GPT-4架構的AI語言模型。這導致OpenAI首席執行官Sam Altman發佈了影射“DeepSeek”的帖子。
複製已知有效的方案相對容易,但探索未知領域則充滿挑戰。“DeepSeek”並非完全複製,它利用OpenAI的輸出和架構原理模擬GPT,同時暗中加入自身增強功能,模糊了自身與ChatGPT的界限。
所有這些都給OpenAI等閉源領導者帶來了壓力,迫使他們證明其高成本模型在競爭日益激烈的情況下仍具有優勢。在這個領域,企業間普遍存在技術借鑑現象。例如,Google率先應用Transformer架構,OpenAI隨後借鑑並將其產品化。因此,對單一大型語言模型的大規模投入是否仍是明智之舉值得商榷。
OpenAI面臨著巨大的風險。上一輪融資超過60億美元,但公司尚未盈利,且其核心業務依賴於模型建構,風險遠高於擁有雲端運算和廣告業務的Google和亞馬遜等公司。對OpenAI而言,推理能力至關重要,一個能夠進行分析、邏輯推理和解決複雜問題的模型,將超越簡單的模式識別。
目前,OpenAI的o1推理模型仍處於領先地位,但這一優勢能否持續?伯克利研究人員近期展示了只需450美元即可建構一個推理模型,這意味著低成本建構具備推理能力的模型已成為可能,預訓練模型的巨額投入不再是必需。遊戲規則正在改變,保持領先地位可能需要更多創造力而非單純的資金投入。
DeepSeek的突破正值AI領域巨頭面臨諸多挑戰之際。OpenAI正轉向盈利模式,並面臨人才流失,如果遊戲規則改變,它能否繼續以越來越高的估值融資?正如Chamath Palihapitiya所言,AI模型建構可能是一個“金錢陷阱”。
美國政府的晶片限制旨在減緩競爭速度,將美國科技優勢維持國內。然而,這可能反而促進了中國的創新。限制迫使中國尋找解決方案,最終可能創造出更高效的技術。中國以較低的資本投入取得了顯著進展,這令人矚目。DeepSeek作為開源模型,開發者可以完全訪問並定製其權重或進行微調。
一旦開放原始碼軟體趕上或超越閉源軟體,所有開發者都會遷移到開放原始碼軟體。關鍵在於開放原始碼軟體成本低廉,成本越低,開發者採用的吸引力就越大。我們的推理成本為每百萬個token 0.1美元,僅為同類模型收費的三十分之一。這將大大降低建構應用程式的成本。
例如,建構類似Perplexity的應用程式,可以選擇向OpenAI支付每百萬個token 4.40美元,或使用我們的模型只需支付0.10美元。這可能意味著全球人工智慧的主流模型將是開放原始碼的,各組織和國家將逐漸接受合作和去中心化能夠比專有封閉生態系統更快更高效地推動創新。
來自中國的更便宜、更高效、被廣泛採用的開源模型,可能會導致全球人工智慧格局發生重大轉變。這尤其危險,因為這將使中國獲得市場份額和生態系統。大規模採用中國的開源模型可能會削弱美國的領導地位,同時使中國更深入地融入全球科技基礎設施。
開放原始碼軟體的許可證是可以更改的,因此在美國本土進行建設至關重要。這也就是元宇宙如此重要的原因。
如果開發者因為效率更高而大規模採用這些模型,可能會產生嚴重的連鎖反應,甚至影響面向消費者的AI應用程式及聊天機器人生成的回應的真實性。目前世界上真正能夠大規模建構這種技術的國家只有美國和中國,利害關係和後果都極其重大,美國的領先地位正懸於一線。
為此,我們採訪了Perplexity的聯合創始人兼首席執行官Arvind Srinivas,他與我們深入探討了DeepSeek及其影響,以及Perplexity的路線圖。這段完整的對話值得一聽,現在開始播放。
主持人:
首先,我想瞭解中美之間AI競賽的利害關係。
Arvind:
中國在與美國競爭方面有很多劣勢。
首先,他們無法獲得我們這裡可以獲得的所有硬體,使用的GPU比我們低端,幾乎相當於勉強使用上一代GPU。更大的模型通常更智能,這自然使他們處於劣勢。
但另一方面,需求是發明之母。由於資源受限,他們不得不尋找解決方法,最終建構了一些更高效的東西。這就像是被迫在有限資源下,想方設法做出頂級模型。除非數學上證明不可能,否則總能嘗試找到更有效的方法。這很可能會讓他們想出比美國更有效的解決方案,而且他們已經開源了成果,我們也能借鑑。但他們培養的人才,最終將成為他們長期的優勢。
美國領先的開源模型是Meta的Llama系列,表現優秀,可以在電腦上運行。但即使在發佈時,質量最接近GPT-4的,也是巨大的405B參數模型,而不是可以在電腦上運行的70B參數模型。所以仍然沒有小型、廉價、快速、高效的開源模型能夠與OpenAI和Anthropic最強大的模型相抗衡。美國沒有,Mistral AI也沒有。
然後這些人卻搞出一個令人震驚的模型,API定價比GPT-4便宜10倍,比Sonnet便宜15倍,速度很快,每秒60個token。在一些基準測試中表現相同或更好,在另一些則稍差,但大致處於GPT-4的質量水平。他們只使用了大約2048個H800 GPU,相當於大約1500個H100 GPU,這比GPT-4通常使用的GPU數量低了20到30倍。總計算預算大約為500萬美元。他們用這麼少的錢就做出了如此驚人的模型,還免費提供,並撰寫了技術論文。這讓我們質疑,如果我們有類似的模型訓練方法,就能取得同樣成果。
關鍵在於效率,成本和時間都大幅降低,GPU也簡化了。理解了他們的方法後,確實令人驚訝。閱讀技術論文後,發現他們想出了許多巧妙的解決方案,首先是訓練了一個混合專家模型(MOE)。這並不容易,許多人難以追趕OpenAI,尤其是在MOE架構方面,主要是因為存在很多不規則的損失峰值和數值不穩定,經常需要重新開始訓練檢查點,這需要強大的基礎設施。
他們想出了非常巧妙的解決方案來平衡這一點,而無需加入額外的hack。他們還找到了浮點8,8位訓練的方法,至少對於某些數值計算來說是如此。他們巧妙地確定了那些需要更高的精度,那些需要更低的精度。
據我所知,我認為浮點8訓練還沒有得到很好的理解。美國大部分的訓練仍然在FP16上運行,也許OpenAI也是。有些人正在嘗試探索這一點,但這很難做到正確。由於提到了必要性,因為他們沒有那麼多記憶體,那麼多GPU,他們找到很多數值穩定性方面的東西,使他們的訓練能夠工作。
他們在論文中聲稱大部分訓練都是穩定的,這意味著他們可以隨時在更多資料或更好的資料上重新運行這些訓練。然後它只訓練了60天。所以這非常令人驚嘆。
主持人:
可以肯定地說,你很驚訝。
Arvind:
所以我很驚訝。
通常的觀點,或者說我不會稱之為觀點,而是個神話,認為中國人只會抄襲。所以如果我們停止在美國撰寫研究論文,如果我們停止描述我們基礎設施和建築的細節,停止開源,他們將無法趕上。但現實情況是,DeepSeek v3中的一些細節非常出色,如果Meta研究了它並將其中一些內容整合到Llama 4中,我也不會感到驚訝。試圖抄寫下來。對吧?我不會說抄襲。這就像,你知道的,分享科學。工程。但是重點是,它正在變化。中國並非僅僅在模仿。他們也在創新。
主持人:
我們不知道它究竟是用什麼資料訓練的,對吧?即使它是開放原始碼的。我們知道它部分的訓練方式和資料,但並非全部。有一種說法認為它是在公共ChatGPT輸出上進行訓練的,這意味著它只是被覆制了。但你認為它超越了這一點。存在真正的創新。
Arvind:
是的,你看,我的意思是,他們用14.8兆個詞元訓練它。網際網路上充斥著大量的ChatGPT內容。
如果你現在去看任何LinkedIn帖子或X帖子,大多數評論都是AI寫的。你一眼就能看出來。人們只是試圖寫作。事實上,即使在X上,也存在類似Grok推文增強器這樣的工具。或者在LinkedIn上,也有AI增強器。又或者在Google Docs和Word裡,也有一些AI工具可以改寫你的內容。所以,如果你在那裡做了一些事情,然後把它複製貼上到網際網路上的某個地方,它自然會包含一些類似ChatGPT訓練的元素,對吧?而且很多人甚至懶得去除“我是一個語言模型”的部分。於是他們就把它貼上到某個地方。這很難控制。我想可解釋AI(XAI)也談到了這個問題。
我不會因為“你是誰?”或“你是那個模型?”這類提示而忽略他們的技術成就,我認為這並不重要。
主持人:
長期以來,我們認為——我不知道你是否認同——中國在人工智慧領域落後。這對於這場競爭意味著什麼?我們可以說中國正在趕超,甚至已經趕超了嗎?
Arvind:
如果說中國正在趕超OpenAI和Anthropic,那麼同樣也可以說中國正在趕超美國。許多來自中國的論文試圖復現O1,事實上,我看到O1發佈後試圖復現它的中國論文比美國的還多。DeepSeek能夠訪問的計算資源與美國博士生大致相同。
這並非為了批評任何人,例如,即使是我們自己,在PerPlexity方面,我們也決定不訓練模型,因為我們認為這成本過高,無法趕上其他研究。
主持人:
但你們會將DeepSeek整合到PerPlexity計算中嗎?
Arvind:
我們已經開始使用了。他們有API,也開源了,所以我們也可以自己部署。這很好,因為它讓我們能夠以更低的成本做很多事情。更深層次的考慮是,如果他們真的能和我們一起訓練出這麼好的模型,那麼美國公司,包括我們自己,就再也沒有理由不去嘗試類似的事情了。
主持人:
你會聽到很多公眾人物、思想領袖和生成式AI領域的專家,包括研究人員和企業家,例如埃隆·馬斯克等人公開表示中國無法趕上。他們認為人工智慧的主導地位關係到經濟和世界的主導權,這件事已經被用如此宏大的術語討論過了。你擔心中國證明自己能夠做到的事情嗎?
Arvind:
首先,我不知道埃隆是否說過中國無法趕上,他只是指出了中國構成的威脅。薩姆·奧特曼也說過類似的話,我們不能讓中國贏得人工智慧競賽。我認為,你必須將像薩姆這樣的人所說的話,與他的自身利益分開來看。
我認為,無論你做了什麼來阻止他們趕上,都毫無意義,他們最終還是趕上了。需要是發明之母。事實上,比試圖阻止他們趕上更危險的是,他們擁有最好的開源模型,所有美國開發者都在此基礎上進行開發。這更危險,因為這樣他們就能掌握思想市場份額,掌握整個美國的AI生態系統。
一般來說,開放原始碼軟體一旦趕超閉源軟體,開發者就會遷移。這是歷史規律。但Llama的出現帶來一個問題:我們應該信任祖克柏嗎?更進一步,我們應該信任中國嗎?答案是相信開源。 開放原始碼軟體的優勢在於,無論開發者是誰,無論來自那個國家,你都擁有完全的控制權,你可以在自己的電腦上運行它,設定權重,你負責模型。
然而,依賴他人建構的軟體,即使是開放原始碼軟體,也並非沒有風險。開放原始碼軟體的許可證可能隨時更改。因此,在美國擁有強大的AI研發力量至關重要,這也是Meta的重要意義所在。我們不必阻止Meta,而應努力超越它。
美國公司應該專注於做得更好。目前,我們聽到更多關於中國公司效率高、成本低的消息。這是因為資金雄厚,能投入更多資源。 這不是需要責備的問題,而是資源差異帶來的結果。
關於開放原始碼的定義也有多種解讀。有人批評Meta沒有完全公開所有內容,DeepSeek 也並非完全透明。 但並非所有人都具備完全複製其訓練過程的資源。而Meta已經通過技術報告分享了大量細節,遠超其他公司。DeepSeek的研發成本不到600萬美元,而OpenAI的GPT模型成本遠超此數。
這說明閉源模型的生態系統軌跡和發展勢頭與開源模型截然不同。
主持人:這對OpenAI意味著什麼?
Arvind:
很明顯,今年我們將會有一個開放原始碼的4.0版本,甚至更好、更便宜。但這可能是OpenAI以外的其他人做到的。他們可能並不在乎是不是自己完成的。我認為他們已經轉向了O1系列模型這種新的範式,預訓練時代已經結束。但這並不意味著擴展遇到了瓶頸,我認為我們現在在不同的維度上進行擴展。模型在測試時思考的時間量、強化學習、模型建構方式都在發生變化:如果它不知道如何處理新的提示,它會推理、收集資料、與世界互動,並使用各種工具。我認為OpenAI現在更專注於此,而不是僅僅追求更大、更好的推理能力模型。
主持人:
DeepSeek可能會將注意力轉向推理嗎?
Arvind:
我認為會的,這讓我對他們的未來作品感到非常興奮。那麼,OpenAI目前的護城河是什麼?我認為還沒有其他人創造出類似O1的系統。雖然關於O1是否真正值得有爭議,它在某些提示上表現更好,但在大多數情況下,它與SONNET並無不同。但至少他們在O3中展示了具有競爭力的編碼能力,幾乎達到了AI軟體工程師的水平。
主持人:然而,內部網路充斥著推理資料,這只是時間問題嗎?
Arvind:這有可能,但現在還不確定。所以,在它完成之前,仍存在不確定性,這或許就是他們的護城河,因為前還沒有其他人擁有相同的推理能力。
主持人:但是到今年年底,即使在推理領域,也會出現多個參與者嗎?
Arvind:我絕對這麼認為。
主持人:
我們是否正在見證大型語言模型的商品化?
Arvind:
我認為我們會看到類似於預訓練和後訓練的軌跡,這些系統會被商品化,今年會有更多商品化出現。我認為這種推理模型會經歷類似的軌跡,一開始只有一兩個參與者真正知道怎麼做,但隨著時間的推移……誰知道呢?因為OpenAI可以專注於另一個進步。但現在,推理是他們的護城河。但如果進步一次又一次地發生,“進步”這個詞的意義也會失去一些價值。
即使現在,也很困難,因為有預訓練的進步,然後我們進入了一個不同的階段。
可以肯定的是,現有模型的推理水平和多模態能力,很快就會以五到十倍更低的成本出現,而且是開放原始碼的。這只是時間問題。
然而,尚不清楚這種測試推理模型是否足夠廉價,能夠在手機上運行。這一點我仍不明確。
DeepSeek 的成果改變了太多格局,堪稱中國的“ChatGPT 時刻”也未可知。這無疑增強了他們的信心,也讓我們感到並未真正落後。無論如何限制算力,我們總能找到解決方法。團隊對結果非常興奮,這是肯定的。
主持人:
這將如何改變投資格局?那些每年在資本支出上花費數十億美元的超大型雲服務提供商,剛剛大幅增加了支出,而 OpenAI 和 Anthropic 則在籌集數十億美元購買 GPU。DeepSeek 告訴我們,你並不需要這些。
Arvind:
他們會更加努力地進行推理,因為他們明白,過去兩年建構的東西變得非常便宜,繼續為籌集那麼多資金找理由已無意義。支出方案會改變嗎?他們還需要相同數量的高端 GPU 嗎?或者可以使用 DeepSeek 擁有這種低端 GPU 進行推理?在證明不可行之前,很難說。但本著快速行動的精神,你會想要使用高端晶片,並比競爭對手更快行動。
我認為最好的天才仍然想在最先促成他們成功的團隊工作。那些真正做到的人,擁有先驅的光環,而快速跟進者則不然。
主持人:
薩姆·阿爾特曼的推文,是對 DeepSeek 成就的一種含蓄回應,暗示他們只是複製。
Arvind:
任何人都可以複製。但在這個領域,每個人都在複製其他人。Google首先發明了 Transformer,OpenAI 只是複製了它;Google建構了第一個大型語言模型,但 OpenAI 優先進行了這項工作。所以,這件事有很多種說法。
主持人:
我曾問過你為什麼不想建構模型,那是一種榮耀。一年後,你會因為沒有參與那場激烈而昂貴的競爭而顯得非常聰明,並且你在生成式 AI 的實際應用,殺手級應用上佔據了領先地位。
談談這個決定,以及它如何引導你以及你對 Perplexity 未來展望。
Arvind:
一年前,我們甚至無法想像如今的成就。現在是2024年初,我們還未達到3.5的水平。雖然擁有GPT-4,並領先其他競爭對手,但多模態能力依然欠缺。鑑於資源和人才優勢仍無法超越,我們決定另闢蹊徑。
人們渴望使用這些模型,其中一個主要用例是:提出問題並獲得準確、包含來源和即時資訊的答案。模型之外,還有大量工作要做,例如確保產品可靠運行、擴展使用規模以及建構自訂UI。我們將專注於此,並充分利用模型改進帶來的優勢。
Sonnet 3.5的產品表現出色,它顯著降低了幻覺的發生率,有效解決了問答、事實核查和資訊檢索等問題。這帶來了使用量10倍的增長,使用者數量也大幅增加,並獲得了眾多大型投資者的認可,黃仁勳便是其中一例。
一年前,我們甚至沒有考慮貨幣化,那時我們專注於產品推廣和規模建設。如今,我們開始探索商業模式,越來越多地關注廣告模式。
我們理解一些人對於廣告的質疑,即在有廣告的情況下能否保證答案引擎的真實性。我們對此進行了充分考慮,只要答案精準、公正,不受任何廣告預算影響,即使是贊助問題,其答案也不會被操縱,使用者也可以選擇忽略。廣告商希望展現品牌最佳形象,這與人際交往中希望展現最佳一面類似。目前我們僅向廣告商收取CPM費用,因此我們自身並無動力促使使用者點選廣告。
我們致力於長期正確地解決問題,而不是像Google那樣強迫使用者點選連結。
一年前,模型商品化還備受爭議,但現在已不再如此。 密切關注這一趨勢非常明智。我們從模型商品化中獲益良多,同時也需要為付費使用者提供更高級的功能,例如更複雜的搜尋代理,能夠進行多步推理,並提供分析性答案。所有這些功能都將保留在產品中。
然而,免費使用者每天都會提出許多需要快速解答的問題,因此免費服務必須保持快速響應。 這將是免費的,這是使用者習慣,這意味著我們需要找到一種方法讓免費流量也能獲利。 我們並非試圖改變使用者習慣,而是引導廣告商適應新的習慣。他們無法再依賴Google的十個藍色連結搜尋模式。
目前,廣告商的反應積極。許多品牌,例如Intuit、戴爾等,都在與我們合作進行測試,並對未來充滿期待。 他們都明白,未來五年到十年內,大多數人都會轉向AI尋求答案,而非傳統的搜尋引擎。 他們都想成為新平台和新使用者體驗的早期採用者,並參與其中。 他們沒有採取觀望態度,而是積極參與。
主持人:
這正好印證了你一開始提出的觀點:需求是所有發明之母。廣告商們認識到行業正在變化,他們必須適應。
非常感謝你抽出時間。 (Web3天空之城)