#AI神器
一人幹翻一個劇組!北大哲學博士造出AI神器,20萬人在排隊用
【新智元導讀】當北大哲學博士用「美學」馴化了AI,程式設計師的戰場也變成了「藝術家」的樂園。在AI時代,人類獨特的審美力或許才是無法被程式碼取代的終極護城河。青年編劇古二魚死網破式開撕曾經的偶像王家衛鬧了一個多月,即便是科技圈,也被娛樂圈的瓜震驚到了。但科技圈一邊感慨「貴圈水真深」,一邊祭出瞭解決方案:一個叫Elser.AI的AI Agent橫空出世,讓新人創作者能夠不受過去行業階級的束縛,自由發揮自己的創作才華,實現「創作平權」的理想。首先,Elser.AI是個上手門檻很低,而且很好玩兒的創作神器。它的介面非常簡單明了,你可以給它一個完整的劇本,或者一段小說故事,甚至是一個腦洞式一句話創意,讓它幫你創作一段視訊。我們以從小耳熟能詳的《彼得·潘》的故事為例,首先輸入小說,它會很快生成指令碼,讓你選擇視訊畫風,再解析出故事裡的人物角色,並自動生成角色形象。中間的每一步,都可以由創作者控制調整。比如,如果形象不符合想像,你還可以通過輸入prompt的方式,來調節人物形象,比如髮色、臉型、身高、服飾搭配等。當然,你也可以上傳中意的角色形象圖片。確定好角色形象,下一步,Elser.AI會自動生成分鏡故事板。這裡是各位導演們大顯身手的地方了:從構圖、景深、機位、運鏡,到角色的動作、表情、台詞、聲音,全部可以通過調整prompt和內建選項來調整。即使到了後期剪輯的環節,也可以回到之前的步驟,隨時對前面的細節進行修改調整。如果你想要創作出質感更好的、劇情更吸引人的作品,你需要的完全不是學習《如何使用AI》《如何正確寫出AI提示詞》,而是文學課和藝術課。之前很多朋友哀嘆:當AI在寫詩作畫時,我還在工位上擰螺絲。Elser.AI終於讓人類扳回了這一局!難怪,ELSER.AI能在完全沒有任何宣傳的情況下,悄咪咪積累了20萬全球活躍使用者,都是短劇和動漫行業的專業創作團隊,當然更多的使用者則是個人創作者和小型工作室,早期據說經常被使用者刷爆伺服器。看來一人公司的時代的確要到來了!拿到內測號後,我們給在動畫公司做原畫的小夥伴展示了Elser.AI,這位朋友第一反應是:「啊?我不是要失業了吧!」緊接著第二反應:「趕緊讓老闆充個錢,能少加很多班!」第三反應:「還打什麼工啊,找幾個朋友自己就可以開工作室了!」即便你不是專業創作者,通過上述的流程,相信你也能輕鬆玩耍起來。(說起來,周圍用過Elser.AI的小夥伴都處在一種「玩兒得停不下來」的狀態……)那些我們心心唸唸的的名著、番劇、小說電影裡,影視化沒有拍出來的精彩情節,或者意難平CP的平行世界,都可以通過Elser來實現,並分享給全世界。ELSER.AI的創始團隊這樣形容自己做的事:AI帶來的生產力革命,進一步可以讓短劇這種形態的創作全民化,讓普通人跳過漫長/低效的IP衍生鏈條,直接把自己的故事變成短劇。這樣短劇就有可能跳出批次生成的同質化陷阱,成為更有創意,更有社交屬性和互動玩法的內容形態。一個人就是一個短劇工廠、人人可以打造自己的IP。他們認為,在AI時代,AI可以生成,但創造依然屬於人。AI可以推理,但審美依然屬於人。人之為人,在這個時代,在任何時代,都有自己不可磨滅的價值。在Elser看來,AI不是取代人,而是輔助人讓創意快速變成鮮活的影像。更多人終於有機會去展現心中的故事,通過創作去改變命運……更重要的是,ELSER.AI把短劇生成關鍵環節的「挑剔權」給了創作者。AI追求的是效率,但成果是需要挑剔的審美的。而審美是需要人的參與的。「我們的目標就是讓創造儘可能地簡單,讓創作者真正玩兒起來,快樂才能釋放創意。」ELSER.AI的創始人兼CEO劉耕這樣說。Elser作品展示全球短劇和漫劇正處於爆發期,美國短劇2025行業增速為50%;日本短劇當前市場規模是美國的1/9,是第二大市場,增速較快,增速超85%。6月27日,亞洲短劇協會秘書長寺田耕也指出 :當前日本短劇市場正處於高速增長階段。根據最新報告預測,2025年日本短劇市場規模將達到4.8億美元,同比增長高達85%,佔全球市場份額約15%。這表明日本已經成為全球範圍內備受矚目的增量市場。至於漫劇,2025年更以火箭般的速度增長。24年四季度全抖音漫劇充值收入將將2000萬,當下,抖音漫劇單日廣告消耗已突破1000萬。又是一個一年超100倍的增長神話。行業預測,2026年海外漫劇將迎來自己的爆發機會,而Elser.AI已提前完成海外漫劇平台的搭建,適逢其會,為每一個普通人提供了抓住機遇的利器和平台。ELSER.AI的創始團隊也可以用清(非)新(典)脫(型)俗來形容了。別人家AI創始人都是技術出身,ELSER.AI的CEO劉耕則是北大哲學系的本碩博。難怪把AI的靈魂三問「AI是誰,AI從那裡來,到那裡去」捋得明明白白。他的第一份工作是在武漢大學哲學學院,教書育人同時做美學研究。劉耕告訴我們:美學學術訓練,其實對發ELSER.AI這個產品起了很重要的作用。首先,它讓我攝入了大量文學、視覺藝術、音樂、電影等不同藝術形式的作品,培養了藝術鑑賞功力。更重要的是,這個學科是用系統的方法去分析、拆解作品和作者,這是跟創作者視角下渾然天成的靈感完全不同的邏輯系統。這個功底讓我能非常高效地教給AI如何判斷和生成一部好的作品:找到使用者喜歡的優質內容背後的秘密,如風格、敘事、意境等等。我把這些專業知識給到Agent,讓它可以做更好的故事、更精準的風格,更好的視覺呈現……直到進一步提升創作者的平均產出質量。難怪了,CEO自己作為AI先攝入了海(藝)量(術)數(作)據(品),還是經過演算法最佳化的,那教出來的AI可不聰明嘛。據團隊小夥伴說,CEO從小就是網文和遊戲的重度使用者,還是最早一批同人文寫手。原來學霸考北大這麼容易啊?Elser.AI團隊但學霸學習考試厲害,不代表能把握市場,管好公司。於是為了心中生根多年的「AI內容創造平台」理想,劉耕在2020年辭去了武漢大學的教職,加入了字節跳動,先後擔任了瓜瓜龍語文教研負責人和抖音集團CSR培訓總監,把產品設計、市場調研、創作者孵化全鏈路走了一遍。然後,在大廠人普遍焦慮的35歲,他,裸辭了,還是放棄百萬期權那種裸辭,出來創業做ELSER.AI。字節的經歷給了劉耕對於市場的敏銳嗅覺和設計產品的能力,他說:大家都在尋找下一個Tiktok級的平台機會,但我認為:· 第一步是幫助創作者低成本/高效產出有更高「審美價值」的內容;· 第二步是借助這些內容形成有差異化審美體驗的社區,吸引更多消費者進入,這樣才能形成一個飛輪。我們更聚焦漫劇,也是因為動漫短劇是Z世代高度喜歡的一種內容形態,它才剛剛起步,表達的可能性遠遠未被窮盡。幾乎任何題材(從科幻到歷史)、任何視覺風格(從達文西到宮崎駿),都可以在漫劇中實現新的審美表達。我21年在字節做短劇平台產品策劃時,正是因為看到了短劇這種形態的「審美」衝擊。美學,給予了我對於內容本質的判斷能力。相比CEO哲學美學式高屋建瓴的非典型,ELSER.AI的CTO張國棟則是一種落地生根式的非典型。他沒有打遊戲、寫網文的中學時代,而是從山東臨沂的農村考進了北京科技大學電腦系,父母至今仍在務農。上大學前他沒有自己的電腦,也沒寫過一行程式碼。然後他就,一邊當著學生會主席,一邊考上了北大的研究生,拿了阿里的offer,又放棄高薪和期權出來搞Elser了。這兩個相差9歲的師兄弟,就一起埋頭搗鼓,搞出了逆天的Elser,並獲得了正軒、奇績、後浪、雲沐等機構的投資。右:CEO劉耕,左:CTO張國棟他們下一步,還打算進一步降低ELSER.AI的使用門檻,提高視訊效果,並根據和終端使用者的互動資料,利用演算法的優勢,敏銳捕捉到新的故事範式、審美趨勢,將其拆解分析,給到前端創作者比如創意層面的推薦。傳統的劇作工業鏈條是很長的,並且成本高昂。一個故事能否最終呈現在觀眾面前,除了故事本身的質量,更多是靠運氣。Elser團隊表示,他們的願望就是在AI時代,利用技術,讓每一個有創作熱情的人都能不受外部制約地表達。為了能讓Agent更好用,Elser團隊還親自下場,同時製作了12部AI動漫短劇。從劇本到成片,都用自研工具完成。對內容質量的挑剔要求,驅動著產品快速迭代。下面這個短劇味兒很正的狼人故事就是Elser自己製作的。PS:這個口型對得很可以啊!當被問到「這麼好用的Agent你們為何一直藏著不公開宣傳」時,他們說:錢和時間要花在刀刃上,用有限的預算,繼續all in研發,把內部的AI短劇工作流,打造成真正可以供C端大規模使用的Agent。不做則已,要做,就要把這個場景吃透。現在,是他們覺得合適的一個時間節點了,Elser短劇Agent的海外版,當下已開啟Waitlist;將於12月1日上線,全線接入了Nano Banana Pro,並邀請Waitlist使用者體驗。國內版也將在完成大模型備案後上線。不會有飢餓行銷的邀請碼。所有在當下按要求登記Waitlist的使用者,都將在12月1日後收到他們的首波邀請。而全量開放,也將在快速拉滿並行和體驗後,向所有使用者展現。 (新智元)
任務太難,連ChatGPT都棄了!最強AI神器一鍵拆解,首測來襲
【新智元導讀】想搞一門副業,卻卡在想法一團漿糊?全網首個互動版Deep Research悄然上線,化身AI最強輔助,讓零散靈感秒變超硬核行動方案。想轉型AI做產品經理,卻不知如何入手?想搞副業月入一萬,但腦子裡只有零散想法?想知道AI時代該學什麼專業最有前景?在工作和生活中,我們早已習慣向AI求助,但大多數AI只能給出模糊建議,真正遇到複雜任務時,往往一句「這取決於具體情況」就把人打發了……甚至,有網友用ChatGPT「深度研究」時,或因任務太複雜,經常遇到研究中途停止。有時,AI輸出的結果好不好,很大程度上取決於「提示」夠不夠精準。剛剛,辦公小浣熊悄悄上線了一個新功能——任務規劃助手,專治這類「你自己都不知道從那開始」的複雜問題。它不直接拋出答案,而是像一位靠譜的「超級搭檔」,和你對話、不斷提問、深度拆解,最終把你腦子裡的零散想法,一步步變成清晰、具體、可執行的行動路徑。傳送門:office.xiaohuanxiong.com一手實測這個由商湯科技打造的小浣熊「任務規劃助手」,堪稱互動版Deep Research。當你腦子一團亂麻時,它像朋友對話一樣,用連環問題挖出你都沒意識到的關鍵細節。當你遇到複雜任務無從下手時,它會把模糊的目標分解成小步驟,每一步思維鏈都清晰可追溯。甚至,在互動的過程中,你還可以隨時修改任何細節。最終,它會生成一份邏輯嚴密、圖文並茂的規劃報告,即便是面對再陌生的行業、再複雜的任務,任何人都能輕鬆上手。現在,進入小浣熊,點選「任務規劃助手」即可使用,接下來是一波最全實測體驗。職業規劃首先,給它一個職業規劃方面的任務。作為一名AI媒體編輯,每天都會接觸大量的人工智慧方面的資訊,但對於AI智能體的應用卻沒那麼熟練。所以我給小浣熊出了下面一個任務:我是35歲的AI垂直自媒體作者,如果想成為AI產品經理,幫我規劃個職業路徑。接到任務後,辦公小浣熊並不會直接給出答案,而是會首先分析出實現任務所需的相關資訊。接著,便會跟你互動,讓你把相關的資訊補全——這正是這款產品的亮點,通過深度思考+互動,一步一步地將複雜任務拆解,最後找出最合理的答案。簡單的資訊補全後,小浣熊將會將任務向前推進一步。在這個過程中,它的提問會觸及到很多你之前自己可能都沒想的點。經過這次資訊補充後,小浣熊給出了一個可執行度相當高的目標清單和相對應的任務清單。它將轉型過程拆解成了四個目標:建立Agent產品經理知識體系開發兩個Agent產品原型整合轉型成果自媒體內容整合每個目標後面都有一個所需的任務清單。接下來我們點選上面的執行就可以了。經過長達幾分鐘的深度思考之後,辦公小浣熊最終拿出了一份非常具體的、可執行性相當高的行動方案。具體來看,每一個任務節點都會生成一份報告,裡面有任務節點的詳細步驟、相關的Python程式碼、參考資料的連結,甚至還可以畫出流程圖。如果你手頭正好有個沒啥頭緒的複雜任務,那麼強烈建議你試一下這個任務規劃能力,說不定就能提供給你一個可行的方案。學業規劃接著,我們讓辦公小浣熊規劃一個教育問題。昨天,各地高考成績也在陸續公佈,咱們也來湊個熱鬧。具體的提示詞是這樣的:AI時代,以後學什麼專業方向更有發展前景同樣,小浣熊會將它需要的資訊提問給你。確保掌握的資訊全面。補充完關鍵資訊後,小浣熊給出了目標清單以及每個目標對應的任務清單。目標清單包括:調研數字人文/計算歷史領域的核心技能需求設計跨學科課程方案制定職業發展路線圖整合最終規劃報告然後,點選執行等待即可。幾分鐘後,小浣熊給出了一份詳細的學業規劃路徑。其中包含了像《數字人文領域職業發展路線圖》這樣的清晰規劃。小浣熊最終報告給出的AI歷史方向的學業建議分別是:數字孿生遺產系統工程師(Unity/Unreal引擎)、元宇宙歷史場景建構師(Blender+Al生成)。雖然不是很懂,但看上去還是很有前景、很靠譜的。整個規劃看完,你一定對AI歷史領域有更深入的瞭解。投資規劃當下最火的「投資」莫過於入手一個Labubu了,這款丑萌的潮流IP如今成為每個人的心頭好。幾天前,全球唯一薄荷色Labubu拍出108萬,創下潮流玩具最高單件成交記錄。看到如此高的溢價,不少人早已心動,現在入局還晚嗎?它會成為下一個暴力熊泡沫嗎?這時,我們讓「任務規劃助手」給出一個投資建議分析和趨勢判斷。發起問題後,小浣熊聯網搜尋且深度思考12秒後,並沒有第一時間給出解答,而是再次發出提問——您考慮購買Labubu的主要目的是收藏、投資還是其他用途?另外,您對潮玩市場價格波動的接受程度如何?它根據第一步問題的回覆,再次進行深度思考和規劃。這一次,令你眼前一亮的是,它給出了更詳細的目標清單,分列出四點:包括收集分析Labubu市場價格資料評估品牌長期價值支撐因素識別主要投資風險點整合分析結果並形成投資建議假設以上這些,並沒有滿足你的考量,可以在「目標清單」下方輸入框中,繼續提出要求。接下來,可直接點選「執行」任務清單。經過長時間逐步分析,小浣熊會先針對每個任務清單生成一個報告,最後彙總成一個整合版。這時,可以直接匯出為PNG/PDF/HTML內容,或是建立一個新文件編輯。如下報告中,已清晰列出所有的要點,包括市場現狀分析、不同風險因子帶來風險等級、分級投資建議,以及執行保障機制和關鍵決策指標。看完報告後,假設自己還想對曾經爆火潮流IP暴力熊有一個瞭解。這時,可以在輸入框加入自己的需求,然後再次點選「執行」。緊接著,你就得到了一個關於Labubu與暴力熊市場價值對比分析報告。此時此刻,對於任何一個人,在投資Labubu前內心已經有了全面的瞭解和規劃。學習規劃日常生活中,為了自我能力提升,學習一門工作之外的本領非常關鍵。但是,該從那裡下手呢?假設自己想要做一名視訊博主,該從那學起?該怎麼拍攝、剪輯視訊?又該如何營運帳號?把問題交給小浣熊,這時它會根據一個泛泛的問題,拆解出更詳細的問題讓你回答。同上,它依舊給出了詳細的目標清單,分為以下5點:確定帳號定位與差異化特色裝置採購與拍攝方案設計內容生產與營運規劃成本控制與效果評估方案整合與交付點選「執行」後,小浣熊每一步都展開了深度調查和分析。比如,抖音平台中美食帳號的分析報告,小浣熊給出了從內容類型、粉絲畫像、互動資料、市場空白,以及工具推薦的分析。再比如,制定3個月的內容排期表以及營運規劃,它根據低、中、高預算,給出了不同的策劃,用圖表可視化分列出來。它生成的最終報告,是一個所有分支內容的精煉版,所有要點都總結如下。接下來,就是行動了。任務規劃神器,解鎖AI終極價值從實測中我們看到,辦公小浣熊「任務規劃助手」不僅僅是一個工具,更像一個無時不在的智慧夥伴。它的真正價值,遠不不止於規劃的精準與高效,而在於它重新定義了人類與AI的互動方式。在過去,面對未知領域,我們習慣於望而卻步,害怕因想法不夠成熟,或因無法下手而拖延。而現在,這位「超級搭檔」用對話的方式,消解了這種心理負擔。它不急於給出結論,而是陪著使用者一起思考、探索、迭代。這種互動式的深度協作,不僅讓使用者在規劃過程中收穫結果,還能提升自己的結構化思維和問題解決能力。AI時代,時間是最寶貴的資源,清晰的方向則是最稀缺的財富。「任務規劃助手」恰恰是幫助人類搶佔這兩者的神器。它能讓每一個想法不再停留空想,而是變成一張通往成功的路線圖。 (新智元)
輝達華人硬核AI神器,「描述一切」秒變細節狂魔!僅3B逆襲GPT-4o
【新智元導讀】視覺AI終極突破來了!輝達等機構推出超強多模態模型DAM,僅3B參數,就能精準描述圖像和視訊中的任何細節。有了AI,誰還願意用手配「字幕」?剛剛,輝達聯手UC伯克利、UCSF團隊祭出首個神級多模態模型——Describe Anything Model(DAM),僅3B參數。論文地址:https://arxiv.org/pdf/2504.16072正如其名Describe Anything,上傳一張圖,圈那點那,它即可生成一段豐富的文字描述。即便是一段視訊,DAM也能精準捕捉到白色SUV,給出詳細的描述。DAM是一個專為詳細局部標註(DLC)而設計的模型,即為特定區域生成詳細且精確的描述。通過兩大創新,研究人員在細節與上下文之間找到平衡:· 焦點提示:對目標區域進行高解析度編碼,就像給模型配備了一副「放大鏡」,清晰捕捉到局部區域細微特徵· 局部視覺骨幹網路:將精確定位的特定區域,與上下文無縫整合換句話說,DAM不僅能放大細節看,還能放眼全域看,無論是靜態圖,還是動態視訊,都能做到遊刃有餘。網友驚嘆道,「終極視覺AI突破」!AI用「放大鏡」看世界在項目首頁中,輝達等研究團隊放出了更多精彩demo。任何人通過點、框、塗鴉或掩碼的互動,即可一鍵生成描述。上傳一張柯基在草地上歡快奔跑的圖,選中柯基,讓DAM去描述:一隻中等體型的狗,擁有濃密的紅棕色毛髮,腹部和腿部為白色。這隻狗尾巴蓬鬆,耳朵尖立,戴著帶有銀色吊牌的紅色項圈。它張著嘴露出牙齒,舌頭伸在外面。狗呈奔跑姿勢,前腿向前伸展,後腿向後伸直。一隻被擠到犄角旮旯的貓星人,DAM是這樣配文的,「一隻白貓,耳朵呈淺橙色,鼻子是粉色的。貓咪表情放鬆,眼睛微微閉著,全身覆蓋著柔軟的白毛」。再比如,隨手塗鴉一棟高樓,DAM可以不斷放大細節,給出這幢樓更細緻的描述:一座現代風格的摩天大樓,採用流線型矩形設計,外立面排列著間距均勻的豎向條形窗。建築呈階梯式結構,每一層段都比下層略微內縮,形成錯落有致的退台造型。建築幕牆主要由反光玻璃面板構成,整體呈現出極具現代感的拋光效果。甚至,DAM看著視訊中的一頭牛,就能直出一篇經典「小作文」:一幅描繪棕褐色奶牛的動態序列圖:這頭毛色濃密的奶牛臀部帶有淺色斑塊,初始畫面中它微微低頭,透著安詳的神態。隨著動作展開,奶牛開始穩步前行,四肢舒展著節奏分明的步態,尾梢的簇毛隨每一步輕擺,為行進增添流暢韻律。它始終保持挺拔的站姿,略微弓起的背部線條透出放鬆狀態,肌肉結實的腿部穩健地向前邁進。整個運動過程中,奶牛保持著均勻從容的步調,每一個動作都流暢而不迫,展現出寧靜自若的生命姿態。DAM如此厲害,是如何做到的?DAM技術架構,精準捕捉細節與傳統圖像描述(概括整個場景)不同,DLC聚焦於使用者指定的局部區域,來生成細緻入微的描述。想像一張照片中一隻貓,你不僅需要描述「一隻貓在窗檯上」,還要深入些幾「貓的毛髮呈現柔軟和灰色條紋,耳朵微微傾斜,眼睛在陽光下閃著琥珀色的光芒」。可以看出,DLC的目標是捕捉區域的紋理、顏色、形狀、顯著部件等特徵,同時也要保持與整體場景關聯。而在視訊領域中,DLC挑戰更大。模型需要追目標區域在多個幀中的變化,描述其外觀、互動、和細微動態的演變。為了應對DLC複雜需求,Describe Anything Model引入了兩大核心創新,讓局部細節與全域上下文完美平衡。焦點提示(Focal Prompt)通過「焦點提示」機制,DAM能夠同時處理全圖和目標區域的放大檢視。這確保它在捕捉細微特徵同時,不丟失整體場景的背景資訊。局部視覺骨幹網路(Localized Vision Backbone)DAM的視覺骨幹網路通過空間對齊的圖像和掩碼,融合全域與局部特徵。利用門控交叉注意力層,模型將詳細的局部線索與全域上下文無縫整合。新參數初始化為0,保留了預訓練能力,從而生成更豐富、更具上下文關聯的描述。這種架構讓DAM在生成關鍵詞、短語,甚至是多句式的複雜描述時,都能保持高精度和連貫性。DLC-SDP:破解資料瓶頸要知道,高品質的DLC資料集極為稀缺,限制了模型的訓練。為此,研究團隊設計了基於半監督學習的流水線(DLC-SDP),通過兩階段策略建構大規模訓練資料。階段一,是從分割資料集擴展。利用現有分割資料集短標籤(貓),通過視覺-語言模型生成豐富的描述(灰色短毛貓,耳朵直立。階段二,自訓練未標記的圖像,通過半監督學習,DAM對未標記的網路圖像生成初始描述,並迭代精煉,形成高品質的DLC資料。DLC-Bench:重定義評估標準那麼,如何公平地評估DLC模型。傳統方法主要依賴文字重疊,但這無法全面反映描述的精準性和細節。為此,研究團隊提出了全新基準DLC-Bench。通過LLM判斷,檢查描述的正確細節和錯誤缺失,而非簡單對比文字。DAM僅能生成詳細描述,還具備強大的靈活性和互動性。指令控制描述你可以根據需求調整描述的詳細程度和風格。零樣本區域問答而且,無需額外訓練,DAM就能回答關於特定區域的問題。碾壓GPT-4o,刷新SOTA在DLC-Bench和其他7個涵蓋圖像與視訊的基準測試中,DAM全面超越現有模型,樹立了新的標竿。如下表2所示,DAM在具有挑戰性的 PACO 基準測試中表現出色,創下了89高分。而在零樣本評估在短語級資料集Flickr30k Entities上,新模型相比之前的最佳結果平均相對提升了7.34%。此外,零樣本評估在詳細描述資料Ref-L4 上,DAM在基於短/長語言的描述指標上分別實現了39.5%和13.1%的平均相對提升。在研究人員提出的DLC-Bench測試中,DAM在詳細局部描述方面優於之前的僅API模型、開源模型和特定區域VLM。下表6所示,DAM在詳細局部視訊字幕方面刷新SOTA。總而言之,DAM的優勢主要有三大點:更詳細、更準確;更少幻覺;多場景適用。它的強大能力為眾多應用場景打開了大門,未來諸如資料標註、醫療影像、內容創作等領域,都可以加速落地。 (新智元)