#哈工大
最被低估的東北985,衝出一支機器人天團
這座最低調的985,專做那些"需要有人做,但沒人喝彩"的事。剛結束的全運會上,一個名叫“夸父”的機器人成為0號火炬手,在隨後的比賽中,又有3台機器人作為頒獎嘉賓,手托獎牌為運動員頒獎。這些情景不難讓人產生聯想,人形機器人走進現實生活,是否已經在不遠的未來。● 2025年11月2日,完成全運會火炬傳遞的0號火炬手機器人“夸父”。圖片來源:羊城晚報今年被稱為“人形機器人量產元年”,因此也帶火了整個國內的機器人圈子。多家機器人公司更是受到資本的青睞,要麼在融資加速研發,要麼准備IPO進入資本市場,開始大展拳腳。其中很多公司的創始人和團隊,都來自東北一所低調的985大學——哈爾濱工業大學。他們還有一個共同的特點,就是開始創業的時候都非常年輕。今天我們就來看看哈工大和機器人“小天才”們的故事。01. 造機器人“英雄出少年”哈工大的校友在國內機器人領域創業的人數眾多,而且有一個突出的特點,就是這些創業者都特別年輕。冷曉琨:比馬斯克還早5年造機器人今年10月底,深圳一家機器人獨角獸公司——樂聚機器人,宣佈完成近15億元的Pre-IPO輪融資,一時間成了行業焦點。這家機器人公司背後的團隊相當年輕,創始人冷曉琨是1992年生人,哈工大電腦學院2016級博士。● 中學期間就痴迷機器人的冷曉琨在機器人比賽中成績優異,因此被保送哈工大。圖片來源:央視新聞2012年,剛讀大一的冷曉琨帶著他的機器人舞蹈隊上了央視春晚。2016年,24歲的他一畢業,就和9位師兄弟一起南下深圳,創立了樂聚機器人。那時人形機器人還是個“極其冷門”的賽道。馬斯克在5年後的2021年,才宣佈了特斯拉第一款人形機器人的概念。但冷曉琨堅信人形機器人是未來的趨勢。2018年,冷曉琨帶領團隊開始研發全尺寸人形機器人“夸父”。直到2023年年底,第三代“夸父”下線,國產化率超過90%,成本也從300多萬降到了幾十萬。如今,樂聚的人形機器人已經開始在一汽的工廠裡“打工”,而冷曉琨希望機器人通過在現實場景中的打磨學習,在幾年後能夠進入家庭和養老院,真的可以跟人類互動,實現陪伴、護理等工作,實現“讓全社會共享機器人便利”的企業使命。黃一:國內最年輕的人形機器人CEO冷曉琨還不是哈工大在機器人領域最年輕的創業者。今年剛21歲,大三提前畢業的黃一和他創辦的“RoboParty蘿博派對”,在11月宣佈完成了千萬美元的種子輪融資,這也讓黃一這個00後,成了國內機器人行業最年輕的CEO。● 黃一和他獲得全國大學生科技競賽一等獎的兩棲智能搜救無人機。圖片來源:哈爾濱新聞網黃一2004年出生,2023年考入哈工大。剛到哈工大的第一年,他就在全國大學生科技競賽中得了一等獎,他在接受採訪時說希望創辦一家機器人公司,用科技改變生活、影響世界。說幹就幹。2023年年底,19歲的黃一在宿舍裡花了幾十天時間,“手搓”出了1台成本不到2萬雙足機器人AlexBot。今年2月,在國內人形機器人龍頭企業的贊助下,迭代版的AlexBotMini完成,黃一這個“天才少年”也因此吸引了包括波士頓動力創始人在內多位行業專家的關注和支援。3月,他大三提前畢業,成立了國內唯一實現從演算法到硬體整機全端開放原始碼的人形機器人企業。因為在他看來,開源才是實現讓人形機器人走進千家萬戶的唯一途徑。● 成本15000元的第二代全開源(包含機械,硬體,控制,演算法)雙足機器人平台AlexBotmini李澤湘:特聘教授“批次生產”獨角獸李澤湘是機器人與自動化領域的專家,2004年受聘成為哈工大深圳研究生院的特聘教授。與其說他是一名教授,倒不如說他是伯樂更為恰當。李澤湘和哈工大學子“聯手”的機器人企業就有好幾家。● 李澤湘與哈工大校友合作的部分機器人企業今年6月,向港交所遞交IPO申請的臥安機器人,是哈工大2011屆校友李志晨和他同屆校友潘陽聯合創立的。2015年,李志晨和潘陽南下深圳創立臥安科技。2017年,他們推出了全球首款手指機器人SwitchBot Bot。2018年,臥安機器人成立。2個月後,李澤湘就給他們投了500萬。還有王永琨創立的斯坦德機器人。1991年出生的王永錕,在哈工大加入了競技機器人隊,2013年在一場機器人賽事中遇見了李澤湘,創業火種也就此埋下。2015年王永錕在深圳創立斯坦德,截至2024年,按銷量計算斯坦德已經是全球第五大工業智能移動機器人解決方案提供商,也是第四大工業具身智慧型手機器人解決方案提供商。●斯坦德具身機器人亮相2025雲棲大會這些,只是哈工大學子在機器人領域創業的一個縮影。02. 哈工大為何成機器人大本營從哈工大走出的機器人創業者還有很多,比如同樣得到李澤湘投資的工業機器人獨角獸李群自動化,比如2013年創立的手術機器人獨角獸思哲睿、今年剛完成數千萬融資的深圳市玄創機器人有限公司、協作機器人法奧意威等,都是哈工大的校友創立。因此,哈工大也被人視為中國機器人界的“黃埔軍校”。1920年建校的哈工大,新中國成立後成為國家首批重點建設的6所大學之一,在鄧小平提出“哈工大要搞尖端”的指示下建立了一大批尖端專業,在上世紀50年代就被譽為“工程師的搖籃”。此後進入國家重點建設的9所大學行列,也就是我們熟知的C9聯盟。●深圳大學城,清華(左上)、北大(中)、哈工大(右上)世紀同框。圖片來源:小紅書使用者@烏有鄉的鏡中人哈工大能成機器人領域人才輩出的大本營,首先因為它在專業上的遙遙領先。早在上世紀50年代,哈工大就開始人工智慧的研究,1986年成立了機器人研究所,成為國內最早開展機器人研究的高校之一。從1985年研製成功中國首台弧焊機器人,到天宮和登月用到的機器人等領域,哈工大已經有一個完整的機器人技術體系。在這個基礎上,2019年哈工大正式設立了機器人工程專業,涉及機械、電子、控制、材料、人工智慧等多個學科領域。●今年登上中國空間站的首台艙內智能飛行機器人由哈工大研製機器人方面的專業實力也有具體體現。今年舉行的第七屆中國研究生機器人創新設計大賽上,哈工大一共有28支隊伍進入決賽,拿了6個一等獎、9個二等獎和13個三等獎,一、二等獎的數量排全國各高校的第一名。我們今天看到這些在機器人領域創業的哈工大青年,很多在校時就已經加入研究室,有了技術成果或拿下國際性大獎,在師友的支援下創業的。其次,就是涉及機器人的學科幾乎個個都是哈工大的強項。今天被人們廣泛關注的具身智慧型手機器人,是人工智慧和機器人交叉發展的最前沿,通俗地講就是從“精神”(人工智慧)到“肉體”(機器人)融合的具體表現。在與之相關的學科實力上,哈工大堪稱“王者”。國家第四輪學科評估中,哈工大有17個學科獲評A類,其中機械工程、控制科學與工程、環境科學與工程拿下A+,航空宇航科學與技術、材料科學與工程等學科也穩居A類。● 2025軟科發佈的世界一流學科排名強大的工科“基因”,最典型的表現就在航天領域。哈工大被譽為“航天總師的搖籃”,中國航天科技集團、航天科工的總師隊伍里,超過半數的人都來自哈工大。載人航天、探月工程、中國空間站的建設,哈工大的科研團隊也一直都是核心參與者。另外,追求嚴謹精準與開闊視野,是哈工大機器人創業者們共同的“性格”。作為“國防七子”之首的哈工大本身就主攻航天,校訓也是“規格嚴格,功夫到家”,這就奠定了學校的校風一直都是以嚴謹、精準著稱。●哈工大的校訓:規格嚴格,功夫到家。圖片來源:攝圖網但嚴謹不代表著保守。冷曉琨的導師、著名的人形機器人專家洪炳熔教授,是改革開放後第一批走出去的交流學者,他從國外回來後,就預判到人形機器人一定是未來機器人產業的爆發點,大概在2000年前後,就把實驗室的研究方向全部轉向人形機器人。正是有了這樣肯把功夫下足,又能把功夫下到點子上的精神,哈工大才一步步成了中國機器人研究人才頻出的大本營。03. 改變世界的哈工人因為哈工大不在一線城市,而且也非常低調,所以知名度在客觀上還是受到了不小的影響,曾被稱為“最被嚴重低估”的兩所985之一。當然,哈工大的“低調”還有另一個原因,那就是它培養出的許多優秀學子,一畢業就“不知去向”了。前一段網上就有這樣一種說法,說哈工大的學生畢業後咋就“找不到了”,難道是因為就業率不高?這事連哈工大的校長都出來回應,哈工大的畢業生不是找不到工作,而是“不方便被找到”。●哈工大校長回應哈工大在國防科技,特別是在航天科研領域,一直都是中國頂尖的。它是世界上第一個把微小型探測器發往月球軌道的大學——2004年發射了中國第一顆高校自主研製的小衛星,也是中國首個實現機器人在軌維修的高校,可以說哈工大是國防科技領域不可或缺的“技術大本營”。按理說,年輕人在畢業後進入網際網路大廠、高薪高職“光耀門楣”高調展示,這是理所應當的,但從哈工大走出來的青年,很多人做出了更為“低調”的選擇。有人統計了一組資料,哈工大每年的畢業生大概有30%左右投身“國家戰略需求領域”。簡單地說,就是航天、國防、高端裝備製造、晶片研發這些跟國家安全和發展息息相關的行業。這些行業沒法大張旗鼓地宣傳,甚至很多崗位連具體工作內容都不能公開說。● 橫臥在哈工大校園內的長征一號運載火箭(實物)他們在做“需要有人做,但沒人喝彩”的事。也正是一代代這樣年輕的幕後英雄,在為國家的安全和科技的崛起默默地做著自己的貢獻。當然,也有許多哈工大的學子,選擇在前沿的科技領域開拓自己的事業。就像在機器人領域,除了前面說到的那幾位“小天才”之外,中國上市機器人企業一半有哈工大技術背景,新興的手術機器人創業公司三分之一是哈工大畢業生或者教師。還有更多在民用領域的突破和創新,背後也都有哈工大人的影子。比如當年大疆剛起步的時候,無人機穩定性差的技術難題一直沒法解決,也是哈工大的青年教師帶著研究生加入,用了2年時間實現技術突破,幫助大疆騰飛成為全球第一的無人機公司。有句老話叫“少年強則中國強”,哈工大這個低調的985,和它培養出的這些同樣低調的青年,正在默默地改變著世界。他們的征途在機器人、在無人機、在智能駕駛,更在遙遠的星辰大海。● 參考資料[1] 央視新聞客戶端丨讓全社會共享機器人便利!中國人形機器人領跑背後[2] 哈工大官網丨哈工大AI,未來已來![3] 哈工大校友丨哈工大畢業生都去那了?一文告訴你![4] 光明網丨讓全社會共享機器人便利!中國人形機器人領跑背後[5] 機器人大講堂丨新中國機器人史上的“哈工大時刻”,值得每一位考研人瞭解 (最華人)
突破AI視覺“選擇性失明”,哈工大首次實現指令驅動的全景式感知
對於AI視覺多模態大模型只關注顯著資訊這一根本性缺陷,哈工大GiVE實現突破!當今的多模態大模型(如BLIP-2、LLaVA)看似可以理解圖像,實則存在一個根本性的缺陷:它們像戴著“眼罩”的觀察者,只能關注圖片中最顯眼的主體,卻對使用者關心的細節視而不見。例如,當被問及“圖中左側的自行車”或“背景廣告牌上的文字”時,模型常因視覺編碼器的“視野侷限”而答非所問——要麼誤判對象位置,要麼完全忽略非顯著資訊。這種“選擇性失明”,嚴重制約了AI在醫療診斷、自動駕駛、智能安防等場景的深度應用。哈工大(深圳)博士生李俊劼最新研究成果《GiVE: Guiding Visual Encoder to Perceive Overlooked Information》,為AI視覺裝上“動態變焦鏡頭,首次實現“指令驅動的全景式感知”!與傳統模型的“固定視角”不同,GIVE能根據使用者需求靈活調整注意力焦點:無論是被遮擋的物體(如鞋盒中的鞋子)、分散的同類目標(如人群中的特定行人),還是隱藏在複雜背景中的特定目標(如路邊草地),都能精準捕捉並關聯語義資訊。實驗表明,GiVE在圖像分類、圖文檢索等任務中,關鍵指標有顯著提升,解決了傳統模型“見木不見林”的痛點。GiVE通過引入一系列創新設計,重新定義了視覺編碼的效率和精度。它採用了AG-Adapter模組,讓模型在解析圖像時能靈活關注到各類隱性細節,不僅捕捉到顯著特徵,還能兼顧那些平時容易忽略的部分。同時,GiVE設計了三個專門的loss,從不同角度最佳化圖像與文字、圖像之間以及圖像內目標的關聯,使得視覺資訊的提取更加全面精準。這一綜合方案不僅提升了多模態任務的表現,也為建構更智能、更統一的多模態系統鋪平了道路,這不僅是技術的革新,更是AI從“粗看”到“細察”的認知躍遷——機器的眼睛,終於學會了“按需聚焦”。GiVE效果:強大的性能1、讓視覺編碼器能夠聽到文字指令提示研究團隊設計了一個“注意力引導介面卡”(AG-Adapter)模組,作為外掛嵌入現有視覺編碼器的層與層之間。這個 AG-Adapter可以被理解為在視覺網路中加入了一雙“耳朵”,使得視覺編碼器在看到圖像的同時還能聽到文字指令的提示。即便是和InstructBLIP這樣具有指示跟隨編碼能力的模型比較,GiVE也可以用5%的可訓練參數達到更好的性能。2.視覺感知的靈活性、有效性和完備性從可視化注意力可以看出, GiVE可以讓傳統視覺編碼器靈活聚焦。3.在多模態大模型中的應用正確的聚焦為語言模型提供了充分的上下文資訊,有助於生成真實可信的響應。這裡並沒有重新訓練LLaVA模型,而是簡單地將GiVE應用到其使用的CLIP編碼器上。這也體現了GiVE的易用性。GiVE出手:讓視覺模型聽懂指令,不放過任何細節GiVE旨在突破傳統視覺編碼器對圖像關鍵資訊捕捉的侷限,通過全新設計的模組與訓練策略,實現更全面、精準的視覺理解。1、核心元件——AG-Adapter模組靈巧:精確的視覺指導GiVE引入了Attention-Guided Adapter(AG-Adapter)模組,能夠根據文字提示動態調整視覺編碼器的關注區域。不同於傳統編碼器只聚焦於圖像中顯著的部分,AG-Adapter使得模型在解析圖像時能關注到容易被忽略的細節,從而提高了有效視覺資訊的提取效果。輕便:無縫整合與輕量設計該模組以相對較低的額外參數成本嵌入到現有視覺編碼網路中,保證了高效的推理速度和大規模訓練的可擴展性。同時,它作為一個獨立的元件,也方便開發者在不同任務中進行靈活偵錯和替換。2、創新訓練目標——三大Loss函數為了使模型能夠更好地理解並傳遞豐富的視覺語義資訊,GiVE設計了三項專門的訓練目標:對象級圖像-文字對比(Object-focused Image-Text Contrast,OITC)Loss:這一損失函數促使模型在視覺和文字之間建立更緊密的語義聯絡,通過對比學習有效區分不同對象的特徵,使得圖像編碼結果能夠準確反映文字中描述的對象資訊。對象級圖像-圖像對比(Object-focused Image-Image Contrast,OIIC)Loss:OIIC Loss側重於提高同一圖像內部多個目標之間的關聯一致性,確保模型能夠在複雜場景中提取到各個目標的共性和細微差別,從而大幅提升對象檢索的精準性。對象級圖像辨識(Object-focused Image Discrimination,OID)Loss:通過對圖像中目標存在性的二分類判別,OID Loss幫助模型更全面地捕捉到圖像中可能被遺漏的細節,為後續多模態任務提供更加豐富和精準的視覺特徵表示。3、資料基礎——多目標指令資料集(MOInst)為了更好地訓練上述模組和Loss函數,GiVE團隊建構了專門的Multi-Object Instruction(MOInst)資料集。該資料集不僅覆蓋了多種對象類別,還為每個圖像提供了成對的精細文字指令與對象描述,從資料層面確保模型在訓練過程中能夠學習到更細粒度的對象關係和語義表達。組成:資料集包含8萬張圖像、24萬條文字標註及對應的指示對象,覆蓋264類物體關聯場景,為後續研究提供持續助力。建構:資料集是在現有大語言模型的幫助下,以半自動的方式建立的,輔以少量人工協助。這種人工稽核和自動化工具相結合的方式,確保了資料集的精準性和一致性,並剔除可能存在的噪聲和錯誤標註。未來方向GIVE的願景,是讓AI的“眼睛”不僅“看得見”,更能“看得細”“看得懂”——從靜態圖像到動態視訊的時序解析,從2D畫面到3D點雲的空間建模,從單一視覺模態到跨文字、語音、感測器的多維融合。未來,這項技術將滲透至醫療影像的早期病灶定位、自動駕駛的複雜環境感知、工業質檢的微觀缺陷識別,甚至機器人對非結構化場景的自主互動。精細化視覺感知,正成為打通AI“感官”與“認知”的關鍵橋樑,推動通用智能從實驗室邁向真實世界的每一個角落。更多細節歡迎查閱。程式碼:https://github.com/AlephZr/GiVE/tree/main資料集:https://huggingface.co/datasets/DF1024/MOInst (量子位)