#視覺-語言-動作模型
2025/02/21
•
拋棄OpenAI,Figure亮王牌:史上首次兩個機器人「共腦」,網友直呼太恐怖!
就在剛剛,Figure祭出首個人形視覺-語言-動作模型Helix。機器人學會像人一樣推理,聽從自然語言絲滑拿起任何物體。破紀錄的是,這個AI能夠首次同時操控兩台機器人,讓它們「共腦」合作!網友:不寒而慄。 與OpenAI分手之後,Figure自研首個模型終於交捲了! 不用ChatGPT,Figure直接把視覺-語言-動作模型(VLA)——Helix裝入人形機器人大腦。 它可以讓機器人感知、語言理解、學習控制,是一個端到端的通用模型。