본문 바로가기
캔따개의 음모론적 뷰/미국 주식

휴머노이드 로봇의 협동 작업! 피규어 Ai의 헬릭스

by 주식하는 캔따개 2025. 3. 24.
728x90

가까운 미래에는 물류 센타에서 택배 분류, 상하차 작업이 사라진다고 보면 되겠습니다. 갈수록 인간이 할 수 있는 단순 노동은 로봇으로 대체되어지고, 인간은 이제 고차원적인 노동으로 이동을 하는 현상이 오겠지요.

 

먼저 엔비디아가 투자한 스타트업 기업들을 소개할때 1빠로 소개한 기업이 바로 피규어입니다. Figure Ai는 현대의 아틀라스나, 테슬라의 옵티머스를 바짝 뒤따라오는 휴머노이드의 선두주자로도 소개한적이 있지요.

 

이번에 이 기업의 온 디바이스 머신 러닝 퍼포먼스가 큰 인상을 남긴 이유와 앞으로 어떤식으로 활용될지에 대해서 조사해 보겠습니다.

 


 

 

개별 카메라와 센서로 물건을 인식해 바코드 및 물류 뷴류 가능
개별 카메라와 센서로 물건을 인식해 바코드 및 물류 뷴류 가능 : 출처 Figure Ai 공식 유튜브 채널



 

1. Figure의 Helix란?

Helix는 Figure AI가 2025년 2월에 공개한 Vision-Language-Action(VLA) 모델이에요. 이건 로봇이 시각(비전), 언어 이해, 그리고 행동(모터 제어)을 통합해서 작동할 수 있게 해주는 AI 시스템이죠.
 
Helix의 핵심은 인간처럼 자연어 명령을 이해하고, 새로운 환경이나 물체에도 적응하며, 특히 로봇 간 협동을 가능하게 한다는 점이에요.
 
동영상을 보다보면 움직임이 느려서 “좀 갑갑하게 움직인다”고 느껴지는데요, 아직 초기 단계라 속도나 유연성이 더 개선될 여지가 있어서 그런 걸 거예요. 그래도 신기한 점이 많죠!

 

 

Figure 2.0들이 택배 분류 작업을 진행중
Figure 2.0들이 택배 분류 작업을 진행중

 

 

2. 로봇 간 협동: 어떻게 가능할까?

Helix는 두 대의 Figure 02 휴머노이드 로봇이 함께 일하는 모습을 데모로 보여줬어요. 예를 들어, 식료품을 정리하는 작업에서 한 로봇이 물건을 집어서 다른 로봇에게 넘기고, 그 로봇이 서랍이나 냉장고에 넣는 식으로 협동했죠.
 
  • 단일 신경망 사용: Helix는 두 로봇을 동시에 제어하기 위해 하나의 신경망 가중치 세트(7B 파라미터 System 2 + 80M 파라미터 System 1)를 사용해요. 즉, 두 로봇이 각자 독립적인 AI를 갖는 게 아니라, 하나의 AI 두뇌가 두 몸체를 조종한다고 볼 수 있어요.
     
  • 협동 방식: 로봇 간 소통은 음성이나 명시적 신호 없이 이뤄져요. Helix의 System 2(S2)가 장면을 이해하고 목표를 세분화해서 각 로봇에게 작업을 분배하죠. System 1(S1)은 이를 실시간으로 실행해요. 데모에서 로봇이 서로를 “쳐다보는” 듯한 멈춤은 S2가 다음 단계를 계획하며 조율하는 과정일 가능성이 높아요.
     
"1개의 컴퓨터가 2대의 로봇을 동시 제어한다”고 이해한다고 보면 됩니다! 정확히 말하면, 하나의 Helix 인스턴스(AI 모델)가 두 로봇의 GPU에서 동시에 실행되며, 각각의 로봇이 자체 GPU를 통해 실시간 제어를 받아요.
 
그러니까 물리적 “컴퓨터 한 대”라기보다는 단일 AI 모델이 두 로봇을 논리적으로 통제한다고 보는 게 더 정확해요.

 

 

 

두 로봇이 협동해서 냉장고 정리를 진행중. Figure AI의 Helix 다중 로봇 제어 및 협력 시스템
두 로봇이 협동해서 냉장고 정리를 진행중. Figure AI의 Helix 다중 로봇 제어 및 협력 시스템

 

 

3. 온디바이스 머신러닝(On-Device Machine Learning)인가?

네, Helix는 온디바이스 머신러닝을 기반으로 작동해요! 이게 왜 중요한지, 어떻게 구현되는지 설명드릴게요:
 
 
온보드 GPU: Helix는 로봇에 내장된 저전력 GPU에서 실행돼요. Figure 02 로봇마다 두 개의 GPU가 탑재돼 있는데:
  • System 2(S2): 7~9Hz로 작동하며 장면 이해와 언어 처리를 담당해요. 인터넷 사전 학습된 VLM(Vision-Language Model)이 여기 속하죠.
  • System 1(S1): 200Hz로 빠르게 반응하며 모터 제어를 실행해요. S2의 고수준 계획을 받아 실시간 행동으로 변환하죠.

  • 왜 온디바이스인가?:
    클라우드에 의존하면 네트워크 지연(latency)이 생기고, 인터넷 연결이 끊기면 로봇이 멈출 위험이 있어요. Helix는 모든 계산을 로봇 내부에서 처리해서 
    실시간성과 독립성을 확보했어요. 데모에서 로봇이 자연어 명령을 듣고 바로 반응하는 것도 온디바이스 처리 덕분이죠.

 

 
다만,S1의 200Hz 제어가 아직 인간 수준의 부드러움에는 미치지 못하거나, S2의 느린 7~9Hz 계획 주기가 협동 동작에 약간의 딜레이를 줄 수 있어서예요.
 
Figure는 이를 “Sport Mode”라는 기술로 보완해서 20% 정도 속도를 높였다고 밝혔지만, 아직 최적화가 진행 중인 단계로 보입니다.

 


4. 기술 요약

Figure Ai의 Helix가 하나의 AI로 두 로봇을 협동하게 한다는 점은 기존 로봇 시스템과 차별화된 혁신이에요. 온디바이스 머신러닝 덕분에 외부 서버 없이도 실시간으로 작동할 수 있고, 이건 앞으로 가정이나 공장에서 로봇을 상용화할 때 큰 장점이 될 거예요.
 
다만, 움직임에 있어서 “갑갑함”은 저도 동감해요. 데모 영상을 보면 로봇이 서로 물건을 주고받을 때 약간 멈칫거리거나, 동작이 매끄럽지 않은 부분이 있죠.
 
이건 Helix가 아직 초기 모델이라서 그런 거고, Figure가 약속한 “인간 수준의 속도와 유연성”에 도달하려면 더 많은 데이터와 튜닝이 필요할 거예요. 그래도 500시간의 텔레오퍼레이션 데이터로 이 정도 협동을 해낸 건 대단한 첫걸음이라고 생각해요!
 
다만, 가정용과 산업용 범용으로 만들어졌지만 디짓처럼 상하차를 할 수 있을정도의 무게는 들지 못해요. 범용 생산 목적이지만 그런 점에서 약간의 보완은 필요하다고 보입니다.

 

 


 

5. 캔따개의 결론

Helix는 단일 AI 모델로 두 로봇을 동시에 제어해서 협동하게 해요. 온디바이스 머신러닝으로 로봇 내부 GPU에서 모든 걸 처리해서 가성비도 좋고요.
 
지금은 동작이 좀 느리거나 갑갑해 보일 수 있지만, 엔비디아의 머신러닝 시스템인 파운드리는 속도를 비약적으로 빠르게 올릴 수 있으니까 발전 가능성은 엄청나죠.