요약(3줄)
1) 피지컬 AI(Embodied/Physical AI)는 ‘모델(뇌)’만이 아니라 데이터 수집 → 원격조작(teleop) → 재현 가능한 하드웨어 스택이 있어야 빨리 실험이 됩니다.
2) 최근 공개된 글에서는 LeKiwi가 LeRobot(🤗)과 잘 맞는 저비용 오픈소스 모바일 매니퓰레이터로 소개되며, SO-101(오픈소스 로봇암) 장착을 전제로 한 생태계가 커지고 있음을 보여줍니다.
3) 초보자는 ‘완전 자율’보다 먼저 움직이고(teleop) 기록하고(dataset) 재생(replay)하는 흐름으로 접근하면 실패 확률이 낮습니다.
1) 왜 지금 “저비용 로봇 스택”이 중요해졌나
LLM 이후 ‘다음 파도’로 피지컬 AI가 자주 언급되지만, 현실의 병목은 모델보다 몸(하드웨어) + 운영(소프트웨어 스택) + 데이터(데모/센서)에서 터지는 경우가 많습니다. 그래서 요즘은 “누구나 따라 할 수 있는” 저가형 오픈소스 플랫폼이 가치가 큽니다. 하드웨어가 표준화될수록, 실험이 재현 가능해지고 커뮤니티가 빨리 축적되기 때문입니다.
2) LeRobot(🤗)는 뭘 하는 프레임워크인가
Hugging Face의 LeRobot은 실제 로봇을 위한 모델/데이터셋/도구를 제공해 진입장벽을 낮추는 것을 목표로 한다고 소개합니다. PyTorch 기반 접근, 사전학습 모델/데이터셋/시뮬 환경 등을 제공해 “일단 시작”을 쉽게 하려는 방향성이죠.
- 목표: 로봇용 ML(모델/데이터/툴) 공유를 통해 진입장벽 낮추기
- 초보 팁: ‘거대 모델’부터가 아니라, 내 장비에서 teleop → 데이터 수집이 먼저
3) LeKiwi란? (모바일 베이스 + 카메라 + 라즈베리파이 + 로봇암 장착)
Foxglove 블로그 글은 LeKiwi를 저비용 오픈소스 모바일 매니퓰레이터로 소개하며, LeRobot과의 연계를 염두에 둔 설계(카메라, Raspberry Pi 5, SO-101 장착 포인트 등)를 언급합니다. 또한 LeKiwi GitHub 리포지토리에는 BOM/3D 프린팅/조립 가이드 같은 “따라 하기” 문서가 정리돼 있습니다.
- 구성 예: 3륜(홀로노믹) 베이스, Raspberry Pi 5, 카메라, 표준 마운팅 홀 패턴
- 가이드: BOM/3D Printing/Assembly 문서 제공
- LeRobot 연계 문서 링크(프로젝트 측에서 제공)
4) SO-101(로봇암)은 왜 많이 언급되나
SO-101은 SO-100의 차세대 버전으로, 리포지토리 설명에 따르면 Hugging Face(LeRobot)와의 협업 맥락 속에서 조립/배선 개선, 모터 구성 업데이트 등 ‘만들기 쉬움’을 강조합니다. 또한 LeRobot 문서의 조립 가이드를 연결해 “하드웨어 ↔ 소프트웨어”를 한 흐름으로 안내합니다.
- 초보 포인트: ‘하드웨어 조립 가이드’가 공개돼 있고, 생태계가 커질수록 시행착오가 줄어듦
- 주의: 부품 소싱(모터/전원)과 조립 품질이 성능/안정성에 큰 영향
5) “적용 방법/설정 방법” 체크리스트(초보용)
아래는 ‘피지컬 AI 실험’ 관점에서, LeKiwi/SO-101/LeRobot을 실제로 굴리기 위한 최소 흐름을 체크리스트로 정리한 것입니다. (세부 커맨드/버전은 각 프로젝트 문서를 따라가세요.)
A. 하드웨어 준비
- LeKiwi: BOM 확인 → 3D 프린팅 → 조립(기구/배선)
- 컴퓨트: Raspberry Pi 5(또는 대체 구성) 준비
- 카메라: 워크스페이스/손목 카메라(가능하면)
- 선택: SO-101 로봇암 조립(가이드 링크 활용)
B. 소프트웨어 기본 세팅
- LeRobot 환경 준비(프로젝트 안내 따라 설치)
- teleop(원격조작)부터 먼저: 컨트롤러/키보드/WASD 등 입력 장치 확보
- 데이터 수집 파이프라인(데모 기록) 세팅
C. ‘자율’보다 먼저 확인할 것(실패율 줄이는 순서)
- 로봇이 안전하게 정지/재시작 가능한가(킬 스위치/전원 관리)
- 카메라/센서 스트림이 안정적인가(프레임 드랍/지연)
- teleop로 원하는 궤적을 재현할 수 있는가
- 데모 데이터를 “저장→재생”했을 때 같은 동작이 나오는가
6) (확장) LeKiwi에 LiDAR 붙여 ‘지도/내비’로 확장하는 흐름
Foxglove 글은 LeKiwi에 2D LiDAR를 붙이고 ROS 2/Nav2/SLAM 툴체인으로 확장하는 과정을 단계적으로 소개합니다. ‘피지컬 AI 실험’에서 이동 베이스가 들어가면 공간 인지(지도/장애물)가 중요해지는데, 2D LiDAR는 비교적 예산 친화적인 옵션이 될 수 있습니다.
한계/주의
- 오픈소스 로봇은 “될 때는 빨리 되지만” 배선/전원/조립 품질이 전체 경험을 좌우합니다. 초보일수록 문서대로 ‘검증된 구성’부터 시작하는 게 좋습니다.
- 이 글은 공개 문서/리포지토리 기반의 개요이며, 실제 성능(정밀도/하중/안정성)은 빌드 상태에 따라 크게 달라질 수 있습니다.
출처
- Foxglove Blog: Upgrading the LeKiwi into a LiDAR-equipped explorer
- Hugging Face: LeRobot (community page)
- GitHub: SIGRobotics-UIUC/LeKiwi
- GitHub: TheRobotStudio/SO-ARM100 (SO-100/SO-101 arms)
이미지 출처: Wikimedia Commons: File:Leroy Chiao working on Space Station Remote Manipulator System.jpg · License: Public domain