구현 목표
- 실제 Xsens 슈트를 사용하지 않고도 Unity 내부에서 Xsens 동작을 재현하는 것이 목표
- 17개 센서 데이터 기반으로 실시간 관절 추정 및 모션 연출 가능하도록 구현
구현 내용 요약
- Xsens 센서(17개)의 각 데이터를 기반으로 한 Gizmos 시각화 시스템 제작
- 센서의 구조를 Unity의 Humanoid 계층과 동일하게 설계
- 각 센서의 위치를 에디터에서 저장/불러오기 가능하도록 설정
- Play 시 저장된 센서 데이터를 자동으로 배치
- 매 프레임마다 센서 포인트들로부터 각속도, 가속도, 절대 위치 계산
- Xsens(오른손 좌표계) → Unity(왼손 좌표계) 변환 처리 구현
- T자 자세를 기준으로 한 Calibration 시스템 구성
- 강체 운동, 벡터 연산을 활용한 관절 위치 역산 알고리즘 구현
- A 모델의 모션데이터를 B 모델에도 적용 가능하게 설계 (데이터 전송 테스트)
- 보간 기능을 통해 부드럽게 작동하도록 구현
데이터 흐름
Update에서 각 관절값 수집, LateUpdate에서 전송
- Xsens → Unity
- 포맷:
Vector3 기준 위치/회전
- 프레임 속도 기준:
60fps
- Xsens(17):
204byte/frame → ~12KB/sec (최소 데이터)
- 실시간 데이터 처리 기준: 약
~0.4 Mbps 예상 (관절 데이터, 가속도, 절대좌표 포함)