Abstract
This paper has implemented a mutual conversion system that mutually converts between body motion signals and both visual and auditory signals. The present study is based on intentional synesthesia that can be perceived by learning. The Euler's angle was used in body movements as the output of a wearable armband(Myo). As a muscle sense, roll, pitch and yaw signals were used in this study. As visual and auditory signals, MIDI(Musical Instrument Digital Interface) signals and HSI(Hue, Saturation, Intensity) color model were used respectively. The method of mutual conversion between body motion signals and both visual and auditory signals made it easy to infer by applying one-to-one correspondence. Simulation results showed that input motion signals were compared with output simulation ones using ROS(Root Operation System) and Gazebo which is a 3D simulation tool, to enable the mutual conversion between body motion information and both visual and auditory information.
본 논문은 학습으로 공감각 현상을 지각할 수 있는 의도적인 공감각을 기반으로 신체의 움직임에서 시각과 청각정보로의 변환 및 역변환 시스템을 구현하였다. 신체의 움직임은 웨어러블 암밴드인 Myo의 출력인 오일러 각을 사용하였고, 근감각 정보로서 롤(Roll), 피치(Pitch), 요(Yaw) 신호를 사용하였다. 또한, 시각과 청각 정보로서 미디(MIDI, Musical Instrument Digital Interface)신호와 HSI 컬러 모델을 사용하였다. 근감각 신호와 시 청각 신호 사이의 상호변환 방법은 일대일 대응 관계를 적용함으로써 직관적으로 쉽게 유추할 수 있도록 하였다. 시뮬레이션 결과에서 신체의 움직임 정보와 시 청각 정보의 상호변환이 가능함을 ROS(Root Operation System)와 3D 시뮬레이션 툴인 Gazebo를 사용하여 입력과 출력을 비교하였고 변환 오차가 작음을 확인하였다.