• Title/Summary/Keyword: 3D 조이스틱

Search Result 14, Processing Time 0.028 seconds

Development of 3D Joystick for Flight Simulator using Gyro Sensor (자이로 센서를 활용한 비행 시뮬레이터용 3D 조이스틱 개발)

  • Cha-Hun Park;Sung-Ho Lee;Myeong-Chul Park
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.01a
    • /
    • pp.333-334
    • /
    • 2023
  • 비행시뮬레이터는 ICT 및 SW 응용분야에 속하는 기술로 항공기의 환경을 재현하는 시뮬레이션 환경을 제공한다. 시뮬레이터의 조종 장치인 일반적인 조이스틱을 대체한 기존 VR장비의 컨트롤러는 허공에 들고 조종하므로 정확하고 정교한 실제 항공기 조종에 사용하기에는 많은 문제점이 있다. 본 연구에서는 비행시뮬레이터와 VR분야에서 사용될 수 있는 가속도 센서와 진동 센서를 적용한 3D 조이스틱을 제안한다. 이를 위하여 3축 센싱과 정보를 표시하는 디스플레이 및 와이파이 통신을 위한 보드를 설계하고 유니티 기반의 가상 환경을 구현하여 적용 가능성을 확인하였다. 정상적으로 통신 인터페이스를 통하여 조종 장치가 동작하였고 게임 및 구현된 보드에서 확인한 센싱값이 일치함을 확인하였다. 연구의 결과물은 비행시뮬레이터 외에도 VR 및 다양한 메타버스 관련 콘텐츠에 사용될 수 있을 것으로 판단한다.

  • PDF

Valve Analysis of Joystic steering System for Wheel Loader (휠로더 조이스틱 스티어링 시스템용 밸브 해석)

  • Ahn T.G.;Cheon T.H.;Kim Yong-Seok;Lim T.H.;Yang S.Y.
    • Proceedings of the Korean Society of Precision Engineering Conference
    • /
    • 2006.05a
    • /
    • pp.39-40
    • /
    • 2006
  • The operation of wheel-loader is mainly divided into steering and excavating. The existing wheel-loader is used by handle for steering operation and by joystic for excavating operation. When we do steering and excavating operation simultaneously, we feel so uncomfortable because we have to use handle and joystic simultaneously. Therefore, we need to develop eletro-joystic steering system instead of hydraulic-handle steering system. So we can improve driving convenience in industrial field. This paper analyze spool of steering wheel and joystic and drive open area diagram. As a result, we can know characteristics of each valve before developing new electro-joystic steering system for wheel-loader.

  • PDF

A Development of The Remote Robot Control System with Virtual Reality Interface System (가상현실과 결합된 로봇제어 시스템의 구현방법)

  • 김우경;김훈표;현웅근
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2003.10a
    • /
    • pp.320-324
    • /
    • 2003
  • Recently, Virtual reality parts is applied in various fields of industry. In this paper we got under control motion of reality robot from interface manipulation in the virtual world. This paper created virtual robot using of 3D Graphic Tool. And we reappeared a similar image with reality robot put on texture the use of components of Direct 3D Graphic. Also a reality robot and a virtual robot is controlled by joystick. The developed robot consists of robot controller with vision system and host PC program. The robot and camera can move with 2 degree of freedom by independent remote controlling a user friendly designed joystick. An environment is recognized by the vision system and ultra sonic sensors. The visual mage and command data translated through 900MHz and 447MHz RF controller, respectively. If user send robot control command the use of simulator to control the reality robot, the transmitter/recever got under control until 500miter outdoor at the rate of 4800bps a second in Hlaf Duplex method via radio frequency module useing 447MHz frequency.

  • PDF

Implementation of Joystick for Flight Simulator using WiFi Communication

  • Myeong-Chul Park;Sung-Ho Lee;Cha-Hun Park
    • Journal of the Korea Society of Computer and Information
    • /
    • v.28 no.8
    • /
    • pp.111-118
    • /
    • 2023
  • In this paper, we propose a WiFi-based joystick with an acceleration sensor and a vibration sensor that can be used in flight simulators and VR fields. The flight simulator is a technology belonging to the ICT and SW application field and provides a simulation environment that reproduces the aircraft environment. Existing flight simulator control devices are fixed to a specific device and the user's activity area is limited. In this paper, a 3D space manipulation device was implemented for the user's free use of space. In addition, the proposed control device is designed as a WiFi communication board and display that displays information and performs 3-axis sensing for accurate and sophisticated control compared to existing VR equipment controllers. And the applicability was confirmed by implementing a Unity-based virtual environment. As a result of the implementation device verification, it was confirmed that the control device operates normally through the communication interface, It was confirmed that the sensing values in the game and the sensing values measured on the implemented board matched each other. The results of this study can be used for VR and various metaverse related contents in addition to flight simulators.

A 3D Virtual Pavilion of Korean Traditional Music with Personal Navigation Functionality (개인화 내비게이션 기능을 제공하는 3D 가상 국악 전시관 제작)

  • Choi, Ji-Ae;Shim, Jae-Sun;Kim, Yoon-Sang
    • Proceedings of the KIEE Conference
    • /
    • 2008.07a
    • /
    • pp.1907-1908
    • /
    • 2008
  • 본 논문에서는 개인화 내비게이션 기능을 제공하는 3D 가상 국악 전시관을 제안하였다. 제안된 가상 국악 전시관은 키보드와 조이스틱, 마우스 등 입력장치를 이용하여 사용자의 조작으로 이동 가능하며, 해당 국악기의 설명을 한국어와 영어로 들을 수 있다. 또한, 모든 국악기에 대한 소리를 들을 수 있고, 형태와 연주 기법을 3D로 볼 수 있으며, 해당 악기의 연주 동영상을 시청할 수 있다. 가상 국악 콘텐츠는 7개의 악기와 상세설명, 그리고 한 개의 시청각 실을 포함한다. 또한, Virtools와 자바스크립트를 이용하여 사용자 개인이 원하는 정보만을 가상으로 체험할 수 있는 개인화 내비게이션 기능을 구현하여 제공한다.

  • PDF

Soccer Carne 3D Reenactment System (3차원 축구 재연 시스템)

  • 이재호;김진우;김희정
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2002.11a
    • /
    • pp.259-264
    • /
    • 2002
  • 최근에 축구 경기에 대한 많은 관심이 모아지고 있으며 축구 경기를 분석하는 시스템들도 다양하게 개발되고 있다. 본 논문에서는 축구 경기의 중요 장면을 3 차원 그래픽으로 재연하여 다각도의 영상정보를 제공하는 축구경기 3 차원 재연 시스템에 대해 소개한다. KBS 기술연구소에서는 2002년 한일 월드컵 축구대회 기간 중 시청자에게 새로운 영상을 제공하기 위해 'VPlay'라는 이름의 축구경기 3차원 재연 시스템을 개발하였다. VPtay 는 영상 처리 기술과 컴퓨터 그래픽 기술이 함께 사용되었다. 영상 처리 기술에는 선수 추출 및 추적, 그리고 카메라 이동 모델 및 추적 점에 대한 운동장으로의 좌표변환 모델 제작 방법이 사용되었다. 컴퓨터 그래픽 기술에서는 추적결과 데이터로부터 캐릭터의 기본적인 동작을 생성할 수 있는 이동동작 생성 기술을 적용하였고 가상 카메라의 효과적인 제어를 위해서 조이스틱을 이용한 가상 카메라제어 프로그램을 개발하였다. VPlay 는 빠른 제작시간을 요구하는 축구중계 생방송용으로 개발되었으며 지난 월드컵 경기와 아시안 게임에 효과적으로 활용하였다

  • PDF

입체영상과 평면영상의 원격조작성 비교

  • 이용범;이남호;박순용;조재완;최영수
    • Proceedings of the Korean Nuclear Society Conference
    • /
    • 1997.10a
    • /
    • pp.381-386
    • /
    • 1997
  • 본 논문에서는 개발된 편광방식 스테레오 모니터링(KAERI-PSM) 시스템의 성능을 평가하기 위해 6 D.O.F.의 퓨마 로보트를 이용한 원격조작 실험을 수행하였다. 카메라의 관측각도를 달리하는 3가지 원격조작실험은 6명의 실험자가 힘반향 조이스틱을 사용하여 로보트 암을 (1)직접 (2)일반 평면모니터 및 (3)개발된 편광방식 스테레오 영상 모니터를 통하여 보면서 6가지의 조합된 방법으로 총 36번 수행하여 걸린 평균시간과 평균 에러 발생 수를 비교하는 것이다. 실험 결과 스테레오 영상 모니터를 사용한 경우 일반 평면모니터를 이용했을 때 보다 훨씬 짧은 시간에 정확히 원격작업을 수행할 수 있었으며, 물체 이동에 대한 카메라의 각도가 실험의 주요한 변수가 됨을 알 수 있었다.

  • PDF

Surgical Simulation Environment for Replacement of Artificial Knee Joint (CT 영상을 이용한 무릎관절 모의 치환 시술 환경)

  • Kim, Dong-Min
    • Journal of IKEEE
    • /
    • v.7 no.1 s.12
    • /
    • pp.119-126
    • /
    • 2003
  • This paper presents a methodology for constructing a surgical simulation environment for the replacement of artificial knee join using CT image data. We provide a user interface of preoperative planning system for performing complex 3-D spatial manipulation and reasoning tasks. Simple manipulation of joystick and mouse has been proved to be both intuitive and accurate for the fitness and the wear expect of joint. The proposed methodology are useful for future virtual medical system where all the components of visualization, automated model generation, and surgical simulation are integrated.

  • PDF

Helicopter Pilot Metaphor for 3D Space Navigation and its implementation using a Joystick (3차원 공간 탐색을 위한 헬리콥터 조종사 메타포어와 그 구현)

  • Kim, Young-Kyoung;Jung, Moon-Ryul;Paik, Doowon;Kim, Dong-Hyun
    • Journal of the Korea Computer Graphics Society
    • /
    • v.3 no.1
    • /
    • pp.57-67
    • /
    • 1997
  • The navigation of virtual space comes down to the manipulation of the virtual camera. The movement of the virtual cameras has 6 degrees of freedom. However, input devices such as mouses and joysticks are 2D. So, the movement of the camera that corresponds to the input device is 2D movement at the given moment. Therefore, the 3D movement of the camera can be implemented by means of the combination of 2D and 1D movements of the camera. Many of the virtual space navigation browser use several navigation modes to solve this problem. But, the criteria for distinguishing different modes are not clear, somed of the manipulations in each mode are repeated in other modes, and the kinesthetic correspondence of the input devices is often confusing. Hence the user has difficulty in making correct decisions when navigating the virtual space. To solve this problem, we use a single navigation metaphore in which different modes are organically integrated. In this paper we propose a helicopter pilot metaphor. Using the helicopter pilot metaphore means that the user navigates the virtual space like a pilot of a helicopter flying in space. In this paper, we distinguished six 2D movement spaces of the helicopter: (1) the movement on the horizontal plane, (2) the movement on the vertical plane,k (3) the pitch and yaw rotations about the current position, (4) the roll and pitch rotations about the current position, (5) the horizontal and vertical turning, and (6) the rotation about the target object. The six 3D movement spaces are visualized and displayed as a sequence of auxiliary windows. The user can select the desired movement space simply by jumping from one window to another. The user can select the desired movement by looking at the displaced 2D movement spaces. The movement of the camera in each movement space is controlled by the usual movements of the joystick.

  • PDF

Haptic Media Broadcasting (촉각방송)

  • Cha, Jong-Eun;Kim, Yeong-Mi;Seo, Yong-Won;Ryu, Je-Ha
    • Broadcasting and Media Magazine
    • /
    • v.11 no.4
    • /
    • pp.118-131
    • /
    • 2006
  • With rapid development in ultra fast communication and digital multimedia, the realistic broadcasting technology, that can stimulate five human senses beyond the conventional audio-visual service is emerging as a new generation broadcasting technology. In this paper, we introduce a haptic broadcasting system and related core system and component techniques by which we can 'touch and feel' objects in an audio-visual scene. The system is composed of haptic media acquisition and creation, contents authoring, in the haptic broadcasting, the haptic media can be 3-D geometry, dynamic properties, haptic surface properties, movement, tactile information to enable active touch and manipulation and passive movement following and tactile effects. In the proposed system, active haptic exploration and manipulation of a 3-D mesh, active haptic exploration of depth video, passive kinesthetic interaction, and passive tactile interaction can be provided as potential haptic interaction scenarios and a home shopping, a movie with tactile effects, and conducting education scenarios are produced to show the feasibility of the proposed system.