• Title/Summary/Keyword: 3차원 시각기반 인터페이스

Search Result 34, Processing Time 0.028 seconds

A Full Body Gumdo Game with an Intelligent Cyber Fencer using Multi-modal(3D Vision and Speech) Interface (멀티모달 인터페이스(3차원 시각과 음성 )를 이용한 지능적 가상검객과의 전신 검도게임)

  • 윤정원;김세환;류제하;우운택
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.9 no.4
    • /
    • pp.420-430
    • /
    • 2003
  • This paper presents an immersive multimodal Gumdo simulation game that allows a user to experience the whole body interaction with an intelligent cyber fencer. The proposed system consists of three modules: (i) a nondistracting multimodal interface with 3D vision and speech (ii) an intelligent cyber fencer and (iii) an immersive feedback by a big screen and sound. First, the multimodal Interface with 3D vision and speech allows a user to move around and to shout without distracting the user. Second, an intelligent cyber fencer provides the user with intelligent interactions by perception and reaction modules that are created by the analysis of real Gumdo game. Finally, an immersive audio-visual feedback by a big screen and sound effects helps a user experience an immersive interaction. The proposed system thus provides the user with an immersive Gumdo experience with the whole body movement. The suggested system can be applied to various applications such as education, exercise, art performance, etc.

3D Virtual Engraving with Haptic Feedback (햅틱 모델을 이용한 3 차원 가상 판화 시스템)

  • Park, Se-Kil;Park, Ji-Hwan;Lee, Dong-Wook;Park, Jin-Ah
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.219-224
    • /
    • 2006
  • 3 차원 입력 장치는 키보드나 마우스 같은 일반적인 입력 장치로는 받아 들이기 어려운 3 차원 입력을 사용자로부터 간편하고 직관적인 방법으로 받아들일 수 있다는 측면에서 활발히 연구 및 사용되고 있다. 또한 햅틱 장치는 가상 물체의 조작에 따른 시각적인 피드백 외에 가상 물체의 느낌을 피드백 힘을 통해 사용자에게 전달해 줌으로써 컴퓨터와 사용자간의 상호 작용에 큰 도움을 준다. 본 논문은 햅틱 피드백이 적용된 실시간 가변형 모델과 효과적인 3 차원 입력에 대한 기반 연구를 하고자 한다. 그리고 이에 대한 한 가지 사례로써 햅틱 장치를 이용한 가상 판화 시스템을 제작 한다. 가상 판화 시스템은 시각 처리 부분과 촉각 처리 부분, 그리고 사용자의 3 차원 입력을 돕는 인터페이스 부분으로 구성되어 있다. 시각 처리 부분은 3 차원 공간 상에서 사용자의 조각에 따른 판화 표면의 변형을 처리하며 촉각 처리 부분은 실제 판화를 제작할 때 느끼는 촉각을 햅틱 인터페이스를 이용하여 사용자에게 전달한다. 이를 위해 먼저 시각 처리 부분에서는 NURBS 기반의 자유 형상 변형 (FFD)기법을 이용하였는데 가상 조각도에 의한 물체 표면의 지역적인 변형을 구현하기 위해 조각도가 닿는 부분에 대해 기조 격자점 (control point)을 증가시켜 원하는 부분에 대한 지역적인 변화를 용이하도록 하였고 다음으로 촉각 처리 부분에서는 S-chain 모델을 이용하였는데 S-chain 모델을 객체 전체에 적용하지 않고 접촉이 일어날 경우 그 접촉점을 기준으로 S-chain 모델을 지역적으로 적용하는 방법을 고안하여 실제 구현에 이용하였다. 인터페이스 적인 측면에서 사용자의 3 차원 입력장치를 통한 인터렉션은 사용자로 하여금 보다 자유로운 입력을 허용하지만 이에 따른 깊이 지각 문제를 발생시킨다. 이러한 문제를 최소화 시키고 사용자의 깊이 지각을 강화시키기 위해 사용자에게 제공되는 시각적 자극을 변형시키고 다양한 정보를 제공하도록 하였다. 가상 판화 시스템은 가상 환경에서 사용자의 조작에 따른 다양한 결과물을 제작 및 출력해 볼 수 있도록 해준다. 또한 가상 환경에서 이러한 기반을 제공함으로써 가상 환경의 장점인 복사, 이동 및 영구 보존 특성을 동시에 얻을 수 있다. 본 논문은 이러한 작업을 위한 기반 기술로써 햅틱 및 가변형 모델, 3 차원 입력 장치에 대한 시각적 인터페이스에 대해 다루고 이 기반 기술을 바탕으로한 가상 판화 시스템의 구현에 대하여 논하고자 한다.

  • PDF

Speech Animation by Visualizing the Organs of Articulation (조음 기관의 시각화를 이용한 음성 동기화 애니메이션)

  • Lee, Sung-Jin;Kim, Ig-Jae;Ko, Hyeong-Seok
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.843-851
    • /
    • 2006
  • 본 논문에서는 음성에 따른 얼굴 애니메이션을 사실적으로 표현하기 위한 조음기관(혀, 성대 등)의 움직임을 시각화하는 방법을 제시한다. 이를 위해서, 음성에 따른 얼굴 애니메이션을 위한 말뭉치(Corpus)를 생성하고, 생성된 말뭉치에 대해서 음소 단위의 분석(Phoneme alignment) 처리를 한 후, 각 음소에 따른 조음기관의 움직임을 생성한다. 본 논문에서는 조음기관의 움직임 생성을 위해서 얼굴 애니메이션 처리에서 널리 사용되고 있는 기저 모델 기반 형태 혼합 보간 기법(Blend shape Interpolation)을 사용하였다. 그리고 이를 통하여 프레임/키프레임 기반 움직임 생성 사용자 인터페이스를 구축하였다. 구축된 인터페이스를 통해 언어치료사가 직접 각 음소 별 조음기관의 정확한 모션 데이터를 생성토록 한다. 획득된 모션 데이터를 기반으로 각 음소 별 조음기관의 3차원 기본 기저를 모델링하고, 새롭게 입력된 음소 시퀀스(phoneme sequence)에 대해서 동기화된 3차원 조음기관의 움직임을 생성한다. 이를 통해 자연스러운 3차원 얼굴 애니메이션에 적용하여 얼굴과 동기화된 조음 기관의 움직임을 만들어 낼 수 있다.

  • PDF

Shape Comparison for Human Organ Models Using Multi-resolution Silhouette Images (다해상도 실루엣 영상을 이용한 인체 장기 모델에 대한 형상 비교)

  • 김정식;최수미
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10b
    • /
    • pp.688-690
    • /
    • 2003
  • 본 논문에서는 다해상도 2차원 실루엣 영상들을 이용하여 3차원 모델간의 형상 유사성을 비교하기 위한 방법을 제안한다. 제안 시스템은 포즈 정규화 모듈, 유사성 계산 모듈, 3차원 시각화 모듈로 구성된다. 형상 비교를 위해서 먼저, 3차원 인체 장기 모델을 입력으로 받아서 정규화를 수행하고, 다해상도 깊이맵을 획득한다. 이어서 유사성 비교를 위해 실루엣 영상을 추출한 후, 유사도 측정을 위해 시그니쳐를 측도로 사용한다. 최종적으로 계산된 결과들은 3차원 글리프 및 컬러 코딩을 이용하여 시각화된다. 본 논문에서 제시한 3차원 형상 비교 시스템은 전처리 단계에서의 정규화 수행을 통하여 스케일 및 회전 변환에 불변하는 특성을 보인다. 그리고 다양한 레벨의 깊이맵을 형상 비교에 사용하여 다해상도 기반의 유사성 평가를 지원하며, 평가 계산 속도와 정확성간의 유연성을 제공한다. 또한 3차원 히스토그램. 3차윈 글리프. 컬러 코딩 시각화 기법들과 2차원 실루엣 피킹 인터페이스를 통하여 인체 장기 모델간의 정량적 형상 차이를 사용자가 직관적으로 평가할 수 있도록 한다. 본 시스템은 차후 데이터베이스를 이용한 원격 진료 시스템에서의 질병 진단, 추적 관찰. 치료계획 등에 활용될 수 있을 것이다.

  • PDF

An Affective 3D Facial Makeup Simulation Using a Multi-sensory Interaction (다중 감각 인터랙션을 이용한 감성적 3차원 얼굴 메이크업 시뮬레이션)

  • Kim, Jeong-Sik;Kim, Hyeon-Joong;Choi, Soo-Mi
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.500-506
    • /
    • 2007
  • 얼굴에 대한 시각적 인지는 오랫동안 인간에게 중요한 문제로 인식되어 왔다. 수 세기 동안 이루어져 왔던 미용 화장과 성형, 치아 교정 등의 다양한 연구는 사람의 얼굴을 감성적 측면에서 어떻게 하면 아름답게 만들 수 있는 가에 초점을 두었다. 본 논문에서는 휴먼 입출력 인터페이스로서 햅틱 장치와 스테레오 디스플레이를 혼합한 다중 감각 인터랙션 기반의 감성적인 3차원 얼굴 메이크업 시뮬레이션 프레임워크를 개발한다. 본 연구는 3차원 스캐너 장비로부터 사용자의 얼굴 모델을 추출하고, 그 데이터를 이용하여 자연스럽고 직관적인 얼굴 메이크업 시뮬레이션을 수행하는 것을 목표로 하고 있다. 이를 위하여 본 연구에서는 surface elements 표현 기반의 3차원 얼굴 필터링 방법과 얼굴 메이크업을 지원하는 페인팅 방법을 개발한다. 우선 사용자의 얼굴 모델을 3차원 스캐너로 획득한 후, 전처리 얼굴 필터링을 수행하여 조명, 그리고 사용자 얼굴 피부 상태에 기인하는 에러 및 속성들을 보정하고 피부 톤을 사용자가 선호하는 색으로 변경한다. 최종적으로 사용자는 햅틱 및 스테레오 디스플레이 장치를 이용하여 두 개의 레이어로 구성된 페인팅 표면 모델에 메이크업을 수행한다. 본 연구에서 적용한 surface elements 표현 기반의 그래픽 렌더링은 일반적인 메쉬 기반 페인팅의 문제점인 텍스쳐 왜곡 현상을 완화하고, 3차원 스캐너 장치에 기인하는 표면 에러를 보정한다. 그리고 전처리 얼굴 필터링과 메이크업 페인팅 방법은 사용자 중심의 감성적인 3차원 얼굴을 재구성하도록 한다. 결과적으로 본 연구에서 개발한 이러한 기술들이 다중 감각 인터페이스 기반의 메이크업 시뮬레이터의 기본 프레임워크가 되어, 차후 메이크업이나 코디네이션 분야 등의 디지털 콘텐츠 산업에서 활용될 수 있음을 확인하였다.

  • PDF

Development of a PC-based 3-D Seismic Visualization Software (PC 기반의 3차원 탄성파 자료 시각화 소프트웨어 개발 연구)

  • Kim, Hyeon-Gyu;Lee, Doo-Sung
    • Geophysics and Geophysical Exploration
    • /
    • v.6 no.1
    • /
    • pp.35-39
    • /
    • 2003
  • A software to visualize and analyse 3-D seismic data is developed using OpenGL, one of the most popular 3-D graphic library, under the PC and Windows platform. The software can visualize the data as volume and slices, whose color distribution is specified by a special dialog box that can pick a color in RGB or HSV format. The dialog box can also designate opacity values so that several 3-D objects can be displayed superimposed each other. Horizon picking is implemented very easily with this software thanks to the guided picking method. The picked points from a horizon will compose a set of points, mesh, and a surface, which can be viewed and analysed in three dimensions.

Design and Implementation of 3D Visualization System for Real-time Environmental Sensor Data (실시간 환경 센서 데이터의 3차원 시각화 시스템 설계 및 구현)

  • Kim, KyeongOg;Ban, KyeongJin;Ryu, NamHoon;Kim, EungKon
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2007.11a
    • /
    • pp.783-787
    • /
    • 2007
  • Although data analysis in earlier days had been sufficiently done only by character user interface, users of these days are more used to the graphic user interface and the requirements for the user interface are gradually varying and increasing. In order to meet users' various wants and needs and to develop well-equipped interface, not only software developers but also professional designers who can complement the technique of the developers are needed. But in reality there are many restrictions and difficulties for developers and designers to work together cooperatively. Moreover, developing user interface in use of 3D type of graphics and animation techniques causes the rise of the developing cost. The thesis attempts to design and implement 3D visualization for real-time sensor data collected by the various environmental sensor and measuring devices, by using WPF (Window Presentation Foundation) which can make both developers and designers work together cooperatively and which makes it possible to implement various multimedia functions such as a 2D and 3D type of graphics, animation techniques, and an acoustic effect.

  • PDF

Augmented Reality Based Tangible Interface For Digital Lighting of CAID System (CAID 시스템의 디지털 라이팅을 위한 증강 현실 기반의 실체적 인터페이스에 관한 연구)

  • Hwang, Jung-Ah;Nam, Tek-Jin
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02b
    • /
    • pp.233-240
    • /
    • 2007
  • 컴퓨터의 발전으로 이를 이용해 제품을 디자인하는 CAI가 발전하게 되었다. 산업 디자이너들은 CAID 도구를 사용하여 3차원 장면을 시각화하기 위하여 이를 2차원 이미지로 만드는 렌더링 기능을 수행한다. 렌더링 기능은 디자이너들이 자신이 디자인 제품의 재질, 조명, 카메라 등을 시뮬레이션 해 볼 수 있게 하여 중요한 기능으로 활용되고 있다. 하지만 현재의 컴퓨터 입출력 시스템을 활용하여 CAID 도구의 광원과 카메라 등의 3차원 위치와 속성을 조작하는 데에 인터페이스 상의 문제가 발생한다. 본 논문에서는 증강현실과 실체적 인터페이스를 활용한 가상의 라이트 조작 공간인 TLS(Tangible Lighting Studio)를 제안한다. 이는 광원과 카메라의 위치, 효과를 물리적으로 조작할 수 있는 유닛들로 구성되어있다. 그리고 가상의 모델을 실제와 같이 보이게 하기 위한 입체 디스플레이 방식을 제안한다. 새로운 실체적 인터페이스를 제안함으로써 산업디자인 분야뿐 아니라 건축, 원화, 사진 촬영 등의 분야에서 시뮬레이션 도구로 적용할 수 있으리라 기대된다.

  • PDF

웹기반 3D 가시화 모듈 연구

  • Park, Ji-Su;O, Jae-Yong
    • Proceedings of the Korean Institute of Navigation and Port Research Conference
    • /
    • 2016.05a
    • /
    • pp.32-34
    • /
    • 2016
  • 웹기반 3D 가시화 모듈은 선박운항 시뮬레이터 시스템을 플랫폼 종류에 제약을 받지 않고 다양한 시스템의 요구사항을 효과적으로 반영하여 웹브라우저에서 3D 가시화 시뮬레이션을 지원하는 시스템이다. 본 연구에서는 시뮬레이션 데이터를 Socket.io 이용하여 실시간으로 업데이트를 하였으며 시각 및 기상상태, 해상 환경을 재현하였다. 또한 3D 가시화 인터페이스를 이용하여 대상 선박과 항만의 3차원 모델 데이터를 로드하고, 시뮬레이션 데이터와 연동하여 실시간으로 3차원 가시화 화면을 생성하는 연구를 진행하였다. 개발된 기술은 장비 선택에 제약이 없어 시간, 인력, 공간, 예산에 유연한 시스템 활용이 가능할 것으로 기대된다.

  • PDF

3D Facial Expression Creation System Based on Muscle Model (근육모델 기반의 3차원 얼굴표정 생성시스템)

  • 이현철;윤재홍;허기택
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2002.05c
    • /
    • pp.465-468
    • /
    • 2002
  • 최근 컴퓨터를 이용한 시각 분야가 발전하면서 인간과 관계된 연구가 중요시 되어, 사람과 컴퓨터의 인터페이스에 대한 새로운 시도들이 다양하게 이루어지고 있다. 특히 얼굴 형상 모델링과 얼굴 표정변화를 애니메이션 화하는 방법에 대한 연구가 활발히 수행되고 있으며, 그 용도가 매우 다양하고, 적용 범위도 증가하고 있다. 본 논문에서는 한국인의 얼굴특성에 맞는 표준적인 일반모델을 생성하고, 실제 사진과 같이 개개인의 특성에 따라 정확한 형상을 유지할 수 있는 3차원 형상 모델을 제작한다. 그리고 자연스러운 얼굴 표정 생성을 위하여, 근육모델 기반의 얼굴표정 생성 시스템을 개발하여, 자연스럽고 실제감 있는 얼굴애니메이션이 이루어질 수 있도록 하였다.

  • PDF