• Title/Summary/Keyword: 인터랙티브 시스템

Search Result 158, Processing Time 0.03 seconds

large-scale interactive display system using gesture recognition module (제스처 인식 모듈을 이용한 대규모 멀티 인터랙티브 디스플레이 시스템)

  • Kang, Maeng-Kwan;Kim, Jung-Hoon;Jo, Sung-Hyun;Joo, Woo-Suck;Yoon, Tae-Soo;Lee, Dong-Hoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.11a
    • /
    • pp.803-806
    • /
    • 2010
  • 본 논문에서는 스크린을 터치를 하지 않고 또한 스크린의 영역의 크기에 상관없이 제스처를 이용하여 인터랙션이 가능한 제스쳐 인식 모듈을 이용한 대규모 멀티 인터랙티브 디스플레이 시스템을 제안한다. IR laser를 이용하여 인터랙션 영역을 생성하고 band pass filter를 장착한 적외선 카메라를 이용하여 인터랙션 영역 안의 영상을 획득한다. 획득되어진 영상은 제안하는 영상처리모듈을 이용하여 이진화->블랍-라벨링 과정을 거쳐 잡음을 제거한 후 인터랙션 영역 안에서 이루어지는 인터랙션 좌표를 획득한 후 Packet으로 저장한다. 저장 된 Packet은 네트워크 통신 시스템을 이용하여 Server로 보내어지고 Server에서는 메타포분석모듈을 이용하여 분석하여 결과를 메타포이벤트로 저장한 후 콘텐츠에 보낸다. 콘텐츠에서는 받은 메타포이벤트에 따라서 콘텐츠 결과를 보여 줌으로써 스크린을 터치 하지 않아도 터치 인터랙션이 가능하며 스크린 영역에 제한 없이 많은 사용자가 동시에 사용이 가능한 시스템 사용이 가능하도록 한다. 본 시스템은 향후 보다 다양한 인터랙션과 시스템 크기의 확장으로 보다 많은 사용자가 동시에 사용가능하며 다양한 인터랙션을 사용할 수 있는 인식 디바이스로써 활용이 가능하다.

Annotation Method based on Face Area for Efficient Interactive Video Authoring (효과적인 인터랙티브 비디오 저작을 위한 얼굴영역 기반의 어노테이션 방법)

  • Yoon, Ui Nyoung;Ga, Myeong Hyeon;Jo, Geun-Sik
    • Journal of Intelligence and Information Systems
    • /
    • v.21 no.1
    • /
    • pp.83-98
    • /
    • 2015
  • Many TV viewers use mainly portal sites in order to retrieve information related to broadcast while watching TV. However retrieving information that people wanted needs a lot of time to retrieve the information because current internet presents too much information which is not required. Consequentially, this process can't satisfy users who want to consume information immediately. Interactive video is being actively investigated to solve this problem. An interactive video provides clickable objects, areas or hotspots to interact with users. When users click object on the interactive video, they can see additional information, related to video, instantly. The following shows the three basic procedures to make an interactive video using interactive video authoring tool: (1) Create an augmented object; (2) Set an object's area and time to be displayed on the video; (3) Set an interactive action which is related to pages or hyperlink; However users who use existing authoring tools such as Popcorn Maker and Zentrick spend a lot of time in step (2). If users use wireWAX then they can save sufficient time to set object's location and time to be displayed because wireWAX uses vision based annotation method. But they need to wait for time to detect and track object. Therefore, it is required to reduce the process time in step (2) using benefits of manual annotation method and vision-based annotation method effectively. This paper proposes a novel annotation method allows annotator to easily annotate based on face area. For proposing new annotation method, this paper presents two steps: pre-processing step and annotation step. The pre-processing is necessary because system detects shots for users who want to find contents of video easily. Pre-processing step is as follow: 1) Extract shots using color histogram based shot boundary detection method from frames of video; 2) Make shot clusters using similarities of shots and aligns as shot sequences; and 3) Detect and track faces from all shots of shot sequence metadata and save into the shot sequence metadata with each shot. After pre-processing, user can annotates object as follow: 1) Annotator selects a shot sequence, and then selects keyframe of shot in the shot sequence; 2) Annotator annotates objects on the relative position of the actor's face on the selected keyframe. Then same objects will be annotated automatically until the end of shot sequence which has detected face area; and 3) User assigns additional information to the annotated object. In addition, this paper designs the feedback model in order to compensate the defects which are wrong aligned shots, wrong detected faces problem and inaccurate location problem might occur after object annotation. Furthermore, users can use interpolation method to interpolate position of objects which is deleted by feedback. After feedback user can save annotated object data to the interactive object metadata. Finally, this paper shows interactive video authoring system implemented for verifying performance of proposed annotation method which uses presented models. In the experiment presents analysis of object annotation time, and user evaluation. First, result of object annotation average time shows our proposed tool is 2 times faster than existing authoring tools for object annotation. Sometimes, annotation time of proposed tool took longer than existing authoring tools, because wrong shots are detected in the pre-processing. The usefulness and convenience of the system were measured through the user evaluation which was aimed at users who have experienced in interactive video authoring system. Recruited 19 experts evaluates of 11 questions which is out of CSUQ(Computer System Usability Questionnaire). CSUQ is designed by IBM for evaluating system. Through the user evaluation, showed that proposed tool is useful for authoring interactive video than about 10% of the other interactive video authoring systems.

Interactive sound experience interface based on virtual concert hall (가상 콘서트홀 기반의 인터랙티브 음향 체험 인터페이스)

  • Cho, Hye-Seung;Kim, Hyoung-Gook
    • The Journal of the Acoustical Society of Korea
    • /
    • v.36 no.2
    • /
    • pp.130-135
    • /
    • 2017
  • In this paper, we propose an interface for interactive sound experience in the virtual concert hall. The proposed interface consists of two systems, called 'virtual acoustic position' and 'virtual active listening'. To provide these systems, we applied an artificial reverberation algorithm, multi-channel source separation and head-related transfer function. The proposed interface was implemented by using Unity. The interface provides the virtual concert hall to user through Oculus Rift, one of the virtual reality headsets. Moreover, we used Leap Motion as a control device to allow a user experience the system with free-hand. And user can experience the sound of the system through headphones.

Real-time Interactive Projection Mapping Using Face Recognition (얼굴인식을 활용한 실시간 인터랙티브 프로젝션 매핑)

  • Jo, In-Jae;Kim, Do-Hui;Lee, Joohun;Kim, Kyong-Ah;Choi, Yoo-Joo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.04a
    • /
    • pp.1013-1016
    • /
    • 2017
  • 본 논문에서는 사각형의 형태를 벗어나 임의의 다각형 평면에 원하는 "카메라 입력 영상", "비디오 클립", 혹은 "3차원 그래픽 실시간 렌더링 영상"등을 보다 쉽게 매핑 시킬 수 있는 인터랙티브 프로젝션 매핑 소프트웨어 시스템을 설계 구현하였다. 제안 시스템은 얼굴 인식 기능을 통하여 사용자 혹은 관객이 프로젝션 매핑 작품 앞에 등장하였음을 인식하고, 관객의 모습이 미디어 콘텐츠의 일부로 실시간 포함되어 임의의 평면에 매핑하는 기능을 포함하고 있다. 제안 시스템은 프로젝션 매핑의 초보자가 쉽게 사용할 수 있도록 텍스트 기반의 구성 파일 (Configuration File)에 매핑 평면과 미디어 콘텐츠의 형태 및 내용을 정의해 주도록 하는 구조로 구성하였다. 제안 시스템의 유용성을 확인하기 위하여, 육면체, 원구형, 사각 평면 형태의 실제의 객체에 다양한 형태의 미디어 콘텐츠를 매핑 한 미디어 작품을 제작하였다.

The Interactive Learning Experience by Integrating Educational Robots into the Augmented Reality (교육용 로봇과 증강 현실 결합을 통한 인터랙티브 학습 경험)

  • Yu, Jeong Su
    • Journal of The Korean Association of Information Education
    • /
    • v.16 no.4
    • /
    • pp.419-427
    • /
    • 2012
  • This paper presents the effect of a interactive learning experience and student's response to technological components We develop the interactive learning environment and learning model in lessons relying on educational robots and augmented reality in the school classroom. The developed learning model is based on the problem-based learning model. The experiments of the study conduct with 18 students, the $5^{th}$ and $6^{th}$ graders of an elementary school for 8 weeks using developed system. We find out the interactive learning experiences have an influence on the creative ability of children. We know that students who scored lower on the school exam scored higher on the score of creativity compared to top students through educational robots and augmented reality.

  • PDF

A Framework for Constructing Interactive Tiled Display Applications (인터랙티브 타일드 디스플레이 응용프로그램 개발을 위한 프레임워크)

  • Cho, Yong-Joo;Kim, Seok-Hwan
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.13 no.1
    • /
    • pp.37-44
    • /
    • 2009
  • This paper describes a new tiled display framework called, iTDF (Interactive Tiled Display Framework), that is designed to support rapid construction of the interactive digital 3D contents running on top of the cluster-based tiled display. This framework allows synchronizing the rendering slaves, sharing software's state over the network, the features, such as, launching multiple applications on a cluster-based computers, moving and resizing windows, synchronization of rendering slaves, distributed shared memory, and unified input interface. This paper analyzes the requirements of the framework and describes the design and implementation of the framework. A couple desktop-based applications are ported with the new iTDF and to find out the usefulness and usability of the framework.

Multi Spatial Interaction Interface in Large-scale Interactive Display Environment (대규모 인터랙티브 디스플레이 환경에서의 멀티 공간 인터랙션 인터페이스)

  • Yun, Chang-Ok;Park, Jung-Pil;Yun, Tae-Soo;Lee, Dong-Hoon
    • The Journal of the Korea Contents Association
    • /
    • v.10 no.2
    • /
    • pp.43-53
    • /
    • 2010
  • The interactive display is providing various interaction modes to users through various ubiquitous computing technologies. These methods were studied for their interactions, but the limits that it is provided to only single user and the device usability were generated. In this paper, we propose a new type of spatial multi interaction interface that provide the various spatial touch interactive to multi users in the ambient display environment. Therefore, we generate the interaction surface so that a user can interact through the IR-LEDs Array Bar installed in the ceiling of the ambient display environment. At this time, a user can experience the various interactions through the spatial touch in an interaction surface. Consequently, this system offers the interactive display and interface method that the users can interact through natural hand movement without the portable devices.

Automatic Pattern Manipulation for Virtual Garment Design (가상의복 디자인을 위한 인터랙티브한 패턴조작)

  • Jung, Hwi-Ryong;Wohn, Kwang-Yun
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.123-130
    • /
    • 2007
  • 본 논문에서는 기존 패턴캐드시스템 및 드레이핑시스템을 이용한 의복제작과정의 한계점과 개선가능성에 대해 알아보고, 이를 기반으로 새로 디자인한 의복제작시스템을 소개한다. 이 시스템은 원피스, 바지, 셔츠, 재킷 등 옷의 큰 스타일인 의복템플릿으로부터 의복디자인을 시작 한다. 소매, 카라, 포켓, 넥라인과 같은 템플릿 디테일들은 디자이너가 마음대로 다른 세부 템플릿들과 교체할 수 있으며, 세부 템플릿으로 커버할 수 없는 디테일한 수정은 3D 드레이핑 시스템과 2D패턴에디터에서의 직관적인 오퍼레이션을 통해 이루어진다.

  • PDF

East Volume Rendering in a Virtual Endoscopy System (가상 내시경에서의 고속 볼륨 렌더링)

  • 김상훈;나종범
    • Proceedings of the IEEK Conference
    • /
    • 2001.09a
    • /
    • pp.899-902
    • /
    • 2001
  • 최근에 3 차원 가상 내시경은 환자에게 고통을 주지않고 내부 기관을 볼 수 있는 대체 방법으로 주목을 받고 있다. 인터랙티브(interacticve)한 렌더링 속도로 기관의 내부 표면을 도시하기 위해 표면 렌더링이 사용될 수 있지만, 이는 사실적인 렌더링 화질을 얻기에 부적합하고, 병변의 자세한 구조를 표현하기에 적합하지 않으며, 표면 뒤편의 조직을 도시할 수 없다. 이러한 이유로 볼륨 렌더링이 표면 렌더링의 대안으로 사용될 수 있지만 많은 계산량을 필요로 하므로, 대부분의 볼륨 렌더링 기반의 가상 내시경 시스템들은 부가적인 하드웨어나 큰 용량의 메모리를 사용한다. 본 논문은 가상 내시경을 위해 원근 레이 캐스팅 (perspective ray casting)을 이용한 볼륨 렌더링 기법의 고속화에 그 목적이 있다. 렌더링 속도를 높이기 위해서 서브샘플링(sub-sampling)된 화소들에 대해 레이 캐스팅을 수행하고, 이 과정에서 동시에 깊이 정보를 얻는다. 얻어진 깊이 정도로부터 남아있는 화소들에 대한 깊이 정보를 예측함으로써. 이를 레이 캐스팅의 속도 향상에 이용한다. 제안한 알고리즘을 이용하여 기존의 방법에 비해 기관지 내시경에서 77%, 대장 내시경에서 85%까지 렌더링 시간을 줄일 수 있고, 따라서 인터랙티브 렌더링이 가능하다.

  • PDF

A study on the Intercative Picture by Color Traking (칼라에 반응하는 "디지털 명화" 실험적 작품 제작 연구 - 칼라트랙킹에 의한 인터랙티브 영상 연구 -)

  • Kim, Youn-Hwa;Oh, Seung-Hwan
    • 한국HCI학회:학술대회논문집
    • /
    • 2008.02b
    • /
    • pp.417-423
    • /
    • 2008
  • It produced a movie to show spectators by interacting the existing famous drawings. It tried a new concept of binding a famous drawing with a person. It recognizes the color of a spectator and the drawings are changed. A spectator is reflected in the work of Marc Chagall. At the same time it is expressed with different BGM that meets the identity of a work. When a spectator moves, the motion is reflected on a work. But without a motion, a work is naturally shown. The four famous drawings are produced to response to Red, Green and Blue of a spectator according to color tracking.

  • PDF