• 제목/요약/키워드: NUI

검색결과 113건 처리시간 0.024초

An Outlook for Interaction Experience in Next-generation Television

  • Kim, Sung-Woo
    • 대한인간공학회지
    • /
    • 제31권4호
    • /
    • pp.557-565
    • /
    • 2012
  • Objective: This paper focuses on the new trend of applying NUI(natural user interface) such as gesture interaction into television and investigates on the design improvement needed in application. The intention is to find better design direction of NUI on television context, which will contribute to making new features and behavioral changes occurring in next-generation television more practically usable and meaningful use experience elements. Background: Traditional television is rapidly evolving into next-generation television thanks to the influence of "smartness" from mobile domain. A number of new features and behavioral changes occurred from such evolution are on their way to be characterized as the new experience elements of next-generation television. Method: A series of expert review by television UX professionals based on AHP (Analytic Hierarchy Process) was conducted to check on the "relative appropriateness" of applying gesture interaction to a number of selected television user experience scenarios. Conclusion: It is critical not to indiscriminately apply new interaction techniques like gesture into television. It may be effective in demonstrating new technology but generally results in poor user experience. It is imperative to conduct consistent validation of its practical appropriateness in real context. Application: The research will be helpful in applying gesture interaction in next-generation television to bring optimal user experience in.

Path Generation Method of UAV Autopilots Using Max-Min Algorithm

  • Kwak, Jeonghoon;Sung, Yunsick
    • Journal of Information Processing Systems
    • /
    • 제14권6호
    • /
    • pp.1457-1463
    • /
    • 2018
  • In recent times, Natural User Interface/Natural User Experience (NUI/NUX) technology has found widespread application across a diverse range of fields and is also utilized for controlling unmanned aerial vehicles (UAVs). Even if the user controls the UAV by utilizing the NUI/NUX technology, it is difficult for the user to easily control the UAV. The user needs an autopilot to easily control the UAV. The user needs a flight path to use the autopilot. The user sets the flight path based on the waypoints. UAVs normally fly straight from one waypoint to another. However, if flight between two waypoints is in a straight line, UAVs may collide with obstacles. In order to solve collision problems, flight records can be utilized to adjust the generated path taking the locations of the obstacles into consideration. This paper proposes a natural path generation method between waypoints based on flight records collected through UAVs flown by users. Bayesian probability is utilized to select paths most similar to the flight records to connect two waypoints. These paths are generated by selection of the center path corresponding to the highest Bayesian probability. While the K-means algorithm-based straight-line method generated paths that led to UAV collisions, the proposed method generates paths that allow UAVs to avoid obstacles.

실감형 콘텐츠 작동을 위한 모션 기반 4D 특수효과 장치 제어 (Motion-based Controlling 4D Special Effect Devices to Activate Immersive Contents)

  • 김광진;이칠우
    • 스마트미디어저널
    • /
    • 제8권1호
    • /
    • pp.51-58
    • /
    • 2019
  • 본 논문은 펄스폭 변조(PWM, Pulse Width Modulation) 방법을 이용하여 4D 콘텐츠의 특수효과용 물리장치들을 제어하는 제스처 응용 방법에 대해 기술한다. 적외선 센서를 통해 인식되는 사용자 동작은 3D 콘텐츠 제어를 위한 명령어로 해석되고 특수효과를 발생시키는 장치를 제어하여 물리적인 자극을 사용자에게 재현한다. 이와 같이 NUI(Natural User Interface) 기법을 이용하여 콘텐츠를 제어하게 되면 사용자의 콘텐츠에 대한 직접적인 몰입감이 증대되어 사용자에게 고도의 흥미와 관심을 제공할 수 있다. 제안하는 방법의 효율성을 측정하기 위해 적외선 센서를 이용한 모션인식과 애니메이션 컨트롤러의 파라미터를 제어하여 이벤트를 전달하는 PWM 기반 실시간 선형제어 시스템을 구현하였다.

ResNet50 전이학습을 활용한 손동작 인식 기반 가위바위보 게임 구현 (Implementation of hand motion recognition-based rock-paper-scissors game using ResNet50 transfer learning)

  • 박창준;김창기;손성규;이경진;유희경;곽정환
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2022년도 제65차 동계학술대회논문집 30권1호
    • /
    • pp.77-82
    • /
    • 2022
  • GUI(Graphical User Interface)를 대신하는 차세대 인터페이스로서 NUI(Natural User Interace)에 기대가 모이는 것은 자연스러운 흐름이다. 본 연구는 NUI의 손가락 관절을 포함한 손동작 전체를 인식시키기 위해 웹캠과 카메라를 활용하여 다양한 배경과 각도의 손동작 데이터를 수집한다. 수집된 데이터는 전처리를 거쳐 데이터셋을 구축하며, ResNet50 모델을 활용하여 전이학습한 합성곱 신경망(Convolutional Neural Network) 알고리즘 분류기를 설계한다. 구축한 데이터셋을 입력시켜 분류학습 및 예측을 진행하며, 실시간 영상에서 인식되는 손동작을 설계한 모델에 입력시켜 나온 결과를 통해 가위바위보 게임을 구현한다.

  • PDF

First record of Bathygobius hongkongensis (Perciformes: Gobiidae) from Jeju Island, Korea

  • Kwun, Hyuck Joon
    • Fisheries and Aquatic Sciences
    • /
    • 제23권7호
    • /
    • pp.17.1-17.4
    • /
    • 2020
  • Six specimens of Bathygobius hongkongensis were collected for the first time from the eastern coast of Jeju Island, Korea, in September-November 2017. This species is characterized by a pectoral fin with free rays and the division of the first dorsalmost pectoral free ray into three branches; a lower jaw with a mental frenum; and an anterior nostril with a tiny flap. Bathygobius hongkongensis is similar to B. fuscus but differs in having more dorsalmost free pectoral fin rays. The new Korean name proposed for B. hongkongensis is "Nam-bang-mu-nui-mang-duk."

립모션 기반의 윈도우즈 애플리케이션 제어 모델에 관한 연구 (A Study on the Windows Application Control Model Based on Leap Motion)

  • 김원
    • 한국융합학회논문지
    • /
    • 제10권11호
    • /
    • pp.111-116
    • /
    • 2019
  • 최근 컴퓨터 능력의 급속한 발전으로 인간과 컴퓨터간의 상호 작용을 편리하게 연결할 수 있는 많은 기술들이 연구되고 있는 상황으로, 전통적인 입력장치를 사용한 GUI에서 3D 모션, 햅틱, 멀티 터치와 같은 신체를 이용한 NUI로 패러다임이 변화되고 있는 추세이다. 인간의 동작을 센서를 이용하여 컴퓨터에 전달하는 많은 연구가 이루어지고 있으며, 3D 객체를 획득할 수 있는 광학 센서의 개발과 더불어 산업 및 의료 분야, 사용자 인터페이스 분야 등으로 응용 범위가 확장되고 있다. 본 논문에서는 립모션을 기반으로 사용자의 손동작에 따라 기본 입력장치인 마우스를 대신하여 제스처를 통한 타 프로그램 실행 및 윈도우즈 제어가 가능하며, 안드로이드 앱과 융합하여 메인 클라이언트와 연결을 통하여, 음성인식과 버튼을 사용해 각종 미디어와 음성 명령 기능을 통한 제어가 가능한 모델을 제안한다. 제안 모델을 통하여 영상, 음악과 같은 인터넷 미디어를 클라이언트 컴퓨터 뿐만 아니라 앱을 통한 원거리 제어가 가능하여, 편리하게 미디어를 시청할 수 있을 것으로 기대된다.

HCI를 위한 시선추적 시스템에서 분해능의 추정기법 (Resolution Estimation Technique in Gaze Tracking System for HCI)

  • 김기봉;최현호
    • 융합정보논문지
    • /
    • 제11권1호
    • /
    • pp.20-27
    • /
    • 2021
  • 시선추적은 NUI 기술 중의 하나로 사용자가 응시하는 곳을 추적을 통해 알아낸다. 이 기술은 텍스트를 입력하거나 GUI를 제어할 수 있도록 하고 더 나아가 사용자의 시선 분석도 가능하게 하여 상업 광고 등에 응용될 수 있도록 한다. 시선추적 시스템은 영상의 품질과 사용자 움직임의 자유도에 따라 허용범위가 달라진다. 따라서 시선추적의 정밀도를 미리 추정하는 방법이 필요하다. 시선추적의 정확도는 하드웨어적인 변수 외에도 시선추적 알고리즘을 어떻게 구현하느냐에 따라 많은 영향을 받는다. 이에 따라 본 논문에서는 영상에서 동공 중심의 가능한 최대 이동 거리의 추정으로 동공 중심이 한 픽셀 움직일 때 시선은 몇 도가 바뀌는지 즉, 이론적 최대 분해능이 얼마인지를 추정하는 방법을 제시한다.

Initial Ignition Time and Calorific Value Enhancement of Briquette with Added Pine Resin

  • Gustan PARI;Lisna EFIYANTI;Saptadi DARMAWAN;Nur Adi SAPUTRA;Djeni HENDRA;Joseph ADAM;Alfred INKRIWANG;Rachman EFFENDI
    • Journal of the Korean Wood Science and Technology
    • /
    • 제51권3호
    • /
    • pp.207-221
    • /
    • 2023
  • The increasing demand for clean energy requires considerable effort to find alternative energy sources, such as briquettes. This research aims to develop a charcoal briquette with added pine resin (API) that has excellent combustion speed and distinctive aroma. Briquettes are composed of charcoal, pine resin (concentration: 0%-30%), and starch (up to 7%). They are produced in several stages, including coconut shell pyrolysis in conventional combustion, to obtain charcoal for the briquette precursor. Briquette compaction is conducted by mixing and densifying the charcoal, pine resin, and starch using a hydraulic press for 3 min. The hydraulic press has a total surface area and diameter of 57.7 cm2 and 3.5 cm, respectively. The briquettes are dried at different temperatures, reaching 70℃ for 24 h. The study results show that the briquettes have a thickness and diameter of up to 2 and 3.5 cm, respectively; moisture of 2.18%-2.62%; ash of 11.61%-13.98%; volatile matter of 27.15%-51.74%; and fixed carbon content of 40.24%-59.46%. The compressive strength of the briquettes is 186-540 kg/cm2. Their calorific value is 5,338-6,120 kcal/kg, combusting at a high speed of 0.15-0.40 s. The methoxy naphthalene, phenol, benzopyrrole, and lauryl alcohol; ocimene, valencene, and cembrene are found in the API. The API briquette has several chemical compounds, such as musk ambrette, ocimene, sabinene, limonene, 1-(p-cumenyl) adamantane, butane, and propanal, which improve aroma, drug application, and fuel production. Accordingly, API briquettes have considerable potential as an alternative energy source and a health improvement product.

사용자 경험을 통한 제스처 인터페이스에 관한 연구 (A Study on Gesture Interface through User Experience)

  • 윤기태;조일혜;이주엽
    • 예술인문사회 융합 멀티미디어 논문지
    • /
    • 제7권6호
    • /
    • pp.839-849
    • /
    • 2017
  • 최근 주방의 역할은 이전의 생존 영위를 위한 공간으로부터, 현재의 생활과 문화를 보여주는 공간으로 발전하였다. 이러한 변화와 더불어, IoT 기술의 사용이 확산되고 있다. 그 결과로, 주방에서의 새로운 스마트기기의 발전과 보급이 이루어지고 있다. 때문에 이러한 스마트기기를 사용하기 위한 사용자 경험 또한 중요해지고 있다. 이는 맥락적 사용자 기반의 데이터를 통해 사용자와 컴퓨터간의 보다 자연스러우며 효율적인 상호작용을 기대할 수 있기 때문이다. 본 논문은 주방에서 사용하는 스마트기기의 사용자 인터페이스(user interface, UI)를 바탕으로 기기와 접촉을 하지 않는 자연스러운 사용자 인터페이스(natural user interface, NUI)를 고찰하고자 한다. 그 방법으로, 기기에 부착되어 있는 카메라를 이용하여 사용자의 손 제스처를 인식한 뒤 인식된 손의 모양을 인터페이스에 적용하는 영상 처리 기술을 활용하였으며 사용자의 맥락과 상황에 맞는 제스처를 제안하고자 하였다. 본 실험에 사용된 제스처의 기본방향은 직관성과 학습 용이성에 중점을 두었으며 기본적인 5개의 제스처를 분류하여 이를 인터페이스에 활용하였다.