• 제목/요약/키워드: Vision Based User Interface

검색결과 47건 처리시간 0.023초

표정 인식을 이용한 3D 감정 아바타 생성 및 애니메이션 (3D Emotional Avatar Creation and Animation using Facial Expression Recognition)

  • 조태훈;정중필;최수미
    • 한국멀티미디어학회논문지
    • /
    • 제17권9호
    • /
    • pp.1076-1083
    • /
    • 2014
  • We propose an emotional facial avatar that portrays the user's facial expressions with an emotional emphasis, while achieving visual and behavioral realism. This is achieved by unifying automatic analysis of facial expressions and animation of realistic 3D faces with details such as facial hair and hairstyles. To augment facial appearance according to the user's emotions, we use emotional templates representing typical emotions in an artistic way, which can be easily combined with the skin texture of the 3D face at runtime. Hence, our interface gives the user vision-based control over facial animation of the emotional avatar, easily changing its moods.

Car detection area segmentation using deep learning system

  • Dong-Jin Kwon;Sang-hoon Lee
    • International journal of advanced smart convergence
    • /
    • 제12권4호
    • /
    • pp.182-189
    • /
    • 2023
  • A recently research, object detection and segmentation have emerged as crucial technologies widely utilized in various fields such as autonomous driving systems, surveillance and image editing. This paper proposes a program that utilizes the QT framework to perform real-time object detection and precise instance segmentation by integrating YOLO(You Only Look Once) and Mask R CNN. This system provides users with a diverse image editing environment, offering features such as selecting specific modes, drawing masks, inspecting detailed image information and employing various image processing techniques, including those based on deep learning. The program advantage the efficiency of YOLO to enable fast and accurate object detection, providing information about bounding boxes. Additionally, it performs precise segmentation using the functionalities of Mask R CNN, allowing users to accurately distinguish and edit objects within images. The QT interface ensures an intuitive and user-friendly environment for program control and enhancing accessibility. Through experiments and evaluations, our proposed system has been demonstrated to be effective in various scenarios. This program provides convenience and powerful image processing and editing capabilities to both beginners and experts, smoothly integrating computer vision technology. This paper contributes to the growth of the computer vision application field and showing the potential to integrate various image processing algorithms on a user-friendly platform

Design of OpenCV based Finger Recognition System using binary processing and histogram graph

  • Baek, Yeong-Tae;Lee, Se-Hoon;Kim, Ji-Seong
    • 한국컴퓨터정보학회논문지
    • /
    • 제21권2호
    • /
    • pp.17-23
    • /
    • 2016
  • NUI is a motion interface. It uses the body of the user without the use of HID device such as a mouse and keyboard to control the device. In this paper, we use a Pi Camera and sensors connected to it with small embedded board Raspberry Pi. We are using the OpenCV algorithms optimized for image recognition and computer vision compared with traditional HID equipment and to implement a more human-friendly and intuitive interface NUI devices. comparison operation detects motion, it proposed a more advanced motion sensors and recognition systems fused connected to the Raspberry Pi.

사용자와의 거리에 따라 다른 형태의 정보를 제공하는 디지털 거울 연구 - 사용자 니즈 분석을 중심으로 - (A Study on a Digital Mirror System Offering Different Information by Distance)

  • 박지은;이문헌;함원식;소연정;최혜주;정지홍;한민수
    • 한국HCI학회논문지
    • /
    • 제1권2호
    • /
    • pp.43-50
    • /
    • 2006
  • 거울은 인간이 자신의 모습을 들여다보기 위해 오랜 세월 동안 이용했던 친숙한 도구이다. 디지털 기술의 발달로 우리는 빛과 정보를 함께 반사해 주는 거울에 대한 여러 가지 접근들을 보아 왔다. 전통적인 거울은 빛의 즉각적인 반사에 의해 일어나는 자동적인 시각적 피드백 덕분에 특별한 조작이 필요하지 않으나, 빛과 정보가 함께 반사되는 디지털 거울에서는 다른 형태의, 좀 더 적극적인 사용자 인터랙션을 기대할 수 있다. 본 논문에서는 사용자와 거울간의 거리에 따른 행태 조사결과를 바탕으로 인터랙션 유형을 분류 정리하였다. 이를 바탕으로 사용자와 거울간의 거리에 따라 다른 서비스를 제공하는 디지털 거울에 적합한 사용자 인터페이스를 제안하였고, 초기 모델로 적외선 격자를 이용한 조작, 비전 기반의 정면 이미지 획득 및 얼굴 확인, 그리고 적외선 위치 확인을 통해 사용자와 인터랙션 하는 거울을 설계하였다. 아울러 결과물의 초기모델에 대한 분석을 통해 더 개선된 형태의 '거울을 응용한 시스템'의 설계 가능성 및 사용자 중심적 프로세스를 적용한 개발 사례를 제시한다.

  • PDF

6축 다관절 로봇용 플라스틱 제품의 표면 검사기 (A Plastic Product Surface Inspector for 6 Axes Articulated Robot)

  • 윤재식;박종현;김진욱;김석태
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2010년도 춘계학술대회
    • /
    • pp.569-571
    • /
    • 2010
  • 본 논문에서는 플라스틱 제품의 공정 과정에서 발생하는 미성형, 이물질, 찍힘 등의 제품 불량을 검사하기 위한 비전 검사 시스템을 개발한다. 본 시스템의 검사 알고리즘은 플라스틱 제품의 곡면구조를 고려한 영상 2치화, 모폴로지 연산을 이용한 영상의 노이즈 제거 및 후보영역 구분을 위한 레이블링 기법, 최종 결함 유무 판단을 위한 영상 필터링 및 캘리브레이션(Calibration) 방법 등으로 구성된다. 또한 사용자를 고려한 GUI(Graphical User Interface) 기반의 고속 영상처리 알고리즘 개발을 통해 검사 효율 및 성능을 향상시킨다. 본 검사 시스템의 정확도, 검사 알고리즘 처리 시간 등의 평가를 통해 시스템의 유효성을 확인하였다.

  • PDF

ARM 및 FPGA를 이용한 고속 레이저 삼각측량 시스템 (Fast Laser Triangular Measurement System using ARM and FPGA)

  • 이상문
    • 대한임베디드공학회논문지
    • /
    • 제8권1호
    • /
    • pp.25-29
    • /
    • 2013
  • Recently ARM processor's processing power has been increasing rapidly as it has been applied to consumer electronics products. Because of its computing power and low power consumption, it is used to various embedded systems.( including vision processing systems.) Embedded linux that provides well-made platform and GUI is also a powerful tool for ARM based embedded systems. So short period to develop is one of major advantages to the ARM based embedded system. However, for real-time date processing applications such as an image processing system, ARM needs additional equipments such as FPGA that is suitable to parallel processing applications. In this paper, we developed an embedded system using ARM processor and FPGA. FPGA takes time consuming image preprocessing and numerical algorithms needs floating point arithmetic and user interface are implemented using the ARM processor. Overall processing speed of the system is 60 frames/sec of VGA images.

키넥트와 모바일 장치 알림 기반 온라인 모니터링 시스템 (Online Monitoring System based notifications on Mobile devices with Kinect V2)

  • 니욘사바에릭;장종욱
    • 한국정보통신학회논문지
    • /
    • 제20권6호
    • /
    • pp.1183-1188
    • /
    • 2016
  • 키넥트 센서 버전 2는 컴퓨터 비전과 엑스 박스와 같은 엔유아이 인터페이스로 마이크로소프트에서 출시한 카메라의 일종이다. 이는 높은 프레임 속도로 컬러 영상과 깊이 영상, 오디오 입력 및 스켈레톤 데이터를 취득 할 수 있다. 이러한 다양한 타입의 데이터 정보를 제공해 주기 때문에 이것은 다른 범위의 연구자들을 위한 리소스가 된다. 본 논문에서는 깊이 이미지를 사용하여 우리는 키넥트 범위내에서 특정 영역을 감시하는 시스템을 제시한다. 타켓 영역은 깊이의 최소, 최대 값의 크기에 따라서 그 공간을 모니터링 할 수 있다. 컴퓨터 비전 라이브러리 (Emgu CV)를 사용해서 만약 어떤 오브젝트가 타겟 영역에서 검출된다면 그것을 추적하고 키넥트 카메라는 RGB 이미지를 데이터베이스 서버에 전송한다. 따라서 안드로이드 플랫폼 기반 모바일 애플리케이션을 통해 키넥트 타켓 지역에서 수상한 움직임이 감지되었음을 사용자에게 통지하고 그 장면의 RGB 영상을 표시하기 위해 개발되었다. 사용자는 모니터링 영역 또는 제한 구역과 관련된 다른 경우에서 가치 있는 물건의 대해 최선의 방법으로 반응하고 실시간 통지를 얻는다.

로봇 인터페이스 활용을 위한 가속도 센서 기반 제스처 인식 (Accelerometer-based Gesture Recognition for Robot Interface)

  • 장민수;조용석;김재홍;손주찬
    • 지능정보연구
    • /
    • 제17권1호
    • /
    • pp.53-69
    • /
    • 2011
  • 로봇 자체 또는 로봇에 탑재된 콘텐츠와의 상호작용을 위해 일반적으로 영상 또는 음성 인식 기술이 사용된다. 그러나 영상 음성인식 기술은 아직까지 기술 및 환경 측면에서 해결해야 할 어려움이 존재하며, 실적용을 위해서는 사용자의 협조가 필요한 경우가 많다. 이로 인해 로봇과의 상호작용은 터치스크린 인터페이스를 중심으로 개발되고 있다. 향후 로봇 서비스의 확대 및 다양화를 위해서는 이들 영상 음성 중심의 기존 기술 외에 상호보완적으로 활용이 가능한 인터페이스 기술의 개발이 필요하다. 본 논문에서는 로봇 인터페이스 활용을 위한 가속도 센서 기반의 제스처 인식 기술의 개발에 대해 소개한다. 본 논문에서는 비교적 어려운 문제인 26개의 영문 알파벳 인식을 기준으로 성능을 평가하고 개발된 기술이 로봇에 적용된 사례를 제시하였다. 향후 가속도 센서가 포함된 다양한 장치들이 개발되고 이들이 로봇의 인터페이스로 사용될 때 현재 터치스크린 중심으로 된 로봇의 인터페이스 및 콘텐츠가 다양한 형태로 확장이 가능할 것으로 기대한다.

웹 환경의 정보서비스를 위한 인포메이션 디자인 (An Introduction of Information Design for Web Information Services)

  • 이상렬
    • 한국비블리아학회지
    • /
    • 제11권2호
    • /
    • pp.125-139
    • /
    • 2000
  • 정보환경의 발전과 정보요구의 변화에 따라 효율적인 정보서비스를 제공하기 위해서는 정보서비스 체계나 시스템 환경을 이용자의 정보요구에 맞게 재정비하고, 나아갈 방향에 대해서 새롭게 정의할 필요성이 있다. 본 고에서는 효율적인 정보서비스를 위한 인포메이션 디자인(Information Design) 개념의 도입과 실제, 특히 정보서비스에 필요한 인포메이션 디자인의 소개와 메뉴 구성 방법을 중심으로 인포메이션 디자인에 대해 설명하고 있다.

  • PDF

비전 기반 제스처 인식을 이용한 사용자 인터페이스 구현 (An Implementation of User Interface Using Vision-based Gesture Recognition)

  • 고민삼;이광희;김창우;안준호;김인중
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2008년도 한국컴퓨터종합학술대회논문집 Vol.35 No.1 (C)
    • /
    • pp.507-511
    • /
    • 2008
  • 컴퓨터 비전을 기반으로 한 영상처리 및 제스처인식 기술을 이용하여 편리하게 응용프로그램을 제어 할 수 있는 인터페이스를 구성하였다. 카메라로 얻어진 영상을 HSV 색상계로 변환 후 색상 정보를 이용하여 손 영역을 추출한다. 추출된 손 영역의 무게중심과 크기 변화를 추적하여 제스처를 인식한다. 인식한 제스처는 응용프로그램의 동작을 제어하거나 마우스의 입력을 대체하는데 사용된다. 이는 별도의 입력장치 없이 컴퓨터 비전 기술만으로 제스처를 인식하여 응용프로그램을 실행할 수 있어 자연스러우며 사용자 친화적인 인터페이스 환경을 제공한다.

  • PDF