• 제목/요약/키워드: Visual tracking

검색결과 523건 처리시간 0.035초

디지로그 북을 위한 레이아웃 기반 다감각 콘텐츠 저작 도구 (Layout Based Multimodal Contents Aughoring Tool for Digilog Book)

  • 박종희;우운택
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.512-515
    • /
    • 2009
  • 본 논문에서는 디지로그 북 (Digilog Book) 저작 환경에서 레이아웃 기반 다감각 콘텐츠 저작 도구를 제안한다. 저작 과정에 사용자는 마우스나 펜 타입 장치를 통해 종이책 위에 반복적으로 가상 영역을 생성하고, 해당 영역에 증강될 콘텐츠의 위치, 사이즈, 파일 선택, 이벤트 처리 등의 속성을 지정한다. 저작이 완료되면 시스템은 기존에 인쇄된 페이지 번호를 인식하고, 해당 페이지에 생성된 영역과 속성 정보를 포함하는 레이아웃을 생성한다. 페이지 레이아웃은 증강현실 환경에서 렌더링 하기 적합한 씬 그래프 (Scene Graph) 형태로 표현 되고 XML 형태로 저장된다. 디지로그 북 뷰어는 저장된 레이아웃을 로딩하고 저작된 속성을 분석하여 해당 페이지에 영역별로 증강 및 기능을 실행한다. 제안된 저작 도구를 통해 사용자는 혼합 인터페이스를 통해 디지로그 북 환경에서 관심영역에 시각, 청각적인 다감각 콘텐츠를 손쉽게 저작할 수 있다. 증강현실 환경에서 사용자가 레이아웃을 보다 쉽게 생성하기 위하여 영역 템플릿을 제공한다. 또한, 제안된 저작 도구는 페이지 인식부와 페이지 추적부를 독립적으로 구성함에 따라 단일 마커만으로 다수 페이지 저작이 가능하다. 실험 결과, 제안된 저작도구는 증강현실 환경에서 적절한 수행시간을 나타냄을 보였다. 제안된 저작 도구는 교육, 출판 업계 등 여러 응용분야에서 널리 활용될 수 있을 것이다.

  • PDF

면적의 변화 특성을 이용한 위험 유기물 형상 추출 모델 (Dangerous Abandoned Object Extraction Model Using Area Variation Characteristics)

  • 김원
    • 한국융합학회논문지
    • /
    • 제11권8호
    • /
    • pp.39-45
    • /
    • 2020
  • 최근에 미국, 영국, 일본에서 폭발물, 독성 화학물 등에 의한 테러가 공공장소에서 시도되고 있다. 위험물을 공공장소에서 두고 가는 방식은 탐지하기 어려운 방법 중에 하나로 인식되고 있다. 공공장소에는 곳곳에 카메라가 영상을 녹화하고 있지만, 그 영상을 사람이 일일이 모니터링 하는 것은 쉽지 않은 일이다. 최근에는 자동으로 영상을 분석하는 지능형 소프트웨어를 유기물 탐지에 이용하고 있다. Lin 등의 방식은 비교적 높은 유기물 탐지율을 보이고 있으나, 단기 배경 영상의 특성으로 유기물에 관련한 픽셀의 수가 시간이 지날수록 급격히 감소하는 경향이 있어 그 형상 정보를 얻기가 어렵다. 본 논문에서는 면적의 변화 특성을 분석함으로써 유기물의 형태를 성공적으로 추출하기 위한 새로운 기법을 제안한다. 제안한 방식에 대해 실험을 한 결과 선행 연구보다 형태 추출에서 우수한 성능을 보인다.

백화점 공간의 유형 차이에 나타난 선택적 주의집중 특성 - 주시시간의 경과에 나타난 주시특성을 중심으로 - (Features of Selective Attention shown by Difference of Space Type in Department Stores - Focused on Observation Features Over Observation Time -)

  • 최계영;김종하
    • 한국실내디자인학회논문집
    • /
    • 제24권6호
    • /
    • pp.145-153
    • /
    • 2015
  • For this research with the objects of spaces in two department stores which can be referred to as representative facility of commercial space, observation test has carried out to estimate how much visitors rivet their eyes to the display of shops. In addition, to find out what effect the difference among the department types has on the selective attention to space element, the observation time was applied as a medium for estimation. The followings are the result from analyzing the observation frequency and the observation intensity feature of each section where the characteristics of design could be found at attention. First, both images of A and B had concentrative dominant-observation at left shops. In case of Image A, Customers began to observe the right shops very attentively after 25 seconds, and with Image B, the attentive observation at right and left took place alternatively after 35 seconds. In other words, regardless of the characteristics of shop displays, the left shops were observed first while in case of the observation after the early and middle time-frame the characteristics of shops were found to have effects on observation. Second, the normal observation showed some difference among attention sections over time while on the whole both images of A and B had the same highly attentive observation at the middle space. Accordingly, it could be concluded that the middle space was playing a faithful role as background for commercial spaces. Third, the ignorant observation, which is the opposite to the attentive observation, was found different between the images of A and B. When the ignorant observation is considered to have intentionality, it will be possible to set up the display which may attract the attention aggressively by the process of figuring out the characteristics of ignored shops.

증강현실 게임에서의 동작 기반 상호작용 설계 및 구현 (Design and Implementation of Motion-based Interaction in AR Game)

  • 박종승;전영준
    • 한국게임학회 논문지
    • /
    • 제9권5호
    • /
    • pp.105-115
    • /
    • 2009
  • 본 논문에서는 증강현실 게임에서의 동작 기반 상호작용의 설계 및 구현 기법을 기술한다. 증강현실에서는 상호작용의 도구로 고전적인 입력 장치보다 사용자의 동작에 의존한다. 동작 기반 증강현실 게임은 신체적 움직임에 의한 상호작용을 사용하는 실감 게임의 유망한 분야이나 현재의 동작 인식 기술의 불안정성으로 인해서 증강현실 응용에서 동작 인식 장치를 주 입력 장치로 사용하는 데에는 한계가 있다. 이러한 한계에 대처하기 위해서 각 증강현실 응용들은 여러 보완수단들을 동원하고 있고 이로 인해서 증강현실 게임의 구조가 불규칙적이며 비효율적으로 설계되는 경향이 있다. 본 논문에서는 동작 기반 증강현실 게임의 효율적인 개발 방법론을 제시한다. 실제 탁구채를 사용하는 동작 인터페이스를 가지는 증강현실 탁구게임의 프로토타입을 제시된 방법론에 따라서 설계하고 이를 구현하였다. 구현된 증강현실 게임에서의 상호작용에 있어서 탁구채를 고속으로 인식하고 지연 없이 상호작용 됨을 확인하였다.

  • PDF

환경 요인에 독립적인 관심 영역 추출을 위한 프레임워크의 개발 (Development of A Framework for Robust Extraction of Regions Of Interest)

  • 김성훈;이광의;허경용
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권12호
    • /
    • pp.49-57
    • /
    • 2011
  • 영상으로부터 관심 영역을 추출하는 작업은 비젼을 이용한 응용 분야에서 첫 번째 단계로 이후 처리 단계에 영향을 미치는 중요한 작업이다. 하지만 관심 영역추출은 조명이나 카메라 등의 주변 환경에 민감하여 일반적으로 문제에 관련된 지식이나 후처리를 도입하여 추출된 영역을 보정하고 있다. 이 논문에서는 환경에 민감하지 않으며 이후 처리 과정에 독립적인 관심 영역 추출을 위한 프레임워크를 제안한다. 제안하는 프레임워크는 차영상과 색상 분포를 이용하여 관심 영역을 추출하며 색상 분포를 학습함으로써 환경의 변화에 적응할 수 있다. 또한 프레임워크의 각 구성 요소들이 독립적으로 동작하는 유연한 구조를 가지므로 확장성이 뛰어나다. 제안하는 프레임워크의 유용성은 동영상에서 손 영역 추출을 통해 확인할 수 있다.

SAD 알고리즘을 이용한 차량 속도 측정 (Vehicle Speed Measurement using SAD Algorithm)

  • 박성일;문종대;고영혁
    • 한국인터넷방송통신학회논문지
    • /
    • 제14권5호
    • /
    • pp.73-79
    • /
    • 2014
  • 본 논문에서는 비디오 시?스에서 차들을 추적하고 검출하기 위해서 비디오와 이미지 처리를 활용하여 고속도로 및 일반 도로상의 교통흐름과 차량의 속도를 계측하는 기법을 제안했다. 제안된 기법은 배경이미지를 평가하기 위해서 비디오 스트림의 처음 프레임을 활용하였다. 비쥬얼 추적 시스템은 프레임 절대 차의 합을 토대로 한 단순한 알고리즘이다. 그것은 각 비디오 프레임으로부터 전경 이미지를 산출하기 위해서 배경화면을 빼고, 각 전경 이미지에 형태적 제거를 실행하고 임계값화 함으로서 임계치 윈도우에서 보인 이진이미지를 산출한다. 첫 번째 하얀 라인과 두번째 하얀 라인사이 거리를 측정하여 차의 위치를 찾았다. 평균속도는 물체의 위치 변화를 장소가 변하는 시간으로 나눔으로서 정의했다. 제시된 기법의 결과는 측정된 데이터와 잘 일치되었고, 실시간으로 결과를 본다.

다른 화각을 가진 라이다와 칼라 영상 정보의 정합 및 깊이맵 생성 (Depthmap Generation with Registration of LIDAR and Color Images with Different Field-of-View)

  • 최재훈;이덕우
    • 한국산학기술학회논문지
    • /
    • 제21권6호
    • /
    • pp.28-34
    • /
    • 2020
  • 본 논문에서는 라이다(LIDAR) 센서와 일반 카메라 (RGB 센서)가 획득한 영상들을 정합하고, 일반 카메라가 획득한 컬러 영상에 해당하는 깊이맵을 생성하는 방법을 제시한다. 본 연구에서는 Slamtec사의 RPLIDAR A3 와 일반 디지털 카메라를 활용하고, 두 종류의 센서가 획득 및 제공하는 정보의 특징 및 형태는 서로 다르다. 라이다 센서가 제공하는 정보는 라이다부터 객체 또는 주변 물체들까지의 거리이고, 디지털 카메라가 제공하는 정보는 2차원 영상의 Red, Green, Blue 값이다. 두 개의 서로 다른 종류의 센서를 활용하여 정보를 정합할 경우 객체 검출 및 추적에서 더 좋은 성능을 보일 수 있는 가능성이 있고, 자율주행 자동차, 로봇 등 시각정보처리 기술이 필요한 영역에서 활용도가 높은 것으로 기대한다. 두 종류의 센서가 제공하는 정보들을 정합하기 위해서는 각 센서가 획득한 정보를 가공하고, 정합에 적합하도록 처리하는 과정이 필요하다. 본 논문에서는 두 센서가 획득하는 정보들을 정합한 결과를 제공할 수 있는 전처리 방법을 실험 결과와 함께 제시한다.

건설 공정 모니터링을 위한 모바일 증강현실 시스템 (Construction Management System using Mobile Augmented Reality)

  • 이석한
    • 디지털콘텐츠학회 논문지
    • /
    • 제18권5호
    • /
    • pp.977-982
    • /
    • 2017
  • 본 논문에서는 실시간으로 건설현장의 공정과정 및 작업 결과를 파악하고 모니터링 할 수 있는 시스템을 제안한다. 기존의 일반적인 건설현장 관리 및 모니터링의 경우 작업 현장의 영상을 작업자가 촬영한 후 이를 관리감독 본부에 직접 전송하여 작업의 진도나 작업결과 정확도에 대한 통제를 받는 오프라인 형식으로 진행된다. 이와 같은 모니터링 과정은 진행 방법의 특성상 많은 시간적 금전적 제약사항이 존재하며 신속한 의사결정 및 작업 현장과의 실시간 의사소통이 불가능하다는 단점이 존재한다. 이러한 단점을 최소화하기 위해서 본 논문에서는 증강현실 기술을 이용한 실시간 건설 공정 모니터링 시스템을 제안하였다. 그리고 최근 각광받는 스마트 모바일 장비를 기반으로 시스템을 구성함으로써 작업자의 사용성을 극대화하고자 하였다. 실험 및 구현 결과를 통하여 제안된 시스템의 효율성을 확인하였다.

손가락 마디 추정을 이용한 비전 및 깊이 정보 기반 손 인터페이스 방법 (Vision and Depth Information based Real-time Hand Interface Method Using Finger Joint Estimation)

  • 박기서;이대호;박영태
    • 디지털융복합연구
    • /
    • 제11권7호
    • /
    • pp.157-163
    • /
    • 2013
  • 본 논문에서는 손가락 마디 추정을 이용한 비전 및 깊이 정보 기반 손 인터페이스 방법을 제안한다. 먼저 비주얼 영상 및 깊이 정보 영상을 매핑한 후 왼손과 오른손의 영역의 레이블링 및 윤곽선 잡음 보정 후 각 손 영역에 대하여 손 중심점 및 회전각을 구현한다. 그리고 손 중심점에서 일정간격의 원을 확장하여 손 경계 교차점의 중간 지점을 계산하여 손가락 끝점과 마디를 추정하여 사용자의 손가락 동작을 인식한다. 본 방법을 실험한 결과 손의 회전 및 손가락 시작점 및 끝점을 정확하게 추정하여 다양한 손동작 인식 및 제어가 가능함을 보였다. 왼손과 오른손을 사용하여 다양한 손 포즈에 대해 실험한 결과, 본 논문의 제안 방법은 평균 90% 이상의 정확도로 초당 25프레임 이상의 처리 성능을 보였다. 제안 방법은 컴퓨터간의 HCI 제어, 게임, 교육 등의 비접촉식 인터페이스 응용분야에 적용될 수 있다.

다시점 영상 집합을 활용한 선체 블록 분류를 위한 CNN 모델 성능 비교 연구 (Comparison Study of the Performance of CNN Models with Multi-view Image Set on the Classification of Ship Hull Blocks)

  • 전해명;노재규
    • 대한조선학회논문집
    • /
    • 제57권3호
    • /
    • pp.140-151
    • /
    • 2020
  • It is important to identify the location of ship hull blocks with exact block identification number when scheduling the shipbuilding process. The wrong information on the location and identification number of some hull block can cause low productivity by spending time to find where the exact hull block is. In order to solve this problem, it is necessary to equip the system to track the location of the blocks and to identify the identification numbers of the blocks automatically. There were a lot of researches of location tracking system for the hull blocks on the stockyard. However there has been no research to identify the hull blocks on the stockyard. This study compares the performance of 5 Convolutional Neural Network (CNN) models with multi-view image set on the classification of the hull blocks to identify the blocks on the stockyard. The CNN models are open algorithms of ImageNet Large-Scale Visual Recognition Competition (ILSVRC). Four scaled hull block models are used to acquire the images of ship hull blocks. Learning and transfer learning of the CNN models with original training data and augmented data of the original training data were done. 20 tests and predictions in consideration of five CNN models and four cases of training conditions are performed. In order to compare the classification performance of the CNN models, accuracy and average F1-Score from confusion matrix are adopted as the performance measures. As a result of the comparison, Resnet-152v2 model shows the highest accuracy and average F1-Score with full block prediction image set and with cropped block prediction image set.