• 제목/요약/키워드: 다시점 영상 집합

검색결과 6건 처리시간 0.021초

영역 대응을 이용한 다시점 영상 집합의 통합 영역화 (Joint Segmentation of Multi-View Images by Region Correspondence)

  • 이수찬;권동진;윤일동;이상욱
    • 방송공학회논문지
    • /
    • 제13권5호
    • /
    • pp.685-695
    • /
    • 2008
  • 본 논문은 다시점에서 물체를 촬영한 영상들의 집합, 즉, 다시점 영상 집합(multi-view image set)이 주어진 경우, 적은 사용자 입력을 통해 효율적으로 영상 집합 내 관심 물체의 영역을 추출하는 기법을 제안한다. 제안하는 기법은 사용자가 직접 입력을 통해 영역화한 하나의 영상을 바탕으로, 그 영상의 배경 및 전경과 인접 영상 간의 변형을 각각 근사하여 전경 및 배경에 대응되는 인접 영상의 영역을 파악하고, 이 영역들을 통해 인접 영상을 영역화한 후, 영역화된 영상을 바탕으로 다음 인접 영상을 영역화하는 과정을 순차적으로 반복하여 영상 집합 전체를 영역화한다. 이때 전경 및 배경의 변형은 각각 특징점 기반 레지스트레이션(registration) 기법과 선형성 거리비율 보존(affine) 변형을 가정한 대응점 기반 변형행렬(homography)을 통해 근사되며, 각 대응 영역을 기반으로 하는 화소 색 분포 및 형상 정보(shape prior)를 마르코프 랜덤 장(Markov random field)에서의 에너지 최소화에 기반을 둔 영역화 기법에 적용하여 영역화를 수행한다. 제시하는 실험 결과는 제안하는 기법이 적은 사용자 입력으로 다시점 영상 집합 전체를 효과적으로 영역화한다는 것을 뒷받침한다.

능동형태모델 기반 다시점 영상 추적 (Multiview Tracking using Active Shape Model)

  • 임재현;김대희;최종호;백준기
    • 한국컴퓨터정보학회지
    • /
    • 제15권1호
    • /
    • pp.179-183
    • /
    • 2007
  • 다시점에서의 다중 객체 추적은 여러 분야에서 연구되고 있다. 다시점 영상 추적은 두 객체가 서로 근접하면 하나로 인식하는 문제점을 가지고 있다. 이러한 문제를 해결하기 위한 하나의 방법으로 능동형태모델(active shape mode: ASM)을 들 수 있다 ASM은 훈련집합을 이용하여 다른 객체에 가려진 목표 객체를 추적할 수 있다. 본 논문에서는 겹쳐진 객체를 추적하기 위해 ASM 기반의 다시점 추적 알고리듬(Multi-view tracking using ASM: MVTA)에 대해서 제안한다. 제안된 추적 방법은 (i) 영상 획득, (ii) 객체 추출, (iii) 객체 추적, 그리고 (iv) 현재 형태의 업데이트, 4가지 단계로 나눌 수 있다. 첫 번째 단계에서는 여러 대의 카메라를 사용해서 다시점 영상을 획득하며, 두 번째 단계에서는 객체를 배경으로부터 분리하며, 겹쳐진 객체로부터 목표 객체를 분리해낸다. 세 번째 단계에서는 추적을 위해 ASM을 사용하며, 마지막 단계인 네 번째 단계는 현재 입력 영상의 업데이트이다. 실험결과 제안한 MVTA는 겹쳐진 객체를 추적 시에 생기는 문제에 대해서 향상 된 결과를 보여준다.

  • PDF

다시점 영상 집합을 활용한 선체 블록 분류를 위한 CNN 모델 성능 비교 연구 (Comparison Study of the Performance of CNN Models with Multi-view Image Set on the Classification of Ship Hull Blocks)

  • 전해명;노재규
    • 대한조선학회논문집
    • /
    • 제57권3호
    • /
    • pp.140-151
    • /
    • 2020
  • It is important to identify the location of ship hull blocks with exact block identification number when scheduling the shipbuilding process. The wrong information on the location and identification number of some hull block can cause low productivity by spending time to find where the exact hull block is. In order to solve this problem, it is necessary to equip the system to track the location of the blocks and to identify the identification numbers of the blocks automatically. There were a lot of researches of location tracking system for the hull blocks on the stockyard. However there has been no research to identify the hull blocks on the stockyard. This study compares the performance of 5 Convolutional Neural Network (CNN) models with multi-view image set on the classification of the hull blocks to identify the blocks on the stockyard. The CNN models are open algorithms of ImageNet Large-Scale Visual Recognition Competition (ILSVRC). Four scaled hull block models are used to acquire the images of ship hull blocks. Learning and transfer learning of the CNN models with original training data and augmented data of the original training data were done. 20 tests and predictions in consideration of five CNN models and four cases of training conditions are performed. In order to compare the classification performance of the CNN models, accuracy and average F1-Score from confusion matrix are adopted as the performance measures. As a result of the comparison, Resnet-152v2 model shows the highest accuracy and average F1-Score with full block prediction image set and with cropped block prediction image set.

모바일 인터페이스 제어를 위한 움직임 추정 기법 (Motion Activity Estimation for Mobile Interface Control)

  • 이철우;김창수
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2008년도 추계학술대회
    • /
    • pp.135-138
    • /
    • 2008
  • 본 논문에서는 휴대폰이나 UMPC 등의 모바일 기기에 내장된 카메라를 이용하여 입력 영상을 통해 전역적인 움직임 벡터를 취득하고 이를 이용해서 모바일 인터페이스를 제어하는 기법을 제안한다. 카메라로부터 입력되는 영상에서 특징점을 추출하고 광흐름을 기반으로 각각의 특징점에 대한 움직임을 추정한다. 그 과정을 통해서 생성된 움직임 벡터의 집합으로부터 affine 행렬을 계산하여 전체 화상의 움직임을 표현하는 파라미터를 도출할 수 있다. 움직임 파라미터 값은 다시 인터페이스를 제어하는 신호를 생성하며 이 움직임 신호는 메뉴 네비게이션, 슬라이드 쇼 및 문서 스크롤과 같은 모바일 인터페이스의 제어에 이용될 수 있다. 모의 실험을 통하여 인터페이스 제어를 위한 화상의 움직임 정보가 적절히 획득됨을 확인한다.

  • PDF

3차원 복원을 위한 세그멘트 기반의 전경물체 추출 (Segment-based Foreground Extraction Dedicated to 3D Reconstruction)

  • 김정환;박안진;정기철
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.625-630
    • /
    • 2009
  • 영상기반의 3차원 복원(reconstruction)에 대한 연구가 최근 좋은 결과를 많이 내고 있지만, 이는 복원의 목적이 되는 영역이 각 입력영상으로부터 미리 정확하게 추출되어있다고 가정하기 때문이다. 본 논문에서는 다시점 영상에서 세그멘트(segment)라 불리는 초기 분할된 영역을 기반으로 전경물체 추출과 3차원 복원을 EM형식으로 반복적으로 수행하는 정교한 전경물체 추출방법을 제안한다. 본 논문에서 세그멘트는 수행시간을 최소화하기 위해 사용된 3차원 복원방법인 visual hull에 의해 발생한 외곽선 오류를 보상해야 하며, 사용자의 입력을 최소화하기 위해 적은 수의 집합으로 구성되어야 한다. 이를 위해 데이터 항과 스무드 항으로 구성된 에너지 함수를 최적화할 수 있는 그래프 컷 방법을 이용하는 영상분할을 초기단계로써 수행하며, 전경물체 추출과 3차원 복원은 에너지 함수가 최적화될 때까지 반복 수행한다. 실험에서 간단한 3차원 복원 방법을 이용함에도 불구하고 전경물체의 외곽선에서 정확한 결과를 보였다.

  • PDF

VILODE : 키 프레임 영상과 시각 단어들을 이용한 실시간 시각 루프 결합 탐지기 (VILODE : A Real-Time Visual Loop Closure Detector Using Key Frames and Bag of Words)

  • 김혜숙;김인철
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제4권5호
    • /
    • pp.225-230
    • /
    • 2015
  • 본 논문에서는 키 프레임 영상과 SURF 특징점 기반의 시각 단어들을 이용한 효과적인 실시간 시각 루프 결합 탐지기 VILODE를 제안한다. 시각 루프 결합 탐지기는 과거에 지나온 위치들 중 하나를 다시 재방문하였는지를 판단하기 위해, 새로운 입력 영상을 이미 지나온 위치들에서 수집한 과거 영상들과 모두 비교해보아야 한다. 따라서 새로운 위치나 장소를 방문할수록 비교 대상 영상들이 계속해서 증가하기 때문에, 일반적으로 루프 결합 탐지기는 실시간 제약과 높은 탐지 정확도를 동시에 만족하기 어렵다. 이러한 문제점을 극복하기 위해, 본 시스템에서는 입력 영상들 중에서 의미 있는 것들만을 선택해 이들만을 비교하는 효과적인 키 프레임 선택 방법을 채택하였다. 따라서 루프 탐지에 필요한 영상 비교를 대폭 줄일 수 있다. 또한 본 시스템에서는 루프 결합 탐지의 정확도와 효율성을 높이기 위해, 키 프레임 영상들을 시각 단어들로 표현하고, DBoW 데이터베이스 시스템을 이용해 키 프레임 영상들에 대한 색인을 구성하였다. TUM 대학의 벤치마크 데이터들을 이용한 실험을 통해, 본 논문에서 제안한 시각 루프 결합 탐지기의 높은 성능을 확인할 수 있었다.