• 제목/요약/키워드: 깊이맵

검색결과 171건 처리시간 0.029초

비트평면 기반 무손실 깊이정보 맵 부호화 방법 (Bit-plane based Lossless Depth Map Coding Method)

  • 김경용;박광훈;서덕영
    • 방송공학회논문지
    • /
    • 제14권5호
    • /
    • pp.551-560
    • /
    • 2009
  • 본 논문에서는 MPEG 3차원 비디오 표준 깊이정보 맵에 대한 효율적인 무손실 압축 방법을 제안한다. 일반적으로 깊이정보 맵을 부호화할 때 자연영상에 적용되는 H.264 등의 동영상 부호화 방법을 그대로 사용하고 있는데, 이러한 부호화 방법은 깊이정보 맵의 영상특성을 고려하지 않은 방법이다. 본 논문에서는 깊이정보 맵의 무손실 압축 방법으로 MPEG-4 Part-2 Visual의 이진 형상 부호화를 이용한 비트평면 부호화 방법을 제안하였다. 실험결과로서 제안하는 방법이 28.91:1의 압축률을 실현하였고, 화면 내 예측만을 수행한 경우에 JPEG-LS보다 24.84%, JPEG-2000보다 39.35%, H.264 (CAVLC 적용)보다 30.30% 그리고 H.264 (CABAC 적용)보다 16.65% 정도의 비트량 절감을 실현하였고, 또한 화면 내 예측뿐만 아니라 화면 간 예측을 모두 수행한 경우에 H.264 (CAVLC 적용)보다 36.22% 그리고 H.264 (CABAC 적용)보다 23.71% 정도의 비트량 절감을 실현할 수 있었다.

키넥트를 이용한 깊이 영상에서 보행자 탐지 (Detecting pedestrians from depth images using Kinect)

  • 조재현;문남미
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 춘계학술발표대회
    • /
    • pp.40-42
    • /
    • 2019
  • 색상 영상과 이에 상응하는 깊이 영상으로 3차원 비디오를 만드는 방법은 최근 키넥트 깊이 카메라와 같이 저가임에도 불구하고 높은 성능을 보이는 카메라가 시중에 출시되면서 다양한 형태의 응용분야에 많이 사용되기 시작했다[1]. 본 연구는 TOF(Time Of Flight) 카메라와 RGB 카메라가 같이 있는 키넥트를 이용해서 깊이 영상에서 보행자를 탐지한다. 전처리 작업으로 배경 깊이 맵을 미리 저장하고, 깊이의 차이로 보행자 유무를 알아낸다. 보행자를 지속적으로 탐지하기 위해 CAMShift 알고리즘을 사용해 라벨링과 보행자 추적을 하며, 보행자의 진행 방향과 속도를 탐지하기 위해 Dense Optical Flow를 사용해 보행자의 벡터 정보를 저장한다. 보행자가 깊이 맵 밖으로 나가면 해당 보행자에 대한 탐지를 종료한다.

Attention Model 을 이용한 단안 영상 기반 깊이 추정 네트워크 (Single Image-based Depth Estimation Network using Attention Model)

  • 정근호;윤상민
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2020년도 하계학술대회
    • /
    • pp.14-17
    • /
    • 2020
  • 단안 영상에서의 깊이 추정은 주어진 시점에서 촬영된 2 차원 영상으로부터 객체까지의 3 차원 거리 정보를 추정하는 것이다. 최근 딥러닝 기반으로 단안 RGB 영상에서 깊이 정보 추정에 유용한 특징 맵을 추출하고 이를 이용해서 깊이를 추정하는 모델들이 기존 방법들의 성능을 넘어서면서 관련된 연구가 활발히 진행되고 있다. 또한 Attention Model 과 같이 특정 특징 맵의 채널 혹은 공간을 강조하여 전체적인 네트워크의 성능을 개선하는 연구가 소개되었다. 본 논문에서는 깊이 정보 추정을 위해 사용되는 특징 맵을 강조하기 위해서 Attention Model 을 추가한 AutoEncoder 기반의 깊이 추정 네트워크를 제안하고 적용 부분에 따른 네트워크의 깊이 정보 추정 성능을 평가 및 분석한다.

  • PDF

깊이 카메라를 이용한 객체 분리 및 고해상도 깊이 맵 생성 방법 (Foreground Segmentation and High-Resolution Depth Map Generation Using a Time-of-Flight Depth Camera)

  • 강윤석;호요성
    • 한국통신학회논문지
    • /
    • 제37C권9호
    • /
    • pp.751-756
    • /
    • 2012
  • 본 논문에서는 색상 카메라와 Time-of-Flight (TOF) 깊이 카메라를 이용해 촬영된 장면에서 전경 영역을 분리하고 영상의 고해상도 깊이 정보를 구하는 방법에 대해 제안한다. 깊이 카메라는 장면의 깊이 정보를 실시간으로 측정할 수 있는 장점이 있지만 잡음과 왜곡이 발생하고 색상 영상과의 상관도도 떨어진다. 따라서 이를 색상 영상과 함께 사용하기 위한 색상 영상의 영역화 및 깊이 카메라 영상의 3차원 투영(warping) 작업, 깊이 경계 영역 탐색 등을 진행한 후, 전경의 객체를 분리하고, 객체와 배경에 대하여 깊이 값 계산한다. 깊이 카메라로부터 얻은 초기 깊이 정보를 이용하여 색상 영상에서 구해진 깊이 맵은 기존의 방법인 스테레오 정합 등의 방법보다 우수한 성능을 나타내었고, 무늬가 없는 영역이나 객체 경계 영역에서도 정확한 깊이 정보를 구할 수 있었다.

주의 기반 시각정보처리체계 시스템 구현을 위한 스테레오 영상의 변위도를 이용한 새로운 특징맵 구성 및 통합 방법 (A Novel Feature Map Generation and Integration Method for Attention Based Visual Information Processing System using Disparity of a Stereo Pair of Images)

  • 박민철;최경주
    • 정보처리학회논문지B
    • /
    • 제17B권1호
    • /
    • pp.55-62
    • /
    • 2010
  • 인간의 시각 주의 시스템은 주어진 시각장면을 모두 다 처리하기보다는 주의가 집중되는 일정한 작은 영역들을 순간적으로 선택하여 그 부분만을 순차적으로 처리함으로써 복잡한 시각장면을 단순화시켜 쉽게 분석할 수 있는 능력을 가지고 있다. 본 논문에서는 주의 기반 시각정보 처리체계 시스템 구현을 위한 새로운 특징맵 구성 및 통합 방법을 제안한다. 제안하는 시스템에서는 시각특징으로서 색상, 명도, 방위, 형태 외에 2개의 스테레오 영상 쌍으로부터 얻을 수 있는 깊이 정보를 추가하여 사용하였다. 실험결과를 통해 깊이 정보를 사용함으로써 주의 영역의 정탐지율이 개선됨을 확인하였다.

안개제거의 깊이 맵 추정을 위한 비선형 모델 (Nonlinear model for estimating depth map of haze removal)

  • 이승민;응오닷;강봉순
    • 전기전자학회논문지
    • /
    • 제24권2호
    • /
    • pp.492-496
    • /
    • 2020
  • 안개가 낀 악조건의 날씨에서는 가시성이 저하되어 카메라로 포착한 정보들을 정확히 인식하기 어렵다. 안개 낀 날씨에서도 사물인식, 차선 인식 등 카메라 기반의 기기들이 정상 동작할 수 있도록 안개제거 연구가 활발히 진행되고 있다. 본 논문에서는 안개 영상에서 밝기와 채도의 차이가 영상의 깊이에 따라 비선형적으로 증가한다는 분석을 통해 깊이 맵 추정을 위한 비선형 모델을 제시한다. 비선형 모델의 안개 제거 방법은 여러 가지 안개제거 방법과의 정량적 수치평가(MSE, SSIM, TMQI)를 통해 동등 이상의 결과를 보여줌으로써 우수한 성능을 자랑한다.

깊이 일관성을 보존하는 향상된 개체군기반 증가 학습을 이용한 고속 3차원 모델 추출 기법 (Fast 3D Model Extraction Algorithm with an Enhanced PBIL of Preserving Depth Consistency)

  • 이행석;장명호;한규필
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제31권1_2호
    • /
    • pp.59-66
    • /
    • 2004
  • 본 논문에서는 2차원 영상에서 3차원 깊이정보를 추출하기 위해서 진화연산 알고리즘을 적용한 고속 3차원 모델 추출 기법을 제안한다. 진화연산 알고리즘은 자연 선택과 개체군 유전학에 기반 한 생물학적 진화 과정을 통해 최적의 해를 찾는 효율적인 탐색 기법이다. 기존의 스테레오 정합 방법에서 생성되어진 2차원 깊이 정보인 변이 맵은 경계 부근에서 애매한 결과를 도출함으로써 변이의 세밀하고 정확한 정보를 잃어 실 영상과는 다소 차이를 갖는다. 본 논문에서는 소형 유전자 알고리즘을 스테레오 정합환경에 맞게 변형시키고, 생성된 변이 맵의 모호성을 해결하기 위해 이전 세대의 변이 맵으로부터 경계를 검출한 변이 경계정보에서 이웃한 화소의 변이 복잡도를 측정하여 복잡도에 따라 적응적 윈도우를 결정하여 정합에 사용하였다. 실험을 통해 제안한 방식이 이완 처리를 포함한 기존의 정합 방식보다 변이 맵 생성에 있어 보다 상세하고 매끄러운 변이 결과를 얻을 수 있었다.

캐릭터 객체의 변환을 이용하는 입체 동영상 콘텐츠 제작 (Producing Stereoscopic Video Contents Using Transformation of Character Objects)

  • 이관욱;원지연;최창열;김만배
    • 방송공학회논문지
    • /
    • 제16권1호
    • /
    • pp.33-43
    • /
    • 2011
  • 3D 디스플레이의 급격한 공급으로 다양한 3D 입체 콘텐츠의 제작이 요구되고 있다. 3D 콘텐츠의 제작 방법으로는 일반적으로 스테레오 카메라로 입체물을 제작할 수 있지만, 기존 2D 콘텐츠에서 입체영상물을 제작하는 기법도 중요한 기술이다. 이러한 2D 콘텐츠의 변환작업을 통한 3D 영상물 제작은 3D 변환 분야에서 활발히 진행되고 있다. 그러나 단순히 한 장의 영상을 3D로 변환하는 것은 콘텐츠의 실감을 전달하지 못한다. 본 논문에서는 기존의 2D 영상에 존재하는 객체에 생명력을 불어넣어, 그림속이 객체가 살아나 움직이는 새로운 애니메이션 콘텐츠 제작 방법을 제안한다. 또한 3D 디스플레이에서 시청이 가능하도록 입체영상으로 제작된다. 입력영상이 주어지면 배경영상, 전경객체 마스크, 배경 깊이맵, 객체 깊이맵을 생성한다. 각 전경객체의 이동, 회전, 및 줌을 통해 생동감있는 객체를 구현하며, 변환된 객체의 깊이맵 및 배경영상을 이용하여 실감있는 입체영상을 제작한다. 실험영상은 신윤복의 단오풍정 및 픽사의 애니메이션 UP의 클립영상을 이용하여 3D 입체영상으로 구현하였다.

복합형 카메라 시스템을 이용한 자율주행 차량 플랫폼 (Autonomous Driving Platform using Hybrid Camera System)

  • 이은경
    • 한국전자통신학회논문지
    • /
    • 제18권6호
    • /
    • pp.1307-1312
    • /
    • 2023
  • 본 논문에서는 자율주행 인지 기술의 핵심 요소인 객체 인식과 거리 측정을 위해 서로 다른 초점거리를 가진 다시점 카메라와 라이다(LiDAR) 센서를 결합한 복합형 카메라 시스템을 제안한다. 제안한 복합형 카메라 시스템을 이용해 장면 안의 객체를 추출하고, 추출한 객체의 정확한 위치와 거리 정보를 생성한다. 빠른 계산 속도와 높은 정확도, 실시간 처리가 가능하다는 장점 때문에 자율주행 분야에서 많이 사용하고 있는 YOLO7 알고리즘을 이용해 장면 안의 객체를 추출한다. 그리고 객체의 위치와 거리 정보를 생성하기 위해 다시점 카메라를 이용해 깊이맵을 생성한다. 마지막으로 거리 정확도를 향상시키기 위해 라이다 센서에서 획득한 3차원 거리 정보와 생성한 깊이맵을 하나로 결합한다. 본 논문에서는 제안한 복합형 카메라 시스템을 기반으로 주행중인 주변 환경을 더욱 정확하게 인식함과 동시에 3차원 공간상의 정확한 위치와 거리 정보까지 생성할 수 있는 자율주행 차량 플랫폼을 제안하였으며, 이를 통해 자율주행 차량의 안전성과 효율성을 향상시킬 수 있을 것으로 기대한다.