• 제목/요약/키워드: 360도 카메라

검색결과 62건 처리시간 0.022초

Forward Warping과 양선형 보간법을 이용한 파노라마 영상 재구성 (Panoramic Image Reconstruction using Forward Warping and Bilinear Interpolation Method)

  • 박창힐;신성민;우영운;김광백
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2011년도 춘계학술대회
    • /
    • pp.65-68
    • /
    • 2011
  • 도시의 방범 대책의 일환으로 거리감시 카메라의 설치가 진행되고 있다. 이때 가능하면 넓은 범위를 포함하고, 사각을 없애기 위해 다수의 카메라가 필요하기 때문에 기기 도입에 많은 비용이 발생하게 된다. 또한 카메라에 모터를 장착하여, 상하 좌우로 움직이는 기계적인 장치를 추가하여, 기기의 대수를 줄이는 경우에도 많은 유지 보수비용이 필요하다. 그러나 360도를 관찰할 수 있는 어안렌즈 카메라를 이용하면 다수의 카메라 대신 한 대의 카메라로 대응할 수 있어 유지보수 비용을 절약할 수 있다. 그러나 어안 렌즈를 이용할 경우에는 영상이 굴절되어 보이기 때문에 감시 카메라용 렌즈로써는 부적합하다. 따라서 본 논문에서는 굴곡 되어 있는 영상의 개선을 위하여 Forward Warping을 이용하여 파노라마 영상으로 변환하고 파노라마 영상으로 변환 중에 손실되는 영상 정보를 복원하기 위하여 양선형 보간법을 적용하여 개선된 파노라마 영상을 얻을 수 있는 방법을 제안한다. 본 논문에서 제안한 어안 렌즈 영상 재구성 방법의 성능을 평가하기 위하여 다양한 어안 렌즈 영상을 대상으로 실험한 결과, 기존의 방법보다 영상을 재구성하는데 효과적인 것을 확인하였다.

  • PDF

이동체 내의 헬멧 방위각 추적 시스템 구현 (Implementation of a Helmet Azimuth Tracking System in the Vehicle)

  • 이지훈;정해
    • 한국정보통신학회논문지
    • /
    • 제24권4호
    • /
    • pp.529-535
    • /
    • 2020
  • 적군의 화력에 대비하여 사방이 철갑으로 둘러싸인 장갑차에서 조종수의 외부시야 확보가 필수적이다. 이를 위하여 차량에 360도 회전 가능한 감시카메라를 장착한다. 이 때 헬멧을 착용한 조종수의 머리 방향을 인식하여 외부의 카메라도 정확하게 같은 방향으로 회전하도록 하는 것이 관건이다. 본 논문에서는 MEMS 기반의 AHRS 센서와 조도 센서를 사용하여 기존의 광학적 방식이 가지고 있는 단점을 보완하고, 저렴하게 구현하는 방안을 소개한다. 핵심 아이디어는 카메라의 위치에 장착된 센서와 헬멧에 장착된 센서가 검출하는 오일러 각의 차이를 이용하여 카메라의 방향을 설정하고, 센서의 드리프트 오차를 제거하기 위해 수시로 조도 센서로 보정하는 것이다. 구현된 시작품 통하여 조종수가 바라보는 방향으로 카메라의 방향이 정확하게 일치되는 것을 보여줄 것이다.

딥 러닝을 이용한 실감형 콘텐츠 특징점 추출 및 식별 방법 (A Feature Point Extraction and Identification Technique for Immersive Contents Using Deep Learning)

  • 박병찬;장세영;유인재;이재청;김석윤;김영모
    • 전기전자학회논문지
    • /
    • 제24권2호
    • /
    • pp.529-535
    • /
    • 2020
  • 4차 산업의 주요 기술로 실감형 360도 영상 콘텐츠가 주목받고 있다. 전 세계 실감형 360도 영상 콘텐츠의 시장 규모는 2018년 67억 달러에서 2020년 약 700억 달러까지 증가될 것이라고 전망하고 있다. 하지만 대부분 실감형 360도 영상 콘텐츠가 웹하드, 토렌트 등의 불법 유통망을 통해 유통되고 있어 불법복제로 인한 피해가 증가하고 있다. 이러한 불법 유통을 막기 위하여 기존 2D 영상은 불법저작물 필터링 기술을 사용하고 있다. 그러나 초고화질을 지원하고 두 대 이상의 카메라를 통해 촬영된 영상을 하나의 영상에 담는 실감형 360도 영상 콘텐츠의 특징 때문에 왜곡 영역이 존재하여 기존 2D 영상에 적용된 기술을 그대로 사용하기엔 다소 무리가 있다. 또한, 초고화질에 따른 특징점 데이터량 증가와 이에 따른 처리 속도 문제와 같은 기술적 한계가 존재한다. 본 논문에서는 이러한 문제를 해결하기 위하여 왜곡이 심한 영역을 제외한 객체 식별 영역을 선정하고, 식별 영역에서 딥 러닝 기술을 이용하여 객체를 인식하고 인식된 객체의 정보를 이용하여 특징 벡터를 추출하는 특징점 추출 및 식별 방법을 제안한다. 제안한 방법은 기존에 제안 되었던 스티칭 영역을 이용한 실감형 콘텐츠 특징점 추출방법과 비교하여 성능의 우수성을 보였다.

Beacon 측위 데이터와 카메라 센서데이터를 이용한 실내 영상의 촬영 위치 분석 시스템 제안 (A Suggestion of image capturing position analysis system using Beacon positioning data and camera sensor data)

  • 정서경;유성근;송민정;박상일
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2018년도 추계학술대회
    • /
    • pp.145-147
    • /
    • 2018
  • 다수의 일반 카메라로 촬영한 영상들로 360도 영상을 제작하는 경우 다수의 영상 간 동일한 영역을 찾고 기하학 보정을 위한 영상 스티칭 기술이 필요하다. 영상 스티칭 기술은 여러 영상에서 추출한 특징점들의 유사도를 비교하여 영상들을 이어 붙여 큰 하나의 영상으로 만드는 것이다. 본 논문에서는 비콘이 부착된 공연장을 가정하여, 비콘을 통해서 촬영자의 위치를 대략적으로 파악하고, 사용자가 어플리케이션을 통하여 전송한 영상과 영상의 방위각, FOV(Field Of View)들을 이용하여 실내에서 촬영된 영상들을 스티칭 대상 영상들로 필터링하는 방법을 제안한다.

  • PDF

360도 카메라 기반 건설현장 철근 배근 정보 원격 계측 기법 개발 (Development of Remote Measurement Method for Reinforcement Information in Construction Field Using 360 Degrees Camera)

  • 이명훈;우욱용;최하진;강수민;최경규
    • 한국구조물진단유지관리공학회 논문집
    • /
    • 제26권6호
    • /
    • pp.157-166
    • /
    • 2022
  • 철근 콘크리트 구조 건설현장에서 육안 검사 방식으로 수행되는 현재 단계의 구조감리는 그 필요성에 비하여 매우 노동 집약적이기에 현실적으로 현장의 모든 상황을 파악하기에 제한적이며, 검사자의 주관성도 배제될 수 없다. 따라서 본 연구는 철근을 대상으로 한 구조감리의 효율성 개선을 위해 360° 카메라를 통해 수집한 RGB 및 Depth 데이터 기반 3D model을 이용하여 배근 간격을 도출하고 실측값과의 비교를 통해 정확도를 검증하였다. 소규모 현장(약 265 m2)의 12개 지점에 대해 계측을 수행하였으며, 지점당 스캔시간은 약 20초, 이동 및 설치시간을 포함한 총 계측 시간은 약 15분이 소요되었다. 계측된 데이터는 SLAM 알고리즘을 통하여 RGB-based 3D model과 3D point cloud model을 생성하였으며, 각각의 모델에서의 계측값을 실측값과 비교하여 정확도 검증을 진행하였다. RGB-based 3D model과 3D point cloud model은 각각 10mm, 0.1mm의 최소분해능을 갖으며, 각 모델로부터 계측된 철근의 배근 간격 은 의 오차는 최대 28.4%, 최소 3.1% (RGB-based 3D model) 최대 10.8%, 최소 0.3% (3D point cloud model)로 확인되었다. 본 연구를 토대로 추후 자동화 기반의 원격구조 감리 기술개발을 통하여 현장적용 및 분석의 효율성을 증대시키고자 한다.

3차원 포인트 클라우드 기반의 동적 3D 모델 생성을 위한 뼈대 추출 기술 (Skeleton extraction technique for producing 3D point cloud-based dynamic 3D model)

  • 박병서;김경진;서영호
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 하계학술대회
    • /
    • pp.234-235
    • /
    • 2019
  • 본 논문은 실사 객체를 360도 전방위에서 관찰이 가능한 3D 그래픽 모델로 변환하는 시스템에서 뼈대를 추출하는 방법을 제시한다. 각 카메라로부터 촬영된 텍스쳐 영상을 이용하여 뼈대를 추출하고, 깊이 정보로부터 얻어진 포인트 클라우드 정보를 이용하여 뼈대 정보를 정합, 보정하는 과정을 수행한다. 카메라로부터 촬영된 텍스쳐 영상에 대해 딥러닝 기술 등을 이용하여 뼈대를 획득한다. 텍스쳐 영상으로부터 획득된 뼈대 정보는 동일 위치에서 획득된 외부 파라미터를 이용하여 월드좌표계로 변환하여 공간상에 위치시킨다. 이러한 과정을 모든 카메라로부터 획득된 뼈대 정보에 동일하게 적용함으로써 모든 뼈대 정보를 공간상에 표현하여 최종적인 뼈대 정보를 추출하는 방법을 제시한다.

  • PDF

360 VR 영상에서 효율적인 자막 위치 선정에 관한 연구 (A Study on Efficient Positioning of Subtitles in 360 VR)

  • 김형균
    • 디지털융복합연구
    • /
    • 제18권6호
    • /
    • pp.93-98
    • /
    • 2020
  • 본 논문에서는 360 VR에서 사용자 시점의 변화에 따라 자막이 팔로잉되는 기법을 제안하였다. Unity의 Scene에 Sphere 객체를 생성하고 Sphere 객체 표면에 360도 영상을 삽입한다. 이때, 시점을 내부로 변환하기 위해서 ReverseNormals 스크립트를 사용한다. 카메라 시점을 수정하기 위해 SightOrbitproved 스크립트를 사용한다. 이 스크립트를 이용해 시점에 따라 자막이 이동할 수 있는 환경을 설정한다. 다음으로 사용자가 원하는 3D Text(자막)를 Main Camera의 하위계층에 추가하고 360 VR 객체를 Build한다. 본 연구를 통해 구현된 3D Text 자막을 사용자 시점의 변화에 따라 비교하였다. 그 결과 시점의 변화가 진행되면서 일반 자막은 사용자의 시점에 따라 시선 밖으로 흘러가고 있으나, 3D Text 자막은 사용자의 시점에 따라 움직이면서 사용자가 항상 자막을 볼 수 있도록 구현되는 것을 확인할 수 있었다.

가상현실에서 효과적인 3차원 영상 연출을 위한 연구 -언리얼 엔진의 영상 제작을 이용한 인터렉티브 쇼트 중심으로- (A Study on effective directive technique of 3D animation in Virtual Reality -Focus on Interactive short using 3D Animation making of Unreal Engine-)

  • 이준수
    • 만화애니메이션 연구
    • /
    • 통권47호
    • /
    • pp.1-29
    • /
    • 2017
  • 360도 가상현실은 오래전부터 상용되고 있던 기술이었으나 HMD(Head Mounted Display)와 같은 기기의 발전과 가상현실의 영상을 제어하고 실행시키는 하드웨어의 발전으로 최근에 가상현실의 제작이 전 세계적으로 활발하게 진행되는데 360도 영상의 제작은 기존의 영상제작과는 다른 연출 방식을 요구하고 사용자를 위한 연구가 진행되고 있다. 가상현실 영상은 몰입성, 현재성과 상호작용을 요구하는 플랫폼을 지향하기 때문에 이에 맞는 영상문법이 필요하다. VR에서 사용자는 연출자가 만들어 놓은 세계를 자유롭게 감상할 수 있으며 본인의 관심대상에 집중할 수 있는 장점이 있다. 하지만 이것은 또한 연출자에게 내러티브의 진행과 전달하고자 하는 영상에 집중할 수 있게 하는 장치를 개발하고 설치할 필요성을 요구한다. 연출자에게는 영상을 전달하는 다양한 방법들 가운데 쇼트의 구성을 이용할 수 있는데 본 고에서는 이 쇼트의 구성을 통한 연출기법을 어떻게 효과적으로 360도 가상현실에서 적용시킬 수 있는지에 대해 연구하고자 한다. 현재의 가상현실 연출방식은 기존 영상제작 방식을 많이 따르고 있으며 쇼트구성도 마찬가지이다. 다만 360도 가상현실에서는 전통적인 3인칭 시점의 롱테이크 기법이나 블로킹 기법을 주된 연출구성으로 이용하지만 여전히 쇼트구성의 한계를 느끼고 있다. 또한 사용자가 HMD 트레킹을 이용하여 인터렉티브하게 360도 화면을 시청할 수 있는 반면에 쇼트의 구성과 쇼트의 연결은 기존 영상문법과 마찬가지로 연출자에게 절대적으로 의존하고 있다. 본 연구에서는 이러한 영상문법도 VR 영상의 상호작용의 특징인 사용자가 원하는 시점에 쇼트의 구성과 같은 영상문법을 자유롭게 변경할 수 있는지를 연구하고자 언리얼 엔진이라는 게임 툴을 사용하여 3D 애니메이션을 제작하고 블루프린트(Blueprint)라는 언리얼엔진의 비주얼 스크립팅을 가지고 트리거(Trigger)라는 노드로 조건의 참과 거짓을 구분시키는 장치를 만들어 각각의 상태에 따른 카메라의 위치를 선택하게끔 하여 다양한 쇼트를 만드는 인터렉티브 영상구성을 시도함으로 다양한 연출기법이 개발되고 관련 연구가 진행되어 360도 VR 영상 발전에 도움이 되길 기대한다.

전방향 스테레오 영상 시스템

  • 이수영
    • 제어로봇시스템학회지
    • /
    • 제19권4호
    • /
    • pp.32-38
    • /
    • 2013
  • 전방향 영상 시스템은 한 장의 영상에 360도 모든 방향의 영상정보를 담을 수 있는 영상획득 시스템을 의미한다. 기하광학소자를 이용하여 사람의 눈이나 기존의 카메라로는 한 번에 볼 수 없는 매우 넓은 범위의 영상데이터를 효율적으로 얻을 수 있다. 또한 전방향 영상획득의 원리와 시점이 다른 두 영상, 즉 스테레오 영상획득의 원리를 적용한 전방향 스테레오 영상 시스템은 두 영상간의 정합을 통해 3차원 거리를 측정할 수 있다는 특징이 있다. 본 고에서는 전방향 스테레오 영상획득에 관해 기존에 제안된 연구결과들의 광학적 원리와 장단점을 조사, 비교하였다.

Image Stitching 기술을 이용한 Panorama 영상 생성 (Image Stitching for generating panorama image)

  • 방정원
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2016년도 제54차 하계학술대회논문집 24권2호
    • /
    • pp.287-288
    • /
    • 2016
  • 본 논문에서는 한 위치에서 여러방향으로 찍은 사진들을, Image Stitching 기술을 통해 Panorama 영상을 만드는 과정에 대해 연구한다. VR이 주목 받게 됨에 따라 스마트폰이나 360도 카메라를 사용하여 이미지 스티칭 기법을 사용하여 연속적인 사진을 보여주게 되는되 이를 구현 하기 위한 배경 연구들을 분석하고 구현해 봄으로 속도 향상을 아이디어들에 대하여 연구한다.

  • PDF