• 제목/요약/키워드: Google Street View

검색결과 8건 처리시간 0.023초

딥러닝 스타일 전이 기반의 무대 탐방 콘텐츠 생성 기법 (Generation of Stage Tour Contents with Deep Learning Style Transfer)

  • 김동민;김현식;봉대현;최종윤;정진우
    • 한국정보통신학회논문지
    • /
    • 제24권11호
    • /
    • pp.1403-1410
    • /
    • 2020
  • 최근, 비대면 경험 및 서비스에 관한 관심이 증가하면서 스마트폰이나 태블릿과 같은 모바일 기기를 이용하여 손쉽게 이용할 수 있는 웹 동영상 콘텐츠에 대한 수요가 급격히 증가하고 있다. 이와 같은 요구사항에 대응하기 위하여, 본 논문에서는 애니메이션이나 영화에 등장하는 명소를 방문하는 무대 탐방 경험을 제공할 수 있는 영상 콘텐츠를 보다 효율적으로 제작하기 위한 기법을 제안한다. 이를 위하여, Google Maps와 Google Street View API를 이용하여 무대탐방 지역에 해당하는 이미지를 수집하여 이미지 데이터셋을 구축하였다. 그 후, 딥러닝 기반의 style transfer 기술을 접목시켜 애니메이션의 독특한 화풍을 실사 이미지에 적용한 후 동영상화하기 위한 방법을 제시하였다. 마지막으로, 다양한 실험을 통해 제안하는 기법을 이용하여 보다 재미있고 흥미로운 형태의 무대탐방 영상 콘텐츠를 생성할 수 있음을 보였다.

가상 도보 여행 시스템 (Virtual Walking Tour System)

  • 김한섭;이지은
    • 디지털콘텐츠학회 논문지
    • /
    • 제19권4호
    • /
    • pp.605-613
    • /
    • 2018
  • 본 논문에서는 가상현실 기술로 전 세계를 도보 여행할 수 있는 시스템을 제안한다. 가상 여행 콘텐츠에 대한 가상현실 이용자들의 관심이 높으나 기존의 가상 여행 콘텐츠는 체험할 수 있는 공간이 한정되어 있고 상호작용성이 부족한 문제가 있었다. 기존 콘텐츠의 단점인 현실감 부족과 제한된 공간의 문제를 해결하고자 본 시스템에서는 구글 스트리트 뷰 이미지를 사용하여 가상 공간을 생성하였으며 사용자는 실제 거리 이미지를 통해 현실적인 체험이 가능하고 구글 스트리트 뷰 이미지에서 제공하는 방대한 지역을 여행할 수 있다. 또한 가상공간 안에서 사용자의 상호작용성을 높이고 몰입감을 극대화 하기 위하여 가상현실 헤드셋과 트레드밀 장비를 사용하여 사용자가 실제로 도보를 하며 가상공간을 이동할 수 있도록 하였다. 실제 관광 명소에서 산길과 골목길까지 자연스러운 도보 여행이 가능한 본 시스템의 활용으로 사용자들의 여가 활동에 크게 기여할 것으로 기대된다.

Updating Smartphone's Exterior Orientation Parameters by Image-based Localization Method Using Geo-tagged Image Datasets and 3D Point Cloud as References

  • Wang, Ying Hsuan;Hong, Seunghwan;Bae, Junsu;Choi, Yoonjo;Sohn, Hong-Gyoo
    • 한국측량학회지
    • /
    • 제37권5호
    • /
    • pp.331-341
    • /
    • 2019
  • With the popularity of sensor-rich environments, smartphones have become one of the major platforms for obtaining and sharing information. Since it is difficult to utilize GNSS (Global Navigation Satellite System) inside the area with many buildings, the localization of smartphone in this case is considered as a challenging task. To resolve problem of localization using smartphone a four step image-based localization method and procedure is proposed. To improve the localization accuracy of smartphone datasets, MMS (Mobile Mapping System) and Google Street View were utilized. In our approach first, the searching for candidate matching image is performed by the query image of smartphone's using GNSS observation. Second, the SURF (Speed-Up Robust Features) image matching between the smartphone image and reference dataset is done and the wrong matching points are eliminated. Third, the geometric transformation is performed using the matching points with 2D affine transformation. Finally, the smartphone location and attitude estimation are done by PnP (Perspective-n-Point) algorithm. The location of smartphone GNSS observation is improved from the original 10.204m to a mean error of 3.575m. The attitude estimation is lower than 25 degrees from the 92.4% of the adjsuted images with an average of 5.1973 degrees.

City-Scale Modeling for Street Navigation

  • Huang, Fay;Klette, Reinhard
    • Journal of information and communication convergence engineering
    • /
    • 제10권4호
    • /
    • pp.411-419
    • /
    • 2012
  • This paper proposes a semi-automatic image-based approach for 3-dimensional (3D) modeling of buildings along streets. Image-based urban 3D modeling techniques are typically based on the use of aerial and ground-level images. The aerial image of the relevant area is extracted from publically available sources in Google Maps by stitching together different patches of the map. Panoramic images are common for ground-level recording because they have advantages for 3D modeling. A panoramic video recorder is used in the proposed approach for recording sequences of ground-level spherical panoramic images. The proposed approach has two advantages. First, detected camera trajectories are more accurate and stable (compared to methods using multi-view planar images only) due to the use of spherical panoramic images. Second, we extract the texture of a facade of a building from a single panoramic image. Thus, there is no need to deal with color blending problems that typically occur when using overlapping textures.

스트리트 뷰 이미지를 동영상으로 변환하는 방법 (A method for converting street view images to a video)

  • 우별;박성민;이도영;조승현;송양의;이용규
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2015년도 추계학술발표대회
    • /
    • pp.83-86
    • /
    • 2015
  • 기존의 스트리트 뷰 이미지들은 일일이 사용자가 검색해야 하며 이미지 파일을 하나씩 클릭해서 넘겨 봐야한다는 점과 제공되는 스트리트 뷰 이미지들이 웹페이지 형태로만 제공된다는 불편함이 있었다. 이를 개선하고자 본 논문에서는 스트리트 뷰 이미지를 동영상으로 제공하여 쉽게 길을 찾아갈 수 있는 방법을 제안한다. 본 논문에서 제안하는 어플리케이션은 사용자가 출발지와 도착지를 입력하면 Google Maps APIs를 이용해 최단경로를 받아온다. 그 후 최단경로에 해당하는 좌표값에 해당하는 이미지를 Google Maps APIs URL을 이용하여 Android 내부 DB로 받아온다. 마지막으로 DB에 저장된 이미지를 동영상으로 변환하여 제공한다.

위치기반 파노라마 영상 콘텐츠 서비스를 위한 geoData 취득 및 처리시스템 개발 (Development of geoData Aquisition System for Panoramic Image Contents Service based on Location)

  • 조현구;이형
    • 한국콘텐츠학회논문지
    • /
    • 제11권1호
    • /
    • pp.438-447
    • /
    • 2011
  • 구글 어스, 스트리트 뷰, 다음 로드 뷰 서비스 등의 출현으로 최근 개인 삶과 밀접한 지리공간정보 및 위치기반 영상정보 등의 위치기반 콘텐츠(geoContents)에 대한 수요가 급증하고 있다. 그러나 기존의 도로 시설물 관리, 지도갱신 분야에서 활용되는 모바일매핑시스템으로는 이러한 콘텐츠를 확보하기 위한 비용과 시간 측면에서 이러한 수요를 만족시키기에는 어려움이 있다. 본 논문에서는 3대의 GPS를 이용하여 위치, 자세, 방향 및 시간을 포함하는 위치정보와 6대의 카메라를 이용하여 영상정보를 취득한 후 이들 정보들을 동기화시켜 파노라마영상을 생성할 수 있는 geoData 취득 및 처리시스템을 기술한다. 개발한 시스템을 통한 geoData 취득과 위치, 자세, 방향정보를 포함한 파노라마 영상인 geoContents 저작 방법은 다양한 위치기반 콘텐츠의 구축과 서비스 분야에서 효율적인 수단으로 활용될 수 있을 것이다.

합성곱 신경망 기반 맨하탄 좌표계 추정 (Estimation of Manhattan Coordinate System using Convolutional Neural Network)

  • 이진우;이현준;김준호
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제23권3호
    • /
    • pp.31-38
    • /
    • 2017
  • 본 논문에서는 도심 영상에 대해 맨하탄 좌표계를 추정하는 합성곱 신경망(Convolutional Neural Network) 기반의 시스템을 제안한다. 도심 영상에서 맨하탄 좌표계를 추정하는 것은 영상 조정, 3차원 장면 복원 등 컴퓨터 그래픽스 및 비전 문제 해결의 기본이 된다. 제안하는 합성곱 신경망은 GoogLeNet[1]을 기반으로 구성한다. 합성곱 신경망을 훈련하기 위해 구글 스트리트 뷰 API로 영상을 수집하고 기존 캘리브레이션 방법으로 맨하탄 좌표계를 계산하여 데이터셋을 생성한다. 장면마다 새롭게 합성곱 신경망을 학습해야하는 PoseNet[2]과 달리, 본 논문에서 제안하는 시스템은 장면의 구조를 학습하여 맨하탄 좌표계를 추정하기 때문에 학습되지 않은 새로운 장면에 대해서도 맨하탄 좌표계를 추정한다. 제안하는 방법은 학습에 참여하지 않은 구글 스트리트 뷰 영상을 검증 데이터로 테스트하였을 때 $3.157^{\circ}$의 중간 오차로 맨하탄 좌표계를 추정하였다. 또한, 동일 검증 데이터에 대해 제안하는 방법이 기존 맨하탄 좌표계 추정 알고리즘[3]보다 더 낮은 중간 오차를 보이는 것을 확인하였다.

SLI(Street-level Imagery)와 2D 지도간의 합성을 위한 위치 편차 제거 (The Removal of Spatial Inconsistency between SLI and 2D Map for Conflation)

  • 가칠오;이정호;양성철;유기윤
    • 대한공간정보학회지
    • /
    • 제20권2호
    • /
    • pp.63-71
    • /
    • 2012
  • 최근 포털 사이트들을 중심으로 거리 기반의 파노라마 영상 서비스(Street-Level Imagery, SLI)가 제공되고 있다. SLI는 거리상에서 실세계를 바라보는 것과 동일한 영상으로 매우 직관적이고 상세한 정보 제공이 가능하다. 이러한 특성을 가지는 SLI는 타 공간정보와 합성을 통하여 활용성이 더욱 증대될 수 있다. 하지만, 서로 다른 공간정보 데이터셋을 합성할 경우 실세계의 동일 객체가 서로 다른 위치에 표현되는 위치 편차 문제는 합성의 품질을 저하시키는 요인이 된다. 따라서 본 연구는 SLI를 현재 가장 널리 활용되고 있는 2D 지도와 합성하기 위한 상호간의 위치 편차 제거를 목표로 한다. 위치 편차 제거는 (1) 컨트롤 포인트 쌍 탐색을 위한 SLI 촬영 궤적과 2D 지도의 도로 레이어간 교차로 매칭, (2) 경향성 분석을 통한 부정확한 컨트롤 포인트 쌍 제거, (3) 정확한 컨트롤 포인트 쌍을 이용한 국지적 조정 등의 세부 프로세스를 포함한다. 또한, SLI를 포함하는 합성 결과에 적합한 정확도 평가 방법을 제시하고, 이를 통하여 위치 편차 제거의 효과를 검증한다.