• Title/Summary/Keyword: 깊이 추정

Search Result 581, Processing Time 0.035 seconds

Simulation of continuous snow accumulation data using stochastic method (추계론적 방법을 통한 연속 적설 자료 모의)

  • Park, Jeongha;Kim, Dongkyun;Lee, Jeonghun
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2022.05a
    • /
    • pp.60-60
    • /
    • 2022
  • 본 연구에서는 적설 추정 알고리즘과 추계 일기 생성 모형을 활용하여 관측 적설의 특성을 재현하는 연속 적설심 자료 모의 방법을 소개한다. 적설 추정 알고리즘은 강수 유형 판단, Snow Ratio 추정, 그리고 적설 깊이 감소량 추정까지 총 3단계로 구성된다. 먼저 강수 발생시 지상기온과 상대습도를 지표로 활용하여 강수 유형을 판단하고, 강수가 적설로 판별되었을 때 강수량을 신적설심으로 환산하는 Snow Ratio를 추정한다. Snow Ratio는 지상 기온과의 sigmoid 함수 회귀분석을 통해 추정하였으며, precipitation rate 조건(5 mm/3hr 미만 및 이상)에 따라 두 가지 함수를 적용하였다. 마지막으로 적설 깊이 감소량은 온도 지표 snowmelt 식을 이용하여 추정하였으며, 매개변수는 적설 깊이 및 온도 관측 자료를 활용하여 보정하였다. 속초 관측소 자료를 활용하여 매개변수를 보정 및 검증하여 높은 NSE(보정기간 : 0.8671, 검증기간 : 0.7432)를 달성하였으며, 이 알고리즘을 추계 일기 생성 모형으로 모의한 합성 기상 자료(강수량, 지상기온, 습도)에 적용하여 합성 적설심 시계열을 모의하였다. 모의 자료는 관측 자료의 통계 및 극한값을 매우 정확하게 재현하였으며, 현행 건축구조기준과도 일치하는 것으로 나타났다. 이 모형을 통하여 적설 위험 분석 분야뿐 아니라 기후 전망 자료와의 결합, 미계측 지역에 대한 자료 모의 등에도 광범위하게 활용될 수 있을 것이다.

  • PDF

Real-time 3D Pose Estimation of Both Human Hands via RGB-Depth Camera and Deep Convolutional Neural Networks (RGB-Depth 카메라와 Deep Convolution Neural Networks 기반의 실시간 사람 양손 3D 포즈 추정)

  • Park, Na Hyeon;Ji, Yong Bin;Gi, Geon;Kim, Tae Yeon;Park, Hye Min;Kim, Tae-Seong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2018.10a
    • /
    • pp.686-689
    • /
    • 2018
  • 3D 손 포즈 추정(Hand Pose Estimation, HPE)은 스마트 인간 컴퓨터 인터페이스를 위해서 중요한 기술이다. 이 연구에서는 딥러닝 방법을 기반으로 하여 단일 RGB-Depth 카메라로 촬영한 양손의 3D 손 자세를 실시간으로 인식하는 손 포즈 추정 시스템을 제시한다. 손 포즈 추정 시스템은 4단계로 구성된다. 첫째, Skin Detection 및 Depth cutting 알고리즘을 사용하여 양손을 RGB와 깊이 영상에서 감지하고 추출한다. 둘째, Convolutional Neural Network(CNN) Classifier는 오른손과 왼손을 구별하는데 사용된다. CNN Classifier 는 3개의 convolution layer와 2개의 Fully-Connected Layer로 구성되어 있으며, 추출된 깊이 영상을 입력으로 사용한다. 셋째, 학습된 CNN regressor는 추출된 왼쪽 및 오른쪽 손의 깊이 영상에서 손 관절을 추정하기 위해 다수의 Convolutional Layers, Pooling Layers, Fully Connected Layers로 구성된다. CNN classifier와 regressor는 22,000개 깊이 영상 데이터셋으로 학습된다. 마지막으로, 각 손의 3D 손 자세는 추정된 손 관절 정보로부터 재구성된다. 테스트 결과, CNN classifier는 오른쪽 손과 왼쪽 손을 96.9%의 정확도로 구별할 수 있으며, CNN regressor는 형균 8.48mm의 오차 범위로 3D 손 관절 정보를 추정할 수 있다. 본 연구에서 제안하는 손 포즈 추정 시스템은 가상 현실(virtual reality, VR), 증강 현실(Augmented Reality, AR) 및 융합 현실 (Mixed Reality, MR) 응용 프로그램을 포함한 다양한 응용 분야에서 사용할 수 있다.

Deep learning-based Multi-view Depth Estimation Methodology of Contents' Characteristics (다 시점 영상 콘텐츠 특성에 따른 딥러닝 기반 깊이 추정 방법론)

  • Son, Hosung;Shin, Minjung;Kim, Joonsoo;Yun, Kug-jin;Cheong, Won-sik;Lee, Hyun-woo;Kang, Suk-ju
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.06a
    • /
    • pp.4-7
    • /
    • 2022
  • Recently, multi-view depth estimation methods using deep learning network for the 3D scene reconstruction have gained lots of attention. Multi-view video contents have various characteristics according to their camera composition, environment, and setting. It is important to understand these characteristics and apply the proper depth estimation methods for high-quality 3D reconstruction tasks. The camera setting represents the physical distance which is called baseline, between each camera viewpoint. Our proposed methods focus on deciding the appropriate depth estimation methodologies according to the characteristics of multi-view video contents. Some limitations were found from the empirical results when the existing multi-view depth estimation methods were applied to a divergent or large baseline dataset. Therefore, we verified the necessity of obtaining the proper number of source views and the application of the source view selection algorithm suitable for each dataset's capturing environment. In conclusion, when implementing a deep learning-based depth estimation network for 3D scene reconstruction, the results of this study can be used as a guideline for finding adaptive depth estimation methods.

  • PDF

Relative Depth-Map Generation from Monocular Image using a Valid Vanishing Point (유효한 소실점을 이용한 단안영상의 상대적 깊이지도 생성)

  • Han, Jong-Won;Jo, Jin-Su;Lee, Yill-Byoung
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.10b
    • /
    • pp.539-543
    • /
    • 2006
  • 사람은 실내나 인공구조물을 가진 실외 환경에서 깊이를 지각하는데 소실점이라는 강력한 깊이 지각 단서를 활용한다. 소실점은 관찰자로부터 가장 먼 거리의 지점에 대응된다. 인간은 단안영상이 가지는 기하학적 성분을 이용해서 소실점을 추정하고, 소실점의 위치와 관찰자의 시점을 기준으로 상대적 깊이지각을 할 수 있다. 본 논문에서는 하나의 소실점을 가진 2차원 단안영상에서 유효한 소실점을 추정하고, 입력영상에 대한 소실점의 위치 관계를 이용한 상대적 깊이지도의 생성 방법을 제안한다.

  • PDF

사용자-객체 상호작용을 위한 복잡 배경에서의 객체 인식

  • Bae, Ju-Han;Hwang, Yeong-Bae;Choe, Byeong-Ho;Kim, Hyo-Ju
    • Information and Communications Magazine
    • /
    • v.31 no.3
    • /
    • pp.46-53
    • /
    • 2014
  • 사용자-객체 상호작용을 위해서는 영상 내 객체의 종류와 위치를 정확하게 파악하여 사용자가 객체에 관련된 행동을 취할 경우, 그에 맞는 상호작용을 수행해야 한다. 이러한 객체인식에 널리 사용되는 지역 불변 특징량 기반의 방법론은 복잡한 배경이나 균일 물체에 대하여 잘못된 매칭으로 인식률이 저하된다. 본고에서는 이를 해결하기 위해, 컬러와 깊이 근접도 기반 깊이 계층을 나누고, 복잡 배경으로부터 생기는 잘못된 특징점 대응을 최소화 하기 위해 각 깊이 계층과 인식 물체 영상간의 특징점 대응을 수행한다. 또한, 각 깊이 계층영역에서 색상 히스토그램 재투영으로 객체의 위치를 추정하고 추정 영역과 인식 물체 영상간의 생상 및 깊이 유사도를 판단한다. 최종적으로, 복잡 배경 효과를 최소화한 특징점 대응의 수, 색상 및 컬러 유사도를 고려하여 신뢰도를 측정하여 객체를 인식하게 되며, 이를 통해 복잡한 배경에서도 사용자와 객체간의 유연한 상호작용이 가능해진다.

Hierarchical Disparity Estimation for Image Synthesis in Stereo Mixed Reality (스테레오 혼합 현실 영상 합성을 위한 계층적 변이 추정)

  • 김한성;최승철;손광훈
    • Journal of Broadcast Engineering
    • /
    • v.7 no.3
    • /
    • pp.229-237
    • /
    • 2002
  • Natural synthesis of real and virtual images is a key technology in mixed reality. For this purpose, we propose an efficient dense disparity estimation algorithm and a synthesis algorithm considering features of stereo images. Dense disparities are estimated hierarchically from the low to high resolution images. In the process, the region-dividing-bidirectional-matching algorithm makes matching process efficient and keeps the reliability of the estimated disparities, and dense disparities are assigned considering edge information. finally, mixed reality stereo images are synthesized by comparing depth data of real and virtual Images. Computer simulation shows that the proposed algorithms estimate very stable disparity vectors with sharp edge and synthesize natural stereo mixed reality images.

Method for Determining Variable-Block Size of Depth Picture for Plane Coding (깊이 화면의 평면 부호화를 위한 가변 블록 크기 결정 방법)

  • Kwon, Soon-Kak;Lee, Dong-Seok
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.22 no.3
    • /
    • pp.39-47
    • /
    • 2017
  • The Depth Picture can be Encoded by the Plane Coding Mode that is the Method for Coding Mode by Considering a Part of the Picture as the Plane. In this Paper, we Propose the Method of Determining the Variable-sized Block for Variable Block Coding in the Plane Coding Mode for the Depth Picture. The Depth Picture Can be Encoded in the Plane Coding Through Estimating the Plane Which is Close to Pixels in the Block Using Depth Information. The Variable-sized Block Coding in the Plane Coding can be Applied as Follows. It Calculates the Prediction Error between Predicted Depths by the Plane Estimation and the Measured Depths. If Prediction Error is Below the Threshold, the Block is Encoded by Current Size. Otherwise, it Divides the Block and Repeats Above. If the Block is Divided Below the Minimum Size, the Block is not Encoded by the Plane Coding Mode. The Result of the Simulation of the Proposed Method Shows that the Number of Encoded Block is Reduced to 19% as Compared with the Method Using the Fixed-sized Block in the Depth Picture Composed of one Plane.

Depth Estimation and Intermediate View Synthesis for Three-dimensional Video Generation (3차원 영상 생성을 위한 깊이맵 추정 및 중간시점 영상합성 방법)

  • Lee, Sang-Beom;Lee, Cheon;Ho, Yo-Sung
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.34 no.10B
    • /
    • pp.1070-1075
    • /
    • 2009
  • In this paper, we propose new depth estimation and intermediate view synthesis algorithms for three-dimensional video generation. In order to improve temporal consistency of the depth map sequence, we add a temporal weighting function to the conventional matching function when we compute the matching cost for estimating the depth information. In addition, we propose a boundary noise removal method in the view synthesis operation. after finding boundary noise areas using the depth map, we replace them with corresponding texture information from the other reference image. Experimental results showed that the proposed algorithm improved temporal consistency of the depth sequence and reduced flickering artifacts in the virtual view. It also improved visual quality of the synthesized virtual views by removing the boundary noise.

Genetic Algorithm Based Feature Reduction For Depth Estimation Of Image (이미지의 깊이 추정을 위한 유전 알고리즘 기반의 특징 축소)

  • Shin, Sung-Sik;Gwun, Ou-Bong
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.48 no.2
    • /
    • pp.47-54
    • /
    • 2011
  • This paper describes the method to reduce the time-cost for depth estimation of an image by learning, on the basis of the Genetic Algorithm, the image's features. The depth information is estimated from the relationship among features such as the energy value of an image and the gradient of the texture etc. The estimation-time increases due to the large dimension of an image's features used in the estimating process. And the use of the features without consideration of their importance can have an adverse effect on the performance. So, it is necessary to reduce the dimension of an image's features based on the significance of each feature. Evaluation of the method proposed in this paper using benchmark data provided by Stanford University found that the time-cost for feature extraction and depth estimation improved by 60% and the accuracy was increased by 0.4% on average and up to 2.5%.

SINGLE PANORAMA DEPTH ESTIMATION USING DOMAIN ADAPTATION (도메인 적응을 이용한 단일 파노라마 깊이 추정)

  • Lee, Jonghyeop;Son, Hyeongseok;Lee, Junyong;Yoon, Haeun;Cho, Sunghyun;Lee, Seungyong
    • Journal of the Korea Computer Graphics Society
    • /
    • v.26 no.3
    • /
    • pp.61-68
    • /
    • 2020
  • In this paper, we propose a deep learning framework for predicting a depth map of a 360° panorama image. Previous works use synthetic 360° panorama datasets to train networks due to the lack of realistic datasets. However, the synthetic nature of the datasets induces features extracted by the networks to differ from those of real 360° panorama images, which inevitably leads previous methods to fail in depth prediction of real 360° panorama images. To address this gap, we use domain adaptation to learn features shared by real and synthetic panorama images. Experimental results show that our approach can greatly improve the accuracy of depth estimation on real panorama images while achieving the state-of-the-art performance on synthetic images.