• 제목/요약/키워드: Image Pyramid

검색결과 197건 처리시간 0.025초

스테레오 영상과 준원근 카메라 모델을 이용한 객체의 3차원 형태 및 움직임 복원 (3D Object's shape and motion recovery using stereo image and Paraperspective Camera Model)

  • 김상훈
    • 정보처리학회논문지B
    • /
    • 제10B권2호
    • /
    • pp.135-142
    • /
    • 2003
  • 본 논문은 영상내 객체정보의 정확한 복원을 위하여, 연속된 2차원 영상으로부터 특정 객체의 특징점을 추출하고, 특징점의 위치 데이터들로부터 원형의 3차원 모양 및 모션 정보를 복원하는 알고리즘과 결과를 제시하였다. 2차원 영상의 특징점 검출을 위해서는 물체와 배경이 명확히 구별되는 실험영상 환경에서 색상변환을 통한 자동 추출 방법을 사용하였다. 추출된 2차원 객체의 특징점들로부터 3차원 모앙, 움직임 정보를 복원하기 위하여 스테레오 카메라와 준원근 카메라 모델을 적용하고 SVD(SinEuiar Value Decomposition)에 의한 인수분해연산을 수행하였다. 준원근 카메라 모델의 근본적인 문제인 깊이정보의 복원 에러가, 스테리오 영상 분석에 의해 최소화 되었다. 본 논문에서 제시된 방법들의 성능을 객관적으로 평가하기 위하여 크기와 위치가 알려진 3차원 물체에 대해 실험을 행하였으며, 영상의 21개 특징점 위치와 공간상에서의 3개 방향으로의 움직임 각도를 연산에 의해 복원한 후 원형의 데이터와 비교하여 본 알고리즘의 정확성을 증명하였다.

내부표정의 자동화를 위한 영역중심 영상정합기법 적용 (Application of Area Based Matching for the Automation of Interior Orientation)

  • 유복모;염재홍;김원대
    • 한국측량학회지
    • /
    • 제17권4호
    • /
    • pp.321-330
    • /
    • 1999
  • 본 연구는 수치사진측량학과 전산기 시각 분야의 연구를 통하여 발전하고 있는 영상정합기법을 적용하여 사진지표의 관측과 위치결정을 자동화하는데 목적이 있다. 이러한 자동화과정에서 주된 문제점은 계산을 수행하는데 있어서의 시간을 최소화하고 위치결정의 정확도를 높이는 것이다. 본 연구에서는 스캐닝과정과 기준점의 절대적인 위치를 구하는 과정을 제외하고 영상 정합기법과 영상처리 기법을 이용하여 내부표정 과정을 자동화하였다. 본 연구에 의해서 개발된 체계를 근거리사진측량에 의한 결과를 적용하였으며 결과를 분석한 결과 최대 54%까지 계산시간이 절감되었다. 내부표정과정동안 사진지표의 관측에 대해서, Laplacian of Gaussian 변환과 휴 변환을 각각 영상의 중심점의 정확한 결정을 위하여 적용하였으며, 상관계수영상정합과 최소제곱 영상정합기법을 사진지표의 정확한 위치결정을 위하여 사용하였다. 영상피라미드의 개념을 사진지표의 자동 관측과정에 적용하여 계산시간을 절감할 수 있었다.

  • PDF

Joint Reasoning of Real-time Visual Risk Zone Identification and Numeric Checking for Construction Safety Management

  • Ali, Ahmed Khairadeen;Khan, Numan;Lee, Do Yeop;Park, Chansik
    • 국제학술발표논문집
    • /
    • The 8th International Conference on Construction Engineering and Project Management
    • /
    • pp.313-322
    • /
    • 2020
  • The recognition of the risk hazards is a vital step to effectively prevent accidents on a construction site. The advanced development in computer vision systems and the availability of the large visual database related to construction site made it possible to take quick action in the event of human error and disaster situations that may occur during management supervision. Therefore, it is necessary to analyze the risk factors that need to be managed at the construction site and review appropriate and effective technical methods for each risk factor. This research focuses on analyzing Occupational Safety and Health Agency (OSHA) related to risk zone identification rules that can be adopted by the image recognition technology and classify their risk factors depending on the effective technical method. Therefore, this research developed a pattern-oriented classification of OSHA rules that can employ a large scale of safety hazard recognition. This research uses joint reasoning of risk zone Identification and numeric input by utilizing a stereo camera integrated with an image detection algorithm such as (YOLOv3) and Pyramid Stereo Matching Network (PSMNet). The research result identifies risk zones and raises alarm if a target object enters this zone. It also determines numerical information of a target, which recognizes the length, spacing, and angle of the target. Applying image detection joint logic algorithms might leverage the speed and accuracy of hazard detection due to merging more than one factor to prevent accidents in the job site.

  • PDF

Visual Model of Pattern Design Based on Deep Convolutional Neural Network

  • Jingjing Ye;Jun Wang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권2호
    • /
    • pp.311-326
    • /
    • 2024
  • The rapid development of neural network technology promotes the neural network model driven by big data to overcome the texture effect of complex objects. Due to the limitations in complex scenes, it is necessary to establish custom template matching and apply it to the research of many fields of computational vision technology. The dependence on high-quality small label sample database data is not very strong, and the machine learning system of deep feature connection to complete the task of texture effect inference and speculation is relatively poor. The style transfer algorithm based on neural network collects and preserves the data of patterns, extracts and modernizes their features. Through the algorithm model, it is easier to present the texture color of patterns and display them digitally. In this paper, according to the texture effect reasoning of custom template matching, the 3D visualization of the target is transformed into a 3D model. The high similarity between the scene to be inferred and the user-defined template is calculated by the user-defined template of the multi-dimensional external feature label. The convolutional neural network is adopted to optimize the external area of the object to improve the sampling quality and computational performance of the sample pyramid structure. The results indicate that the proposed algorithm can accurately capture the significant target, achieve more ablation noise, and improve the visualization results. The proposed deep convolutional neural network optimization algorithm has good rapidity, data accuracy and robustness. The proposed algorithm can adapt to the calculation of more task scenes, display the redundant vision-related information of image conversion, enhance the powerful computing power, and further improve the computational efficiency and accuracy of convolutional networks, which has a high research significance for the study of image information conversion.

신경망 기반의 텍스처 분류기를 이용한 스크래치 검출 (Film Line Scratch Detection using a Neural Network based Texture Classifier)

  • 김경태;김은이
    • 전자공학회논문지CI
    • /
    • 제43권6호
    • /
    • pp.26-33
    • /
    • 2006
  • 영화복원은 오래된 필름으로부터 손상된 영역을 자동으로 검출하여 복원하는 것이다. 영화복원은 고화질의 멀티미디어 서비스를 위한 필수작업이기 때문에, 현재 많은 연구자들로부터 관심을 받고 있다. 필름은 flick, dust, 스크래치 등의 원인으로 손상이 이루어지는데, 이 중 가장 주된 요인은 스크래치이다. 스크래치로 손상된 데이터의 복원연구는 지난 몇 년간 활발히 수행되고 있다. 스크래치 복원을 위해서는 위치 및 길이 등의 기준에 따라 나타나는 다양한 종류의 스크래치들을 모두 검출할 수 있어야만 한다. 본 논문에서는 영화의 각 프레임 상에 나타나는 다양한 종류의 모든 스크래치를 자동으로 검출할 수 있는 신경망 기반의 검출 방법을 제안한다. 다양한 높이와 폭을 가진 스크래치들을 검출하기 위해 pyramid를 이용하여 입력 영상은 다양한 해상도의 영상으로 변환된다. 각 변환된 영상에 대하여 신경망기반의 텍스처 분류기를 이용하여 스크래치와 비스크래치의 영역으로 분류한다. 이때, 처리속도의 향상을 위해 에지로 분류된 화소에 대하여만 신경망을 적용한다. 제안된 방법의 평가를 위해 다양한 종류의 스크래치를 가진 영화 및 애니메이션 데이터에 대해 실험이 이루어졌고, 그 결과, 제안된 방법의 강건함과 효율성이 입증되었다.

계층적 리샘플링 및 자기교차방지 운동성을 이용한 변형 모델 (Deformable Model using Hierarchical Resampling and Non-self-intersecting Motion)

  • 박주영
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제29권11호
    • /
    • pp.589-600
    • /
    • 2002
  • 변형 모델은 볼륨영상으로부터 관심 대상 객체의 3차원적 경계면 구조 추출을 위해 효과적인 접근 방법을 제공한다. 그러나, 기존 변형 모델은 초기 조건에 민감하고, 심한 함몰 및 돌출 부위를 가지는 복잡한 경계면을 잘 표현하지 못하면, 모델 내 구성 요소들 간에 자기교차를 일으킬 수 있는 세가지 주요 제한점이 있다. 본 논문에서는 기존 변형 모델이 갖는 이러한 제한점을 개선함으로써 복잡한 기하학적 표면 형태를 가지는 객체의 경계면 추출에 효과적인 변형 모델을 제안한다. 첫째, 제안 변형 모델은 다해상도 볼륨영상 피라미드를 기반으로 모델구성 요소들을 계층적으로 리샘플링한다. 이 접근은 객체의 경계면을 멀티스케일 방식으로 추출함으로써 초기화에의 의존성을 극복할 뿐 아니라, 모델 구성 요소들의 크기를 복셀 크기에 따라 항상 균일하게 유지함으로써 모델이 영상의 복잡한 특성 정보에 따라 유동적으로 변형될 수 있게 한다. 둘째, 제안 변형 모델은 기존 모델에서 가지는 내력과 외력 외에 자기교차방지력을 포함한다. 자기교차방지력은 제한 거리 이내로 근접한 비인접 모델구성 요소들간에 척력을 적용함으로써 자기교차를 사전에 방지한 수 있게 한다. 본 논문에서는 다양한 합성 볼륨영상 및 뇌 MR 볼륨영상에 대한 실험을 통해서 제안 모델이 초기화 위치에 의존하지 않고 자기교차 없이 복잡한 함몰 및 돌출 경계면 구조를 성공적으로 추출한 결과를 보인다.

딥러닝 기반의 Multi Scale Attention을 적용한 개선된 Pyramid Scene Parsing Network (Modified Pyramid Scene Parsing Network with Deep Learning based Multi Scale Attention)

  • 김준혁;이상훈;한현호
    • 한국융합학회논문지
    • /
    • 제12권11호
    • /
    • pp.45-51
    • /
    • 2021
  • 딥러닝의 발전으로 인하여 의미론적 분할 방법은 다양한 분야에서 연구되고 있다. 의료 영상 분석과 같이 정확성을 요구하는 분야에서 분할 정확도가 떨어지는 문제가 있다. 본 논문은 의미론적 분할 시 특징 손실을 최소화하기 위해 딥러닝 기반 분할 방법인 PSPNet을 개선하였다. 기존 딥러닝 기반의 분할 방법은 특징 추출 및 압축 과정에서 해상도가 낮아져 객체에 대한 특징 손실이 발생한다. 이러한 손실로 윤곽선이나 객체 내부 정보에 손실이 발생하여 객체 분류 시 정확도가 낮아지는 문제가 있다. 이러한 문제를 해결하기 위해 의미론적 분할 모델인 PSPNet을 개선하였다. 기존 PSPNet에 제안하는 multi scale attention을 추가하여 객체의 특징 손실을 방지하였다. 기존 PPM 모듈에 attention 방법을 적용하여 특징 정제 과정을 수행하였다. 불필요한 특징 정보를 억제함으로써 윤곽선 및 질감 정보가 개선되었다. 제안하는 방법은 Cityscapes 데이터 셋으로 학습하였으며, 정량적 평가를 위해 분할 지표인 MIoU를 사용하였다. 실험을 통해 기존 PSPNet 대비 분할 정확도가 약 1.5% 향상되었다.

DTM GENERATION OF RADARSAT AND SPOT SATELLITE IMAGERY USING GROUND CONTROL POINTS EXTRACTED FROM SAR IMAGE

  • PARK DOO-YOUL;KIM JIN-KWANG;LEE HO-NAM;WON JOONG-SUN
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2005년도 Proceedings of ISRS 2005
    • /
    • pp.667-670
    • /
    • 2005
  • Ground control points(GCPs) can be extracted from SAR data given precise orbit for DTM generation using optic images and other SAR data. In this study, we extract GCPs from ERS SAR data and SRTM DEM. Although it is very difficult to identify GCPs in ERS SAR image, the geometry of optic image and other SAR data are able to be corrected and more precise DTM can be constructed from stereo optic images. Twenty GCPs were obtained from the ERS SAR data with precise Delft orbit information. After the correction was applied, the mean values of planimetric distance errors of the GCPs were 3.7m, 12.1 and -0.8m with standard deviations of 19.9m, 18.1, and 7.8m in geocentric X, Y, and Z coordinates, respectively. The geometries of SPOT stereo pair were corrected by 13 GCPs, and r.m.s. errors were 405m, 705m and 8.6m in northing, easting and height direction, respectively. And the geometries of RADARS AT stereo pair were corrected by 12 GCPs, and r.m.s. errors were 804m, 7.9m and 6.9m in northing, easting and height direction, respectively. DTMs, through a method of area based matching with pyramid images, were generated by SPOT stereo images and RADARS AT stereo images. Comparison between points of the obtained DTMs and points estimated from a national 1 :5,000 digital map was performed. For DTM by SPOT stereo images, the mean values of distance errors in northing, easting and height direction were respectively -7.6m, 9.6m and -3.1m with standard deviations of 9.1m, 12.0m and 9.1m. For DTM by RADARSAT stereo images, the mean values of distance errors in northing, easting and height direction were respectively -7.6m, 9.6m and -3.1m with standard deviations of 9.1m, 12.0m and 9.1m. These results met the accuracy of DTED level 2

  • PDF

후보영역의 밝기 분산과 얼굴특징의 삼각형 배치구조를 결합한 얼굴의 자동 검출 (Automatic Face Extraction with Unification of Brightness Distribution in Candidate Region and Triangle Structure among Facial Features)

  • 이칠우;최정주
    • 한국멀티미디어학회논문지
    • /
    • 제3권1호
    • /
    • pp.23-33
    • /
    • 2000
  • 본 논문에서는 복잡한 배경으로부터 자연스런 상태로 촬영된 얼굴들을 검출하는 알고리듬에 대해 기술한다. 이 방법은 얼굴영역이 적당한 크기의 블록내에서는 비교적 비슷한 밝기는 지닌다는 점에 착안하였다. 이 사실을 근거로, 먼저 영상을 계층적으로 블록화하고, 블록들의 밝기가 서로 비슷한 영역을 신속히 얼굴후보로 선택하여, 후보영역내에서 구체적인 얼굴특징을 찾는 단계적 처리방법을 도입하였다. 후보영역내의 구체적인 특징추출을 위해서 어둡고 좁은 영역을 강조하는 국소 휘도치 변환법을 사용하였으며 최종 판단을 위해서는 얼굴의 각 기관이 갖는 삼각형의 배치구조를 제약으로 사용하였다. 매우 간단한 방법으로 얼굴영역을 처리하였기 때문에 특징점들을 추출할 때 생기는 파라메터 설정문제를 피할수 있고 그 결과 파라메터값에 크게 의존하지 않는 안정된 시스템 구현이 가능하다.

  • PDF

영상 스티칭 관점에서 SIFT 특징점 추출시간 감소를 위한 파라미터 분석 (Parameter Analysis for Time Reduction in Extracting SIFT Keypoints in the Aspect of Image Stitching)

  • 문원준;서영호;김동욱
    • 방송공학회논문지
    • /
    • 제23권4호
    • /
    • pp.559-573
    • /
    • 2018
  • 최근 가상현실(VR, Virtual Reality) 등 가장 많은 분야에서 가장 활발히 응용되고 있는 영상매체 중 하나가 전방위 영상 또는 파노라마 영상이다. 이 영상은 다양한 방법으로 획득된 영상들을 스티칭하여 생성하는데, 그 과정에서 스티칭에 필요한 특징점들을 추출하는데 가장 많은 시간이 소요된다. 이에 본 논문은 현재 가장 널리 사용되고 있는 SIFT 특징점을 추출하는 연산시간을 감소하는 것에 목적을 두고 SIFT 특징점들을 추출에 관여하는 파라미터들을 분석한다. 본 논문에서 고려하는 파라미터는 가우시안 필터링에 사용되는 가우시안 커널의 초기 표준편차, 국소극점을 추출하기 위한 가우시안 차영상군의 수, 그리고 옥타브 수의 세 가지이다. SIFT 알고리즘으로는 이 알고리즘을 제안한 Lowe 방식과 컨볼루션 캐스캐이드(convolution cascade) 방식인 Hess 방식을 고려한다. 먼저 각 파라미터 값이 연산시간에 미치는 영향을 분석하고, 실제 스티칭 실험을 수행하여 각 파라미터가 스티칭 성능에 미치는 영향을 분석한다. 마지막으로 두 분석결과를 토대로 성능저하 없이 연산시간을 최소로 하는 파라미터 값들을 추출한다.