• 제목/요약/키워드: Pixel error

검색결과 480건 처리시간 0.031초

구형물체의 중심좌표를 이용한 VLP-16 라이다 센서와 비전 카메라 사이의 보정 (Calibration of VLP-16 Lidar Sensor and Vision Cameras Using the Center Coordinates of a Spherical Object)

  • 이주환;이근모;박순용
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제8권2호
    • /
    • pp.89-96
    • /
    • 2019
  • 전방향 3차원 라이다 센서와 비전 카메라는 자동차나 드론 등의 자율주행기술 개발에 활용되고 있다. 한편 라이다 센서와 카메라 좌표계 사이의 변환 관계를 보정하기 위한 기존의 기술들은 특수한 보정물체를 제작하거나 보정물체의 크기가 큰 단점이 있다. 본 논문에서는 한 개의 구형물체를 사용하여 두 센서 사이의 기하보정을 간편하게 구현하는 방법을 소개한다. 구형 물체의 3차원 거리정보에서 RANSAC으로 네 개의 3차원 점을 선택하여 구의 중심좌표를 계산하고, 카메라 영상에서 물체의 2차원 중심점을 구하여 두 센서를 보정하였다. 구는 다양한 각도에서 영상을 획득하여도 항상 원형의 형상을 유지하기 때문에 데이터 획득 시 유리한 장점이 있다. 본 논문에서 제안하는 방법으로 약 2픽셀의 투영오차의 결과를 얻었고, 기존의 방법과의 비교실험을 통하여 제안 기술의 성능을 분석하였다.

콘볼루션 신경회로망을 이용한 능동펄스 식별 알고리즘 (Active pulse classification algorithm using convolutional neural networks)

  • 김근환;최승률;윤경식;이균경;이동화
    • 한국음향학회지
    • /
    • 제38권1호
    • /
    • pp.106-113
    • /
    • 2019
  • 본 논문은 능동소나 시스템이 비협동으로 운용될 경우 수신된 직접파로 부터 이를 탐지하여 식별하는 일련의 알고리즘을 제안하였다. 제안하는 알고리즘은 최근 다양한 분야에서 우수한 성능을 보여주고 있는 콘볼루션 신경회로망을 사용하였으며, 입력 데이터로 수신신호를 단시간 퓨리에 변환을 수행한 시간 주파수 분석 데이터를 사용하였다. 본 논문에서 사용한 콘볼루션 신경회로망의 구조는 두 개의 콘볼루션 계층과 풀링 계층을 사용하였으며, 출력층에 따라 데이터베이스 기반의 신경회로망과 펄스 특징인자 기반의 신경회로망을 설계하였다. 알고리즘의 성능을 검증하기 위해 실제 해상에서 수신한 3110개의 CW(Continuous Wave)펄스와 LFM(Linear Frequency Modulated) 펄스의 데이터를 가공하여 학습 데이터와 테스트 데이터를 구성하였다. 시뮬레이션을 수행한 결과 데이터베이스 기반의 신경회로망은 99.9 %의 정확도를 보였으며, 특징인자 기반의 신경회로망은 두 픽셀의 오차를 허용할 경우 약 96 %의 정확도를 보였다.

AR/VR 마이크로 디스플레이 환경을 고려한 JPEG-LS 플랫폼 개발 (A Development of JPEG-LS Platform for Mirco Display Environment in AR/VR Device.)

  • 박현문;장영종;김병수;황태호
    • 한국전자통신학회논문지
    • /
    • 제14권2호
    • /
    • pp.417-424
    • /
    • 2019
  • AR/VR 디바이스에서 무손실 이미지 압축을 위한 JPEG-LS(: LosSless) 코덱에서 SBT 기반 프레임 압축기술로 메모리와 지연을 줄이는 설계를 제안하였다. 제안된 JPEG 무손실 코덱은 주로 콘텍스트 모형화 및 업데이트, 픽셀과 오류 예측 그리고 메모리 블록으로 구성된다. 모든 블록은 실시간 영상처리를 위해 파이프라인 구조를 가지며, LOCO-I 압축 알고리즘에 SBT 코딩기반의 개선된 2차원 접근방식을 사용한다. 제시한 STB-FLC기법을 통해 Block-RAM 사이즈를 기존 유사연구보다 1/3로 줄이고 예측(prediction) 블록의 병렬 설계는 처리속도에 향상을 가져올 수 있었다.

랜덤 임펄스 잡음 환경에서 잡음추정에 기반한 스위칭 필터 (Switching Filter based on Noise Estimation in Random Value Impulse Noise Environments)

  • 천봉원;김남호
    • 한국정보통신학회논문지
    • /
    • 제27권1호
    • /
    • pp.54-61
    • /
    • 2023
  • IoT 기술과 인공지능의 발전에 따라 다양한 디지털 영상장비가 산업현장에서 사용되고 있다. 영상 데이터는 카메라 또는 센서에서 취득되는 과정 중 잡음에 훼손되기 쉬우며, 훼손된 영상은 영상처리 과정에서 악영향을 미치기 때문에 전처리 과정으로 잡음제거가 요구되고 있다. 본 논문에서는 랜덤 임펄스 잡음에 훼손된 영상을 복원하기 위해 잡음추정에 기반한 스위칭 필터 알고리즘을 제안하였다. 제안한 알고리즘은 영상의 국부마스크 내부의 화소값의 유사성에 따라 잡음추정과 에러 검출을 진행하였으며, 국부마스크에 존재하는 잡음 비율에 따라 필터를 선택하여 스위칭하였다. 제안하는 알고리즘의 잡음제거 성능을 분석하기 위해 시뮬레이션을 진행하였으며, 확대영상 및 PSNR 비교 결과 기존 방법에 비해 우수한 성능을 나타내었다.

드론 삼각측량에서 전문 소프트웨어의 공간정보 정확도 비교 분석 (Comparison and analysis of spatial information measurement values of specialized software in drone triangulation)

  • 박동주;최연성
    • 한국정보전자통신기술학회논문지
    • /
    • 제15권4호
    • /
    • pp.249-256
    • /
    • 2022
  • 드론 사진 측량의 경우 통상 상용 전문 SW인 Metashape, Pix4D Mapper, ContextCapture 및 간이 SW인 Global Mapper GIS의 "픽셀 to 포인트 도구" 모듈 등을 널리 사용하고 있다. 각 SW마다 고유의 항공 삼각측량법 해석에 대한 로직을 보유하고 있지만, 사용자가 SW를 선택하기 위해서는 지형공간정보의 좌표 값에 대한 비교 분석이 필요하다. 이를 위하여 드론 사진 측량을 위한 항공사진을 촬영하고, VRS-GPS 측량을 통하여 GCP 기준점 측량을 하여, 취득된 기초 데이터를 각 SW를 이용하여 데이터 처리를 한 후 정사 이미지과 DSM을 구축하고, GCP 기준점 측량 성과와 각 SW에서 취득된 정사 이미지 상의 GCP 대공표지의 중심점의 좌표(X,Y)및 DSM에 의한 GCP점의 높이 값(EL)을 비교했다. "공공측량 작업규정"에 따르면 각 SW의 결과치는 모두 오차범위 이내에 포함되어 어느 SW를 사용하더라도 규정에는 문제가 없는 것으로 판명되었다.

Deep survey using deep learning: generative adversarial network

  • Park, Youngjun;Choi, Yun-Young;Moon, Yong-Jae;Park, Eunsu;Lim, Beomdu;Kim, Taeyoung
    • 천문학회보
    • /
    • 제44권2호
    • /
    • pp.78.1-78.1
    • /
    • 2019
  • There are a huge number of faint objects that have not been observed due to the lack of large and deep surveys. In this study, we demonstrate that a deep learning approach can produce a better quality deep image from a single pass imaging so that could be an alternative of conventional image stacking technique or the expensive large and deep surveys. Using data from the Sloan Digital Sky Survey (SDSS) stripe 82 which provide repeatedly scanned imaging data, a training data set is constructed: g-, r-, and i-band images of single pass data as an input and r-band co-added image as a target. Out of 151 SDSS fields that have been repeatedly scanned 34 times, 120 fields were used for training and 31 fields for validation. The size of a frame selected for the training is 1k by 1k pixel scale. To avoid possible problems caused by the small number of training sets, frames are randomly selected within that field each iteration of training. Every 5000 iterations of training, the performance were evaluated with RMSE, peak signal-to-noise ratio which is given on logarithmic scale, structural symmetry index (SSIM) and difference in SSIM. We continued the training until a GAN model with the best performance is found. We apply the best GAN-model to NGC0941 located in SDSS stripe 82. By comparing the radial surface brightness and photometry error of images, we found the possibility that this technique could generate a deep image with statistics close to the stacked image from a single-pass image.

  • PDF

Application of deep convolutional neural network for short-term precipitation forecasting using weather radar-based images

  • Le, Xuan-Hien;Jung, Sungho;Lee, Giha
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2021년도 학술발표회
    • /
    • pp.136-136
    • /
    • 2021
  • In this study, a deep convolutional neural network (DCNN) model is proposed for short-term precipitation forecasting using weather radar-based images. The DCNN model is a combination of convolutional neural networks, autoencoder neural networks, and U-net architecture. The weather radar-based image data used here are retrieved from competition for rainfall forecasting in Korea (AI Contest for Rainfall Prediction of Hydroelectric Dam Using Public Data), organized by Dacon under the sponsorship of the Korean Water Resources Association in October 2020. This data is collected from rainy events during the rainy season (April - October) from 2010 to 2017. These images have undergone a preprocessing step to convert from weather radar data to grayscale image data before they are exploited for the competition. Accordingly, each of these gray images covers a spatial dimension of 120×120 pixels and has a corresponding temporal resolution of 10 minutes. Here, each pixel corresponds to a grid of size 4km×4km. The DCNN model is designed in this study to provide 10-minute predictive images in advance. Then, precipitation information can be obtained from these forecast images through empirical conversion formulas. Model performance is assessed by comparing the Score index, which is defined based on the ratio of MAE (mean absolute error) to CSI (critical success index) values. The competition results have demonstrated the impressive performance of the DCNN model, where the Score value is 0.530 compared to the best value from the competition of 0.500, ranking 16th out of 463 participating teams. This study's findings exhibit the potential of applying the DCNN model to short-term rainfall prediction using weather radar-based images. As a result, this model can be applied to other areas with different spatiotemporal resolutions.

  • PDF

국토관측위성용 정밀영상생성시스템의 위치정확도 분석 (Analysis of Geolocation Accuracy of Precision Image Processing System developed for CAS-500)

  • 이유진;박형준;김혜성;김태정
    • 대한원격탐사학회지
    • /
    • 제36권5_2호
    • /
    • pp.893-906
    • /
    • 2020
  • 본 논문은 국토관측위성용으로 제작된 정밀영상생성시스템의 위치정확도 분석에 대해서 보고한다. 국토관측위성의 발사 예정 시기는 2021년으로, 아직 발사되지 않아 국토관측위성과 유사한 사양을 가지는 KOMPSAT-3A 위성영상을 활용하여 분석하였다. 본 논문에서는 한반도를 촬영한 30장의 영상을 이용하여 초기센서모델의 위치정확도, 정밀센서모델의 모델점 위치정확도, 검사점을 활용한 정밀센서모델의 위치정확도, 정밀정사영상의 위치정확도에 대한 측정을 수행하였다. 본 연구는 정확한 GCP 확보 시 2 pixel 이내의 RMSE를 갖는 것을 목표 위치정확도로 한다. 그 결과, 검사점을 활용한 정밀센서모델의 위치정확도는 남한에서 약 1.85 pixel, 북한에서 약 2.04 pixel의 위치정확도를 갖는 것을 확인하였으며, 정밀정사영상의 위치정확도는 남한에서 약 1.15 m, 북한에서 약 3.23 m의 위치정확도를 갖는 것을 확인 할 수 있었다. 전반적으로 남한의 정확도에 비해 북한의 정확도가 낮은 것을 확인 할 수 있었으며, 이는 북한지역 영상의 GCP(Ground Control Point) 품질이 남한의 GCP 품질에 비해 좋지 않았기 때문에 측정된 정확도에 영향을 준 것으로 확인되었다. 또한, 특히 북한지역에서 정밀센서모델 대비 정밀정사영상의 정확도가 다소 떨어지는 것을 확인할 수 있었다. 이는 북한 영상의 정사보정 시 사용한 DTM의 정확도가 남한에 비해 좋지 않아 발생한 것으로 판단하였다. 향후 본 연구진이 제시한 원인 외, 위치정확도에 영향을 줄 수 있는 요인들에 대한 추가적인 연구가 이루어져야 할 것이다.

하늘상태와 음영기복도에 근거한 복잡지형의 일조시간 분포 상세화 (Downscaling of Sunshine Duration for a Complex Terrain Based on the Shaded Relief Image and the Sky Condition)

  • 김승호;윤진일
    • 한국농림기상학회지
    • /
    • 제18권4호
    • /
    • pp.233-241
    • /
    • 2016
  • 기상청에서 제공하는 넓은 지역의 수평면 일조시간 정보를 복잡한 산간집수역의 지형특성을 반영한 실제 일조시간 분포도로 변환하기 위해 지형효과를 정량화하기 위한 실험을 수행하였다. 경남 하동군 악양면 단일 집수역을 대상으로 정밀 DEM을 이용하여 그림자모형화 및 공제선분석 기법을 적용하여 일중 시간대별 음영기복도 1년 자료를 제작하였다. 2015년 5월 15일부터 2016년 5월 14일까지 1년 간 지형조건이 서로 다른 3지점에서 바이메탈식 일조계로 측정한 일조시간자료에 음영기복도 상 해당 지점의 휘도값을 추출하여 회귀시킴으로써 맑은 날의 휘도-일조시간 반응곡선을 얻었다. 이 곡선식을 하늘상태(운량)에 따라 보정할 수 있는 방법을 고안함으로써 일조시간 상세화 모형을 도출하였다. 이 모형의 신뢰도를 기존 수평면 일조시간 추정기법과 비교한 결과 추정값의 편의가 크게 개선된 것은 물론, 일적산일조시간 기준 RMSE가 1.7시간으로 지형효과를 반영하기 전보다 37% 이상 개선되었다. 어떤 지역을 대상으로 일조시간을 상세화 하기 위해서는 먼저 대상 지역의 매 시간 음영기복도의 격자점 휘도를 모형에 입력시켜 해당 시간대의 청천 일조시간을 추정한다. 다음에 같은 시간대의 기상청 동네예보(하늘상태)에 의해 구름 효과를 보정한다. 이렇게 추정된 매 시간 일조시간을 하루 단위로 적산하여 그 날의 누적 일조시간을 얻는다. 이 과정을 연구대상 집수역에 적용하여 수평 해상도 3m의 정밀한 일조시간 분포도를 얻을 수 있었다.

방사선수술치료계획 프로그램의 지시자 회전 오차 교정 기능 점검 (Verification of Indicator Rotation Correction Function of a Treatment Planning Program for Stereotactic Radiosurgery)

  • 정현태;이레나
    • Journal of Radiation Protection and Research
    • /
    • 제33권2호
    • /
    • pp.47-51
    • /
    • 2008
  • 목 적: 방사선수술에 사용되는 치료계획을 위한 정위 영상 획득 때 사용되는 표시기(indicator)의 회전에 의한 오차를 분석하고 이를 교정하는 소프트웨어의 기능을 점검하는 방법을 제시한다. 이 방법을 이용하여 상용 프로그램인 렉셀감마플랜의 회전 오차 기능을 점검한다. 대상 및 방법: 상용 프로그래밍 언어인 Interactive Data Language (version 5.5)를 이용하여 소프트웨어적으로 만든 정위 영상으로 가상 팬텀을 만들었다. 영상의 두께는 0.5 mm, 픽셀 크기 0.5 mm, 필드 크기 256 mm, 그리고 분해능은 $512{\times}512$이었다. 영상은 DICOM 3.0 표준을 따라서 렉셀감마플랜이 인식할 수 있도록 하였다. 회전 교정 기능 점검을 위하여 가상 팬텀의 중심에서 상하로 50 mm와 30 mm 떨어진 곳과 중앙에 위치한 횡단면 영상에 각각 50 mm 간격으로 측정점 9개를 만들어 총 45개의 측정점을 만들었다. 기준 가상 팬텀을 x, y, z축을 중심으로 각각 $3^{\circ}$ 회전한 영상, xy, yz, zx 축을 중심으로 각각 $3^{\circ}$씩 회전한 영상, xyz세 방향으로 모두 $3^{\circ}$씩 회전한 영상을 만들어서 회전에 의한 오차를 계산하고, 렉셀감마플랜의 교정 기능을 점검하였다. 결과: 가상 영상을 렉셀감마플랜에 입력하고 정위좌표를 정의할 때 영상에 의한 등록 오차는 $0.1{\pm}0.1mm$로써 방사선수술에서 요구하는 오차 내에 있었다. x, y, z축 중 1개 축을 중심으로 $3^{\circ}$ 회전할 때 가능한 최대 오차는 2.6mm, 2개 축을 중심으로 $3^{\circ}$씩 회전할 때는 3.7mm, 3개축 모두에 대해 $3^{\circ}$씩 회전할 때는 4.5 mm이다. 이에 대해 영상의 회전을 교정하여 렉셀감마플랜에서 측정한 측정점들의 변위는 1 개축을 중심으로 회전하였을 때 $0.1{\pm}0.1mm$, 2 개 축의 경우 $0.2{\pm}0.2mm$, 3개축의 경우 $0.2{\pm}0.2mm$로서 회전의 영향을 보정하는 기능이 정확하게 작동하고 있음을 확인할 수 있었다. 결론: 방사선수술 치료계획 프로그램의 여러 소프트웨어적 기능을 점검하기 위한 가상 팬텀을 만들고 상용프로그램의 회전 오차 교정 기능을 점검한 결과 정확하게 작동하고 있음을 확인하였다. 본 연구에서 작성한 가상 팬텀은 치료계획 프로그램의 다른 여러 기능들을 점검하는 데도 사용될 수 있을 것이다.