• 제목/요약/키워드: Pixel error

검색결과 480건 처리시간 0.026초

픽셀 단위의 정밀한 방향성 보간을 이용한 공간적 에러 은닉 기법 (A Spatial Error Concealment Using Pixelwise Fine Directional Interpolation)

  • 김원기;구자성;진순종;정제창
    • 한국통신학회논문지
    • /
    • 제32권2C호
    • /
    • pp.124-131
    • /
    • 2007
  • 본 논문에서는 전송 에러로 인해 발생하는 영상의 손실을 정밀한 방향성 보간(FDI: Fine Directional Interpolation)을 이용하여 복원하는 기법을 제안한다. 제안된 알고리즘은 공간 방향 벡터(SDV: Spatial Direction Vector)를 도입한다. 공간 방향 벡터는 손실블럭 주위의 영상 데이터의 에지 정보를 추출하여 구한다. 이 후 손실된 영상 블록은 공간 방향 벡터를 이용하여 픽셀단위로 적응적으로 보간함으로써 복원된다. 이러한 방식은 평탄한 영역뿐만 아니라 에지를 포함한 복잡한 영역도 우수하게 복원할 수 있다. 실험결과 제안된 방식은 기존의 공간적 에러은닉 방법과 비교하여 성능이 우수하다는 것을 알 수 있다.

Development of a Camera Self-calibration Method for 10-parameter Mapping Function

  • Park, Sung-Min;Lee, Chang-je;Kong, Dae-Kyeong;Hwang, Kwang-il;Doh, Deog-Hee;Cho, Gyeong-Rae
    • 한국해양공학회지
    • /
    • 제35권3호
    • /
    • pp.183-190
    • /
    • 2021
  • Tomographic particle image velocimetry (PIV) is a widely used method that measures a three-dimensional (3D) flow field by reconstructing camera images into voxel images. In 3D measurements, the setting and calibration of the camera's mapping function significantly impact the obtained results. In this study, a camera self-calibration technique is applied to tomographic PIV to reduce the occurrence of errors arising from such functions. The measured 3D particles are superimposed on the image to create a disparity map. Camera self-calibration is performed by reflecting the error of the disparity map to the center value of the particles. Vortex ring synthetic images are generated and the developed algorithm is applied. The optimal result is obtained by applying self-calibration once when the center error is less than 1 pixel and by applying self-calibration 2-3 times when it was more than 1 pixel; the maximum recovery ratio is 96%. Further self-correlation did not improve the results. The algorithm is evaluated by performing an actual rotational flow experiment, and the optimal result was obtained when self-calibration was applied once, as shown in the virtual image result. Therefore, the developed algorithm is expected to be utilized for the performance improvement of 3D flow measurements.

Matching Performance Analysis of Upsampled Satellite Image and GCP Chip for Establishing Automatic Precision Sensor Orientation for High-Resolution Satellite Images

  • Hyeon-Gyeong Choi;Sung-Joo Yoon;Sunghyeon Kim;Taejung Kim
    • 대한원격탐사학회지
    • /
    • 제40권1호
    • /
    • pp.103-114
    • /
    • 2024
  • The escalating demands for high-resolution satellite imagery necessitate the dissemination of geospatial data with superior accuracy.Achieving precise positioning is imperative for mitigating geometric distortions inherent in high-resolution satellite imagery. However, maintaining sub-pixel level accuracy poses significant challenges within the current technological landscape. This research introduces an approach wherein upsampling is employed on both the satellite image and ground control points (GCPs) chip, facilitating the establishment of a high-resolution satellite image precision sensor orientation. The ensuing analysis entails a comprehensive comparison of matching performance. To evaluate the proposed methodology, the Compact Advanced Satellite 500-1 (CAS500-1), boasting a resolution of 0.5 m, serves as the high-resolution satellite image. Correspondingly, GCP chips with resolutions of 0.25 m and 0.5 m are utilized for the South Korean and North Korean regions, respectively. Results from the experiment reveal that concurrent upsampling of satellite imagery and GCP chips enhances matching performance by up to 50% in comparison to the original resolution. Furthermore, the position error only improved with 2x upsampling. However,with 3x upsampling, the position error tended to increase. This study affirms that meticulous upsampling of high-resolution satellite imagery and GCP chips can yield sub-pixel-level positioning accuracy, thereby advancing the state-of-the-art in the field.

스테레오 비전에서 향상된 적응형 퍼지 칼만 필터를 이용한 거리 추정 기법 (Distance Estimation Method using Enhanced Adaptive Fuzzy Strong Tracking Kalman Filter Based on Stereo Vision)

  • 임영철;이충희;권순;이종훈
    • 전자공학회논문지SC
    • /
    • 제45권6호
    • /
    • pp.108-116
    • /
    • 2008
  • 본 논문에서는 스테레오 비전에서 시차를 이용하여 근거리뿐만 아니라 원거리의 장애 물체에 대해서도 신뢰성 있는 거리를 추정하기 위한 알고리즘을 제안한다. 시차를 이용한 거리 측정에서 양자화 오차는 원거리에서의 거리 정확도를 떨어뜨리게 되므로, 이를 최소화하기 위해 부화소 보간법(sub-pixel interpolation)을 이용하여 시차 정확도를 향상시키고 거리 정확도 및 경로 추적의 최적화를 위해서 향상된 적응형 퍼지 칼만 필터(EAFSTKF : Enhanced Adaptive Fuzzy Strong Tracking Kalman Filter)를 사용한다. 제안한 방법은 차량과 같이 다양한 동적인 움직임에 의한 비선형성에 대하여 기존 칼만 필터에서 발생되는 발산 문제(divergence problem)를 해결할 수 있고, 거리의 정확도 및 신뢰도도 높일 수 있다. 몬테카를로(Monte Carlo) 방법을 이용한 모의실험 결과 제안한 방법은 기존 방법들과 거리 오차율(RMSER : Root Mean Square Error Rate)을 비교하였을 때, strong tracking Kalman filter(STKF)에 비하여 성능이 약 13.5%정도 향상되었음을 보여준다.

H.264 인트라 프레임에서 방해함수를 이용한 적응적 보간 (Adaptive Interpolation for Intra Frames in H.264 Using Interference Function)

  • 박미선;유재명;;김지수;손화정;이귀상
    • 한국콘텐츠학회논문지
    • /
    • 제6권10호
    • /
    • pp.107-113
    • /
    • 2006
  • H.264의 인트라 프레임 에러복원기법은 상하좌우 인접한 블록의 픽셀을 사용하여 거리의 가중치 평균값으로 손실된 블록을 복원한다. H.264의 인트라 프레임 에러복원기법은 주변블록 픽셀의 간단한 평균값을 이용하여 복원하므로 심각한 블러링 현상이 발생하고 화질 저하의 문제를 야기한다. 이를 개선하기 위하여 본 논문에서는 주변블록의 픽셀 정보를 이용하여 손실된 블록의 주된 에지 방향을 추정하고, 통계값을 이용한 방해함수의 결과 값으로 에지 방향 기반의 보간법과 가중치 평균 보간법을 적응적으로 선택하여 복원하는 방법을 제안한다. 에지방향 기반의 보간법에서는 선택된 주된 에지방향과 상하좌우 각각의 주변블록의 에지방향들 간의 상호관계를 고려함으로써 최종적으로 최적 에지 방향을 선택하여 성능을 향상시킨다. 제안된 방법은 영상에 따라 H.264 에러복원기법보다 객관적인 화질이 $0.5{\sim}2.0dB$ 정도의 PSNR 향상을 보였다.

  • PDF

지향각 명령 오차를 고려한 망원경 탐지 성능 분석 (Detection Performance Analysis of the Telescope considering Pointing Angle Command Error)

  • 이호진;이상욱
    • 한국정보통신학회논문지
    • /
    • 제21권1호
    • /
    • pp.237-243
    • /
    • 2017
  • 본 논문에서는 인공위성을 비롯한 우주물체 관측 및 감시를 위한 전자광학 관측 장비인 망원경의 탐지 성능에 대한 분석을 수행한다. M&S(Modeling & Simulation)를 통한 분석을 위해, 위성 궤도 모델, 망원경 모델, 그리고 지구 대기 모델을 구현하고, 위성을 관측하는 탐지 시나리오를 구성한다. 탐지 시나리오를 바탕으로 지향각 명령 오차를 적용하여 망원경 주요 사양인 시야각(Field of View, FOV)에 따른 지향 성능을 분석하고, 신호대잡음비(Signal-to-Noise Ratio, SNR)를 통해 탐지 여부를 판별하여 검출기 화소수와 시야각(FOV)에 따른 탐지 성능을 분석한다. 본 논문의 M&S 분석 결과는 망원경 시야각(FOV)이 상대적으로 클수록 지향각 명령 오차가 존재하더라도 지향 성능은 좋지만, 대기 환경의 영향으로 화소수가 높고 망원경 시야각(FOV)이 작을수록 탐지 성능이 높아짐을 보여준다. 그래서 시야각(FOV)과 화소수 등의 망원경 주요 사양은 본 논문에서 수행한 M&S 분석 결과 및 종합적인 운용 상황을 고려하여 결정해야 한다.

템플릿 매칭과 부분 워핑을 이용한 효율적인 원근 영상 워핑 기법 (Efficient Image Warping Mechanism Using Template Matching and Partial Warping)

  • 정대헌;조태훈
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2017년도 춘계학술대회
    • /
    • pp.339-342
    • /
    • 2017
  • 이미지의 기하학적 변형은 이미지 보정을 위해 사용되며 컴퓨터 비전 분야에서 강체 변환, 유사변환 등 많은 방법이 존재한다. 그 중에서도 워핑은 원근감이 있는 이미지에서 많이 활용되는 이미지 보정 방법이다. 일반적으로 워핑을 수행하기 위해서는 워핑할 위치에 대한 특징 점 4개를 추출해 워핑을 수행한다. 그러나 워핑 지점을 정확한 추출이 어려우며, 추출된 4개의 점을 이용해 원근 영상 보정을 할 경우 원본 이미지와 보정 후 영상과의 특정 부분 픽셀이 3~4픽셀 이상으로 오차가 나타나게 된다. 그렇기 때문에 본 논문에서는 정확한 워핑 결과를 가져오기 위해 템플릿 매칭을 이용해 워핑 할 부분의 4개점을 보다 정확하게 추출하고, 추출된 4개점들 중 2개의 점 각각에 대해 주변 3 by 3 영역으로 점을 이동 시켜 총 81번의 반복을 워핑 통해 이미지 보정하는 형태이다. 이와 같이 2개의 점을 주변 3 by 3 위치로 이동 시키면서 오차 픽셀이 1픽셀 이하로 나는 최적의 위치 즉, 최적 결과를 가져오는 4개의 점을 선정한 후 그 점들로 이미지 보정을 진행하여 최적의 결과를 가져올 수 있다.

  • PDF

Adaptive Hyperspectral Image Classification Method Based on Spectral Scale Optimization

  • Zhou, Bing;Bingxuan, Li;He, Xuan;Liu, Hexiong
    • Current Optics and Photonics
    • /
    • 제5권3호
    • /
    • pp.270-277
    • /
    • 2021
  • The adaptive sparse representation (ASR) can effectively combine the structure information of a sample dictionary and the sparsity of coding coefficients. This algorithm can effectively consider the correlation between training samples and convert between sparse representation-based classifier (SRC) and collaborative representation classification (CRC) under different training samples. Unlike SRC and CRC which use fixed norm constraints, ASR can adaptively adjust the constraints based on the correlation between different training samples, seeking a balance between l1 and l2 norm, greatly strengthening the robustness and adaptability of the classification algorithm. The correlation coefficients (CC) can better identify the pixels with strong correlation. Therefore, this article proposes a hyperspectral image classification method called correlation coefficients and adaptive sparse representation (CCASR), based on ASR and CC. This method is divided into three steps. In the first step, we determine the pixel to be measured and calculate the CC value between the pixel to be tested and various training samples. Then we represent the pixel using ASR and calculate the reconstruction error corresponding to each category. Finally, the target pixels are classified according to the reconstruction error and the CC value. In this article, a new hyperspectral image classification method is proposed by fusing CC and ASR. The method in this paper is verified through two sets of experimental data. In the hyperspectral image (Indian Pines), the overall accuracy of CCASR has reached 0.9596. In the hyperspectral images taken by HIS-300, the classification results show that the classification accuracy of the proposed method achieves 0.9354, which is better than other commonly used methods.

점진적인 화소 확장에 의한 선분 추출 (Detecting Line Segment by Incremental Pixel Extension)

  • 이재광;박창준
    • 한국멀티미디어학회논문지
    • /
    • 제11권3호
    • /
    • pp.292-300
    • /
    • 2008
  • 본 논문에서는 점진적인 화소 확장을 이용하여 영상 내에 존재하는 선분을 찾아내는 선분 추출 알고리즘을 제안한다. 본 논문에서 제안하는 선분 추출 방법에서는 기존의 선분 추출 방법인 허프 변환 기반 방법이나 선분의 그룹화 기반 방법과는 다른 접근법을 사용하였다. 영상이 입력되면 케니 테두리를 구하고, 테두리 화소 중 임의의 점을 선택하여 선분을 근사화 시킨 기본 직선을 만든 후, 선택된 점에서 임의의 반경 내에 있는 테두리 화소들을 선택한다. 직선과의 거리 오차와 기울기 각의 오차를 이용하여 선택된 화소에 가중치를 부여한다. 가중치 합 비교에 의해 선택된 화소들이 떨어져 있는지를 판별한 후, 가중치를 적용한 최소자승법에 의해 선 맞춤을 하여 선분을 구하게 된다. 제안된 알고리즘은 기존에 제안된 방법들과 결과를 비교하였으며, 계산 속도가 빠르면서 실제 존재하는 선분 추출이 가능하다는 것을 실험 결과를 통해 제시한다.

  • PDF

ESTIMATION OF ERRORS IN THE TRANSVERSE VELOCITY VECTORS DETERMINED FROM HINODE/SOT MAGNETOGRAMS USING THE NAVE TECHNIQUE

  • Chae, Jong-Chul;Moon, Yong-Jae
    • 천문학회지
    • /
    • 제42권3호
    • /
    • pp.61-69
    • /
    • 2009
  • Transverse velocity vectors can be determined from a pair of images successively taken with a time interval using an optical flow technique. We have tested the performance of the new technique called NAVE (non-linear affine velocity estimator) recently implemented by Chae & Sakurai using real image data taken by the Narrowband Filter Imager (NFI) of the Solar Optical Telescope (SOT) aboard the Hinode satellite. We have developed two methods of estimating the errors in the determination of velocity vectors, one resulting from the non-linear fitting ${\sigma}_{\upsilon}$ and the other ${\epsilon}_u$ resulting from the statistics of the determined velocity vectors. The real error is expected to be somewhere between ${\sigma}_{\upsilon}$ and ${\epsilon}_u$. We have investigated the dependence of the determined velocity vectors and their errors on the different parameters such as the critical speed for the subsonic filtering, the width of the localizing window, the time interval between two successive images, and the signal-to-noise ratio of the feature. With the choice of $v_{crit}$ = 2 pixel/step for the subsonic filtering, and the window FWHM of 16 pixels, and the time interval of one step (2 minutes), we find that the errors of velocity vectors determined using the NAVE range from around 0.04 pixel/step in high signal-to-noise ratio features (S/N $\sim$ 10), to 0.1 pixel/step in low signa-to-noise ratio features (S/N $\sim$ 3) with the mean of about 0.06 pixel/step where 1 pixel/step corresponds roughly to 1 km/s in our case.