• Title/Summary/Keyword: 색상 왜곡

Search Result 92, Processing Time 0.026 seconds

CCD image Haze Removal using DCP based on Automatic Color Enhancement (자동 색상보정 기반의 DCP를 이용한 CCD 영상에서의 안개제거 기법)

  • Shin, Do-Kyung;Kim, Jae-Kyung;Kwon, Cheol-Hee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2016.10a
    • /
    • pp.658-660
    • /
    • 2016
  • 최근 디지털 기술의 발달로 인하여 실외 환경에서 획득된 영상은 민수분야 및 군사분야 등과 같이 다양한 목적에 따라 활용되는 분야의 폭이 넓어지고 있다. 교통정보 수집장치, 차량 블랙박스, 산불 및 지진관측, 선락/해안경비 감시, 국경 및 군사표적이동 감시 등의 목적에 의해 촬영된 영상들은 대부분 획득된 영상을 통해서 분석 및 판독의 과정을 거쳐서 각 원하는 정보 획득에 목적을 두고 있다. 하지만 실외에서 촬영된 영상은 실내에서 촬영된 영상에 비해서 기상에 따른 환경적인 요인에 노출이 쉽게 됨으로써 영상에 대한 화질 저하가 발생하는 문제점이 존재한다. 본 논문에서는 화질저하의 원인이 되는 다양한 요인 중에서도 대기중에 존재하는 먼지, 물방울 연무, 안개, 연기 등으로 인해 빛이 산란됨으로써 밝기 값을 왜곡시키는 문제점에 대한 해결 방법을 제안한다.

Enhancement of haze removal using transmission compensation (전달량 보정을 통한 영상의 안개제거 개선)

  • An, Jin-Woo;Han, Eui-Hwan;Han, Sang-Il;Cha, Hyung-Tai
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2012.11a
    • /
    • pp.148-150
    • /
    • 2012
  • 외부 환경에 안개가 존재하는 경우, 영상처리의 다양한 알고리즘을 사용하기 어렵다. 이때 안개가 짙은 정도인 전달량을 이용하여 안개를 제거한다. 안개 제거를 위한 대표적인 방법 중 하나인 Dark Channel Prior 알고리즘은 영상의 색 정보를 이용하여 안개의 전달량을 예상한다. 하지만 RGB 전 채널 모두 높은 값을 갖고 있는 영역이, 전달량을 찾는 마스크보다 클 때 전달량을 잘못 예상하게 된다. 본 논문에서는 영상의 edge 정보를 이용하여 영상의 안개가 짙은 정도에 따라 영역을 분할 후 잘못 예상된 전달량을 보정하는 방법을 제안한다. 잘못된 전달량 예상을 통해 색이 왜곡되는 부분을 제거함으로서 기존의 알고리즘과 비교하여 영상 내의 색상이 자연스럽게 안개가 제거된 결과를 얻었다.

  • PDF

System Implementation for Generating Virtual View Digital Holographic using Vertical Rig (수직 리그를 이용한 임의시점 디지털 홀로그래픽 생성 시스템 구현)

  • Koo, Ja-Myung;Lee, Yoon-Hyuk;Seo, Young-Ho;Kim, Dong-Wook
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2012.11a
    • /
    • pp.46-49
    • /
    • 2012
  • 본 논문에서는 3차원 입체 비디오처리 기술의 최종목표인 디지털 홀로그램을 생성하는데 필요한 객체의 좌표와 색상정보가 들어있는 같은 시점과 해상도인 RGB 영상과 깊이 영상을 획득하여 가상 시점의 디지털 홀로그램을 생성하는 시스템을 제안한다. 먼저, 가시광선과 적외선의 파장을 이용하여 파장에 따라 투과율이 달라지는 콜드 미러를 사용하여 각각의 시점이 같은 다시점 RGB와 깊이 영상을 얻는다. 카메라 시스템이 갖는 다양한 렌즈 왜곡을 없애기 위한 보정 과정을 거친 후에 해상도가 서로 틀린 RGB 영상과 깊이 영상의 해상도를 같게 조절한다. 그 다음, DIBR(Depth Image Based Rendering) 알고리즘을 이용하여 원하는 가상 시점의 깊이 정보와 RGB 영상을 생성한다. 그리고 깊이 정보를 이용하여 디지털 홀로그램으로 구현할 객체만을 추출한다. 마지막으로 컴퓨터 생성 홀로그램 (computer-generated hologram, CGH) 알고리즘을 이용하여 추출한 가상 시점의 객체를 디지털 홀로그램으로 변환한다.

  • PDF

Satellite image fusion using edge-orientations (에지 방향 정보 기반 인공위성영상 융합)

  • Jin, Bora;Cho, Nam-Ik
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2012.07a
    • /
    • pp.312-313
    • /
    • 2012
  • 본 논문에서는 고해상도 팬크로매틱 영상과 저해상도 다중분광 영상을 융합하기 위하여 고해상도 팬크로매틱 영상에서 MRF 모델링을 기반으로 에지 방향 정보를 추출하는 방식파 추출된 에지 방향 정보 및 고해상도 팬크로매틱 영상의 기울기 정보를 이용하여 위성영상을 융합하는 방법을 제안한다. 에지 방향 추출은 레이블링(labeling) 문제로 다루어 처리하는데, 이는 MRF 모델링을 통하여 에너지 함수를 설계하고 최소화시킴으로써 풀 수 있다. 또한 고해상도 다중분광영상 합성 시, 저해상도 다중분광영상의 픽셀 값을 정계조건으로 하고 팬크로매틱의 기울기 및 에지 정보를 이용하여 선형방정식을 세워서 풀어내는데, 이를 용하여 색상왜곡을 줄일 수 있으며 영상의 세부 부분을 더 잘 표현할 수 있다 실험 결과, 제안하는 방법이 기존방식에 비하여 좋은 성능을 보임을 확인할 수 있다.

  • PDF

Vertically Structured Camera System Implementation for Digital Holographic Service (디지털 홀로그램 서비스를 위한 수직구조 카메라 시스템 구현)

  • Koo, Ja-Myung;Lee, Yoon-Hyuk;Kim, Woo-Youl;Seo, Young-Ho;Kim, Dong-Wook
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2012.07a
    • /
    • pp.309-311
    • /
    • 2012
  • 본 논문에서는 3차원 입체 비디오처리 기술의 최종목표인 디지털 홀로그램을 생성하는데 필요한 정보인 객체의 좌표와 색상정보를 얻기 위해서 간단하게 장면이 정확히 일치하는 RGB image와 depth image를 생성할 수 있는 시스템을 구축하는 방법을 제안하였다. 가시광선과 적외선의 파장을 이용하여 파장에 따라 투과율이 달라지는 cold mirror를 사용하여 같은 시점에 대한 RGB + depth image를 얻은 후, 전처리 과정에서 카메라 왜곡에 대한 lens correction과정을 걸친 후, 해상도를 맞추기 위한 resolution resize과정을 마친 후, 디지털 홀로그램으로 구현 할 object를 추출한다. 그 다음 CGH(computer-generated hologram) 알고리즘으로 추출한 object를 CGH로 만든다.

  • PDF

Evaluation of Robustness of Deep Learning-Based Object Detection Models for Invertebrate Grazers Detection and Monitoring (조식동물 탐지 및 모니터링을 위한 딥러닝 기반 객체 탐지 모델의 강인성 평가)

  • Suho Bak;Heung-Min Kim;Tak-Young Kim;Jae-Young Lim;Seon Woong Jang
    • Korean Journal of Remote Sensing
    • /
    • v.39 no.3
    • /
    • pp.297-309
    • /
    • 2023
  • The degradation of coastal ecosystems and fishery environments is accelerating due to the recent phenomenon of invertebrate grazers. To effectively monitor and implement preventive measures for this phenomenon, the adoption of remote sensing-based monitoring technology for extensive maritime areas is imperative. In this study, we compared and analyzed the robustness of deep learning-based object detection modelsfor detecting and monitoring invertebrate grazersfrom underwater videos. We constructed an image dataset targeting seven representative species of invertebrate grazers in the coastal waters of South Korea and trained deep learning-based object detection models, You Only Look Once (YOLO)v7 and YOLOv8, using this dataset. We evaluated the detection performance and speed of a total of six YOLO models (YOLOv7, YOLOv7x, YOLOv8s, YOLOv8m, YOLOv8l, YOLOv8x) and conducted robustness evaluations considering various image distortions that may occur during underwater filming. The evaluation results showed that the YOLOv8 models demonstrated higher detection speed (approximately 71 to 141 FPS [frame per second]) compared to the number of parameters. In terms of detection performance, the YOLOv8 models (mean average precision [mAP] 0.848 to 0.882) exhibited better performance than the YOLOv7 models (mAP 0.847 to 0.850). Regarding model robustness, it was observed that the YOLOv7 models were more robust to shape distortions, while the YOLOv8 models were relatively more robust to color distortions. Therefore, considering that shape distortions occur less frequently in underwater video recordings while color distortions are more frequent in coastal areas, it can be concluded that utilizing YOLOv8 models is a valid choice for invertebrate grazer detection and monitoring in coastal waters.

Color Image Rendering using A Modified Image Formation Model (변형된 영상 생성 모델을 이용한 칼라 영상 보정)

  • Choi, Ho-Hyoung;Yun, Byoung-Ju
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.48 no.1
    • /
    • pp.71-79
    • /
    • 2011
  • The objective of the imaging pipeline is to transform the original scene into a display image that appear similar, Generally, gamma adjustment or histogram-based method is modified to improve the contrast and detail. However, this is insufficient as the intensity and the chromaticity of illumination vary with geometric position. Thus, MSR (Multi-Scale Retinex) has been proposed. the MSR is based on a channel-independent logarithm, and it is dependent on the scale of the Gaussian filter, which varies according to input image. Therefore, after correcting the color, image quality degradations, such as halo, graying-out, and dominated color, may occur. Accordingly, this paper presents a novel color correction method using a modified image formation model in which the image is divided into three components such as global illumination, local illumination, and reflectance. The global illumination is obtained through Gaussian filtering of the original image, and the local illumination is estimated by using JND-based adaptive filter. Thereafter, the reflectance is estimated by dividing the original image by the estimated global and the local illumination to remove the influence of the illumination effects. The output image is obtained based on sRGB color representation. The experiment results show that the proposed method yields better performance of color correction over the conventional methods.

A Study on Adaptive Skin Extraction using a Gradient Map and Saturation Features (경사도 맵과 채도 특징을 이용한 적응적 피부영역 검출에 관한 연구)

  • Hwang, Dae-Dong;Lee, Keun-Soo
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.15 no.7
    • /
    • pp.4508-4515
    • /
    • 2014
  • Real-time body detection has been researched actively. On the other hand, the detection rate of color distorted images is low because most existing detection methods use static skin color model. Therefore, this paper proposes a new method for detecting the skin color region using a gradient map and saturation features. The basic procedure of the proposed method sequentially consists of creating a gradient map, extracting a gradient feature of skin regions, noise removal using the saturation features of skin, creating a cluster for extraction regions, detecting skin regions using cluster information, and verifying the results. This method uses features other than the color to strengthen skin detection not affected by light, race, age, individual features, etc. The results of the detection rate showed that the proposed method is 10% or more higher than the traditional methods.

Recognition of Colors of Image Code Using Hue and Saturation Values (색상 및 채도 값에 의한 이미지 코드의 칼라 인식)

  • Kim Tae-Woo;Park Hung-Kook;Yoo Hyeon-Joong
    • The Journal of the Korea Contents Association
    • /
    • v.5 no.4
    • /
    • pp.150-159
    • /
    • 2005
  • With the increase of interest in ubiquitous computing, image code is attracting attention in various areas. Image code is important in ubiquitous computing in that it can complement or replace RFID (radio frequency identification) in quite a few areas as well as it is more economical. However, because of the difficulty in reading precise colors due to the severe distortion of colors, its application is quite restricted by far. In this paper, we present an efficient method of image code recognition including automatically locating the image code using the hue and saturation values. In our experiments, we use an image code whose design seems most practical among currently commercialized ones. This image code uses six safe colors, i.e., R, G, B, C, M, and Y. We tested for 72 true-color field images with the size of $2464{\times}1632$ pixels. With the color calibration based on the histogram, the localization accuracy was about 96%, and the accuracy of color classification for localized codes was about 91.28%. It took approximately 5 seconds to locate and recognize the image code on a PC with 2 GHz P4 CPU.

  • PDF

Visibility Enhancement of Underwater Stereo Images Using Depth Image (깊이 영상을 이용한 수중 스테레오 영상의 가시성 개선)

  • Shin, Hyoung-Chul;Kim, Sang-Hoon;Sohn, Kwang-Hoon
    • Journal of Broadcast Engineering
    • /
    • v.17 no.4
    • /
    • pp.684-694
    • /
    • 2012
  • In the underwater environment, light is absorbed and scattered by water and floating particles, which makes the underwater images suffer from color degradation and limited visibility. Physically, the amount of the scattered light transmitted to the image is proportional to the distance between the camera and the object. In this paper, the proposed visibility enhancement. method utilizes depth images to estimate the light transmission and the degradation factor by the scattered light. To recover the scatter-free images without unnatural artifacts, the proposed method normalizes the degradation factor based on the value of each pixel of the image. Finally, the scatter-free images are obtained by removing the scattered components on the image according to the estimated transmission. The proposed method also considers the color discrepancies of underwater stereo images so that the stereo images have the same color appearance after the visibility enhancement. The experimental results show that the proposed method improves the color contrast more than 5% to 14% depending on the experimental images.