• 제목/요약/키워드: RGB values

검색결과 221건 처리시간 0.027초

A fast single image dehazing method based on statistical analysis

  • ;방성배;김원하
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2018년도 하계학술대회
    • /
    • pp.116-119
    • /
    • 2018
  • In this paper, we propose a new single-image dehazing method. The proposed method constructs color ellipsoids that are statistically fitted to haze pixel clusters in RGB space and then calculates the transmission values through color ellipsoid geometry. The transmission values generated by the proposed method maximize the contrast of dehazed pixels, while preventing over-saturated pixels. The values are also statistically robust because they are calculated from the averages of the haze pixel values. Furthermore, rather than apply a highly complex refinement process to reduce halo or unnatural artifacts, we embed a fuzzy segmentation process into the construction of the color ellipsoid so that the proposed method simultaneously executes the transmission calculation and the refinement process. The results of an experimental performance evaluation verify that compared to prevailing dehazing methods the proposed method performs effectively across a wide range of haze and noise levels without causing any visible artifacts. Moreover, the relatively low complexity of the proposed method will facilitate its real-time applications.

  • PDF

CCTV 영상과 온·습도 정보를 이용한 기후검출 알고리즘 개발 (Development of the Weather Detection Algorithm using CCTV Images and Temperature, Humidity)

  • 박병율;임종태
    • 한국멀티미디어학회논문지
    • /
    • 제10권2호
    • /
    • pp.209-217
    • /
    • 2007
  • 본 논문은 'CCTV영상 교통정보분석시스템'의 일환으로 도로 상의 CCTV 영상정보를 이용하여 기후정보를 추출하는 방법을 제시한다. 도로상의 CCTV 영상정보에서 기후정보를 얻는 방법은 맑은 날의 영상에서 RGB 평균값을 얻고 이를 기준으로 맑음, 흐림, 비, 눈, 안개 등의 영상을 구분하는 방법이다. 이 방법에 대한 보완으로 본 논문에서는 온 습도 정보를 사용하여 보다 세밀한 기후정보를 검출하는 방법을 제시한다. 본 논문에서 제시하는 CCTV 영상에서 기후정보를 검출하기 위한 방법은 기존의 기후정보서비스를 대체하기 위한 방안으로 기존에는 값비싼 센스를 이용하였으나, 본 시스템에서는 CCTV 영상을 이용하여 기후를 검출하는 알고리즘을 제안한다. 이 알고리즘은 CCTV 영상에서 기후정보를 검출하기 위하여 영상을 분석하고 환경 변수인 온 습도 정보를 활용하여 영상정보에서 기후정보의 검출을 용이하게 하도록 설계하였다. 이 알고리즘은 많은 시간비용과 공간비용이 소모되는 DB를 활용한 기법보다 구현에 다소 간의 어려움은 있으나, 비용이 적게 들고 구축과 동시에 실무에 활용할 수 있다는 장점이 있다. 또한 온도, 습도와 일시정보를 추가하여 검출된 기후정보의 정확성을 꾀하였다. 마지막으로 제안된 알고리즘을 영상정보를 이용한 실험을 통해 알고리즘의 유용성을 검증한다.

  • PDF

근감각-색·음 변환을 위한 ARM 기반 임베디드시스템의 구현 (Implementation of ARM based Embedded System for Muscular Sense into both Color and Sound Conversion)

  • 김성일
    • 한국콘텐츠학회논문지
    • /
    • 제16권8호
    • /
    • pp.427-434
    • /
    • 2016
  • 본 논문은 인간이 인지할 수 있는 감각들 중 인체의 회전, 방향 변화 및 움직임의 정도를 알 수 있는 근감각에서 시각 및 청각 요소로의 변환 알고리즘을 이용하여 ARM Cortex-M4에 기반한 실시간 임베디드시스템으로 구현한 방법에 초점을 맞추었다. 근감각의 입력 방식으로는 자세측정장치(AHRS : Attitude Heading Reference System)를 이용해 롤(Roll), 피치(Pitch) 및 요(Yaw) 값을 실시간 획득하고, 이들 각각의 색을 표현하는 HSI 컬러 모델의 명도(Intensity), 색상(Hue) 및 채도(Saturation)에 대응하여 변환하였다. 최종 컬러신호는 HSI 에서 RGB 컬러모델로 변환하여 획득하였다. 또한, 근감각의 세 가지 입력 값들을 음을 표현하는 요소인 옥타브(Octave), 음계(Scale) 및 음의 세기(Velocity)에 대응하여 변환한 값을 MIDI(Musical Instrument Digital Interface)를 이용해 사운드를 합성하여 출력하였다. 출력 컬러신호 및 사운드를 분석한 결과, 근감각 입력 신호가 제안한 변환 방식에 따라 실시간으로 정확하게 색과 음으로 변환, 출력됨을 확인하였다.

HTML5에서 직선의 기울기를 이용한 2D to 3D 입체 이미지 변환 (2D to 3D Anaglyph Image Conversion using Linear Curve in HTML5)

  • 박영수
    • 디지털융복합연구
    • /
    • 제12권12호
    • /
    • pp.521-528
    • /
    • 2014
  • 본 논문에서는 HTML5에서 직선의 기울기를 이용하여 2D 이미지를 3D 입체 이미지로 변환하는 방법을 제안한다. 3D 이미지 변환을 위한 어떠한 정보도 없이 단 하나의 원본 이미지를 좌안과 우안을 위해 RGB 색상을 필터링한다. 사용자는 깊이 값을 설정하기 위해 미리 만들어 놓은 제어 점을 선택한 후 깊이 값을 설정하는 작업을 수행한다. 이렇게 선택된 값들을 반영하여, 이미지 전체와 부분적인 원근감을 갖도록 사용자가 정의한 직선의 기울기를 이용하여 좌안과 우안을 위한 깊이를 부여한 후 Anaglyph 3D 이미지를 자동으로 생성하게 된다. 이 모든 과정이 HTML5를 사용한 웹 환경에서 구현하였기 때문에, 사용자들은 매우 쉽고 편리하게 자신들이 원하는 3D 이미지를 생성할 수 있게 된다.

HTML5에서 Quadratic & Cubic Bézier 곡선을 이용한 2D to 3D 입체 이미지 변환 (2D to 3D Anaglyph Image Conversion using Quadratic & Cubic Bézier Curve in HTML5)

  • 박영수
    • 디지털융복합연구
    • /
    • 제12권12호
    • /
    • pp.553-560
    • /
    • 2014
  • 본 논문에서는 HTML5에서 Quadratic & Cubic B$\acute{e}$zier 곡선을 이용하여 2D 이미지를 3D 입체 이미지로 변환하는 방법을 제안한다. 3D 입체 이미지 변환은 원본 이미지에서 RGB색상 값을 분리 추출하여 좌안과 우안을 위한 2개의 이미지로 필터링한다. 사용자는 Quadratic B$\acute{e}$zier 곡선과 Cubic B$\acute{e}$zier곡선을 이용한 제어 점을 통해 이미지의 깊이 값을 설정하게 된다. 이 제어 점을 기반으로 2D 이미지의 깊이 값을 계산하여 3D이미지에 반영하게 된다. 이 모든 과정은 HTML5를 사용한 웹 환경에서 구현하였으며, 사용자들은 매우 쉽고 편리하게 자신들이 원하는 3D 이미지를 만들 수 있게 하였다.

멀티미디어 응용을 위한 얼굴 인식시스템 (Face Recognition System for Multimedia Application)

  • 박상규;성현경;한영환
    • 전기전자학회논문지
    • /
    • 제6권2호
    • /
    • pp.152-160
    • /
    • 2002
  • 본 논문에서는 멀티미디어 환경을 위한 얼굴 인식 시스템을 구현하였다. 본 얼굴 인식 시스템에서는 얼굴 영역을 선정하고 출력하는 처리시간의 단축과 인식률 향상을 위한 설계에 중점을 두었다. 전형적인 RGB 색상체계를 변형 없이 사용함으로써 색상체계 변환에 필요한 시간을 감소시켰으며, 얼굴 특성을 이용한 알고리즘과 신경망 기법을 활용하여 인식률을 향상시켰다. 본 시스템은 입력된 영상을 모자이크화 시킨 후 모자이크 블록의 색상 분석을 통하여 얼굴 색상 후보 블록을 선정하고, 얼굴이 가지는 특성을 활용하여 잘못 검색된 얼굴 색상 후보 블록을 제거한다 잘못 검색된 얼굴 색상 후보 블록이 제거된 모자이크 블록 영역에서 신경망의 입력으로 사용될 4가지 특성 값을 산출하여 오류 역전파 학습과정을 거친 신경망에서 처리한 후 그 출력 값을 가지고 얼굴 영역의 진위 여부를 판단하게 된다. 본 논문에서 구현된 시스템은 복수의 인원이 포함된 10장의 입력영상을 사용하여 실험한 결과 0.1초미만의 처리시간 내에 90%의 얼굴 인식률을 보여주었다. 이 결과는 멀티미디어 동영상의 응용을 위한 얼굴인식 시스템으로 충분히 이용될 수 있을 것이다.

  • PDF

Development of a soil total carbon prediction model using a multiple regression analysis method

  • Jun-Hyuk, Yoo;Jwa-Kyoung, Sung;Deogratius, Luyima;Taek-Keun, Oh;Jaesung, Cho
    • 농업과학연구
    • /
    • 제48권4호
    • /
    • pp.891-897
    • /
    • 2021
  • There is a need for a technology that can quickly and accurately analyze soil carbon contents. Existing soil carbon analysis methods are cumbersome in terms of professional manpower requirements, time, and cost. It is against this background that the present study leverages the soil physical properties of color and water content levels to develop a model capable of predicting the carbon content of soil sample. To predict the total carbon content of soil, the RGB values, water content of the soil, and lux levels were analyzed and used as statistical data. However, when R, G, and B with high correlations were all included in a multiple regression analysis as independent variables, a high level of multicollinearity was noted and G was thus excluded from the model. The estimates showed that the estimation coefficients for all independent variables were statistically significant at a significance level of 1%. The elastic values of R and B for the soil carbon content, which are of major interest in this study, were -2.90 and 1.47, respectively, showing that a 1% increase in the R value was correlated with a 2.90% decrease in the carbon content, whereas a 1% increase in the B value tallied with a 1.47% increase in the carbon content. Coefficient of determination (R2), root mean square error (RMSE), and mean absolute percentage error (MAPE) methods were used for regression verification, and calibration samples showed higher accuracy than the validation samples in terms of R2 and MAPE.

역 삼자극치 알고리즘을 이용한 LED램프 디지털 광색제어시스템 (Digital Light Color Control System of LED Lamp using Inverse Tri-Stimulus Algorithm)

  • 강신호;이정민;염정덕
    • 조명전기설비학회논문지
    • /
    • 제25권1호
    • /
    • pp.1-8
    • /
    • 2011
  • In this paper, the method to calculate chromaticity coordinate from spectral power distribution of LED is presented. Also, inverse tri-stimulus algorithm to find mixed luminance of red, green, blue LED from targeted luminance and chromaticity coordinate is proposed. Besides, digital light color control system of LED lamp applied this algorithm has been developed. In experiments, each chromaticity coordinate of red, green, blue LED calculated from this algorithm has relative percentage error of few % to measured values. Digital code is drawn from inverse tri-stimulus algorithm, and measured values of luminance and chromaticity coordinate of LED lamp digitally controlled by this code also have relative percentage error within a few % to targeted luminance and chromaticity coordinate.

Use of Unmanned Aerial Vehicle for Multi-temporal Monitoring of Soybean Vegetation Fraction

  • Yun, Hee Sup;Park, Soo Hyun;Kim, Hak-Jin;Lee, Wonsuk Daniel;Lee, Kyung Do;Hong, Suk Young;Jung, Gun Ho
    • Journal of Biosystems Engineering
    • /
    • 제41권2호
    • /
    • pp.126-137
    • /
    • 2016
  • Purpose: The overall objective of this study was to evaluate the vegetation fraction of soybeans, grown under different cropping conditions using an unmanned aerial vehicle (UAV) equipped with a red, green, and blue (RGB) camera. Methods: Test plots were prepared based on different cropping treatments, i.e., soybean single-cropping, with and without herbicide application and soybean and barley-cover cropping, with and without herbicide application. The UAV flights were manually controlled using a remote flight controller on the ground, with 2.4 GHz radio frequency communication. For image pre-processing, the acquired images were pre-treated and georeferenced using a fisheye distortion removal function, and ground control points were collected using Google Maps. Tarpaulin panels of different colors were used to calibrate the multi-temporal images by converting the RGB digital number values into the RGB reflectance spectrum, utilizing a linear regression method. Excess Green (ExG) vegetation indices for each of the test plots were compared with the M-statistic method in order to quantitatively evaluate the greenness of soybean fields under different cropping systems. Results: The reflectance calibration methods used in the study showed high coefficients of determination, ranging from 0.8 to 0.9, indicating the feasibility of a linear regression fitting method for monitoring multi-temporal RGB images of soybean fields. As expected, the ExG vegetation indices changed according to different soybean growth stages, showing clear differences among the test plots with different cropping treatments in the early season of < 60 days after sowing (DAS). With the M-statistic method, the test plots under different treatments could be discriminated in the early seasons of <41 DAS, showing a value of M > 1. Conclusion: Therefore, multi-temporal images obtained with an UAV and a RGB camera could be applied for quantifying overall vegetation fractions and crop growth status, and this information could contribute to determine proper treatments for the vegetation fraction.

고해상도 카메라와의 동시 운영을 통한 드론 다분광카메라의 외부표정 및 영상 위치 정밀도 개선 연구 (Improving Precision of the Exterior Orientation and the Pixel Position of a Multispectral Camera onboard a Drone through the Simultaneous Utilization of a High Resolution Camera)

  • 백승일;변민수;김원국
    • 한국측량학회지
    • /
    • 제39권6호
    • /
    • pp.541-548
    • /
    • 2021
  • 최근 농업, 산림관리, 해안환경 모니터링 등 다양한 분야에서 다분광 카메라의 활용, 특히 드론에 탑재되어 활용되는 사례가 증대되고 있다. 산출되는 다분광 영상은 위치정보를 위해 주로 드론에 탑재된 GPS (Global Positioning System)나 IMU (Inertial Measurement Unit) 센서를 이용해 지리참조(georeferencing)되는데, 보다 높은 정확도를 위해서는 직접 측량한 지상 기준점을 이용하기도 한다. 하지만, 직접 측량에 드는 비용 및 시간으로 인해 또는 직접 접근이 어려운 지역에 대해서는 지상 참조값을 활용하지 않고 지리참조를 수행해야하는 경우가 자주 발생하게 된다. 본 연구는 지상기준점이 가용하지 않은 경우에 다분광카메라로부터의 영상의 지리참조 정밀도를 향상시키기 위해 같이 탑재된 고해상도 RGB카메라의 영상을 활용하는 방안에 대하여 연구한다. 드론 영상은 우선 번들조정을 통해 카메라의 외부표정 요소를 추정하였고, 이를 지상 기준점을 이용한 경우의 외부표정 및 위치결과와 비교하였다. 실험결과, 고해상도 영상을 포함하여 번들조정을 하게 될 경우, 다분광 카메라 영상을 단독으로 활용할 때보다, 다분광 카메라 영상의 지리참조 오차가 비약적으로 감소하였음을 확인하였다. 추가로 한 지상 지점에서 드론으로의 방향각을 추정할 때의 오차를 분석한 결과, 마찬가지로 고해상도 RGB영상을 포함하여 번들조정하게 되면 기존의 방향각 오차가 한 단위이상 감소하는 것으로 나타났다.