• Title/Summary/Keyword: Eye Image

Search Result 821, Processing Time 0.031 seconds

Speckle Reduction in the Wavelet Domain for Image with Optical Coherence Tomography

  • Chang, Ju-Wan;Lee, Chang-Su;Na, Ji-Hoon;Paes, Stephane;Lee, Byeong-Ha
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.2459-2463
    • /
    • 2005
  • Optical coherence tomography (OCT) is high resolution medical imaging system which is obtaining image inside biological objects with non-destructive method. OCT system is based on Michelson interferometer with a reciprocating mirror in the reference arm and a biological object in the sample arm. The obtained OCT image suffers from a granular or mottled image, called speckle. Speckle is caused by random interferences between reflected coherence waves. In this paper, we propose effective speckle reduction method that uses wavelet transform. With wavelet domain image, sub-windowing and thresholding are performed. Finally, speckle reduction experiments for Misgurnus mizolepis skin and rat eye images are shown.

  • PDF

The effects of short persistent CCFL in Blinking Back Light Unit to reduce blur on TFT-LCD

  • Han, J.M.;Bae, K.W.;Kim, S.Y.;Kim, Y.H.;Lim, Y.J.
    • 한국정보디스플레이학회:학술대회논문집
    • /
    • 한국정보디스플레이학회 2003년도 International Meeting on Information Display
    • /
    • pp.694-697
    • /
    • 2003
  • In applying LCD to TV application, one of the most significant factors to be improved is image sticking on the moving picture. LCD is different from CRT in the sense that it's continuous passive device, which holds images in entire frame period, while impulse type device generate image in very short time. To reduce image sticking problem related to hold type display mode, we made an experiment to drive LCD like CRT. We made articulate images by turn on-off backlight, and we realized the ratio of Back Light on-off time by adjusting between on time and off time for video signal input during 1 frame (16.7ms). Conventional CCFL (cold cathode fluorescent lamp) cannot follow fast on-off speed, so we evaluated new fluorescent substances of light source to improve residual light characteristic of CCFL. We realized articulate image generation similar to CRT by blinking drive. As a result, reduced image sticking phenomenon was validated by naked eye and response time measurement.

  • PDF

SWIR 이미지 센서 기술개발 동향 및 응용현황

  • 이재웅
    • 세라미스트
    • /
    • 제21권2호
    • /
    • pp.59-74
    • /
    • 2018
  • Imaging in the Short Wave Infrared (SWIR) provides several advantages over the visible and near-infrared regions: enhanced image resolution in in foggy or dusty environments, deep tissue penetration, surveillance capabilities with eye-safe lasers, assessment of food quality and safety. Commercially available SWIR imagers are fabricated by integrating expensive epitaxial grown III-V compound semiconductor sensors with Si-based readout integrated circuits(ROIC) by indium bump bonding Infrared image sensors made of solution-processed quantum dots have recently emerged as candidates for next-generation SWIR imagers. They combine ease of processing, tunable optoelectronic properties, facile integration with Si-based ROIC and good performance. Here, we review recent research and development trends of various application fields of SWIR image sensors and nano-materials capable of absorption and emission of SWIR band. With SWIR sensible nano-materials, new type of SWIR image sensor can replace current high price SWIR imagers.

Appearance-based Robot Visual Servo via a Wavelet Neural Network

  • Zhao, Qingjie;Sun, Zengqi;Sun, Fuchun;Zhu, Jihong
    • International Journal of Control, Automation, and Systems
    • /
    • 제6권4호
    • /
    • pp.607-612
    • /
    • 2008
  • This paper proposes a robot visual servo approach based on image appearance and a wavelet function neural network. The inputs of the wavelet neural network are changes of image features or the elements of image appearance vector, and the outputs are changes of robot joint angles. Image appearance vector is calculated by using eigen subspace transform algorithm. The proposed approach does not need a priori knowledge of the robot kinematics, hand-eye geometry and camera models. The experiment results on a real robot system show that the proposed method is practical and simple.

A Computationally Efficient Retina Detection and Enhancement Image Processing Pipeline for Smartphone-Captured Fundus Images

  • Elloumi, Yaroub;Akil, Mohamed;Kehtarnavaz, Nasser
    • Journal of Multimedia Information System
    • /
    • 제5권2호
    • /
    • pp.79-82
    • /
    • 2018
  • Due to the handheld holding of smartphones and the presence of light leakage and non-balanced contrast, the detection of the retina area in smartphone-captured fundus images is more challenging than retinography-captured fundus images. This paper presents a computationally efficient image processing pipeline in order to detect and enhance the retina area in smartphone-captured fundus images. The developed pipeline consists of five image processing components, namely point spread function parameter estimation, deconvolution, contrast balancing, circular Hough transform, and retina area extraction. The results obtained indicate a typical fundus image captured by a smartphone through a D-EYE lens is processed in 1 second.

Color-based Face Detection for Alife Robot

  • Feng, Xiongfeng;Kubik, K.Bogunia
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2001년도 ICCAS
    • /
    • pp.49.2-49
    • /
    • 2001
  • In this paper, a skin-color model in the HSV space was developed. Based on it, face region can be separated from other parts in a image. Face can be detected by the methods of Template and eye-pair. This realized in our robot.

  • PDF

작물 모니터링을 위한 다중 센서 고해상도 위성영상의 시공간 융합 모델의 평가: Sentinel-2 및 RapidEye 영상 융합 실험 (Evaluation of Spatio-temporal Fusion Models of Multi-sensor High-resolution Satellite Images for Crop Monitoring: An Experiment on the Fusion of Sentinel-2 and RapidEye Images)

  • 박소연;김예슬;나상일;박노욱
    • 대한원격탐사학회지
    • /
    • 제36권5_1호
    • /
    • pp.807-821
    • /
    • 2020
  • 이 연구에서는 작물 모니터링을 위한 시계열 고해상도 영상 구축을 위해 기존 중저해상도 위성영상의 융합을 위해 개발된 대표적인 시공간 융합 모델의 적용성을 평가하였다. 특히 시공간 융합 모델의 원리를 고려하여 입력 영상 pair의 특성 차이에 따른 모델의 예측 성능을 비교하였다. 농경지에서 획득된 시계열 Sentinel-2 영상과 RapidEye 영상의 시공간 융합 실험을 통해 시공간 융합 모델의 예측 성능을 평가하였다. 시공간 융합 모델로는 Spatial and Temporal Adaptive Reflectance Fusion Model(STARFM), SParse-representation-based SpatioTemporal reflectance Fusion Model(SPSTFM)과 Flexible Spatiotemporal DAta Fusion(FSDAF) 모델을 적용하였다. 실험 결과, 세 시공간 융합 모델은 예측 오차와 공간 유사도 측면에서 서로 다른 예측 결과를 생성하였다. 그러나 모델 종류와 관계없이, 예측 시기와 영상 pair가 획득된 시기 사이의 시간 차이보다는 예측 시기의 저해상도 영상과 영상 pair의 상관성이 예측 능력 향상에 더 중요한 것으로 나타났다. 또한 작물 모니터링을 위해서는 오차 전파 문제를 완화할 수 있는 식생지수를 시공간 융합의 입력 자료로 사용해야 함을 확인하였다. 이러한 실험 결과는 작물 모니터링을 위한 시공간 융합에서 최적의 영상 pair 및 입력 자료 유형의 선택과 개선된 모델 개발의 기초정보로 활용될 수 있을 것으로 기대된다.

농림위성용 GCP 칩 매칭 성능 향상을 위한 위성영상 공간해상도 결정 (Determination of Spatial Resolution to Improve GCP Chip Matching Performance for CAS-4)

  • 이유진;김태정
    • 대한원격탐사학회지
    • /
    • 제37권6_1호
    • /
    • pp.1517-1526
    • /
    • 2021
  • 최근 국내외에서 많은 지구관측위성들이 발사됨에 따라서 위성영상의 활용 분야가 넓어지고 있고 이에 따라서 위성영상의 기하정확도 향상을 위한 연구가 활발히 수행되고 있다. 본 논문은 2025년에 발사예정인 5 m 해상도 영상을 촬영할 수 있는 농림위성을 위한 자동기준점 추출 가능성을 파악하기 위해서 수행되었다. 특히 본 연구에서는 국토위성용으로 구축된 25 cm 해상도의 지상기준점 Chip을 농림위성영상에 사용할 수 있는지를 검토하고 농림위성영상용 지상기준점 추출 시 정합 성능 향상을 위한 적절한 공간해상도가 있는지를 검토하고자 한다. 실제 실험은 농림위성영상과 유사한 사양을 가진 RapidEye 위성영상을 활용하여 연구를 수행하였다. 먼저, 5 m 해상도의 원본 RapidEye 영상을 3배~7배로 분할하여 여러 해상도를 가진 영상으로 만들고, 해상도를 가지는 지상기준점 Chip은 크기를 축소하여 위성영상의 해상도에 맞게 조절하였다. 각각의 해상도를 가지는 위성영상과 지상기준점 Chip을 매칭하고 이 결과로 수립된 정밀센서모델의 정확도를 분석하였다. 분석결과 5 m의 원본 해상도에서 정합하는 것보다 위성영상의 해상도를 높여서 정합하는 것이 개선된 정확도를 보여주었다. 특히, 원본 영상을 1.25~1.67 m 해상도로 분할하여 지상기준점 Chip과 정합 할 경우 평균 약 2.74 m 내외의 위치정확도를 얻을 수 있었다. 본 연구결과가 향후 농림위성영상의 자동기준점 추출 및 정밀정사영상 생산에 활용될 수 있을 것으로 기대한다.

사진촬영으로 측정한 카파각 (Measured Kappa Angles by Photographing)

  • 신형섭;장준규
    • 한국안광학회지
    • /
    • 제20권4호
    • /
    • pp.485-489
    • /
    • 2015
  • 목적: 눈의 카파각을 사진촬영방법으로 확인하였으며, 우세안과 원점굴절도와의 상관관계를 연구하였다. 방법: 성인 112명, 평균나이는 $22.54{\pm}5.90$세를 대상으로 카메라 플래시를 터트리면서 양안의 사진을 촬영하였다. 촬영된 사진으로 카파각을 측정하였으며, 우세안과 원점굴절도와의 관계를 비교분석하였다. 결과: 카파각의 부호는 양성이 78.6%(176안), 음성이 15.2%(34안), $0^{\circ}$가 6.2%(14안)이었고, 크기는 우세안 $+4.50{\pm}4.70^{\circ}$, 비우세안 $+4.93{\pm}4.34^{\circ}$로 나타났으며, 원시안에서 $+6.00{\pm}2.22^{\circ}$, 정시안에서 $+4.91{\pm}4.97^{\circ}$, 근시안에서 $+4.61{\pm}4.49^{\circ}$로 원시안에서 가장 크고 정시안, 근시안의 순으로 감소하였다. 결론: 우세안의 카파각이 비우세안보다 작았으며, 원점굴절도가 작을수록 카파각이 작았다. 사진촬영 방법으로 카파각을 직접 평가할 수 있었다.

광각 및 협각 카메라를 이용한 시선 위치 추적 시스템 (Gaze Detection System by Wide and Narrow View Camera)

  • 박강령
    • 한국통신학회논문지
    • /
    • 제28권12C호
    • /
    • pp.1239-1249
    • /
    • 2003
  • 시선 위치 추적이란 현재 사용자가 쳐다보고 있는 위치를 컴퓨터 시각 인식 방법을 이용하여 파악하는 연구이다. 일반적으로 사용자가 모니터 상의 한 위치를 쳐다보기 위해서는 얼굴 및 눈동자를 동시에 움직이는 경향이 있다. 기존의 시선 위치 추적 시스템은 사용자의 얼굴 전체를 취득할 수 있는 단 하나의 광각 카메라를 이용하여 사용자의 얼굴 및 눈동자 움직임을 추적하였다. 그러나 이러한 경우, 광각 카메라 내에 포함된 눈동자 영상의 해상도가 많이 떨어져서 사용자의 눈동자 움직임을 정확하게 추적하지 못하는 문제점이 있었다. 그러므로 이 논문에서는 얼굴 영상을 취득하기 위한 광각 카메라 및 눈 영역을 확대하여 취득하는 협각 카메라, 즉 2개의 카메라를 이용하여 시선 위치추적 시스템을 구현하였다. 또한, 얼굴의 움직임 시 전체적인 위치가 변화될 눈동자의 움직임을 정확히 추적하기 위해, 협각 카메라에는 광각 카메라에서 추출된 얼굴 특징점의 위치를 기반으로 한 자동 초점 및 자동 상하/좌우 회전 기능이 포함되어 있다. 실험 결과, 얼굴 및 눈동자 움직임에 의한 모니터상의 시선 위치 정확도는 실험자가 눈동자는 고정으로 하고 얼굴만 움직여서 쳐다보는 경우에 약 3.1cm, 흐리고 얼굴 및 눈동자를 같이 움직여서 쳐다보는 경우에 약 3.57cm의 최소 자승 에러성능을 나타냈다. 처리 속도도 Pentium-IV 1.8 GHz에서 약 30ms 이내의 처리 속도를 나타냈다.