• 제목/요약/키워드: color histogram

검색결과 500건 처리시간 0.023초

GAN을 이용한 흑백영상과 위성 SAR 영상간의 모의 및 컬러화 (Simulation and Colorization between Gray-scale Images and Satellite SAR Images Using GAN)

  • 조수민;허준혁;어양담
    • 대한토목학회논문집
    • /
    • 제44권1호
    • /
    • pp.125-132
    • /
    • 2024
  • 광학 위성영상은 국가 보안 및 정보 획득을 목적으로 사용되며 그 활용성은 증가하고 있다. 그러나, 기상 조건 및 시간의 제약으로 사용자의 요구에 적합하지 않은 저품질의 영상을 획득하게 된다. 본 논문에서는 광학 위성영상의 구름 폐색영역을 모의하기 위하여 고해상도 SAR 영상을 참조한 딥러닝 기반의 영상변환 및 컬러화 모델을 생성하였다. 해당 모델은 적용 알고리즘 및 입력 데이터 형태에 따라 실험하였으며 생성된 모의영상을 비교 분석하였다. 특히 입력하는 흑백영상과 SAR 영상간의 화소값 정보량이 유사하도록 하여 상대적으로 색상정보량 부족에서 오는 문제점을 개선하였다. 실험 결과, Gray-scale 영상과 고해상도 SAR 영상으로 학습한 모의영상의 히스토그램 분포가 비교적 원 영상과 유사하였고, 정량적인 분석을 위하여 산정한 RMSE 값은 약 6.9827, PSNR 값은 약 31.3960으로 나타났다.

영상처리기반 야간 젖은 노면 판별을 위한 방법론 (The Method of Wet Road Surface Condition Detection With Image Processing at Night)

  • 김영민;백남철
    • 대한교통학회지
    • /
    • 제33권3호
    • /
    • pp.284-293
    • /
    • 2015
  • 본 연구의 목적은 도로상에 설치된 CCTV에서 수집되는 영상정보를 이용하여 노면 상태를 판단하는 것이다. 이를 위해 먼저 야간의 젖은 노면을 검지하는 기술을 검증하였다. 지금까지 도로상의 젖음 정보를 추출하는 기술은 편광(polarization) 특성을 활용하는 것이다. 그러나 태양광이 없는 야간 도로상황에서는 편광특성을 활용할 수 없다. 이에 본 연구에서는 CCTV 야간 영상의 특징을 활용하여 마른 노면과 젖은 노면을 판별하는 방법을 제안한다. 노면의 젖음 여부를 판단하는 판별 방법론으로 웨이블릿(wavelet) 패킷 변환을 활용한 질감분석 방법론 및 영상의 명도분포 특성을 반영하기 위한 HSI 색상 모형 기반 명도(intensity) 히스토그램 활용 방법론을 적용하였다. 현장장비에서 취득한 총 200장의 샘플영상을 활용하여 영상을 분석, SVM (Support Vector Machine) 분류기 기반 판별 초평면을 구성한 후, 검지 기법을 검증하기 위한 현장테스트를 수행하였으며 유의한 결과를 얻을 수 있었다. 본 연구결과는 교통류의 안전성 향상을 위한 효율적인 야간 노면상태 수집에 활용될 수 있을 것이다.

설진 유효 영역 추출의 시스템적 접근 방법 (Systematic Approach to The Extraction of Effective Region for Tongue Diagnosis)

  • 김근호;도준형;유현희;김종열
    • 전자공학회논문지SC
    • /
    • 제45권6호
    • /
    • pp.123-131
    • /
    • 2008
  • 한의학에서 혀의 상태는 인체 내부의 생리적 병리적 변화와 같은 건강 상태를 진단하는 중요한 지표로 활용된다. 혀의 상태를 진단하는 방법(설진)은 편리할 뿐 아니라 비침습적이므로, 한의학에서 널리 활용되고 있다. 하지만, 설진은 광원이나 환자의 자세, 의사의 건강 조건과 같은 검사 환경에 따라 많은 영향을 받는다. 객관적이고 표준화된 진단을 위한 자동 설진 시스템을 개발하기 위하여 촬영된 얼굴 영상으로부터 혀를 영역분할하고 설태를 분류하는 것은 필수적이지만 혀와 입술, 입 근처의 피부색이 서로 유사하므로 쉽지 않은 일이다. 제안된 방법은 전처리 과정과 영역분할, 혀의 구조로부터 발생하는 음영 영역의 지역 최소값 위치 검색, 지역 최소값의 교정, 컬러의 차이를 최대로 하는 위치를 찾는 컬러 경계면 탐색, 척의 기하적인 특성에 일치하는 경계면 선택, 경계면 평활화로 구성되어 있으며, 여기서 전처리 과정은 계산량의 감소를 위한 부 표본화, 히스토그램 평활화, 경계면 강화를 수행한다. 이러한 시스템적인 과정을 거치면, 영역분할된 혀를 획득할 수 있게 된다. 제안된 방법으로 분할된 영역은 초과적으로 혀가 아닌 영역을 제외해 낼 뿐 아니라 정확한 진단을 위해 중요한 정보를 제공함을 한의사의 진단 유효도 평가점수를 통해 확인할 수 있었다. 제안된 방법은 진단의 객관화와 표준화에 기여할 뿐만 아니라 u-Healthcare 시스템에도 활용 가능하다.

PCA와 HMM을 이용한 실시간 립리딩 시스템의 설계 및 구현 (Design and Implementation of a Real-Time Lipreading System Using PCA & HMM)

  • 이지근;이은숙;정성태;이상설
    • 한국멀티미디어학회논문지
    • /
    • 제7권11호
    • /
    • pp.1597-1609
    • /
    • 2004
  • 립리딩은 잡음 환경에서 저하되는 음성 인식률의 보상과 음성을 청취하기 어려운 상황에서의 음성인식보조 수단으로 많은 연구가 시도되고 있다. 기존 립리딩 시스템은 인위적인 조명 환경이나 얼굴과 입술 추출을 위하여 미리 정해진 제한된 조건에서 실험되어 왔다. 본 논문에서는 화자의 움직임이 허용되고 컬러나 조명과 같은 환경 변화에 제한조건을 완화한 영상을 이용하여 실시간 립리딩 시스템을 구현하였다. 본 논문의 시스템은 범용으로 사용되는 PC 카메라를 통해 입력받은 영상에서 얼굴과 입술 영역을 실시간으로 검출한 후, 립리딩에 필요한 영상정보를 추출하고 이 입술 영상 정보를 이용하여 실시간으로 발성 단어를 인식할 수 있다. 얼굴과 입술 영역 검출을 위하여 조명환경에 독립성을 갖는 색도 히스토그램 모델을 이용하였고 움직이는 화자의 얼굴 추적을 위하여 평균 이동 알고리즘을 이용하였다. 검출된 입술 영역에서 학습과 인식에 필요한 영상 정보를 추출하기 위하여 PCA(Principal Component Analysis)를 사용하였고, 인식 알고리즘으로는 HMM을 이용하였다. 실험 결과 화자종속일 경우 90%의 인식률을 보였으며 잡음이 있는 음성과 합병하여 인식률 실험을 해 본 결과, 음성 잡음비에 따라서 음성 인식률을 약 40~85%까지 향상시킬 수 있었다.

  • PDF

지능형 공간에서 청각장애인의 시선 방향 검출 (Detection of Gaze Direction for the Hearing-impaired in the Intelligent Space)

  • 오영준;홍광진;김종인;정기철
    • 정보처리학회논문지B
    • /
    • 제18B권6호
    • /
    • pp.333-340
    • /
    • 2011
  • 인간-컴퓨터 상호 작용은 인간공학과 정보기술을 융합하여 인간과 컴퓨터와의 상호 작용 기술을 연구하는 학문이고, 그 중에서도 지능형 공간은 정보화 사회에서 소외될 수 있는 장애인에게 더욱 효과적인 사용 환경을 제공할 수 있는 중요한 연구 분야이다. 장애인을 위한 지능형 공간에서의 정보 지원 방법은 장애 유형에 따라 달라지는데, 본 논문은 정보 지원 대상을 청각 장애인으로 한정한다. 청각 장애인에게 직접 접촉을 통해 정보 제공 위치를 인지시키는 방법을 제외하면, 시선이 향하고 있는 곳에 정보를 표시하는 것이 가장 효율적인 정보 제공 방법이기 때문에, 시선 방향 검출 방법은 필수적이다. 우리는 이처럼 청각 장애인에게 실내 생활 지원 서비스를 제공하기 위해 반드시 필요한 시선 방향 검출 방법을 제안한다. 제안된 방법은 다시점 영상(Multi-view Camera Image) 내에서 검출된 사용자 영역 정보를 이용하여, 시점 별 수평/수직 방향 시선각 후보를 생성하고 후보 간의 크기 비교를 통해 사용자의 시선 방향을 계산한다. 실험 결과에서, 제안된 방법은 높은 시선 방향 검출 성능을 보이며, 장애인을 위한 시나리오를 수행할 수 있는 가능성을 보였다.

장면의 유사도 패턴 비교를 이용한 내용기반 동영상 분할 알고리즘 (Content based Video Segmentation Algorithm using Comparison of Pattern Similarity)

  • 원인수;조주희;나상일;진주경;정재협;정동석
    • 한국멀티미디어학회논문지
    • /
    • 제14권10호
    • /
    • pp.1252-1261
    • /
    • 2011
  • 본 논문은 내용기반 동영상 분할을 위한 장면의 유사도 패턴 비교 방법을 제안한다. 동영상 장면 전환의 종류는 크게 급진적 전환과 디졸브(dissolve), 페이드인(fade-in), 페이드아웃(fade-out), 와이프 전환(wipe transition)을 포함하는 점진적 전환 형태로 나눌 수 있다. 제안하는 방법은 모든 종류의 장면 전환 검출 문제를 단지 발생 유무의 문제로 간단 정의하고, 장면 전환 종류는 별도로 구분하지 않는다. 장면 전환을 검출하기 위해서는 프레임간의 유사도를 정의해야 한다. 본 논문에서는 장면 내 유사도(within similarity)와 장면 간 유사도(between similarity)를 정의하며 두 유사도의 통계적 패턴 비교를 통하여 최종적으로 장면 전환을 검출하게 된다. 장면 내 유사도와 장면 간 유사도의 비율을 구하는 방법을 통해 플래시라이트나영상 내 물체 움직임에 대한 거짓 양성 검출을 별도의 후처리 과정 없이도 방지할 수 있음을 확인하였다. 프레임의 특징 값으로는 컬러 히스토그램과 프레임 내 평균 화소값을 이용하였다. TREC-2001, TREC-2002 동영상 셋을 포함한 실험 셋에서 성능을 평가한 결과 제안하는 알고리즘의 경우 총 91.84%의 재현율(recall)과 86.43%의 정확도(precision)의 성능을 보임을 확인할 수 있었다.

다층신경망을 이용한 임의의 크기를 가진 얼굴인식에 관한 연구 (A Study on Face Awareness with Free size using Multi-layer Neural Network)

  • 송홍복;설지환
    • 한국지능시스템학회논문지
    • /
    • 제15권2호
    • /
    • pp.149-162
    • /
    • 2005
  • 본 논문에서는 실시간 폐쇄회로 화면으로 받은 컬러 이미지에서 얼굴영상을 추출하고 이미 지정된 특정인의 얼굴영상과 비교를 통해 지하철이나 은행 등 공공장소에서의 수배자 등 어떤 특정인을 검출하는 방법을 제안하고자 한다. 감시카메라의 특성상 화면속의 얼굴정보가 임의의 크기로 가변하고 영상 내에서 다수의 얼굴정보를 포함하고 있음을 가정할 때, 얼굴영역을 얼마나 정확하게 검색 할 수 있느냐에 초점을 맞추었다. 이를 해결하기 위하여F.Rosenblatt가 제안한 퍼셉트론 신경망 모델을 기초로 임의의 얼굴영상에 대한 $20{\times}20$ 픽셀로 서브샘플링을 사용한 규준화 작업을 통해서 전면얼굴에서와 같은 인식기법의 효과를 사용하고, 획득한 얼굴후보 영역에 대하여 조명이나 빛에 의한 외부환경의 간섭을 최소화하기 위하여 최적선형필터와 히스토그램 평활화 기법을 이용하였다. 그리고 불필요한 학습을 최소화하기 위하여 달걀형 마스크의 덧셈연산을 전 처리 과정에 추가하였다. 전 처리 과정을 마친 이미지는 각각 세 개의 수용필드로 쪼개어져 특정 위치에 존재하는 눈, 코, 입 능의 정보를 신경망 학습을 통해 최종 결정된다. 또한 각각 다른 초기값을 가지는 3개의 단일셋 네트워크시스템을 병력형태로 구성하여 결과의 정확도를 높여 구현하였다.

SOM 기반의 계층적 군집 방법을 이용한 계산 효율적 비디오 객체 분할 (Computation ally Efficient Video Object Segmentation using SOM-Based Hierarchical Clustering)

  • 정찬호;김경환
    • 대한전자공학회논문지SP
    • /
    • 제43권4호
    • /
    • pp.74-86
    • /
    • 2006
  • 본 논문에서는 계산 효율적이고 노이즈에 강건한 비디오 객체 분할 알고리즘을 제안한다. 움직임 분할과 색 분할을 효율적으로 결합한 시공간 분할 방법의 구현을 위해 SOM 기반의 계층적 군집 방법을 도입하여 특징 벡터들의 군집 관점에서 분할 과정을 해석함으로써 기존의 객체 분할 방법에서 정확한 분할 결과를 얻기 위해서 요구되어지는 많은 연산량과 노이즈에 의한 시스템의 성능 저하 문제를 최소화한다. 움직임 분할 과정에서는 움직임 추정 에러에 의한 영향을 최소화하기 위해서 MRF 기반의 MAP 추정 방법을 이용하여 계산한 움직임 벡터의 신뢰도를 이용한다. 또한 움직임 분할의 성능 향상을 위해서 움직임 신뢰도 히스토그램을 이용한 노이즈 제거 과정을 거칠 뿐만 아니라 자동으로 장면 내에 존재하는 객체의 수를 구하기 위해서 군집 유효성 지표를 이용한다. 객체 추적의 성능 향상을 위해 교차 투영 기법을 이용하며, 분할 결과의 시간적 일관성 유지를 위해 동적 메모리를 이용한다. 다양한 특성을 가지는 비디오 시퀀스들을 이용한 실험을 통해 제안하는 방법이 계산 효율적이고 노이즈에 강건하게 비디오 객체 분할을 수행함은 물론 기존의 구현 방법에 비해 정확한 분할 결과를 얻을 수 있음을 확인하였다.

정맥 검출 장비 구현 및 영상처리 알고리즘 개발에 대한 연구 (A Study on the Implementation and Development of Image Processing Algorithms for Vibes Detection Equipment)

  • 정진형;조재현;장지훈;이상식
    • 한국정보전자통신기술학회논문지
    • /
    • 제15권6호
    • /
    • pp.463-470
    • /
    • 2022
  • 정맥주사는 환자의 치료를 위해 주사 약물, 수액, 비경구 영양, 혈액제제의 투입 등에 광법위하게 이용되고 있으며 입원 환자에게 가장 빈번하게 행해지는 침습적 처치로서, 채혈, 말초 카테터 삽입 및 기타 IV요법 등에 해당하며 연간 10억건 이상 발생하고 있다. 정맥주사는 정맥주사 교육을 받은 숙련된 간호사들에 의해서만 시술되는 어려운 시술 중에 하나이며 실패 시 정맥에 혈전증 및 혈종이나 신경손상 등을 초래할 수 있다. 정맥주사를 자주 시술하는 간호사들도 비만, 피부색, 나이 등의 요인으로 정맥 검출이 쉽지 않아 실수들이 발생하는 경우도 있다. 이에 정맥주사 시 실수를 줄이기 위해 손등이나 팔의 정맥 구조를 시각화할 수 있는 보조 장비들에 대한 연구들이 발표되고 있다. 본 논문은 정맥주사 시 정맥의 구조를 시각화하는 정맥검출 장비 개발에 관한 연구에 대한 내용으로서, 정맥검출을 위한 실험 모듈을 제작하고 각기 다른 파장대를 지닌 NIR(근적외선) LED와 Filter의 파장대 조합에 따른 획득 영상의 밝기 비교를 통해 최적의 조합을 선정하는 연구를 진행했다. 또한 구현한 정맥검출 실험 모듈을 통해 획득한 정맥 영상의 선명화를 위해 그레이스케일 변환, 히스토그램 평활화, 샤프닝 필터 적용하고 이진화 이후 마킹을 통해 혈관 부분을 녹색으로 변환하는 영상처리 알고리즘을 도출하였다.

효과적인 인터랙티브 비디오 저작을 위한 얼굴영역 기반의 어노테이션 방법 (Annotation Method based on Face Area for Efficient Interactive Video Authoring)

  • 윤의녕;가명현;조근식
    • 지능정보연구
    • /
    • 제21권1호
    • /
    • pp.83-98
    • /
    • 2015
  • TV를 보면서 방송에 관련된 정보를 검색하려는 많은 시청자들은 정보 검색을 위해 주로 포털 사이트를 이용하고 있으며, 무분별한 정보 속에서 원하는 정보를 찾기 위해 많은 시간을 소비하고 있다. 이와 같은 문제를 해결하기 위한 연구로써, 인터랙티브 비디오에 대한 연구가 활발하게 진행되고 있다. 인터랙티브 비디오는 일반적인 비디오에 추가 정보를 갖는 클릭 가능한 객체, 영역, 또는 핫스팟을 동시에 제공하여 사용자와 상호작용이 가능한 비디오를 말한다. 클릭 가능한 객체를 제공하는 인터랙티브 비디오를 저작하기 위해서는 첫째, 증강 객체를 생성하고, 둘째, 어노테이터가 비디오 위에 클릭 가능한 객체의 영역과 객체가 등장할 시간을 지정하고, 셋째, 객체를 클릭할 때 사용자에게 제공할 추가 정보를 지정하는 과정을 인터랙티브 비디오 저작 도구를 이용하여 수행한다. 그러나 기존의 저작 도구를 이용하여 인터랙티브 비디오를 저작할 때, 객체의 영역과 등장할 시간을 지정하는데 많은 시간을 소비하고 있다. 본 논문에서는 이와 같은 문제를 해결하기 위해 유사한 샷들의 모임인 샷 시퀀스의 모든 샷에서 얼굴 영역을 검출한 샷 시퀀스 메타데이터 모델과 객체의 어노테이션 결과를 저장할 인터랙티브 오브젝트 메타데이터 모델, 그리고 어노테이션 후 발생될 수 있는 부정확한 객체의 위치 문제를 보완할 사용자 피드백 모델을 적용한 얼굴영역을 기반으로 하는 새로운 형태의 어노테이션 방법을 제안한다. 마지막으로 제안한 어노테이션 방법의 성능을 검증하기 위해서 인터랙티브 비디오 저작 시스템을 구현하여 기존의 저작도구들과 저작 시간을 비교하였고, 사용자 평가를 진행 하였다. 비교 분석 결과 평균 저작 시간이 다른 저작 도구에 비해 2배 감소하였고, 사용자 평가 결과 약 10% 더 유용한다고 평가 되었다.