• 제목/요약/키워드: 컬러모델

검색결과 309건 처리시간 0.027초

시각 감지 기반의 저조도 영상 이미지 적응 보상 증진 알고리즘 (Adaptive Enhancement of Low-light Video Images Algorithm Based on Visual Perception)

  • 이원;민병원
    • 사물인터넷융복합논문지
    • /
    • 제10권2호
    • /
    • pp.51-60
    • /
    • 2024
  • 저조도 환경에서 영상 이미지의 콘트라스트가 낮고 식별이 어려운 문제를 목표로 사람의 시각 감지 기반의 콘트라스트 적응 보상 증진 알고리즘을 제안한다. 첫째, 저조도 환경에서 평균 밝기, 평균 대역폭 요인의 영상 이미지 특징 요인을 추출하고, 원본 영상의 회색/색도 차이에 따라 사람의 시각적 콘트라스트 해상도 보상의 수학적 모델을 설정하며, 실제 컬러의 3원색에 대해 각각 비례 적분하여 보상한다. 다음으로 보상 정도가 명시각 차이를 적절하게 구별할 수 있는 것보다 낮을 때 보상 임계값 선형 보상이 명시각에서 전체 대역폭으로 설정된다. 마지막으로 주관적인 이미지 품질 평가와 이미지 특성 요인을 결합하여 비례 계수를 보상하는 자동 최적화 모델을 구축한다. 실험 테스트 결과는 영상 이미지 적응 증진 알고리즘이 우수한 증진 효과와 우수한 실시간 성능을 가지며 다크 비전 정보를 효과적으로 마이닝할 수 있으며 다양한 시나리오에서 널리 사용될 수 있음을 보여준다.

컬러 정보를 이용한 신경 진동망 기반 얼굴추적 방법 (Face Tracking Method based on Neural Oscillatory Network Using Color Information)

  • 황용원;오상록;유범재;이지용;박민용;정문호
    • 전자공학회논문지SC
    • /
    • 제48권2호
    • /
    • pp.40-46
    • /
    • 2011
  • 본 논문은 출입통제시스템이나 사용자인증이 필요한 통제시스템 등에 적용될 수 있는 신경 진동자(Neural Oscillators)를 이용한 실시간 얼굴검출 및 추적에 필요한 새로운 알고리즘을 제안한다. 신경 진동자(Neural Oscillators)는 생물학적 뉴런의 동작원리를 모방한 것으로서 뉴런의 활성과 비활성의 주기적인 반복동작 특성을 모델링 한 인공신경모델이다. 본 논문에서 제안한 시스템은 크게 두 단계의 처리과정을 가진다. 첫 번째 단계는 얼굴검출 과정인데, 우선 비용이 저렴한 Webcam을 이용하여 실시간 전달되는 RGB24bit 컬러 영상을 획득, LEGION(Locally Excitatory Globally Inhibitory) 알고리즘을 이용하여 분할과정을 거쳐 얼굴영역을 검출한다. 두 번째 단계는 검출된 얼굴영역에서 이웃뉴런들로부터 연결강도가 가장 큰 리더뉴런(Max Leader Neuron)을 찾아 얼굴을 추적하는 방법으로 스케일 문제해결 과 안정된 새로운 얼굴 추적 방법을 제안한다.

깊이 및 컬러 영상을 이용한 실내환경의 3D 복원 (3D Reconstruction of an Indoor Scene Using Depth and Color Images)

  • 김세환;우운택
    • 한국HCI학회논문지
    • /
    • 제1권1호
    • /
    • pp.53-61
    • /
    • 2006
  • 본 논문에서는 다시점 카메라를 이용하여 실내환경의 3D 복원을 위한 새로운 방법을 제안한다. 지금까지 다양한 양안차 추정 알고리즘이 제안되었으며, 이는 활용 가능한 깊이 영상이 다양함을 의미한다. 따라서 본 논문에서는 일반화된 다시점 카메라로 여러 방향에서 획득된 3D 점군을 이용한 실내환경 복원 방법을 다룬다. 첫 번째, 3D 점군들의 시간적 특성을 기반으로 변화량이 큰 3D 점들을 제거하고, 공간적 특성을 기반으로 주변의 3D 점을 참조하여 빈 영역을 채움으로써 깊이 영상 정제 과정을 수행한다. 두 번째, 연속된 두 시점에서의 3D 점군을 동일한 영상평면으로 투영하고 수정된 KLT (Kanade-Lucas-Tomasi) 특징 추적기를 사용하여 대응점을 찾는다. 그리고 대응점간의 거리 오차를 최소화함으로써 정밀한 정합을 수행한다. 마지막으로, 여러 시점에서 획득된 3D 점군과 한 쌍의 2D 영상을 동시에 이용하여 3D 점들의 위치를 세밀하게 조절함으로써 최종적인 3D 모델을 생성한다. 제안된 방법은 대응점을 2D 영상 평면에서 찾음으로써 계산의 복잡도를 줄였으며, 3D 데이터의 정밀도가 낮은 경우에도 주변화소와의 상관관계를 이용함으로써 효과적으로 동작한다. 또한, 다시점 카메라를 이용함으로써 수 시점에서의 깊이 영상과 컬러 영상만으로도 실내환경에 대한 3D 복원이 가능하다. 제안된 방법은 네비게이션 뿐만 아니라 상호작용을 위한 가상 환경 생성 및 Mediated Reality (MR) 응용 분야에 활용될 수 있다.

  • PDF

패션 커스터마이징 플랫폼 디자인 사례분석 연구 (Analysis of the Fashion Customization Platform Design Cases)

  • 정제윤;이샘;남원석
    • 한국융합학회논문지
    • /
    • 제12권8호
    • /
    • pp.23-30
    • /
    • 2021
  • 소비자 취향의 다양화와 다품종 소량 생산의 수요에 따라 패션계에서도 다양한 커스터마이징 서비스가 소개되고 있다. 그러나 커스텀이 익숙하지 않은 소비자에게는 진입장벽이 높으며, 다양한 기능이 오히려 복잡하게 작용한다. 본 연구는 패션 플랫폼 매출 1위인 마플과 가장 유사한 서비스를 제공하는 플랫폼 3곳을 비교모델로 선정한 후 사례분석을 통해 웹 기반 패션 커스터마이징 플랫폼 설계를 위한 기초연구로 활용하고자 하였다. 연구 방법으로는 문헌 조사를 통하여 이론적 고찰을 진행한 후, 레이아웃, 메뉴, 컬러, 아이콘, 인터렉션을 기준으로 웹을 분석 후 설문을 진행하였다. 연구 결과 옵션의 배치, 메뉴창의 구성, 포인트 컬러의 개수, 메타포의 기능이 없는 아이콘 사용 등이 커스터마이징 플랫폼 이용에 방해가 된다는 것을 찾아낼 수 있었다. 본 연구는 해결방안을 제안하고, 웹 플랫폼 디자인의 시각적 조형요소를 종합적으로 분석하여 향후 개발될 커스터마이징 웹의 사용성을 높이는데 기여하고자 한다.

3차원 시각 주의 모델과 이를 이용한 무참조 스테레오스코픽 비디오 화질 측정 방법 (3D Visual Attention Model and its Application to No-reference Stereoscopic Video Quality Assessment)

  • 김동현;손광훈
    • 전자공학회논문지
    • /
    • 제51권4호
    • /
    • pp.110-122
    • /
    • 2014
  • 최근 사용자에게 직접 입체감을 제공하는 3차원 영상기술에 대한 관심이 증대함에 따라 스테레오스코픽 비디오 화질 측정기술개발은 중요한 주제로 많은 연구자에게 관심을 받고 있다. 특히, 스테레오스코픽 비디오 화질 측정에 중요한 역할을 하는 인간시각특성을 고려한 연구가 활발히 진행되지 않고 있어 본 논문에서 스테레오스코픽 비디오를 시청할 때 자극되는 다수의 인간시각특성 요소인 깊이, 움직임, 컬러, 휘도, 대조 등을 고려하여 3차원 시각 주의 모델을 제안한다. 또한, 본 논문에서는 실제 3차원 영상 특정 영역의 화질 열화 정도를 측정하는데 제안된 3차원 시각 주의 모델을 사용하여 무참조 스테레오스코픽 비디오 화질 측정 방법을 제안하였다. 제안 방법을 검증하기 위해 주관평가를 실시하여 기존의 스테레오스코픽 비디오 화질 측정 방법보다 평균 평가점에서 더 높은 연관성을 보였다. 게다가, 3차원 시각 주의 모델을 이용하여 스테레오스코픽 비디오의 관심영역 추출 결과는 공간적, 시간적 요소를 고려하여 추출된 관심영역에 비해 실제 관심영역과 더욱 유사함을 주관적으로 보여 제안 방법의 효율성을 보였다.

스네이크 알고리즘에 의한 CCD 카메라 영상에서의 얼굴 및 얼굴 요소 추출 (Pace and Facial Element Extraction in CCD-Camera Images by using Snake Algorithm)

  • 판데홍;김영원;김정연;전병환
    • 한국지능정보시스템학회:학술대회논문집
    • /
    • 한국지능정보시스템학회 2002년도 추계정기학술대회
    • /
    • pp.535-542
    • /
    • 2002
  • 최근 IT 산업이 급성장하면서 화상 회의, 게임, 채팅 등에서의 아바타(avatar) 제어를 위한 자연스러운 인터페이스 기술이 요구되고 있다. 본 논문에서는 동적 윤곽선 모델(active contour models; snakes)을 이용하여 복잡한 배경이 있는 컬러 CCD 카메라 영상에서 얼굴과 눈, 입, 눈썹, 코 등의 얼굴 요소에 대해 윤곽선을 추출하거나 위치를 파악하는 방법을 제안한다. 일반적으로 스네이크 알고리즘은 잡음에 민감하고 초기 모델을 어떻게 설정하는가에 따라 추출 성능이 크게 좌우되기 때문에 주로 단순한 배경의 영상에서 정면 얼굴의 추출에 사용되어왔다 본 연구에서는 이러한 단점을 파악하기 위해, 먼저 YIQ 색상 모델의 I 성분을 이용한 색상 정보와 차 영상 정보를 사용하여 얼굴의 최소 포함 사각형(minimum enclosing rectangle; MER)을 찾고, 이 얼굴 영역 내에서 기하학적인 위치 정보와 에지 정보를 이용하여 눈, 입, 눈썹, 코의 MER을 설정한다. 그런 다음, 각 요소의 MER 내에서 1차 미분과 2차 미분에 근거한 내부 에너지와 에지에 기반한 영상 에너지를 이용한 스네이크 알고리즘을 적용한다. 이때, 에지 영상에서 얼굴 주변의 복잡한 잡음을 제거하기 위하여 색상 정보 영상과 차 영상에 각각 모폴로지(morphology)의 팽창(dilation) 연산을 적용하고 이들의 AND 결합 영상에 팽창 연산을 다시 적용한 이진 영상을 필터로 사용한다. 총 7명으로부터 양 눈이 보이는 정면 유사 방향의 영상을 20장씩 취득하여 총 140장에 대해 실험한 결과, MER의 오차율은 얼굴, 눈, 입에 대해 각각 6.2%, 11.2%, 9.4%로 나타났다. 또한, 스네이크의 초기 제어점을 얼굴은 44개, 눈은 16개, 입은 24개로 지정하여 MER추출에 성공한 영상에 대해 스네이크 알고리즘을 수행한 결과, 추출된 영역의 오차율은 각각 2.2%, 2.6%, 2.5%로 나타났다.해서 Template-based reasoning 예를 보인다 본 방법론은 검색노력을 줄이고, 검색에 있어 Feasibility와 Admissibility를 보장한다.매김할 수 있는 중요한 계기가 될 것이다.재무/비재무적 지표를 고려한 인공신경망기법의 예측적중률이 높은 것으로 나타났다. 즉, 로지스틱회귀 분석의 재무적 지표모형은 훈련, 시험용이 84.45%, 85.10%인 반면, 재무/비재무적 지표모형은 84.45%, 85.08%로서 거의 동일한 예측적중률을 가졌으나 인공신경망기법 분석에서는 재무적 지표모형이 92.23%, 85.10%인 반면, 재무/비재무적 지표모형에서는 91.12%, 88.06%로서 향상된 예측적중률을 나타내었다.ting LMS according to increasing the step-size parameter $\mu$ in the experimentally computed. learning curve. Also we find that convergence speed of proposed algorithm is increased by (B+1) time proportional to B which B is the number of recycled data buffer without complexity of computation. Adaptive transversal filter with proposed data recycling buffer algorithm could efficiently reject ISI of channel and increase speed of convergence in avoidance burden of computational complexity in reality when it was experimented having the same condition of

  • PDF

감성검색법을 기초로 한 정보기기 콘텐츠 디자인 연구 -색채정보를 이용한 모바일 감성검색시스템을 사례로- (Applying Emotional Information Retrieval Method to Information Appliances Design -The Use of Color Information for Mobile Emotion Retrieval System-)

  • 김돈한;서경호
    • 감성과학
    • /
    • 제13권3호
    • /
    • pp.501-510
    • /
    • 2010
  • 본 연구에서는 모바일 정보기기의 콘텐츠 디자인을 목적으로 한 감성검색시스템의 구축에 있어 시스템의 주요 구성요소 중의 하나인 '사용자감성모델'을 풀 컬러 화상의 색상성분추출을 통하여 자동적으로 생성하는 방법을 제안하고, 평가실험을 통하여 시스템의 타당성을 검증하였다. 시각적 감성 유발 자극으로 100장의 인테리어 이미지 화상을 이용하여 데이터베이스를 작성한 후 48명의 실험 참가자를 대상으로 감성평가실험을 실시하였다. '사용자감성모델'의 신뢰성을 검증하기 위해 먼저 시스템이 검색한 이미지 속에 정답 이미지가 출현하는 재현율(Recall ratio)을 구하였다, 다음으로 시스템이 산출한 순위와 피험자가 평가한 순위 사이의 상관분석을 실시하였으며, 마지막으로 시스템이 산출한 상/하위 순위를 이용하여 Paired Samples t-test(2-tailed)분석을 실시하였다. 분석결과 전체 감성어에 대한 평균 재현율은 62.1%로 양호하게 나타났으며, 상관분석에서도 전체 감성어들이 정적 상관을 보이고 있는 것으로 나타났다(p<.01). 또한 Paired Samples t-test(2-tailed) 분석결과 'Casual'를 제외한 모든 감성어들에서 상위 이미지가 더 적합하며 그 차이가 유의미한 것으로 나타났다(t(9)=5.528, p<.05). 이와 같은 연구결과로부터 색상정보만으로 구축한 '사용자감성모델'이 상업공간의 이미지와 같은 시각자극의 검색에 있어서도 사용자의 감성을 반영할 수 있는 효율적인 방법인 점을 확인하였다.

  • PDF

음성특징의 거리에 기반한 한국어 발음의 시각화 (Visualization of Korean Speech Based on the Distance of Acoustic Features)

  • 복거철
    • 한국정보전자통신기술학회논문지
    • /
    • 제13권3호
    • /
    • pp.197-205
    • /
    • 2020
  • 한국어는 자음과 모음과 같은 음소 단위의 발음은 고정되어 있고 표기에 대응하는 발음은 변하지 않기 때문에 외국인 학습자가 쉽게 접근할 수 있다. 그러나 단어와 어구, 문장을 말할 때는 음절과 음절의 경계에서 소리의 변동이 다양하고 복잡하며 표기와 발음이 일치하지 않기 때문에 외국어로서의 한국어 표준 발음 학습은 어려운 면이 있다. 그러나 영어 같은 다른 언어와 달리 한국어의 표기와 발음의 관계는 논리적인 원리에 따라 예외 없이 규칙화 할 수 있는 장점이 있으므로 발음오류에 대해 체계적인 분석이 가능한 것으로 여겨진다. 본 연구에서는 오류 발음과 표준 발음의 차이를 컴퓨터 화면상의 상대적 거리로 표현하여 시각화하는 모델을 제시한다. 기존 연구에서는 발음의 특징을 단지 컬러 또는 3차원 그래픽으로 표현하거나 입과 구강의 변화하는 형태를 애니메이션으로 보여 주는 방식에 머물러 있으며 추출하는 음성의 특징도 구간의 평균과 같은 점 데이터를 이용하는데 그치고 있다. 본 연구에서는 시계열로 표현되는 음성데이터의 특성 및 구조를 요약하거나 변형하지 않고 직접 이용하는 방법을 제시한다. 이를 위해서 딥러닝 기법을 토대로 자기조직화 알고리즘과 variational autoencoder(VAE) 모델 및 마코브 확률모델을 결합한 확률적 SOM-VAE 기법을 사용하여 클러스터링 성능을 향상시켰다.

에지와 컬러 정보를 결합한 안면 분할 기반의 손실 함수를 적용한 메이크업 변환 (Makeup transfer by applying a loss function based on facial segmentation combining edge with color information)

  • 임소현;전준철
    • 인터넷정보학회논문지
    • /
    • 제23권4호
    • /
    • pp.35-43
    • /
    • 2022
  • 메이크업은 사람의 외모를 개선하는 가장 보편적인 방법이다. 하지만 메이크업의 스타일이 매우 다양하기 때문에 한 개인이 본인에게 직접 메이크업을 하는 것에는 많은 시간적, 비용적 문제점이 존재한다. 이에 따라 메이크업 자동화에 대한 필요성이 증가하고 있다. 메이크업의 자동화를 위해 메이크업 변환(Makeup Transfer)가 연구되고 있다. 메이크업 변환은 메이크업이 없는 얼굴 영상에 메이크업 스타일을 적용시키는 분야이다. 메이크업 변환은 전통적인 영상 처리 기반의 방법과 딥러닝 기반의 방법으로 나눌 수 있다. 특히 딥러닝 기반의 방법에서는 적대적 생성 신경망을 기반으로 한 연구가 많이 수행되었다. 하지만 두 가지 방법 모두 결과 영상이 부자연스럽거나 메이크업 변환의 결과가 뚜렷하지 않고 번지거나 메이크업 스타일 얼굴 영상의 영향을 많이 받는다는 단점이 있다. 메이크업의 뚜렷한 경계를 표현하고 메이크업 스타일 얼굴 영상에서 받는 영향을 완화시키기 위해 본 연구에서는 메이크업 영역을 분할하고 HoG(Histogram of Gradient)를 사용해 손실 함수를 계산한다. HoG는 영상 내에 존재하는 에지의 크기와 방향성을 통해 영상의 특징을 추출하는 방법이다. 이를 통해 에지에 대해 강건한 학습을 수행하는 메이크업 변환에 대해 제안한다. 제안한 모델을 통해 생성된 영상과 베이스 모델로 사용하는 BeautyGAN을 통해 생성된 영상을 비교해 본 연구에서 제안한 모델의 성능이 더 뛰어남을 확인하고 추가로 제시할 수 있는 얼굴 정보에 대한 사용 방법을 향후 연구로 제시한다.

비정형 패션 이미지 검색을 위한 MASK R-CNN 선형처리 기반 CNN 분류 학습모델 구현 (Implementation of CNN-based Classification Training Model for Unstructured Fashion Image Retrieval using Preprocessing with MASK R-CNN)

  • 조승아;이하영;장혜림;김규리;이현지;손봉기;이재호
    • 한국산업정보학회논문지
    • /
    • 제27권6호
    • /
    • pp.13-23
    • /
    • 2022
  • 본 논문에서는 패션 분야의 비정형 데이터 검색을 위한 패션 아이템별 세부 컨포넌트 이미지 분류 알고리즘을 제안한다. 코로나-19 환경으로 인하여 최근 AI 기반 쇼핑몰이 증가하는 추세이다. 하지만 기존의 키워드 검색과 사용자 서핑 행위 기반 개인 맞춤형 스타일 추천으로는 정확한 비정형 데이터 검색에는 한계가 있다. 본 연구는 다양한 온라인 쇼핑 사이트에서 크롤링한 이미지를 사용하여 Mask R-CNN을 활용한 전처리를 진행한 후, CNN을 통해 패션 아이템별 컴포넌트에 대한 분류를 진행하였다. 셔츠의 카라 및 패턴과 청바지의 핏, 워싱 및 컬러에 대한 분류를 진행하였으며, 다양한 전이학습 모델을 비교 분석한 후 가장 높은 정확도가 나온 Densenet121모델을 사용하여 셔츠의 카라는 93.28%, 셔츠의 패턴은 98.10%의 정확도를 도달하였으며, 청바지의 핏은 Notched, Spread, Straight 3가지의 클래스의 경우 91.73%, Regular 핏을 추가한 4가지의 클래스의 경우 81.59%, 청바지의 색상은 93.91%, 청바지의 Washing은 91.20%, 청바지의 Demgae는 92.96%의 정확도를 도출하였다.