• 제목/요약/키워드: 얼굴모델

검색결과 601건 처리시간 0.023초

HSV 색상 모델과 영역 확장 기법을 이용한 동영상 프레임 이미지의 흑백 만화 카투닝 알고리즘 (A Black and White Comics Generation Procedure for the Video Frame Image using Region Extension based on HSV Color Model)

  • 류동성;조환규
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제35권12호
    • /
    • pp.560-567
    • /
    • 2008
  • 본 논문에서는 비디오 영상에서 추출한 이미지를 이용하여, 흑백 만화로 변환하기 위한 알고리즘에 대해 논의한다. 대부분의 흑백 만화는 사람의 얼굴이나 손과 같은 살색 계통은 흰색 내지 엷은 색상으로 표현되며, 이미지의 어두운 영역은 해칭과 같이 규칙적이면서도 불규칙한 형태로 묘사한다. 그러므로 단순한 임계값을 이용한 이진화 알고리즘으로 흑백 만화를 렌더링 할 경우, 원본 색상 영상의 다양한 색상과 흑백 만화에서 사용되는 다양한 패턴을 렌더링 할 수 없다. 이러한 흑백 만화의 특징을 반영한 카투닝을 수행하기 위해서, 본 논문에서는 다음과 같은 작업을 수행한다. 먼저, 원본 이미지 영상의 미세한 색상변화를 제거하기 위해서, 1) Bilateral 필터를 적용한다. 그 후, 영상의 각 영역을 유사한 색상 정보로 클러스터링 하기 위해서, 2) Mean shift 세그멘테이션을 적용하였으며, 각 영역별 확장 작업을 수행하였다. 이때 각 영역의 색상이 유사한 정도를 계산하기 위해서, 사람의 색상인지 능력과 유사한 특성을 가진 HSV 색상 모델을 사용하여, 각 영역의 색상 유사정도를 계산하였다. 최종적으로 세그멘테이션된 색상정보를 바탕으로 흑백만화에서 일반적으로 활용되는 색상과 프레임 이미지의 픽셀값을 고려한 3) 이진화를 수행하고, 4) 스트록을 추가해 흑백 만화의 컷 이미지를 완성한다.

SVM과 의사결정트리를 이용한 혼합형 침입탐지 모델 (The Hybrid Model using SVM and Decision Tree for Intrusion Detection)

  • 엄남경;우성희;이상호
    • 정보처리학회논문지C
    • /
    • 제14C권1호
    • /
    • pp.1-6
    • /
    • 2007
  • 안전한 네트워크의 운영을 함에 있어 네트워크 침입 탐지에서 오탐지율을 줄이고 정탐지율을 높이는 것은 매우 중요한 일이라 할 수 있다. 최근에 얼굴 인식과 생물학 정보칩 분류 등에서 활발히 적용 연구되는 SVM을 침입탐지에 이용하면 실시간 탐지가 가능하므로 탐지율의 향상을 기대할 수 있다. 그러나 기존의 연구에서는 입력값들을 벡터공간에 나타낸 후 계산된 값을 근거로 분류하므로, 이산형의 데이터는 입력 정보로 사용할 수 없다는 단점을 가지고 있다. 따라서 이 논문에서는 의사결정트리를 SVM에 결합시킨 침입 탐지 모델을 제안하고 이에 대한 성능을 평가한 결과 기존 방식에 비해 침입 탐지율, F-P오류율, F-N오류율에 있어 각각 5.5%, 0.16%, 0.82% 향상이 있음을 보였다.

피부색상과 복합 특징을 이용한 유해영상 인식 (Adult Image Detection Using Skin Color and Multiple Features)

  • 장석우;최형일;김계영
    • 한국컴퓨터정보학회논문지
    • /
    • 제15권12호
    • /
    • pp.27-35
    • /
    • 2010
  • 유해영상 검출에서 정확하게 피부 색상 영역을 획득하는 것은 매우 중요하다. 그러나 기존의 방법들은 서로 다른 인종, 조명, 화장, 사용된 카메라 등과 같은 여러 원인으로 인해 피부 색상 추출에 여전히 문제를 가지고 있으며, 사전에 미리 정해진 피부 색상 분포 모델을 이용하여 영상에서 피부 영역을 검출한다. 이러한 문제를 해결하기 위해 본 논문에서는 눈 주변 영역에서 샘플을 추출하여 입력 영상에 최적으로 적합된 피부 색상 분포 모델을 생성하여 피부 영역을 강건하게 분할하고, 분할된 피부 영역에서 성인 영상을 대표할 수 있는 특징을 추출한 후, 분할된 피부 영역이 나체의 몸체를 포함하고 있는지를 뉴럴 네트워크 다층 퍼셉트론을 통해 여러 대표적인 특징들을 통합하면서 추론하는 새로운 방법을 제안하다. 본 논문의 실험에서는 피부 색상 영역 분할과 성인영상 검출의 두 가지 성능 측면에서 제안한 방법의 성능이 기존의 방법에 비해 보다 우수함을 보인다. 본 논문에서 제안한 강건한 유해영상검출 기법은 얼굴 검출, 성인영상 필터링 등과 같은 관련된 여러 응용 분야에서 유용하게 활용될 것이라 기대된다.

베이지안 네트워크를 이용한 인간의 피로도 추론 (Human Fatigue Inferring using Bayesian Networks)

  • 박호식;남기환;한준희;정연길;이영식;나상동;배철수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2005년도 춘계종합학술대회
    • /
    • pp.1145-1148
    • /
    • 2005
  • 본 논문에서는 다양한 시각적 정보와 일정한 관련 정보를 통합하여 인간의 피로도를 추론하기 위하여 베이지안 네트워크를 기반으로 한 확률 모델을 제안하고자 한다. 먼저 눈꺼풀의 움직임, 시선, 머리의 움직임, 그리고 얼굴 표정 같은 개인의 상태를 특성 지을 수 있는 시각적 매개변수를 측정하였다. 그러나 각각의 시각적 정보와 일정한 관련 정보만으로 인간의 피로도를 결정하기에는 충분하지 않으므로, 본 논문에서는 인간의 피로도를 모니터링 하기 위하여 가능한 많은 관련 정보와 시각 정보를 융합하여 베이지안 네트워크 모델을 개발하였다. 실험 결과, 피로 예측과 모델링을 위해 제안된 베이지안 네트워크의 유용함을 확인 할 수 있었다.

  • PDF

신경망 학습에서 프라이버시 이슈 및 대응방법 분석 (Analysis of privacy issues and countermeasures in neural network learning)

  • 홍은주;이수진;홍도원;서창호
    • 디지털융복합연구
    • /
    • 제17권7호
    • /
    • pp.285-292
    • /
    • 2019
  • PC, SNS, IoT의 대중화로 수많은 데이터가 생성되고 그 양은 기하급수적으로 증가하고 있다. 거대한 양의 데이터를 활용하는 방법으로 인공신경망 학습은 최근 많은 분야에서 주목받는 주제이다. 인공신경망 학습은 음성인식, 이미지 인식에서 엄청난 잠재력을 보였으며 더 나아가 의료진단, 인공지능 게임 및 얼굴인식 등 다양하고 복잡한 곳에 광범위하게 적용된다. 인공신경망의 결과는 실제 인간을 능가할 정도로 정확성을 보이고 있다. 이러한 많은 이점에도 불구하고 인공신경망 학습에는 여전히 프라이버시 문제가 존재한다. 인공신경망 학습을 위한 학습 데이터에는 개인의 민감한 정보를 포함한 다양한 정보가 포함되어 악의적인 공격자로 인해 프라이버시가 노출될 수 있다. 공격자가 학습하는 도중 개입하여 학습이 저하되거나 학습이 완료된 모델을 공격할 때 발생하는 프라이버시 위험이 있다. 본 논문에서는 최근 제안된 신경망 모델의 공격 기법과 그에 따른 프라이버시 보호 방법을 분석한다.

적응적 패럴랙스 베리어를 위한 사용자 위치 추적 방법 (Estimating Location in Real-world of a Observer for Adaptive Parallax Barrier)

  • 강석훈
    • 한국정보통신학회논문지
    • /
    • 제23권12호
    • /
    • pp.1492-1499
    • /
    • 2019
  • 이 논문에서는 적응적 패럴랙스 베리어 방식에서, 시청영역을 제어할 수 있도록 사용자의 위치를 추적하는 방법을 제안한다. 얼굴자세에 강건한 양안거리 측정을 위해, 형태모델과 랜드마크 기반인 CLM으로 자세를 추정한다. 카메라와의 상관관계로, 거리와 수평위치를 거리로 변환한다. 사용자의 눈의 위치에 따라 적응적 패럴랙스 베리어의 화소간격을 조정하고, 베리어를 이동해 시청영역을 조정한다. 이 논문에서는 60cm부터 490cm의 범위에서 사용자를 추적하는 방법을 제안하고, 카메라 영상의 해상도에 따른 에러, 측정 가능 범위, fps를 측정하였다. 그 결과, 사용자를 평균 3.1642cm의 절대오차 범위내로 측정 가능하였으며, 영상의 해상도에 따라 320×240에서 약 278cm, 640×480에서 약 488cm까지, 그리고 1280×960에서 약 493cm까지를 측정할 수 있었다.

3차원 모델을 이용한 입모양 인식 알고리즘에 관한 연구 (A study on the lip shape recognition algorithm using 3-D Model)

  • 배철수
    • 한국정보통신학회논문지
    • /
    • 제3권1호
    • /
    • pp.59-68
    • /
    • 1999
  • 최근 통신 시스템의 연구와 발전 방향은 목소리의 음성 정보와 말하는 얼굴 영상의 화상 정보를 함께 적용하므로서 음성 정보만을 제공하는 경우보다 높은 인식율을 제공한다. 따라서 본 연구는 청각장애자들의 언어 대체수단 중 하나인 구화(speechreading)에서 가장 시각적 변별력이 높은 입모양 인식을 일반 퍼스널 컴퓨터상에서 구현하고자 한다. 본 논문은 기존의 방법과 달리 말하는 영상 시퀀스에서 입모양 인식을 행하기 위해 3차원 모델을 사용하여 입의 벌어진 정도, 턱의 움직임, 입술의 돌출과 같은 3차원 특징 정보를 제공하였다. 이와 같은 특징 정보를 얻기 위해 3차원 형상 모델을 입력 동영상에 정합시키고 정합된 3차원 형상 모델에서 각 특징점의 변화량을 인식파라미터로 사용하였다. 그리고, 인식단위로 동영상을 분리하는 방법은 3차원 특징점 변화량에서 얻어지는 강도의 기울기에 의하여 이루어지고, 인식은 각각의 3차원 특징벡터를 이산 HMM 인식기의 인식 파라메타로 사용하였다. 본 논문에서는 한국어 10개 모음에 대하여 인식실험하여 비교적 높은 인식율을 얻을 수 있는 것으로 보아 본 연구에서 사용한 특징 벡터를 시간적 변별 요소로서 사용할 수 있음을 제시하였다.

  • PDF

신경망과 Mean-shift를 이용한 눈 추적 (Eye Tracking Using Neural Network and Mean-shift)

  • 강신국;김경태;신윤희;김나연;김은이
    • 전자공학회논문지CI
    • /
    • 제44권1호
    • /
    • pp.56-63
    • /
    • 2007
  • 본 논문은 신경망 (neural network: NN)과 mean-shift알고리즘을 이용하여 복잡한 배경에서 사용자의 눈을 정확히 추출하고 추적할 수 있는 눈 추적 시스템을 제안한다. 머리의 움직임에 강건한 시스템을 개발하기 위해서 먼저 피부색 모델과 연결 성분분석을 이용하여 얼굴영역을 추출한다. 그 다음 신경망기반의 텍스처 분류기를 이용하여 얼굴 영역(face region)을 눈 영역(eye region)과 비눈 영역(non-eye region)으로 구분함으로써 눈을 찾는다. 이러한 눈 검출 방법은 안경의 착용 유무에 상관없이 사용자의 눈 영역을 정확히 검출 할 수 있게 한다. 일단 눈 영역이 찾아지면 이후 프레임에서의 눈 영역은 mean-shift알고리즘에 의해 정확하게 추적된다. 제안된 시스템의 효율성을 검증하기 위해서 제안된 시스템은 눈의 움직임을 이용한 인터페이스 시스템에 적용되었고, 이 인터페이스를 이용한 'aliens game'이 구현되었다. 25명의 사용자에 대해 실험한 결과는 제안된 시스템이 보다 편리하고 친숙한 인터페이스로 활용될 수 있다는 것을 보여주었으며, 또한 $320{\times}240$ 크기의 영상을 초당 30프레임의 빠른 속도로 처리함으로써 실시간 시스템에 적용될 수 있음을 보여주었다.

준 지도학습과 여러 개의 딥 뉴럴 네트워크를 사용한 멀티 모달 기반 감정 인식 알고리즘 (Multi-modal Emotion Recognition using Semi-supervised Learning and Multiple Neural Networks in the Wild)

  • 김대하;송병철
    • 방송공학회논문지
    • /
    • 제23권3호
    • /
    • pp.351-360
    • /
    • 2018
  • 인간 감정 인식은 컴퓨터 비전 및 인공 지능 영역에서 지속적인 관심을 받는 연구 주제이다. 본 논문에서는 wild 환경에서 이미지, 얼굴 특징점 및 음성신호로 구성된 multi-modal 신호를 기반으로 여러 신경망을 통해 인간의 감정을 분류하는 방법을 제안한다. 제안 방법은 다음과 같은 특징을 갖는다. 첫째, multi task learning과 비디오의 시공간 특성을 이용한 준 감독 학습을 사용함으로써 영상 기반 네트워크의 학습 성능을 크게 향상시켰다. 둘째, 얼굴의 1 차원 랜드 마크 정보를 2 차원 영상으로 변환하는 모델을 새로 제안하였고, 이를 바탕으로 한 CNN-LSTM 네트워크를 제안하여 감정 인식을 향상시켰다. 셋째, 특정 감정에 오디오 신호가 매우 효과적이라는 관측을 기반으로 특정 감정에 robust한 오디오 심층 학습 메커니즘을 제안한다. 마지막으로 소위 적응적 감정 융합 (emotion adaptive fusion)을 적용하여 여러 네트워크의 시너지 효과를 극대화한다. 제안 네트워크는 기존의 지도 학습과 반 지도학습 네트워크를 적절히 융합하여 감정 분류 성능을 향상시켰다. EmotiW2017 대회에서 주어진 테스트 셋에 대한 5번째 시도에서, 제안 방법은 57.12 %의 분류 정확도를 달성하였다.

입술 영역의 움직임과 밝기 변화를 이용한 음성구간 검출 알고리즘 개발 (Voice Activity Detection using Motion and Variation of Intensity in The Mouth Region)

  • 김기백;유제웅;조남익
    • 방송공학회논문지
    • /
    • 제17권3호
    • /
    • pp.519-528
    • /
    • 2012
  • 음성구간을 검출하는 일반적인 방법은 음향신호로부터 특징값을 추출하여 판별식을 거치는 것이다. 그러나 잡음이 많은 환경에서 그 성능은 당연히 저하되며, 이 경우 영상신호를 이용하거나 영상과 음성을 동시에 사용함으로써 성능향상을 도모할 수 있다. 영상신호를 이용하여 음성구간을 검출하는 기존 방법들에서는 액티브 어피어런스 모델, 옵티컬 플로우, 밝기 변화 등 주로 하나의 특징값을 이용하고 있다. 그러나 음성구간의 참값은 음향신호에 의해 결정되므로 한 가지의 영상정보만으로는 음성구간을 검출하는데 한계를 보이고 있다. 본 논문에서는 입술 영역의 옵티컬 플로우와 밝기 변화 두 가지 영상정보로부터 특징값을 추출하고, 추출된 특징값들을 결합하여 음성구간을 검출하는 알고리즘을 제안하고자 한다. 또한, 음성구간 검출 알고리즘이 다른 시스템의 전처리로 활용되는 경우에 적은 계산량만으로 수행되는 것이 바람직하므로, 통계적 모델링에 의한 방법보다는 추출된 특징값으로부터 간단한 대수적 연산만으로 스코어를 산정하여 문턱값과 비교하는 방법을 제안하고자 한다. 입술 영역 검출을 위해서는 얼굴에서 가장 두드러진 특징점을 갖는 눈을 먼저 검출한 후, 얼굴의 구조와 밝기값을 이용하는 알고리즘을 제안하였다. 실험 결과 본 논문에서 제안하는 두 가지 특징값을 결합한 음성구간 검출 알고리즘이 하나의 특징값만을 이용했을 때보다 우수한 성능을 보임을 확인할 수 있다.