• 제목/요약/키워드: Feature extraction and conversion

검색결과 15건 처리시간 0.018초

얼굴 검출을 위한 피부색 추출 과정에서 피부색 손실 영역 개선에 관한 연구 (A Study on the Improvement of Skin Loss Area in Skin Color Extraction for Face Detection)

  • 김동인;이강성;한군희;이상훈
    • 한국융합학회논문지
    • /
    • 제10권5호
    • /
    • pp.1-8
    • /
    • 2019
  • 본 논문에서는 피부색 추출과정에서 그림자나 조명에 의해 얼굴 표면이 손실되어 피부색 추출이 되지 않는 문제점을 해결하기 위하여 개선된 얼굴 피부색 추출 방법을 제안하였다. 기존의 HSV를 이용한 방법은 조명에 의해 얼굴표면이 밝게 비춰지는 경우에 피부색 추출과정에서 피부색 요소가 손실되기 때문에 얼굴표면에 손실 영역이 나타나게 된다. 이러한 문제점을 해결하기 위해 피부색을 추출한 뒤 손실된 피부 요소 중 HSV 색공간에서 피부색의 H 채널 값 범위에 있는 요소들을 판단하여 손실된 부분의 좌표와 원본 이미지 좌표의 결합을 통해 피부색이 손실되는 부분을 최소화 하는 방법을 제안하였다. 얼굴 검출 과정으로는 추출한 피부색 이미지에서 질감 특징정보를 나타내는 LBP Cascade Classifier를 이용하여 얼굴을 검출하였다. 실험결과 제안하는 방법이 기존의 RGB와 HSV 피부색 추출과 LBP Cascade Classifier 방법을 이용한 얼굴검출보다 검출률과 정확도는 각각 5.8%, 9.6% 향상된 결과를 보였다.

의도적인 공감각 기반 영상-음악 변환 시스템 구현 (Implementation of the System Converting Image into Music Signals based on Intentional Synesthesia)

  • 배명진;김성일
    • 전기전자학회논문지
    • /
    • 제24권1호
    • /
    • pp.254-259
    • /
    • 2020
  • 본 논문은 사전에 학습된 기억으로 공감각 현상을 지각할 수 있는 의도적인 공감각으로 영상에서 음악으로 변환하는 시스템을 구현하였다. 영상에서 변환정보로 색상(Color), 질감(Texture), 모양(Shape)을 사용하여 음악의 멜로디(Melody), 하모니(Harmony), 리듬(Rhythm) 정보로 변환하였다. 정적인 영상에서 단조로운 음이 반복되는 것을 최소화하고 영상에 있는 정보를 표현하기 위해 색상의 분포도에 따라 확률적으로 멜로디를 선택하여 출력함으로써 자연스럽게 음을 구성할 수 있도록 하였고, 영상에서 질감은 통계적 질감 특징 추출방식인 GLCM(Gray-Level Co-occurrence Matrix)의 7가지 특징으로 하모니의 장조와 단조를 표현하였다. 마지막으로 모양은 영상의 외곽선을 추출한 후 주파수 성분 분석인 허프 변환(Hough Transform)을 이용해 선 성분을 검출하여 각도의 분포에 따라 리듬을 선택하는 방식으로 음악을 생성하였다.

SuperDepthTransfer: Depth Extraction from Image Using Instance-Based Learning with Superpixels

  • Zhu, Yuesheng;Jiang, Yifeng;Huang, Zhuandi;Luo, Guibo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권10호
    • /
    • pp.4968-4986
    • /
    • 2017
  • In this paper, we primarily address the difficulty of automatic generation of a plausible depth map from a single image in an unstructured environment. The aim is to extrapolate a depth map with a more correct, rich, and distinct depth order, which is both quantitatively accurate as well as visually pleasing. Our technique, which is fundamentally based on a preexisting DepthTransfer algorithm, transfers depth information at the level of superpixels. This occurs within a framework that replaces a pixel basis with one of instance-based learning. A vital superpixels feature enhancing matching precision is posterior incorporation of predictive semantic labels into the depth extraction procedure. Finally, a modified Cross Bilateral Filter is leveraged to augment the final depth field. For training and evaluation, experiments were conducted using the Make3D Range Image Dataset and vividly demonstrate that this depth estimation method outperforms state-of-the-art methods for the correlation coefficient metric, mean log10 error and root mean squared error, and achieves comparable performance for the average relative error metric in both efficacy and computational efficiency. This approach can be utilized to automatically convert 2D images into stereo for 3D visualization, producing anaglyph images that are visually superior in realism and simultaneously more immersive.

워터쉐드와 U-net을 이용한 마네킹 패션 이미지의 자동 3D 데이터 추출 방법 (Automatic 3D data extraction method of fashion image with mannequin using watershed and U-net)

  • 박영민
    • 문화기술의 융합
    • /
    • 제9권3호
    • /
    • pp.825-834
    • /
    • 2023
  • 인터넷 쇼핑에서 상품의 사진과 동영상을 대체해 3D콘텐츠와 웹 3D 소프트웨어로 사용자에게 친숙한 이미지를 제공하려는 시도가 이어지고 있다 본 연구에서는 2D 이미지를 3D로 변환하여 고객들이 다양한 위치에서 상품을 파악할 수 있는 웹 3D 기술에 접목시키고 변환에 필요한 비용과 계산 시간을 줄일 수 있는 자동 변환기술을 제안하였다. 단 8대의 카메라 만을 사용하여 마네킹을 회전하는 턴테이블 위에 올려 놓고 촬영하는 시스템을 개발하였다. 이러한 시스템에서 촬영한 이미지에서 옷 부분만 추출하기 위해 U-net을 이용하여 마커를 제거하고, 배경 영역과 마네킹 영역의 컬러 특징 정보를 파악하여 옷 영역만을 추출하는 알고리즘을 제안하였다. 이 알고리즘을 이용하면 이미지를 촬영한 후 옷 영역만을 추출하는데 걸리는 시간이 이미지 하나당 2.25초며, 한 개의 옷에 대해 64장의 이미지를 촬영하는 경우에 총 144초(2분 4초)가 소요되어 매우 우수한 성능으로 3D오브젝트를 추출할 수 있다.

콜퍼스에 기반한 한국어 문장/음성변환 시스템 (Corpus-based Korean Text-to-speech Conversion System)

  • 김상훈;박준;이영직
    • 한국음향학회지
    • /
    • 제20권3호
    • /
    • pp.24-33
    • /
    • 2001
  • 이 논문에서는 대용량 음성 데이터베이스를 기반으로 하는 한국어 문장/음성변환시스템의 구현에 관해 기술한다. 기존 소량의 음성데이타를 이용하여 운율조절을 통해 합성하는 방식은 여전히 기계음에 가까운 합성음을 생성하고 있다. 이러한 문제점을 해결하기 위해 본 논문에서는 대용량 음성 데이터베이스를 기반으로 하여 운율처리없이 합성단위 선정/연결에 의해 합성음질을 향상시키고자 한다. 대용량 음성 데이터베이스는 다양한 운율변화를 포함하도록 문장단위를 녹음하며 이로부터 복수개의 합성단위를 추출, 구축한다. 합성단위는 음성인식기를 훈련, 자동으로 음소분할하여 생성하며, 래링고그라프 신호를 이용하여 정교한 피치를 추출한다. 끊어 읽기는 휴지길이에 따라 4단계로 설정하고 끊어읽기 추정은 품사열의 통계정보를 이용한다. 합성단위 선정은 운율/스펙트럼 파라미터를 이용하여 비터비 탐색을 수행하게 되며 유클리디언 누적거리가 최소인 합성단위열을 선정/연결하여 합성한다. 또한 이 논문에서는 고품질 음성합성을 위해 특정 서비스 영역에 더욱 자연스러운 합성음을 생성할 수 있는 영역의존 음성합성용 데이터베이스를 제안한다. 구현된 합성시스템은 주관적 평가방법으로 명료도와 자연성을 평가하였고 그 결과 대용량 음성 데이터베이스를 기반으로한 합성방식의 성능이 기존 반음절단위를 사용한 합성방식보다 더 나은 성능을 보임을 알 수 있었다.

  • PDF