• Title/Summary/Keyword: 위치영역

Search Result 3,964, Processing Time 0.028 seconds

Regional Image Retrieval by using Color and Texture (색깔과 질감을 이용한 영역별 영상 검색)

  • 곽정원;조남익
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2000.11b
    • /
    • pp.137-142
    • /
    • 2000
  • 많은 정보를 포함하고 있는 영상 자료에서 빠른 검색과 분류를 위해서 색깔이나 질감 등의 특징을 나타내는 기술자가 필요하다. 또한 한 영상 안에서도 각 영역별로 다른 특징을 나타내고 있기 때문에 영역별 검색과 분류를 위한 영역 단위의 특징 추출이 중요하다. 본 논문에서는 색깔 특징으로 영역화된 영상의 각 영역에서 색깔 특징 벡터와 질감 특징 벡터를 추출하고 추출된 특징 벡터를 다른 영역에서 추출된 특징 벡터와의 거리를 이용하여 비슷한 특징을 보이는 영역을 검색한다. 기존의 전체 영상의 색깔이나 질감 어느 하나만을 이용한 검색과 달리 이러한 특징을 공간적 위치와 색깔, 질감을 조합하여 검색함으로써 보다 만족스러운 검색 결과를 얻을 수 있다.

  • PDF

Image Scale Normalization Based on the Face Detection (얼굴 영역 검출 기반한 영상 크기 정규화)

  • 이혜현;임은경;김민환
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2004.05a
    • /
    • pp.267-270
    • /
    • 2004
  • 본 논문에서는 다양한 크기를 갖는 얼굴 영상들을 대상으로 얼굴 영역을 추출하고 추출된 얼굴 영역을 기준으로 증명 사진의 규격에 맞게 영상을 정규화하는 방법을 제안한다. 얼굴 영역의 추출을 위해서 본 논문에서는 피부색 확장을 통하여 얼굴 후보 영역을 추출하고. 얼굴 기관의 위치 정보와 얼굴 모양에 대한 통계치를 사용하여 최종 얼굴 영역을 결정한다 추출된 얼굴 영역과 배경 영역의 크기에 대한 비례 관계는 증명사진에 대한 통계조사에 의해 산출된 규칙을 적용하여 정규화한다. 제안된 방법은 다양한 배경을 갖는 130개 영상을 대상으로 실험하여 타당성을 확인하였다.

  • PDF

Automatic Extraction of the Facial Feature Points Using Moving Color (색상 움직임을 이용한 얼굴 특징점 자동 추출)

  • Kim, Nam-Ho;Kim, Hyoung-Gon;Ko, Sung-Jea
    • Journal of the Korean Institute of Telematics and Electronics S
    • /
    • v.35S no.8
    • /
    • pp.55-67
    • /
    • 1998
  • This paper presents an automatic facial feature point extraction algorithm in sequential color images. To extract facial region in the video sequence, a moving color detection technique is proposed that emphasize moving skin color region by applying motion detection algorithm on the skin-color transformed images. The threshold value for the pixel difference detection is also decided according to the transformed pixel value that represents the probability of the desired color information. Eye candidate regions are selected using both of the black/white color information inside the skin-color region and the valley information of the moving skin region detected using morphological operators. Eye region is finally decided by the geometrical relationship of the eyes and color histogram. To decide the exact feature points, the PCA(Principal Component Analysis) is used on each eye and mouth regions. Experimental results show that the feature points of eye and mouth can be obtained correctly irrespective of background, direction and size of face.

  • PDF

Efficient Hole Filling Method for Producing Virtual View Images (가상시점 영상 생성을 위한 효율적인 홀 채움 방법)

  • Mun, Ji-Hun;Ho, Yo-Sung
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2014.11a
    • /
    • pp.93-96
    • /
    • 2014
  • 본 논문에서는 가상시점 영상을 생성할 때 발생하는 홀 영역을 효율적으로 채우는 방법을 제안한다. 가상시점 영상을 생성하려면 우선 깊이 영상에 대해 3차원 워핑을 수행한 뒤, 이때 발생하는 작은 홀을 미디언 필터를 이용하여 적절히 채워야 한다. 홀이 채워진 깊이 영상을 기반으로 하여 입력받은 참조 컬러 영상에 대해 3차원 워핑을 수행하여 가상 위치에 새로운 시점 영상을 생성하게 된다. 이때 또한 마찬가지로 3차원 워핑을 수행하기 때문에 홀 영역이 발생하게 된다. 텍스쳐 영상을 워핑하여 새로운 좌표계로 옮긴 영상은 주변 컬러 화소들과의 관계들을 가지고 있다. 텍스쳐 영상을 워핑한 결과 영상에서 발생하는 홀 영역을 채우기 위해 방향성을 고려한 홀 채움 방법을 사용한다. 홀 주변 화소 영역의 값들을 홀을 채우게 될 후보 화소 값으로 설정한 뒤, 각각의 화소값에 대해 비용값을 계산한다. 이때 가장 적은 비용값을 갖게 하는 주변 화소 값을 해당 영역의 홀 채움 값으로 사용하게 된다. 좌영상과 우영상을 워핑할 때 발생하는 홀 영역의 위치가 각각 다르게 나타난다. 홀 영역은 배경화소 값을 이용해 채울 경우 자연스러운 결과를 보인다. 배경화소 값을 이용하기 위해 좌영상과 우영상에 따른 새로운 홀 스캔 방향 또한 제안한다. 능동적으로 홀 스캔 방향을 선택하여 홀 주변 화소값들을 스캔해가며 워핑 결과 발생하는 홀 영역을 효율적으로 채우게 된다. 결과적으로 제안한 방법을 통하여 생성된 가상시점 영상의 화질이 좋아지는 결과를 확인할 수 있었다.

  • PDF

Face Detection based Real-time Eye Gaze Correction Method Using a Depth Camera (거리 카메라를 이용한 얼굴 검출 기반 실시간 시선 보정 방법)

  • Jo, Hoon;Ra, Moon-Soo;Kim, Whoi-Yul;Kim, Deuk-Hwa
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2012.11a
    • /
    • pp.151-154
    • /
    • 2012
  • 본 논문에서는 화상통신의 현실감을 증진시킬 수 있는 화자 간 시선 맞춤 시스템을 제안한다. 제안하는 방법은 Kinect 거리 카메라로부터 입력된 영상에서 화자의 얼굴 영역을 획득하여 화자의 시선이 카메라를 응시하도록 획득한 영역을 변환한 후에 원본 영상과 합성한다. Kinect 거리 카메라에서 획득한 얼굴 영역에는 다양한 형태의 잡음이 많아 미디언 필터와 모폴로지 연산을 통해 얼굴 영역의 잡음을 제거한다. 화자의 위치에 상관 없이 화자가 카메라를 응시하는 영상을 생성하기 위해서 Kinect 가 제공하는 거리 정보를 이용하여 시선 보정 각도와 회전 축을 획득한다. 시선이 보정된 얼굴 영역은 원본 영상에서 존재하지 않는 영역을 포함하고 있기 때문에, 원본 영상의 각 화소를 삼각형 메쉬로 구성한 후 해당 영역을 보간하여 최종적으로 시선이 보정된 영상을 생성한다. 제안하는 방법은 시선 맞춤 영상을 생성하는 데 필수적인 눈과 주변 얼굴 영역만 선택해서 변환하므로 영상의 왜곡이 적고 실시간 처리가 가능하다는 장점이 있다. 또한 카메라와 화자 사이의 거리 정보를 이용해 화자의 위치에 적응적인 시선 맞춤 영상을 생성할 수 있다. 실험을 통해 Intel i5 CPU 를 장착한 PC에서 $320{\times}240$ 크기의 영상을 사용할 경우 초당 약 35 프레임의 보정된 영상을 생성하여 제안하는 방법이 실시간 처리가 가능하다는 것을 확인하였다.

  • PDF

Importance-Performance Analysis (IPA) of the Core Competence of Gifted Education Teachers (영재교육 담당교원의 핵심역량 인식에 대한 중요도와 실행도(IPA) 분석)

  • Lee, Mina;Park, Sung Hee
    • Journal of Gifted/Talented Education
    • /
    • v.25 no.6
    • /
    • pp.927-949
    • /
    • 2015
  • The purpose of this study was to find out the difference between importance and performance regarding perception of core competence of gifted education teachers through importance-performance analysis (IPA). One hundred fourteen elementary gifted education teachers including math and science participated in the study. The collected survey data was analyzed with IPA matrix. As the result, firstly, there was significant difference between importance and performance regarding perception of core competence of gifted education teachers. Secondly, core competencies of 'understanding knowledge', 'research and instruction', 'passion and motivation', and 'ethics' are high in both perceptions of importance and performance. However, both 'communication and practices' and 'professional curriculum development' are low. Thirdly, there was a difference in core competence of gifted education teachers between math and science at the competence of 'passion and motivation'. Math gifted education teachers perceived 'passion and motivation' high in both importance and performance while science gifted education teachers perceived its importance low and performance high. In addition, math gifted education teachers showed lower performance compared to its importance in the sub-categories; 'knowledge of gifted development', 'gifted child assessment', 'information gathering and its literacy', and 'creative answers to various questions'. However, science gifted education teachers showed lower performance compared to its importance in sub-categories; 'higher-order thinking skills in its subject', 'teaching methodology for self-directed learning', 'problem behavior of the gifted', and 'counseling the gifted'.

Optimizing the Search Space for Location-Dependent Query Processing in Mobile Computing (이동 컴퓨팅 환경에서의 위치 기반 질의 처리를 위한 탐색 공간의 최적화)

  • 백형종;구경이;김유성
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10a
    • /
    • pp.130-132
    • /
    • 2001
  • 이동 컴퓨팅 환청에서 이동 사용자는 언제, 어디서나 현재 자신의 지리적 위치에서 유효성을 갖는 위치 기반 데이터를 액세스 하고자 하는 이동 사용자의 요구가 증가하고 있다. 따라서, 이러한 위치기반의 데이타를 얻기 위한 위치 기반 질의를 표현하고, 효율적으로 처리할 수 있는 방법이 필요하다. 본 논문에서는 위치 기반 질의를 효율적으로 처리 하기 위해 이동 사용자의 현재 위치를 중심으로 하는 원의 방정식을 이용하여 질의 탐색 공간을 표현하고, 질의 영역 분말 방법을 이용하여 탐색공간을 최적화하는 위치 기반 질의 처리 기법을 제안하였다. 또한 이동 사용자에게 적응하는 효율적인 부분 질의 통합 방안을 제시하였다.

  • PDF

A License Plate Recognition System Robust to Vehicle Location and Viewing Angle (영상 내 차량의 위치 및 촬영 각도에 강인한 차량 번호판 인식 시스템)

  • Hong, Sungeun;Hwang, Sungsoo;Kim, Seongdae
    • Journal of the Institute of Electronics and Information Engineers
    • /
    • v.49 no.12
    • /
    • pp.113-123
    • /
    • 2012
  • Recently, various attempts have been made to apply Intelligent Transportation System under various environments and conditions. Consequently, an accurate license plate recognition regardless of vehicle location and viewing angle is required. In this paper, we propose a novel license plate recognition system which exploits a) the format of license plates to remove false candidates of license plates and to extract characters in license plates and b) the characteristics of Hangul for accurate character recognition. In order to eliminate false candidates of license plates, the proposed method first aligns the candidates of license plates horizontally, and compares the position and the shape of objects in each candidate with the prior information of license plates provided by Korean Ministry of Construction & Transportation. The prior information such as aspect ratio, background color, projection image is also used to extract characters in license plates accurately applying an improved local binarization considering luminance variation of license plates. In case of recognizing Hangul in license plates, they are initially grouped according to their shape similarity. Then a super-class method, a hierarchical analysis based on key feature points is applied to recognize Hangul accurately. The proposed method was verified with high recognition rate regardless of background image, which eventually proves that the proposed LPR system has high performance regardless of the vehicle location or viewing angle.

Field Data Extraction on Tax Form Image (세금계산서 상에서의 관심 데이터 추출)

  • 정재영;유돈극
    • Proceedings of the Korea Society for Industrial Systems Conference
    • /
    • 2001.05a
    • /
    • pp.268-279
    • /
    • 2001
  • 본 논문에서는 세금 계산서 상에서의 관심 영역 및 관심 영역 내의 데이터를 추출하는 알고리즘을 제안한다. 먼저, 입력되는 세금 계산서 영상의 색상 정보를 이용하여 서식을 자동으로 추출한다. 추출된 서식 영상을 가지고 문서의 기울기 및 관심 대상 영역의 위치를 파악한 후, 원 영상에 대하여 관심영역을 추출한다. 관심영역에 대한 히스토그램을 분석하여 바탕 영역으로부터 인식 대상 데이터를 추출한다. 제안한 알고리즘을 다양한 화질의 세금 계산서 영상에 대하여 적용한 결과, 정확하게 관심 영역을 분할해내고 인식 대상 데이터를 추출할 수 있음을 보인다.

  • PDF

Design and Implementation of Eye-Gaze Estimation Algorithm based on Extraction of Eye Contour and Pupil Region (눈 윤곽선과 눈동자 영역 추출 기반 시선 추정 알고리즘의 설계 및 구현)

  • Yum, Hyosub;Hong, Min;Choi, Yoo-Joo
    • The Journal of Korean Association of Computer Education
    • /
    • v.17 no.2
    • /
    • pp.107-113
    • /
    • 2014
  • In this study, we design and implement an eye-gaze estimation system based on the extraction of eye contour and pupil region. In order to effectively extract the contour of the eye and region of pupil, the face candidate regions were extracted first. For the detection of face, YCbCr value range for normal Asian face color was defined by the pre-study of the Asian face images. The biggest skin color region was defined as a face candidate region and the eye regions were extracted by applying the contour and color feature analysis method to the upper 50% region of the face candidate region. The detected eye region was divided into three segments and the pupil pixels in each pupil segment were counted. The eye-gaze was determined into one of three directions, that is, left, center, and right, by the number of pupil pixels in three segments. In the experiments using 5,616 images of 20 test subjects, the eye-gaze was estimated with about 91 percent accuracy.

  • PDF