• Title/Summary/Keyword: 인물 추출

Search Result 159, Processing Time 0.025 seconds

Visualization Study of Character Type by Emotion Word Extraction (감정어 추출을 통한 등장인물 성향 가시화 연구)

  • Baek, Yeong Tae;Park, Seung-Bo
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2013.07a
    • /
    • pp.31-32
    • /
    • 2013
  • 본 논문에서는 영화의 등장인물의 성향을 파악하기 위해 시나리오의 대사로부터 감정어를 추출하고, 등장인물의 감정어들을 긍정, 부정, 중립의 3개로 단순화하여 등장인물의 성향을 가시화 시켜주는 방법을 제안한다. 대사로부터 감정어를 추출하기 위해 WordNet 기반의 감정어 추출 방법을 제안한다. WordNet은 단어 간에 상위어와 하위어, 유사어 등의 관계로 연결된 네트워크 구조의 사전이다. 이 네트워크 구조에서 최상위의 감정 항목과의 거리를 계산하여 단어별 감정량을 계산하여 대사를 30 차원의 감정 벡터로 표현한다. 등장인물별로 추출된 감정 벡터를 긍정, 부정, 중립의 3개의 차원으로 단순화 하여 등장인물의 성향을 표현한다.

  • PDF

Information Extraction Based on Property Patterns to Construct a Knowledgebase for Encyclopedia Person Domain (인물 백과사전 지식베이스 구축을 위한 속성패턴기반 정보추출)

  • 왕지현;김현진;장명길
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10a
    • /
    • pp.793-795
    • /
    • 2004
  • 본 논문은 인물 도메인의 백과사전 지식베이스를 구축하기 위하여 백과사전 본문의 자연어 문장으로부터 인물 표제어의 특징을 잘 나타내는 속성 값을 인식하여 추출하는 방법에 관하여 기술한다. 속성은 인물 공통 및 세부 분야별로 총 52개의 속성을 정의하였고 이를 태그셋으로 정의하여 1천 문서의 백과사전 인물 속성태깅코퍼스를 구축하였다. 속성태깅코퍼스로부터 반자동으로 약 1천 8백여 개의 속성패턴을 추출하였고 백과사전 인물 표제어 24,848개에 대해 속성패턴을 적용하여 지식베이스를 구축하였다. 추출성능은 f-score 0.68의 결과를 나타내었다.

  • PDF

Detection of Character Emotional Type Based on Classification of Emotional Words at Story (스토리기반 저작물에서 감정어 분류에 기반한 등장인물의 감정 성향 판단)

  • Baek, Yeong Tae
    • Journal of the Korea Society of Computer and Information
    • /
    • v.18 no.9
    • /
    • pp.131-138
    • /
    • 2013
  • In this paper, I propose and evaluate the method that classifies emotional type of characters with their emotional words. Emotional types are classified as three types such as positive, negative and neutral. They are selected by classification of emotional words that characters speak. I propose the method to extract emotional words based on WordNet, and to represent as emotional vector. WordNet is thesaurus of network structure connected by hypernym, hyponym, synonym, antonym, and so on. Emotion word is extracted by calculating its emotional distance to each emotional category. The number of emotional category is 30. Therefore, emotional vector has 30 levels. When all emotional vectors of some character are accumulated, her/his emotion of a movie can be represented as a emotional vector. Also, thirty emotional categories can be classified as three elements of positive, negative, and neutral. As a result, emotion of some character can be represented by values of three elements. The proposed method was evaluated for 12 characters of four movies. Result of evaluation showed the accuracy of 75%.

Summarization of News Articles Based on Centroid Vector (중심 벡터에 기반한 신문 기사 요약)

  • Kim, Gwon-Yang
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2007.11a
    • /
    • pp.382-385
    • /
    • 2007
  • 본 논문은 "X라는 인물은 누구인가?"와 같은 질의어가 주어질 때, X라는 인물에 대한 나이, 직업, 학력 또는 특정 사건에서 X라는 인물의 역할에 대한 정보를 기술하는 문장을 인식하고 추출함으로써 해당 인물에 대한 신문 기사 내용을 요약하는 방법을 제시한다. 질의어 용어에 대해 가능한 많은 관련 문장을 추출하기 위하여 중심 벡터에 기반한 통계적 방법을 적용하였으며, 정확도와 재현율 성능을 개선하기 위해 위키피디어 같은 외부 지식을 사용한 중심 단어의 개선된 가중치 측도를 적용하였다. 실험 대상인 전자신문 말뭉치 상에서 출현 빈도수가 큰 20 인의 IT 인물에 대해 제안한 방법이 개선된 성능을 보임을 알 수 있었다.

  • PDF

Major Character Extraction using Character-Net (Character-Net을 이용한 주요배역 추출)

  • Park, Seung-Bo;Kim, Yoo-Won;Jo, Geun-Sik
    • Journal of Internet Computing and Services
    • /
    • v.11 no.1
    • /
    • pp.85-102
    • /
    • 2010
  • In this paper, we propose a novel method of analyzing video and representing the relationship among characters based on their contexts in the video sequences, namely Character-Net. As a huge amount of video contents is generated even in a single day, the searching and summarizing technologies of the contents have also been issued. Thereby, a number of researches have been proposed related to extracting semantic information of video or scenes. Generally stories of video, such as TV serial or commercial movies, are made progress with characters. Accordingly, the relationship between the characters and their contexts should be identified to summarize video. To deal with these issues, we propose Character-Net supporting the extraction of major characters in video. We first identify characters appeared in a group of video shots and subsequently extract the speaker and listeners in the shots. Finally, the characters are represented by a form of a network with graphs presenting the relationship among them. We present empirical experiments to demonstrate Character-Net and evaluate performance of extracting major characters.

Contour Extraction from Gray-Level Character Image (그레이 레벨 인물 영상으로부터의 윤곽선 추출)

  • 송미영;한상훈;조형제
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 1998.10a
    • /
    • pp.248-253
    • /
    • 1998
  • 만화 제작에 있어 시나리오 뿐 만 아니라 등장 인물(캐릭터)의 개발이 중요한 부분을 차지하고 있으므로 새로운 캐릭터 창작을 쉽게 개발하기 위한 방법의 일환으로 기존 인물 영상의 특징을 초대한 고려한 윤곽선을 추출하여 이를 캐릭터 개발에 활용할 수 도 있을 것이다. 이런 목적으로 지금까지 영상의 윤곽선 추출방법들이 많이 제안되었으나 대부분은 그레이 레벨 영상을 이진 영상으로 변환한 후 윤곽선을 추출하는 과정에서 정보의 손실이 발생할 수도 있으며 불필요한 잡영이 추가될 수 있었다. 본 논문은 이런 단점을 보완하기 위해 그레이 레벨 영상에서 직접 윤곽선을 추출하려는 시도로서, 전처리 과정에서는 local averaging으로 잡영을 줄인 후 Prewitt 연산자를 이용하여 에지를 검출하고, 윤곽선 추출에 적합하도록 기존의 지형적 특징 할당 방법을 수정하여 적용한 중간 결과에 대해 직선화 과정으로 잡음들을 제거하여 최종 윤곽선을 구한다.

  • PDF

Facial Features Detection for Facial Caricaturing System (캐리커처 실성 시스템을 위한 얼굴 특징 추출 연구)

  • Lee, Ok-Kyoung;Park, Yeun-Chool;Oh, Hae-Seok
    • Annual Conference of KIPS
    • /
    • 2000.10b
    • /
    • pp.1329-1332
    • /
    • 2000
  • 캐리커처 생성 시스템은 입력된 인물 사진을 세그먼테이션을 통하여 특징(이목구비)을 추출하고, 추출된 특징정보를 이용하여 기와 유사한 특징정보를 가지는 캐리커처 이미지를 검색하여 매핑시키는 시스템이다. 캐리커처 생성 시스템에 얼굴 특징정보 추출은 색상과 모양에 대한 정보를 이용한다. 본 논문은 캐리커처생성을 위한 인물 사진을 세그멘테이션 처리하여 부분 영역 특징정보를 추출하는데 그 목적이 있다. 이때 사용하는 이목구비의 특징정보를 위해 수직, 수평의 히스토그램이 주요하게 사용된다. 또한 인물 사진에서 위치정보를 이용하여 얼굴내의 이목구비를 확인하고, 추출하므로 정확한 정보를 이용할 수 있다.

  • PDF

Automatic People Position Information Extraction for IT-People Event Ontology (온톨로지 인스턴스 생성을 위한 인물의 직위 정보 자동 추출)

  • Park, Yun-Hee;Lee, Young-Hwa;Lee, Sang-Jo
    • Annual Conference on Human and Language Technology
    • /
    • 2007.10a
    • /
    • pp.183-188
    • /
    • 2007
  • 온톨로지란 프로그램과 인간이 지식을 공유하는데 도움을 주기 위해 사용된 개념적 명세서로써 지식을 정형화하는 방법을 제시하여 추론의 기반을 제공하여 준다. 온톨로지 구축에 관한 기존 연구들은 스키마의 모델링에 초점을 두었다. 그러나 자료가 대용량화 됨에 따라 인스턴스를 자동으로 추출하는 기술은 온톨로지 구축에 꼭 필요하다. 이에 본 논문에서는 문서에서 인물의 직위 정보를 자동으로 추출하였으며, 문서 내에서 인물 상호 참조 처리를 통해 인물의 축약 명칭을 복원하였다. 또한 구 단위에서의 실패한 변동된 직위 정보는 중심 술어를 대상으로 격틀 정보를 완성해 나감으로써 확장한 결과 정확률 97.6%를 얻었다.

  • PDF

Gesture Recognition in Multiple People Environment (복수 등장인물을 대상으로 한 제스처 인식)

  • Hong, Seok-Ju;Setiawan, Nurul Arif;Kim, Song-Gook;Kim, Jang-Woon;Lee, Chil-Woo
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.891-896
    • /
    • 2007
  • 지금까지 진행된 제스처 인식 연구는 한 사람을 대상으로 정적인 환경을 가정하여 이루어져 왔다. 본 논문에서는 복수의 등장인물이 존재하는 환경에서 대화 상대를 선택하여 제스처를 인식하는 방법에 대해 기술한다. 먼저 복수의 인물이 존재하는 환경에서 배경영역을 제외한 행위자의 영역을 추출한다. 그 후 각각의 행위자를 트래킹하면서 카메라와 가장 가까이 있는 행위자를 대화 상대자로 선택한다. 대화상대자가 선택되면 스테레오 카메라에서 입력된 영상에서 추출된 실루엣 이미지를 이용하여 얼굴과 두 손을 특징 영역으로 하여 매 프레임마다 Kalman filter를 사용하여 각 영역을 트래킹한다. 트래킹되는 특징 영역의 2차원 좌표 값을 모델 제스처의 2차원 좌표 값과 비교하여 가장 높은 유사값을 갖는 모델 제스처를 입력 제스처로 인식하게 된다. 본 논문에서 사용한 방법은 복수의 등장인물이 있는 경우 효과적으로 행위 대상자를 선택하여 제스처를 인식할 수 있다. 또한 제스처 인식에 있어서 단순한 큐 매칭을 사용함으로써 계산이 복잡하지 않은 장점이 있다. 실험을 통해 본 논문에서 제시한 방법을 적용함으로써 복수의 인물이 등장하는 환경에서 제스처 인식이 가능함을 입증한다.

  • PDF

Keyframe Extraction from Home Videos Using 5W and 1H Information (육하원칙 정보에 기반한 홈비디오 키프레임 추출)

  • Jang, Cheolhun;Cho, Sunghyun;Lee, Seungyong
    • Journal of the Korea Computer Graphics Society
    • /
    • v.19 no.2
    • /
    • pp.9-18
    • /
    • 2013
  • We propose a novel method to extract keyframes from home videos based on the 5W and 1H information. Keyframe extraction is a kind of video summarization which selects only specific frames containing important information of a video. As a home video may have content with a variety of topics, we cannot make specific assumptions for information extraction. In addition, to summarize a home video we must analyze human behaviors, because people are important subjects in home videos. In this paper, we extract 5W and 1H information by analyzing human faces, human behaviors, and the global information of background. Experimental results demonstrate that our technique extract more similar keyframes to human selections than previous methods.