• Title/Summary/Keyword: 이미지 사전

Search Result 293, Processing Time 0.03 seconds

Video Segments Change Point Inference with Evolutionary Particle Filter (진화파티클필터를 이용한 비디오 세그먼트 전환점 추정)

  • Yu, Jun-Hui;Jang, Byeong-Tak
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06b
    • /
    • pp.363-365
    • /
    • 2012
  • 데이터의 규모 및 활용도, 그리고 사용자 접근성 측면에서 실세계 데이터에서 가장 중요한 이슈가 되는 것은 비디오 데이터이다. 장르나 등장인물, 배경 등이 매우 상이한 대량의 비디오 데이터들이 등장하고 있기 때문에, 통일된 사전지식을 이용한 비디오 데이터 분석이 매우 비현실적이 되어가고 있으며 사전지식을 활용하지 않는 비디오 분석기법의 중요성이 커지고 있다. 본 논문에서는 진화 파티를 필터링과 우점 이미지를 이용하여 비디오 데이터를 분절(Segmentation)하는 기법을 소개한다. 이미지 분절화 과정에서 해결해야 할 난점은 시점 변화 및 움직임 등에 의해 발생하는 사소한 변화가 컴퓨터 관점에서는 무시하기 어려운 큰 변화로 해석될 수 있다는 점이다. 동일장면에서의 시점 변화와 같은 사소한 변화로 인하여 동일 세그먼트를 추정하지 못하는 어려움을 해결하기 위하여 우리는 이미지 일부를 표현하는 파티클의 개체군을 생성하여 협력적인 방식으로 개별 이미지 세그먼트를 표현하는 방법을 개발하였다. 또한 동일 인물의 움직임과 같은 변화에 대응할 수 있도록 진화 파티를 필터링 방법을 컬러 히스토그램 방법과 결합하여 추론 성능을 한층 개선하였다. 실제 TV 드라마에 대하여 수행된 인간 평가자의 분절 평가 결과와 비교하여 제안 방법의 성능을 확인하였다.

Audio-Visual Scene Aware Dialogue System Utilizing Action From Vision and Language Features (이미지-텍스트 자질을 이용한 행동 포착 비디오 기반 대화시스템)

  • Jungwoo Lim;Yoonna Jang;Junyoung Son;Seungyoon Lee;Kinam Park;Heuiseok Lim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.253-257
    • /
    • 2023
  • 최근 다양한 대화 시스템이 스마트폰 어시스턴트, 자동 차 내비게이션, 음성 제어 스피커, 인간 중심 로봇 등의 실세계 인간-기계 인터페이스에 적용되고 있다. 하지만 대부분의 대화 시스템은 텍스트 기반으로 작동해 다중 모달리티 입력을 처리할 수 없다. 이 문제를 해결하기 위해서는 비디오와 같은 다중 모달리티 장면 인식을 통합한 대화 시스템이 필요하다. 기존의 비디오 기반 대화 시스템은 주로 시각, 이미지, 오디오 등의 다양한 자질을 합성하거나 사전 학습을 통해 이미지와 텍스트를 잘 정렬하는 데에만 집중하여 중요한 행동 단서와 소리 단서를 놓치고 있다는 한계가 존재한다. 본 논문은 이미지-텍스트 정렬의 사전학습 임베딩과 행동 단서, 소리 단서를 활용해 비디오 기반 대화 시스템을 개선한다. 제안한 모델은 텍스트와 이미지, 그리고 오디오 임베딩을 인코딩하고, 이를 바탕으로 관련 프레임과 행동 단서를 추출하여 발화를 생성하는 과정을 거친다. AVSD 데이터셋에서의 실험 결과, 제안한 모델이 기존의 모델보다 높은 성능을 보였으며, 대표적인 이미지-텍스트 자질들을 비디오 기반 대화시스템에서 비교 분석하였다.

  • PDF

Off-Line Recognition of Unconstrained Handwritten Korean Words using Over-Segementation and Lexicon Driven Post-Processing Techniques (과다 분리 및 사전 후처리 기법을 이용한 한글이 포함된 무제약 필기 문자열의 오프라인 인식)

  • Jeong, Seon-Hwa;Kim, Su-Hyeong
    • Journal of KIISE:Software and Applications
    • /
    • v.26 no.5
    • /
    • pp.647-656
    • /
    • 1999
  • 본 논문에서는 오프라인 무제약 필기 한글 단어를 인식하기 위한 시스템을 제안한다. 제안된 단어 인식 시스템은 크게 다석가지 모듈-문자 분리,조합행렬생성, 특징 추출, 문자인식, 사전 후처리 -로 구성되어 있다. 문자 분리 모듈은 입력된 단어 영상을 하나의 문자보다 더 작은 이미지 조각으로 과다 분리하며 , 조합 행렬 생성모듈에서는 동적 프로그래밍 기법을 이용하여 분리된 이미지 조각들로부터 사전상의 모든 단어들과 대응되는 가능한 모든 조합을 생성한다. 문자인식모듈은 각 그룹에 대하여 일괄적으로 얻어진 특징과 유니그램을 이용하여 문자인식을 수행한다. 마지막으로 사전 후처리 모듈에서는 각 그룹에 대한 문자인식 결과와 단어 사전을 사용하여 입력단어에 대한 최종 인식 결과를 도출한다. 본 문에서 제안한 방법은 문자 분리, 문자 인식 및 후처리를 상호 보완적으로 결합함으로써 한글이 포함된 무제약 필기 문자열을 효과적으로 인식할 수 있다. 제안된 시스템의 성능을 평가하기 위하여 실제 우편 봉투 상에 쓰여진 필기 한글 단어 200개를 대상으로 실험을 하였다. 실험 결과 200개의 단어중 172개의 단어를 정인식하여 86%의 정확도를 얻을 수 있었으며 나머지 28개의 오인식된 단어들을 분석한 결과 대부분의 오류는 문자 인식기의 낮은 신뢰도 때문임을 알 수 있었다. 또한, 하나의 단어를 인식하기 위하여 약 2초가 소요되었다.

Deep Learning for Automatic Change Detection: Real-Time Image Analysis for Cherry Blossom State Classification (자동 변화 감지를 위한 딥러닝: 벚꽃 상태 분류를 위한 실시간 이미지 분석)

  • Seung-Bo Park;Min-Jun Kim;Guen-Mi Kim;Jeong-Tae Kim;Da-Ye Kim;Dong-Gyun Ham
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.07a
    • /
    • pp.493-494
    • /
    • 2023
  • 본 논문은 벚꽃나무 영상 데이터를 활용하여 벚꽃의 상태(개화, 만개, 낙화)를 실시간으로 분류하는 연구를 소개한다. 이 연구의 목적은, 실시간으로 취득되는 벚꽃나무의 영상 데이터를 사전에 학습된 CNN 기반 이미지 분류 모델을 통해 벚꽃의 상태에 따라 분류하는 것이다. 약 1,000장의 벚꽃나무 이미지를 활용하여 CNN 모델을 학습시키고, 모델이 새로운 이미지에 대해 얼마나 정확하게 벚꽃의 상태를 분류하는지를 평가하였다. 학습데이터는 훈련 데이터와 검증 데이터로 나누었으며, 개화, 만개, 낙화 등의 상태별로 폴더를 구분하여 관리하였다. 또한, ImageNet 데이터셋에서 사전 학습된 ResNet50 가중치를 사용하는 전이학습 방법을 적용하여 학습 과정을 더 효율적으로 수행하고, 모델의 성능을 향상시켰다.

  • PDF

Development of Font Creation Technique for Memory Efficiency of LED Display (LED 전광판의 메모리 효율을 위한 폰트 생성 기법 개발)

  • Ahn, Hyohoon;Park, Yechan;Nguyen, Dung T.;Yeom, Sanggil;Choo, Hyunseung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.04a
    • /
    • pp.683-684
    • /
    • 2017
  • 본 논문은 실내용 LED 전광판 시스템에서 문자 출력을 위한 완성형 폰트 기법을 개선하기 위해 비트맵 이미지 픽셀의 색상값을 이용하여 실시간으로 폰트를 생성하는 기법을 제안한다. 본 논문에서 제안한 기법은 출력을 위한 문자 폰트를 사전에 정의해 저장하지 않고 텍스트를 비트맵 이미지로 변환한 후 이진화 하여 각 픽셀의 색상값을 이용해 출력 폰트를 실시간으로 생성하도록 한다. 실시간 폰트 생성 기법은 사전에 정의된 문자와 입력된 데이터를 비교하기 위한 과정이 생략되어 메모리 낭비를 줄일 수 있다. 또한 제안된 기법은 사전에 정의되지 않은 다양한 형태의 문자를 입력받아 출력할 수 있기 때문에 문자 표현 방식이 다양해져 정보 전달 효과를 높인다.

Implementation of Augmentative and Alternative Communication System Using Image Dictionary and Verbal based Sentence Generation Rule (이미지 사전과 동사기반 문장 생성 규칙을 활용한 보완대체 의사소통 시스템 구현)

  • Ryu, Je;Han, Kwang-Rok
    • The KIPS Transactions:PartB
    • /
    • v.13B no.5 s.108
    • /
    • pp.569-578
    • /
    • 2006
  • The present study implemented AAC(Augmentative and Alternative Communication) system using images that speech defectives can easily understand. In particular, the implementation was focused on the portability and mobility of the AAC system as well as communication system of a more flexible form. For mobility and portability, we implemented a system operable in mobile devices such as PDA so that speech defectives can communicate as food as ordinary People at any Place using the system Moreover, in order to overcome the limitation of storage space for a large volume of image data, we implemented the AAC system in client/server structure in mobile environment. What is more, for more flexible communication, we built an image dictionary by taking verbs as the base and sub-categorizing nouns according to their corresponding verbs, and regularized the types of sentences generated according to the type of verb, centering on verbs that play the most important role in composing a sentence.

A Study on the Optimal Convolution Neural Network Backbone for Sinkhole Feature Extraction of GPR B-scan Grayscale Images (GPR B-scan 회색조 이미지의 싱크홀 특성추출 최적 컨볼루션 신경망 백본 연구)

  • Park, Younghoon
    • KSCE Journal of Civil and Environmental Engineering Research
    • /
    • v.44 no.3
    • /
    • pp.385-396
    • /
    • 2024
  • To enhance the accuracy of sinkhole detection using GPR, this study derived a convolutional neural network that can optimally extract sinkhole characteristics from GPR B-scan grayscale images. The pre-trained convolutional neural network is evaluated to be more than twice as effective as the vanilla convolutional neural network. In pre-trained convolutional neural networks, fast feature extraction is found to cause less overfitting than feature extraction. It is analyzed that the top-1 verification accuracy and computation time are different depending on the type of architecture and simulation conditions. Among the pre-trained convolutional neural networks, InceptionV3 are evaluated as most robust for sinkhole detection in GPR B-scan grayscale images. When considering both top-1 verification accuracy and architecture efficiency index, VGG19 and VGG16 are analyzed to have high efficiency as the backbone for extracting sinkhole feature from GPR B-scan grayscale images. MobileNetV3-Large backbone is found to be suitable when mounted on GPR equipment to extract sinkhole feature in real time.

A Logical Framework for Image Object Representation (이미지 개체 표현을 위한 논리적 프레임워크)

  • Choi, Jun-Ho;Kim, Sung-Suk;Choi, Chang;Kim, Pan-Koo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2005.05a
    • /
    • pp.197-200
    • /
    • 2005
  • 의미 기반 영상 검색은 Color, Texture, Region 정보, Spatial Color Distribution 등의 저차원 특징 정보와 이미지 데이터에 의미를 부여하기 위해 주석 처리하는 것이 일반적이다. 그리고 부여된 키워드나 시소러스와 같은 어휘 사전을 이용하여 의미기반 정보검색을 수행하고 있지만, 기존의 키워드기반 텍스트 정보검색의 한계를 벗어나지 못하는 문제를 야기 시킨다. 따라서 본 논문에서는 WordNet 어휘 사전을 확장한 개념적 어휘 체계를 갖는 대형 Ontology를 기반으로 하여 이미지 데이터 내의 객체 인식과 추출된 객체간의 관계를 정의하여 이를 논리적으로 표현할 수 있는 방법을 제시하고자 한다.

  • PDF

Glaring Wall Pad classification by transfer learning (전이학습을 이용한 전반사가 있는 월패드 분류)

  • Lee, Yong-Jun;Jo, Geun-Sik
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.07a
    • /
    • pp.35-36
    • /
    • 2021
  • 딥러닝을 이용한 이미지 처리에서 데이터 셋이 반드시 필요하다. 월패드는 널리 보급되는 다양한 성능을 포함한 IoT가전으로 그 기능의 사용을 돕기 위해서는 해당 월패드에 해당하는 매뉴얼을 제공해야 하고 이를 위해 딥러닝을 이용한 월패드 분류를 이용 할 수 있다. 하지만 월패드 중 일부 모델은 화면의 전반사가 매우 심해 기존의 작은 데이터 셋으로는 딥러닝을 이용한 이미지 분류 성능이 좋지 못하다. 본 논문은 이를 해결하기 위해 추가적으로 데이터 셋을 구축하고 이를 이용해 대규모 데이터로 사전 학습된 VGG16, VGG19, ResNet50, MobileNet 등을 이용해 전이학습을 통해 월패드를 분류한다.

  • PDF

Development of Open Dictionary for Emotional Communication (감성 커뮤니케이션을 위한 오픈사전 앱 개발)

  • Jo, Hun Gi;Lee, Geon Hun;Choi, Yeong Wan;Kim, Ji Sim;Kim, Kyong Ah;Ahn, You Jung
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2019.01a
    • /
    • pp.289-290
    • /
    • 2019
  • 사람들의 대화에 사용되는 단어는 사전적으로 정의되어 있으나 개인마다 단어의 의미를 다르게 받아들이기도 한다. 단어에는 단순히 사전의 정의만 담겨 있는 것이 아니라 개인의 감정과 삶의 시간 또한 담겨 있기 때문이다. 각기 다른 의미로 단어를 사용함에 따라 야기되는 소통 장애를 해소하기 위하여 본 연구에서는 단어의 일반적 정의뿐 아니라 개개인 각자의 의미를 담을 수 있는 오픈사전 앱을 개발하였다. 일반사전에서는 공공 API를 통해 국립국어원의 우리말샘 사전을 사용하며, 오픈사전에서는 웹서버를 연동하여 MySQL에 사용자가 정의한 단어를 등록한다. 또한 본 앱에서는 해상도별 이미지를 구현하여 다양한 화면에 대응하였다.

  • PDF