• Title/Summary/Keyword: 영상 언어

Search Result 530, Processing Time 0.037 seconds

Text/Voice Recognition & Translation Application Development Using Open-Source (오픈소스를 이용한 문자/음성 인식 및 번역 앱 개발)

  • Yun, Tae-Jin;Seo, Hyo-Jong;Kim, Do-Heon
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2017.07a
    • /
    • pp.425-426
    • /
    • 2017
  • 본 논문에서는 Google에서 지원하는 오픈소스인 Tesseract-OCR을 이용한 문자/음성 인식 및 번역 앱에 대해 제안한다. 최근 한국어를 포함한 외국어 인식과 번역기능을 이용한 다양한 스마트폰 앱이 개발되어 여행에 필수품으로 자리잡고 있다. 스마트폰의 카메라기능을 이용하여 촬영한 영상을 인식률을 높이도록 처리하고, Crop기능을 넣어 부분 인식기능을 지원하며, Tesseract-OCR의 train data를 보완하여 인식률을 높이고, Google 음성인식 API를 이용한 음성인식 기능을 통해 인식된 유사한 문장들을 선택하도록 하고, 이를 번역하고 보여주도록 개발하였다. 번역 기능은 번역대상 언어와 번역할 언어를 선택할 수 있고 기본적으로 영어, 한국어, 일본어, 중국어로 번역이 가능하다. 이 기능을 이용하여 차량번호 인식, 사진에 포함된 글자를 통한 검색 등 다양한 응용분야에 맞게 앱을 개발할 수 있다.

  • PDF

Design and Implementation of a SMIL Player (SMIL(Synchronized Multimedia Integration Language) Player의 설계 및 구현)

  • 유초롱;김은영;권택근
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10c
    • /
    • pp.446-448
    • /
    • 2000
  • 오늘날 멀티미디어 프리젠테이션에 대한 관심이 급증하면서 많은 사용자들이 텍스트 서비스뿐 아니라 이미지나 오디오, 동영상 데이터를 전송하거나 받을 수 있는 서비스를 요구한다. 이에 따라 멀티미디어를 통합 표현하기 위한 요구가 확산되어 XML에 기반을 둔 SMIL 이라는 멀티미디어 동기화 언어가 등장하게 되었다. SMIL은 오디오, 비디오, 이미지, 텍스트 등의 다양한 미디어 데이터들을 SMIL 문서 안에 하나의 시나리오로 동기화 하여 프리젠테이션 할 수 있게 한다. SMIL이 제공하는 동기화는 미디어들의 공간적인 배치에 따른 동기화와 프리젠테이션 시간에 따른 동기화로 나뉜다. 멀티미디어의 동기화를 위한 표준 언어인 SMIL은 사용자가 보다 편리하게 멀티미디어를 동기화하고 프리젠테이션 할 수 있도록 한다. 본 논문에서는 SMIL 1.0 권고안을 따르고 사용자들이 보다 쉽게 사용할 수 있는 SMIL 플레이어를 설계 및 구현하고자 한다.

  • PDF

A Study of Construction of Character Image Data for Recognition Handwritten Text (필기체 문자 인식을 위한 문자 영상 데이터 구축에 관한 연구)

  • Lee, H.R.;Ko, K.C.;Lee, M.R.
    • Annual Conference on Human and Language Technology
    • /
    • 2000.10d
    • /
    • pp.63-67
    • /
    • 2000
  • In order to develop a character recognition system, it is an essential preceding work that gathers an image data of the standard. On this purpose a data of the digitized images of a handwritten characters was collected. The types of a gathered image data are Korean character, Chiness character, Numeral, English character, Special character, and so on. This paper deals with a handwritten character image data base, and the image data base different from the general storage structure of a lame capacity multimedia was designed and builded.

  • PDF

The possibility and prospect for developing Sijo Munhwa information system (시조문화 정보시스템 개발의 가능성과 전망)

  • 한창훈
    • Sijohaknonchong
    • /
    • v.19 no.1
    • /
    • pp.37-62
    • /
    • 2003
  • This treatise discuss the possibility and prospect for developing Sijo Munhwa information system. The contents of it is summarized as follows. 1. We must gather and input correctly materials including original texts to develope Sijo Munhwa information system as linguistic data. 2. We must consider TEI(Text Encoding Initiative) and thesauras when we process the database. 3. 2 form the ground work of building Topic Map. 4. It's very important to link Sijo Munhwa information system as art material with visual or auditory images in three dimensions completely.

  • PDF

Computer Control through Recognition of the Hand Movement (손동작 인식을 통한 컴퓨터 제어)

  • Kim, Hee-Sung;Lee, Bong-Hwan;Lee, Kyu-Won
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2014.04a
    • /
    • pp.912-915
    • /
    • 2014
  • 사람과 기계의 의사소통을 위해 기본적으로 개발된 방식은 사람의 문자를 기계어로 바꿔주어 작성된 이진 코드들을 기계가 인식하는 방법이었다.[1] 이는 중간 처리기만 이용하여 쉽게 언어를 변환하는게 가능하였고, 현재까지도 가장 많이 이용되는 방법이다. 하지만 문자를 이용하는 방식 또한 평상시 사람들이 사용하는 언어가 아닌 기계어로의 변환이 용이하도록 미리 정의된 단어들을 사용하기 때문에, 일반적인 사람들이 이용하는 데에는 어려움이 있다. 본 논문에서는 사람의 손동작 영상을 이용한 컴퓨터 제어시스템을 제안하고자 한다.

Development of the Hill-Sliding Clustering Algorithm Using BASIC Language (BASIC 언어를 사용한 Hill-Sliding 무감독 분류법 Algorithm 개발)

  • 鄭夢炫;崔圭弘;朴景允;Park, J.Kyoungyoon
    • Korean Journal of Remote Sensing
    • /
    • v.1 no.1
    • /
    • pp.89-97
    • /
    • 1985
  • An algorithm for the Hill-Sliding Clustering (HSC) method was developed using the BASIC language for Apple II personal computer. It was designed for initialization of clusters from multivariate multimodal Gaussian data. Landsat multispectral imagery data of a Korean coastal area were used for its performance test. The test showed encouraging results.

A Comparative Study on Sentiment Analysis Based on Psychological Model (감정 분석에서의 심리 모델 적용 비교 연구)

  • Kim, Haejun;Do, Junho;Sun, Juoh;Jeong, Seohee;Lee, Hyunah
    • Annual Conference on Human and Language Technology
    • /
    • 2020.10a
    • /
    • pp.450-452
    • /
    • 2020
  • 기술의 발전과 함께 사용자에게 가까이 자리 잡은 소셜 네트워크 서비스는 이미지, 동영상, 텍스트 등 활용 가능한 데이터의 수를 폭발적으로 증가시켰다. 작성자의 감정을 포함하고 있는 텍스트 데이터는 시장 조사, 주가 예측 등 다양한 분야에서 이용할 수 있으며, 이로 인해 긍부정의 이진 분류가 아닌 다중 감정 분석의 필요성 또한 높아지고 있다. 본 논문에서는 딥러닝 기반 감정 분류에 심리학 이론의 기반 감정 모델을 활용한 결합 모델과 단일 모델을 비교한다. 학습을 위해 AI Hub에서 제공하는 데이터와 노래 가사 데이터를 복합적으로 사용하였으며, 결과에서는 대부분의 경우에 결합 모델이 높은 결과를 보였다.

  • PDF

Parameter-Efficient Multi-Modal Highlight Detection via Prompting (Prompting 기반 매개변수 효율적인 멀티 모달 영상 하이라이트 검출 연구)

  • DongHoon Han;Seong-Uk Nam;Eunhwan Park;Nojun Kwak
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.372-376
    • /
    • 2023
  • 본 연구에서는 비디오 하이라이트 검출 및 장면 추출을 위한 경량화된 모델인 Visual Context Learner (VCL)을 제안한다. 기존 연구에서는 매개변수가 고정된 CLIP을 비롯한 여러 피쳐 추출기에 학습 가능한 DETR과 같은 트랜스포머를 이어붙여서 학습을 한다. 하지만 본 연구는 경량화된 구조로 하이라이트 검출 성능을 개선시킬 수 있음을 보인다. 그리고 해당 형태로 장면 추출도 가능함을 보이며 장면 추출의 추가 연구 가능성을 시사한다. VCL은 매개변수가 고정된 CLIP에 학습가능한 프롬프트와 MLP로 하이라이트 검출과 장면 추출을 진행한다. 총 2,141개의 학습가능한 매개변수를 사용하여 하이라이트 검출의 HIT@1(>=Very Good) 성능을 기존 CLIP보다 2.71% 개선된 성능과 최소한의 장면 추출 성능을 보인다.

  • PDF

A Functional MR Imaging Study of Reading (읽기의 기능적 자기공명영상에 관한 연구)

  • 유재욱;나동규;변홍식;최대섭;문찬홍;이은정;정우인
    • Investigative Magnetic Resonance Imaging
    • /
    • v.3 no.1
    • /
    • pp.78-83
    • /
    • 1999
  • Purpose : To evaluate the language areas activated by fMRI during different reading tasks and to assess the difference of activated areas according to each reading task. Materials and Methods : Functional maps of the language area were obtained during three reading tasks(Korean consonant letter, pseudoword, and word) in nine right-handed volunteers(7 males 2 females). MR examinations were performed at 1.5T scanner with EPI BOLD technique(gradient echo shot EPI, TR/TE 3000/60, flip angle $90^{\circ}$, matrix $64{\times}64$, 5mm thickness, no slice gap). Each task consisted of three resting periods and two activation periods and each period lasted 30 seconds. We used SPM program for the postprocessing of images and signification level was set at p<0.01. Activated areas were topographically analyzed in each stimulus. Results : Significant activated signals were demonstrated in all volunteers. Activated signals were seen in the frontal, temporal, parietal and occipital lobes during reading tasks and they were lateralized to the left hemisphere except occipital lobe. Letter and pseudoword produced stronger activated signals than word, and the activated signals were more lateralized to the left hemisphere in pseudoword reading than in letter reading. Conclusion : Activated signals were induced in the language areas by reading task of letter or wordform. Greater activation of language areas was induced when letter or pseudowords were presented than familiar words.

  • PDF

A Study on Satirical Expression of Animal Cartoon & Animated Cartoon (동물 만화영상의 풍자적 표현 연구)

  • Lee, Hwa-Ja
    • Cartoon and Animation Studies
    • /
    • s.9
    • /
    • pp.266-282
    • /
    • 2005
  • Cartoon & Animated cartoon is consists of imaginal attributes and linguistic attributes, and it is closely connected with humor and satirical contents. And then various expressions using animals as matter communicate satirical attributes of a satire strongly and easily. On this article, techniques of satirical expression using animals in Cartoon & Animated cartoon media are studied and analyzed. By the method, it looks around briefly beginning from primitive cave paintings of the prehistoric age to various contemporary Cartoon & Animated cartoon character industries as historical background of Cartoon & Animated cartoon, and also arranges various types that literary expression and representation for visual expression techniques - metaphorical expressions, emblematic expressions, figure of speech and so forth - on literature. This attempt aims for presenting a basic analysis method that connecting and combining Cartoon & Animated cartoon media with humanistic classification and making database of existing data. These accumulated data will indicate cartoon and the action of meaning.

  • PDF