• 제목/요약/키워드: 감정 표현 언어

검색결과 148건 처리시간 0.024초

실행코드 비교 감정에서 주변장치 분석의 유효성 (Study on the comparison result of Machine code Program)

  • 김도현;이규대
    • 한국소프트웨어감정평가학회 논문지
    • /
    • 제16권1호
    • /
    • pp.37-44
    • /
    • 2020
  • 소프트웨어의 유사성 비교는 소스코드를 대상으로 한다. 소스코드는 프로그램 언어로 표현된 개발자의 지적 저작권으로 보호된다. 문서형식으로 작성된 프로그램 소스코드는 개발자의 전문지식과 아이디어가 포함된 내용을 포함하고 있다. 소프트웨어 저작권의 불법도용을 판단하기 위한 감정 작업은 원본과 비교본의 소스 코드를 대상으로 파일의 구성과 내용을 검증하는 방법으로 수행된다. 그러나 실제적으로 피고소인 측의 불성실한 목적물 제공으로 소스코드의 일대일 비교감정이 어려운 상황이 증가하고 있다. 이 경우 실행코드에 대한 비교감정이 수행되어야 하며, 역어셈블 방법, 역공학기법, 기능실행의 시퀀스 분석 등의 간접적인 방법이 적용된다. 본 논문에서는 소스코드제공이 어려운 상황에서 시스템과 실행코드 파일을 대상하는 하는 감정 사례를 통해 간접적인 비교결과의 유효성에 대해 분석하고, 감정결과에 활용하는 방안을 제시한다.

GUI 기반의 EMPML저작도구의 설계 및 구현 (Korea Information Science Society)

  • 석지문;이지근;이은숙;김희숙;정석태;정성태
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2002년도 봄 학술발표논문집 Vol.29 No.1 (B)
    • /
    • pp.568-570
    • /
    • 2002
  • 컴퓨터 기술의 급속한 발전에 따라 정보의 프리젠테이션 방법도 다양하게 변화해 가고 있다. 기존의 텍스트와 이미지를 이용한 프리젠테이션에서부터 멀티미디어 프리젠테이션에 이르기까지 사람들에게 좀더 효과적으로 정보론 프리젠테이션 할 수 있는 방법들이 개발되어 왔다. 그러나 컴퓨터를 이용한 프리젠테이션은 발표자의 사고와 감정 통 인간적인 요소를 표현하고 전달하는 데에는 많은 제약을 가지고 있다. 최근에는 좀더 인간 친화적인 프리젠테이션을 위하여 발표자의 감정과 제스처 등을 캐릭터 에이전트론 통하여 전달할 수 있도록 해주는 멀티 모달 정보 프리젠테이션에 대한 연구가 활성화되고 있다. 본 논문에서는 멀티모달 정보 프리젠테이션을 위해 개발된 언어인 EMPML(Extended Multimodal Presentation Markup Language)를 통해서 정보 제공자가 멀티모달 정보를 좀더 쉽게 저작할 수 있고, 저작된 멀티모달 정보를 확인할 수 있도록 해주는 GUI 기반의 저작도구론 설계, 구현하고자 한다.

  • PDF

Building Living Lab for Acquiring Behavioral Data for Early Screening of Developmental Disorders

  • Kim, Jung-Jun;Kwon, Yong-Seop;Kim, Min-Gyu;Kim, Eun-Soo;Kim, Kyung-Ho;Sohn, Dong-Seop
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권8호
    • /
    • pp.47-54
    • /
    • 2020
  • 발달장애는 영유아 기부터 시작하는 뇌 신경계 발달장애들의 집합으로 언어 및 의사소통, 인지력, 사회성 등의 측면에서 이루어져야 할 발달이 심하게 지체되거나 성취되지 않은 장애를 의미한다. 이러한 발달장애 진단에는 아동의 얼굴 표정과 같은 감정표현의 의미와 맥락 등 비언어적 반응에 대한 관찰로 이루어진다. 이를 사람이 측정기에는 상당히 주관적인 판단이 개입하게 되어 객관적인 기술이 필요하다. 따라서 본 연구에서는 영유아/아동의 언어, 비언어적 행동 반응을 관찰하는 ADOS(Autism Diagnostic Observation Schedule)와 BeDevel(Behavior Development Screening for Toddler) 검사에서 검사자와 피검사자간의 상호작용이 녹화된 영상을 리빙랩 환경에서 획득하여 인공지능 기반의 비정상적/상동적 행동 인지 기술 개발에 필요한 영상 및 음성 데이터 확보를 목표로 한다.

인간의 감성기호 체계화를 위한 감정영역범주화에 관한 연구 (Research about the Abstraction of Area Typicality of Emotions for Systematization of Human's Sensitivity Symbol)

  • 윤봉식
    • 한국콘텐츠학회논문지
    • /
    • 제5권2호
    • /
    • pp.137-145
    • /
    • 2005
  • 본 연구는 3D캐릭터 개발에 효율성을 높이고, 보다 인간의 표정에 가까운 캐릭터표정을 제작하기 위하여 실시되었다. 각 연령층별, 성별, 직위 등의 계층으로 각 감정영역을 데이터화하여 하나의 시스템으로 연동되어진다면 애니메이션, 만화, 연기 및 다양한 영상 엔터테인먼트산업과 이에 필요한 인력양성에 고무적인 반향을 일으킬 수 있을 것으로 사료된다. 이에 그 기반연구로 실시된 선행 연구를 바탕으로 이번 연구에서는 연구영역 중 1개 계층 8대 감정영역에 대한 표본연구로 진행하였다. 이로써 인간의 감정과 표현 간에는 일련의 연계성이 존재하며, 특히 표정에서 나타나는 비언어적 감성기호들을 범주화할 수 있다는 가정을 증명할 수 있었다. 그러나 인간의 풍부한 감정은 하나의 자극에 대한 단일감정보다는 다수 또는 지속자극에 대한 복합기호로서 표출되므로 이에 대한 통제는 많은 어려움이 있고, 본 연구에서 제시한 연구 모델은 각 영역별, 척도별 단일 감정에 대한 내용만을 다루기 위해 실험환경을 일부 조작하였다. 본 연구의 결과는 다양한 미디어제작에 필요한 가상캐릭터의 표정, 의인화 등을 위한 주요한 데이터로 활용가능하며, 향후 연구에서는 더 많은 표본에 대한 폭넓은 데이터베이스 구축과 상대적 비교검증이 이루어져야한다.

  • PDF

AMDF 함수를 이용한 음성 신호의 피치 추정 Algorithm들에 관한 연구 (A Study of the Pitch Estimation Algorithms of Speech Signal by Using Average Magnitude Difference Function (AMDF))

  • 소신애;이강희;유광복;임하영;박지수
    • 예술인문사회 융합 멀티미디어 논문지
    • /
    • 제7권4호
    • /
    • pp.235-242
    • /
    • 2017
  • 본 논문은 음성 신호의 Average Magnitude Difference Function (AMDF)에서 peaks (혹은 nulls)들을 찾는 알고리즘들을 제안하였다. AMDF 함수는 Autocorrelation Function (ACF)과 같이 음성 신호의 피치를 추정하는 함수로 널리 사용 하고 있다. 음성신호에서 fundamental frequency (F0)를 estimation하는 것은 매우 중요한 task이며 또한 상당한 어려움이 따른다는 것이 여러 연구들을 통해서 잘 알려진 사실이다. 본 논문에서는 AMDF 함수의 특성을 이용하여 개발한 두 가지의 알고리즘을 제시하였다. 첫째는 Local Minima에 Threshold 값을 적용하여 피치 주기를 측정 할 수 있는 nulls들을 찾아내는 알고리즘이고, 다음은 AMDF 함수와 ACF 함수 사이의 관계식을 응용한 알고리즘이다. 한국어의 감정 표현 언어들로 구성된 제시문을 널리 사용하고 있는 상용 기기로 녹음한 음성 신호를 본 논문이 제안한 알고리즘들에 적용하여서 시뮬레이션을 통해 음성 신호의 피치 주기를 측정하여서 그 성능을 알아보았다.

인터넷 가상공간에서 지적 아바타 통신을 위한 코믹한 얼굴 표정의 생성법 (A Comic Facial Expression Method for Intelligent Avatar Communications in the Internet Cyberspace)

  • 이용후;김상운;청목유직
    • 전자공학회논문지CI
    • /
    • 제40권1호
    • /
    • pp.59-73
    • /
    • 2003
  • 인터넷 가상공간에서 서로 다른 언어 사이의 언어 장벽을 극복하기 위한 한 방법으로 CG 애니메이션 기술을 이용한 수화 통신 시스템이 연구되고 있다. 지금까지 연구에서는 비언어 통신 수단으로서 팔과 손의 제스춰만을 고려하였으나, 얼굴 표정이 의사전달에 중요한 요소가 된다. 특히 사실적인 감정표현보다는 얼굴 요소가 과장된 코믹한 표현이 보다 효과적이고, 또 눈썹, 눈, 입 등의 AU(Action Units)만이 아니라 뺨과 턱의 움직임도 중요한 역할을 하게 됨을 알게 되었다. 따라서 3D 표정 생성 에디터에서 AU를 추출하고, 보다 효율적을 표정 생성을 위해 FACS(Facial Action Unit)으로 분류한다. 또 기존에 표정 에디터에 비해서 제안된 표정 에디터는 PAU에 대한 강도를 강하게 줌으로써, 6가지 표정을 분리할 수 있음을 보인다. 또한 얼굴 표정 생성에서 “뺨을 올림”과 “턱을 내림”에 대한 움직임을 자동화하기 위해서 포물형 편미분식(Parabolic Partial Differential Equations)과 Runge-Kutta법을 이용하여 보다 자연스러운 표정을 생성하였다. 또한 이를 이용하여 구조가 서로 다른 아바타 모델에 감정을 재생하는 방법을 제안하였다. 본 방법을 윈도우 플렛폼에서 Visual C++와 Open Inventor 라이브러리를 이용하여 구현하였으며, 실험 결과 언어의 장벽을 넘을 수 있는 비언어 통신수단으로 이용될 수 있는 가능성을 확인하였다.

서울말과 방언사이의 억양차이 파라미터 추출 (Extracting Speech Parameters for intonational Differences between the Seoul Dialect and the other Dialects of Korean)

  • 이강희
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2016년도 제53차 동계학술대회논문집 24권1호
    • /
    • pp.211-212
    • /
    • 2016
  • 음성 인식 기술은 상당 기간 연구 개발이 계속적으로 되었는데 최근에 이르러 스마트 폰이 급속히 확산되면서 그 필요성, 즉, 고품질의 상용 서비스에 대한 욕구가 널리 확산되고 있다. 이런 환경에서도 사실 한국어는 상대적으로 소홀히 다뤄 질 수 있는 가능성이 매우 높다. 이러한 소외는 기술적인 문제로만 남겨지는 것이 아니라 언어라는 측면에서 문화와 직결된다. 이에 한국어 음성 인식 연구는 꼭 필요한 것이고 많은 부분 국가가 정책적으로 지원을 하는 것이 마땅하나 현 상황은 많이 미흡하나 아마도 곧 그 필요성이 대두 될 것이라 예상하며 그를 준비하는 연구로 특화된 분야, 즉, 표준어와 방언들 그리고 감정 표현 언어에 관한 연구를 한다.

  • PDF

도서 호감도 분석을 위한 감성어 사전구축 방안 (Building Emotional Dictionary to Analysis a Good Feeling of a Book)

  • 이태석;이수명;강승식
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2015년도 제27회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.147-150
    • /
    • 2015
  • 감성은 개인적인 생활경험을 통해 표현되며 동일한 감정상태와 정보자극을 주더라도 다른 감성이 발생될 뿐만 아니라 개인, 사회, 문화 요인에 따라서 크게 변한다. 따라서 다른 영역의 감성과 도서에 대한 감성이 같지 않기 때문에 별도의 감성 사전 구축이 필요하다. 구축된 감성사전은 비슷한 성향의 도서와 사람을 묶어 추천해 주는데 활용할 수 있다. 감성 사전 구축을 위한 원천 정보로 네티즌이 책을 읽고 호감도와 함께 짧은 문장으로 쓴 소감을 활용하였다. 감성분석에서 가장 기본이 되는 분류는 긍정과 부정으로 나누는 것이다. 하지만, 실제로 도서를 추천하기위해서 긍정과 부정으로만 구분하는 것은 충분하지 않다. 따라서 본 연구에서는 도서에 대해서 감성을 긍정과 부정의 호감정도와 감성의 활성도를 조합한 8개의 감성으로 분류하고 각각의 지수를 함께 산출하여 감성어 사전을 구축하고 활용하는 방안을 제시하였다.

  • PDF

3D캐릭터콘텐츠제작을 위한 표정에 관한 연구 (A Study on Facial expressions for the developing 3D-Character Contents)

  • 윤봉식;김영순
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2004년도 춘계 종합학술대회 논문집
    • /
    • pp.478-484
    • /
    • 2004
  • 이 연구는 비언어적 감성기호인 인간의 표정에 관한 것으로 3D캐릭터콘텐츠제작을 위한 기반 연구로 진행되었다. 인간의 감정과 표현에는 일종의 연계성이 있으며 인간의 표정에 나타나는 감성기호에는 일정한 패턴의 체계가 존재한다. 인간의 풍부하고 복잡 미묘한 감성은 감정이라는 형태로 표출되어지고, 복합적이고 세세한 감정의 형태를 모두 통제하는 것은 불가능하리라 사료되나, 감정의 영역에 대한 적정한 일체화 행위를 통하여 각 감정 영역별 흐름을 찾을 수 있을 것으로 기대된다. 표정 이외의 인간의 다른 행동들 역시 이처럼 특징적인 형태, 유사성 등이 존재하나 본 연구에서는 인간의 표정에 제한하여 연구를 실시하였고, 연구를 통하여 보다 편리한 표정제작에 도움이 될 수 있는 감정의 표출 형태 중 표정의 범주화를 실시코자 한다.

  • PDF

텍스트와 음성의 앙상블을 통한 다중 감정인식 모델 (Multi-Emotion Recognition Model with Text and Speech Ensemble)

  • 이명호;임명진;신주현
    • 스마트미디어저널
    • /
    • 제11권8호
    • /
    • pp.65-72
    • /
    • 2022
  • COVID-19로 인해 대면으로 이루어지던 상담 방식이 비대면으로 진행되면서 비대면 상담의 중요성이 높아지고 있다. 비대면 상담은 온라인으로 언제 어디서든 상담할 수 있고, COVID-19에 안전하다는 장점이 있다. 그러나 비언어적 표현의 소통이 어려워 내담자의 마음을 이해하기 어렵다. 이에 비대면 상담 시 내담자의 마음을 잘 알기 위해서는 텍스트와 음성을 정확하게 분석하여 감정을 인식하는 것이 중요하다. 따라서 본 논문에서는 텍스트 데이터는 자음을 분리한 후 FastText를 사용하여 벡터화하고, 음성 데이터는 Log Mel Spectrogram과 MFCC를 사용하여 각각 특징을 추출하여 벡터화한다. 벡터화된 데이터를 LSTM 모델을 활용하여 5가지 감정을 인식하는 다중 감정인식 모델을 제안한다. 다중 감정인식은 RMSE을 활용하여 계산한다. 실험 결과 텍스트와 음성 데이터를 각각 사용한 모델보다 제안한 모델의 RMSE가 0.2174로 가장 낮은 오차를 확인하였다.