• 제목/요약/키워드: 음성 상호작용

검색결과 207건 처리시간 0.032초

제로 UI 기술 동향 (Zero UI Technology Trends)

  • 정치윤
    • 전자통신동향분석
    • /
    • 제32권2호
    • /
    • pp.37-44
    • /
    • 2017
  • 사용자 인터페이스는 기계와 인간 사이에 상호작용을 할 수 있도록 도와주는 기술로써, 개인용 컴퓨터에서부터 애플의 멀티터치를 사용한 스마트폰까지 스크린 기반의 사용자 인터페이스가 주류를 이루고 있다. 제로 UI(User Interface)는 사용자의 생활 환경 안에서 자연스럽게 사용자의 요구사항을 인지하여 필요한 서비스를 제공함으로써 현재 스크린 기반의 사용자 인터페이스를 최소화하려는 기술이다. 제로 UI는 스마트한 기계들의 상황인지를 통한 판단, 사용자의 음성 인식, 사용자의 자연스러운 제스쳐 인식 등을 통하여 구현될 수 있으며, 본고에서는 음성인식을 통하여 사용자와 친화적으로 상호작용하고 있는 관점과 스마트 기기들이 상황인지를 통하여 자율적으로 판단함으로써 인터랙션을 줄이는 측면에서의 제로 UI의 기술 동향을 소개한다.

  • PDF

인간 친화적 상호작용을 위한 안드로이드 로봇의 감성 시스템 (Emotional System Applied to Android Robot for Human-friendly Interaction)

  • 이태근;이동욱;소병록;이호길
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2007년도 춘계학술대회 학술발표 논문집 제17권 제1호
    • /
    • pp.95-98
    • /
    • 2007
  • 본 논문은 한국생산기술연구원에서 개발된 안드로이드 로봇(EveR Series) 플랫폼에 적용된 감성 시스템에 관한 내용을 제시한다. EveR 플랫폼은 얼굴 표정, 제스처, 음성합성을 수행 할 수 있는 플랫폼으로써 감성 시스템을 적용하여 인간 친화적인 상호작용을 원활하게 한다. 감성 시스템은 로봇에 동기를 부여하는 동기 모듈(Motivation Module), 다양한 감정들을 가지고 있는 감정 모듈(Emotion Module), 감정들, 제스처, 음성에 영향을 미치는 성격 모듈(Personality Module), 입력 받은 자극들과 상황들에 가중치를 결정하는 기억 모듈(Memory Module)로 구성되어 있다. 감성 시스템은 입력으로 음성, 텍스트, 비전, 촉각 및 상황 정보가 들어오고 감정의 선택과 가중치, 행동, 제스처를 출력하여 인간과의 대화에 있어서 자연스러움을 유도한다.

  • PDF

현실 세계를 제어하는 혼합 현실 대화 시스템 (Mixed Reality Dialog Agent for Real-World Control)

  • 김다혜;박규훤;정영섭
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2019년도 제31회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.60-63
    • /
    • 2019
  • 사용자와 자연어 음성을 통해 상호작용하는 대화 시스템이 주목받고 있다. 음성 뿐 아니라, 화면을 통해 사용자와 상호작용하는 기능을 제공하는 대화 시스템들이 소개되고 있으며, 최근에는 혼합 현실 환경에서 대화 에이전트가 실제 공간에 존재하는 서비스가 소개되기도 하였다. 본 연구에서는 혼합 현실 환경의 대화 시스템이 현실 세계에 영향을 미칠 수 있는 시스템을 설계하였다. 제안하는 시스템은 서버가 클라이언트와 통신하여 필요 시 적절한 장치를 제어하도록 설계되었다. 본 연구 시스템의 실현가능성을 입증하기 위해 라즈베리파이를 제어할 장치로 사용하였으며, 화면에 보이는 대화 에이전트에게 음성으로 명령하여 전등, 에어컨 등을 제어하는 것이 가능함을 확인하였다.

  • PDF

음성 정보를 이용한 자폐아 치료용 로봇의 동작 설계 (Therapeutic Robot Action Design for ASD Children Using Speech Data)

  • 이진규;이보희
    • 전기전자학회논문지
    • /
    • 제22권4호
    • /
    • pp.1123-1130
    • /
    • 2018
  • 이전 연구에서 자폐성 장애의 여러 특징적 증상을 갖는 아이들의 치료를 위해 사용될 수 있는 로봇을 설계 및 제작하여 현장실험이 진행 되었으며 기존 로봇은 터치에 의한 아이들과 상호작용을 통해 감정 표현 동작을 한다. 이러한 터치 상호작용에 감정 교육 및 치료를 위해 인공신경망을 이용한 동작 설계를 하였다. 하지만 이러한 물리적 접촉은 치료 활동의 초기에 사용되기 어려워 초기 치료 효과를 기대하기 어려웠다. 이에 본 논문에서는 동작 방식을 보완하여 음성 정보를 이용한 빠른 상호작용을 통해 치료 활동이 초기에 가능하고 유연한 대처와 다양한 상황에서 로봇이 사용될 수 있는 동작 설계를 기술한다. 이에 필요한 요소로서 음성 데이터 수집 방법 및 인공신경망을 이용한 음성 인식 구조가 설계되었으며 실험을 통하여 분류 결과를 분석하였다. 이렇게 설계된 인공신경망은 향후 다양한 음성 데이터를 수집하여 정확도를 향상시키고 현장실험을 통하여 동작의 효용성을 살펴볼 것이다.

IIS를 이용한 VoiceXML 실험 환경 구현 (An Implementation of VoiceXML Test Environment Using IIS)

  • 권형준;김정현;홍광석
    • 융합신호처리학회 학술대회논문집
    • /
    • 한국신호처리시스템학회 2006년도 하계 학술대회 논문집
    • /
    • pp.73-76
    • /
    • 2006
  • 유비쿼터스 컴퓨팅에서 중요한 기술 중 하나로 평가되는 음성인식 및 합성기술은 인간과 컴퓨터의 상호 작용에 있어 가장 편리하고 보편적인 방법이다. 음성인식 및 합성기술을 이용한 인간과 컴퓨터 상호작용 기반의 애플리케이션의 개발을 위해 음성 확장성 생성 언어(VoiceXML)을 이용하면 음성 인식 및 합성에 관한 전문 지식이 없어도 애플리케이션 제작을 쉽게 할 수 있다는 장점이 있어서 음성인식 및 합성기술의 인프라 구축과 저변 확대를 목적으로 일부 국내 업체들은 VoiceXML을 이용한 음성 애플리케이션을 제작하고 실험할 수 있도록 VoiceXML 실험 환경을 제공한다. 본 논문에서는 기존에 공개된 실험 환경을 소개하고, 다양한 실험 환경 제공을 위해 기존에 있던 Linux기반의 실험 환경과는 다른 Windows NT기반의 IIS(Internet Information Service)를 이용한 VoiceXML실험 환경을 제안하고 구현하였다. 그 결과 ASP(Active Server Page)와 ADO(ActiveX Data Object)를 이용한 VoiceXML음성 애플리케이션 실험이 가능한 환경을 구축하였고, 사용자 평가 결과 제안한 방법이 유효하다는 것을 확인하였다.

  • PDF

오디오 기반 인간로봇 상호작용 기술 (Audio-Based Human-Robot Interaction Technology)

  • 곽근창;김혜진;배경숙;윤호섭
    • 전자통신동향분석
    • /
    • 제22권2호통권104호
    • /
    • pp.31-37
    • /
    • 2007
  • 인간로봇 상호작용 기술(human-robot interaction)은 다양한 의사소통 채널인 로봇카메라, 마이크로폰, 기타 센서를 통해 인지 및 정서적으로 상호작용할 수 있도록 로봇시스템 및 상호작용 환경을 디자인하고 구현 및 평가하는 지능형 서비스 로봇의 핵심기술이다. 본 고에서는 오디오 기반 인간로봇 상호작용 기술 중에서 음원 추적(sound localization)과 화자인식(speaker recognition) 기술의 국내외 기술동향을 살펴보고 최근 ETRI 지능형로봇연구단에서 상용화를 추진중인 시청각 기반 음원 추적(audio visual sound localization)과 문장독립 화자인식(text-independent speaker recognition)기술들을 다룬다. 또한 이들 기술들을 가정환경에서 효과적으로 사용하기 위해 음성인식, 얼굴검출, 얼굴인식 등을 결합한 시나리오에 대해서 살펴본다.

음성정보기술 국제 표준화 동향

  • 홍기형
    • 정보처리학회지
    • /
    • 제11권2호
    • /
    • pp.33-41
    • /
    • 2004
  • 언제, 어디서, 어떤 장치를 사용하더라도 정보의 검색이나 접근이 가능해지는 유비쿼터스 환경이 가시화되고 있어, 음성을 사용한 사용자 인터페이스의 중요성이 증대하고 있다. 음성인식, 합성, 화자인증 등 음성 등의 음성처리엔진의 기술 수준이 상용화 단계에 접어들고, 이동 중과 같이 모니터 등 시각적 인터페이스의 사용이 용이하지 않은 상황에서도 정보 접근기 요구가 증대함에 따라 음성은 정보시스템 의 중요한 인터페이스로 자리매김 하고 있다. 음성정보기술은 인간의 가장 자연스러운 상호작용 수단인 음성을 이용하여. 시스템에 명령을 내리고, 시스템의 명령 수행 결과를 음성으로 전달하는 음성을 이용한 정보 시스템 인터페이스를 구현하기 위 한 기술을 의미한다. 또한, 음성정보시스템은 음성을 이용한 사용자인터페이스가 가능한 정보시스템을 뜻하며, (그림 1)과 같이 음성처리엔진, 사용자 접속망, 사용자 프로파일 및 음성응용시스템으로 구성된다.(중략)

  • PDF

음성 인터페이스와의 상호작용에서 AI 음성이 성별에 따른 사용자의 감성 만족도에 미치는 영향 (Moderating Effects of User Gender and AI Voice on the Emotional Satisfaction of Users When Interacting with a Voice User Interface)

  • 신종규;강준모;박영진;김상호
    • 감성과학
    • /
    • 제25권3호
    • /
    • pp.127-134
    • /
    • 2022
  • 본 연구의 목적은 음성 인터페이스(Voice User Interface, VUI)를 이루는 설계변수 중 사용자에게 긍정적인 감성을 유발하는 설계변수를 확인하는 것이다. 특히, 사용자의 성별과 설계변수의 조절 효과를 분석하여 VUI와 상호작용하는 동안 사용자가 만족할 수 있는 적절한 설계변수 수준을 찾아보고자 하였다. 선행연구를 통해 VUI에 사용되는 음성설계변수 중에서 사용자의 감성 만족도에 영향을 미칠 수 있는 설계변수 6가지를 도출하였다. 설계변수는 수준을 조절할 수 있도록 Wizard of OZ를 활용하여 VUI 시스템을 구현하였고, 6가지 설계변수의 수준을 조합하여 사용자와 음성으로 대화를 할 수 있도록 구성하였다. 실험에 참여한 사용자는 총 80명으로, 남/여 성비를 고려하여 각 40명씩 모집하였다. 사용자는 VUI와 주어진 임무에 대한 정답을 알아내기 위해 자연스러운 대화를 진행하며, 그동안의 얼굴표정 변화에 대한 이미지 데이터를 수집 및 표정 분석 소프트웨어를 통해 Valence 점수로 변환하였다. Valence 데이터를 기반으로 빈도 및 카이제곱 분석을 통해 확인한 결과, 사용자의 성별과 AI gender간의 조절효과가 유의한 것으로 나타났다. 이 결과는 VUI를 설계할 때 사용자의 성별 차이를 고려하는 것이 좋다는 것을 의미한다. 결론적으로, 남성 사용자의 경우 성인/남성/높은 톤의 음성, 여성 사용자의 경우 성인/여성/중간톤의 음성이 향후 만족스러운 인터랙션 구현을 위한 VUI 설계에 주요한 가이드라인인 것을 확인하였다. 본 연구의 결과를 통해 향후 다양한 인적 요소를 고려하여 UX 관점에서 인간-AI 상호작용을 보다 섬세하게 분석할 수 있을 것이며, 표정을 통한 실시간 감성 측정을 위한 기초연구로 활용될 수 있을 것이다.

조작 방식에 따른 음성과 소리 피드백의 할당 방법 가전제품과의 상호작용을 중심으로 (An Arrangement Method of Voice and Sound Feedback According to the Operation : For Interaction of Domestic Appliance)

  • 홍은지;황해정;강연아
    • 한국HCI학회논문지
    • /
    • 제11권2호
    • /
    • pp.15-22
    • /
    • 2016
  • 가전제품과 사용자와의 상호작용 방식이 다양해지고 있다. 사용자는 리모컨, 터치스크린 등으로 기기를 제어할 수 있고, 기기 역시 사운드, 음성, 시각적 신호 등 다양한 방식으로 사용자에게 피드백을 줄 수 있게 되었다. 그러나 사용자의 조작 방식에 따른 피드백 방식을 배정하는 원칙이나 기준이 없어 각 브랜드, 기기 별로 임의로 배정되어 있는 상황이다. 본 연구에서는 사용자가 가전제품을 음성 명령을 통해 조작할 때와 버튼으로 조작할 때 가전제품에서 주어지는 피드백의 방식으로 음성, 소리 중 어떤 방식이 적절한지 실험을 통해 알아보았다. 본 연구에서는 조작 방식(음성 인식, 버튼), 피드백 방식(음성 안내, 소리)의 조합으로 구성 된 총 4가지($2{\times}2$) 셀을 갖는 요인 설계 실험을 진행하였고, 조작 방식과 피드백 방식의 조합에 따라 피 실험자가 느끼는 사용성, 만족도, 선호도, 적합도가 달라지는지 살펴보았다. 그 결과 가전제품을 음성 인식으로 조작 하는 것이 사용 용이성, 조작 만족도가 높았다. 하지만 버튼으로 조작 했을 때는 피드백 방식의 종류에 따라 사용 용이성, 조작 만족도가 달라지는 것으로 나타나, 조작 방식과 피드백 방식의 상호작용 효과가 검정되었다. 조작 방식, 피드백 방식의 조합이 가전에 적절한지에 대해서는 피드백 방식의 주효과가 검정되었다. 결론적으로 음성 인식으로 조작 할 때는 피드백이 소리(earcons)로 제시되는 것이 만족도가 높았으나 이는 통계적으로 검정 되는 정도는 아니었으며, 버튼을 조작 할 때는 피드백이 음성 안내로 제시되는 것이 만족도가 높았으며 이는 통계적으로 검정 되었다. 또한 가전에 어떠한 조작 방법이나 피드백 방법이 적절한지에 대해서는 피드백 방법이 주로 영향을 미치는 것으로 나타났다.

개선된 학생 강사간의 상호작용을 지원하는 실시간 모바일 원격교육 시스템의 사용자 평가 (User Evaluation of the Real-Time Mobile Learning System with Improved Student Instructor Interaction)

  • 황해동;이장호
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2015년도 추계학술발표대회
    • /
    • pp.562-565
    • /
    • 2015
  • 최근 모바일 기기의 사용이 급증하면서 모바일 단말기를 기반으로 하는 모바일 원격교육 시스템이 연구되고 있다. 우리는 태블릿 기반의 실시간 원격교욱 시스템을 개발한 경험이 있다. 이 시스템은 학생이 실시간으로 강사의 강의를 보고 들으며 슬라이드 및 애노테이션을 볼 수 있게 해준다. 또한 이 시스템은 학생이 채팅기능을 통해 강사에게 질문을 허용함으로써 강사 학생간의 상호작용을 지원한다. 그러나 이 시스템은 학생들이 채팅창에 가상키보드를 통해서만 입력하는 것을 허용하였기 때문에 입력 속도가 떨어지고 편의성이 저하되는 문제점이 있었다. 따라서 본 연구에서는 채팅기능의 Speech to Text 기능을 추가하여 학생들의 음성입력을 지원하도록 시스템의 강사 학생간의 상호작용 부분을 개선하였다. 그리고 강사 학생간의 상호작용에 대한 사용자 평가를 통하여 개선된 시스템이 기존의 시스템에 비하여 입력 속도 및 편의성 면에서 어느 정도 개선되었음을 알 수 있었다.