DOI QR코드

DOI QR Code

Knowledge based Text to Facial Sequence Image System for Interaction of Lecturer and Learner in Cyber Universities

가상대학에서 교수자와 학습자간 상호작용을 위한 지식기반형 문자-얼굴동영상 변환 시스템

  • 김형근 (한국방송통신대학교 컴퓨터과학과) ;
  • 박철하 (대불대학교 경찰학부)
  • Published : 2008.06.30

Abstract

In this paper, knowledge based text to facial sequence image system for interaction of lecturer and learner in cyber universities is studied. The system is defined by the synthesis of facial sequence image which is synchronized the lip according to the text information based on grammatical characteristic of hangul. For the implementation of the system, the transformation method that the text information is transformed into the phoneme code, the deformation rules of mouse shape which can be changed according to the code of phonemes, and the synthesis method of facial sequence image by using deformation rules of mouse shape are proposed. In the proposed method, all syllables of hangul are represented 10 principal mouse shape and 78 compound mouse shape according to the pronunciation characteristics of the basic consonants and vowels, and the characteristics of the articulation rules, respectively. To synthesize the real time facial sequence image able to realize the PC, the 88 mouth shape stored data base are used without the synthesis of mouse shape in each frame. To verify the validity of the proposed method the various synthesis of facial sequence image transformed from the text information is accomplished, and the system that can be applied the PC is implemented using the proposed method.

본 논문에서는 가상대학에서 교수자와 학습자간 상호작용을 위한 지식기반형 문자-얼굴동영상 변환(TTFSI : Text to Facial Sequence Image) 시스템에 관해 연구하였다. TTFSI 시스템의 구현을 위해, 한글의 문법적 특징을 기반으로 가상강의에 사용된 자막정보에 립싱크된 얼굴 동영상 합성하기 위하여 자막정보를 음소코드로 변환하는 방법, 음소코드별 입모양의 변형규칙 작성법, 입모양 변형규칙에 의한 얼굴 동영상 합성법을 제안한다. 제안된 방법에서는 한글의 구조분석을 통해 기본 자모의 발음을 나타내는 10개의 대표 입모양과 조음결합에서 나타나는 78개의 혼합 입모양으로 모든 음절의 입모양을 표현하였다. 특히 PC환경에서의 실시간 영상을 합성하기 위해서 매 프레임마다 입모양을 합성하지 않고, DB에서 88개의 해당 입모양을 불러오는 방법을 사용하였다. 제안된 방법의 유용성을 확인하기 위하여 텍스트 정보에 따른 다양한 얼굴 동영상을 합성하였으며, PC환경에서 구현 가능한 TTFSI 시스템을 구축하였다.

Keywords

References

  1. W.Baker, A.Gloster., “Moving towards the virtual university; A vision of technology in higher education”, 17(2), 1994
  2. A.Yoshitaka, M.Hirakawa, and T.Ichkawa, “A frame work for query processing utilizing knowledge,” Proceeding 15th International Conference on Software Engineering and Knowledge Engineering, Knowledge System Institute, Skokie, Illinois, pp.1-10, 1993
  3. 조은순, “최상의 학습 성과를 위한 e-러닝의 활용”, 한국능률협회, 2002
  4. 송상호, “동기적으로 적응적인 인터넷 기반수업 서례방안의 고찰”, 교육공학연구, 16(2), pp.37-57, 2000
  5. F.I.Parke, “A Parameterized Model for Facial Animation”, IEEE Computer Graphics&Applications, 2, 9, pp.61-68, Nov., 1982 https://doi.org/10.1109/MCG.1982.1674492
  6. 김남수, “휴먼 인터페이스 기술”, Telecommunications Review 제5권, 1호 pp.228-239, 2000
  7. 정동춘, 이상용, “전문가 시스템을 위한 휴먼인터페이스: 가상현실”, 공주대학교 생산기술연구소 논문집, 제6권, pp.54-61, 1998
  8. 相澤, 原島 博 외 2인, “知的畵像符號化のための顔3次元モデルの構成について”, 日本畵像符號化シンポジウム(PCSJ), pp.57-58, 1986
  9. 林島, 原島 博 외 2인, “知的インタフェ-スのための顔の表情合成法の一檢村”, 日本電子情報通信學會論文誌, J73-D-II, 3, pp.351-359, 1990
  10. 林島, 原島 博, “畵像と音聲の知的インタラクティブ符號化の構想”, 日本畵像符號 化シンポジウム(PCSJ), 5, 6, 1987
  11. 조성업, 오범수, 임철수, “청각장애아동의 구화교육을 위한 애니메이션 콘텐츠 제작기술 개발”, 한국멀티미디어학회지, 제9권, 제3호, pp.36-45, 2005
  12. 이정훈, 이은주, 민홍기, “청각장애인을 위한 인터넷 자막 방송의 구현”, HCI2000 학술대회, pp.1-6. 2000
  13. 한국정보통신기술협회, “한국 텔레비전 자막방송 표준 TTA.KO-07.0010”, 1997
  14. P. Ekman, W. V. Friesen, “Unmasking the Face”, Prentice-Hall, 1975
  15. K.Waters, “A Muscle Model for animating Three-Dimensional Facial Expression”, Computer Graph., 15, 3, pp.17-24, 1987
  16. 송철의, “자음의 발음”, 새 국어 생활, 제13권 1호, 국립국어연구원, 1993
  17. 이승재, “모음의 발음”, 새 국어 생활, 제13권 1호, 국립국어연구원, 1993