• 제목/요약/키워드: Text Motion

검색결과 85건 처리시간 0.038초

A Case Study on AI-Driven <DEEPMOTION> Motion Capture Technology

  • Chen Xi;Jeanhun Chung
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제16권2호
    • /
    • pp.87-92
    • /
    • 2024
  • The rapid development of artificial intelligence technology in recent years is evident, from the emergence of ChatGPT to innovations like Midjourney, Stable Diffution, and the upcoming SORA text-to-video technology by OPENai. Animation capture technology, driven by the AI technology trend, is undergoing significant advancements, accelerating the progress of the animation industry. Through an analysis of the current application of DEEPMOTION, this paper explores the development direction of AI motion capture technology, analyzes issues such as errors in multi-person object motion capture, and examines the vast prospects. With the continuous advancement of AI technology, the ability to recognize and track complex movements and expressions faster and more accurately, reduce human errors, enhance processing speed and efficiency. This advancement lowers technological barriers and accelerates the fusion of virtual and real worlds.

스마트 폰 추적 및 색상 통신을 이용한 동작인식 플랫폼 개발 (Development of Motion Recognition Platform Using Smart-Phone Tracking and Color Communication)

  • 오병훈
    • 한국인터넷방송통신학회논문지
    • /
    • 제17권5호
    • /
    • pp.143-150
    • /
    • 2017
  • 본 논문에서는 스마트 폰 추적 및 색상 통신을 이용한 새로운 동작인식 플랫폼을 개발한다. 카메라가 탑재된 PC 혹은 스마트 TV와 개인 스마트 폰 가지고 영상을 기반으로 한 객체 인식 기술을 이용하여 동작 인식 유저 인터페이스를 제공한다. 사용자는 손으로 스마트 폰을 움직여 모션 컨트롤러처럼 사용할 수 있으며, 플랫폼에서는 이 스마트폰을 실시간으로 검출하고, 3차원 거리와 각도를 추정하여 사용자의 동작을 인식한다. 또한, 스마트 폰과 서버의 통신을 위하여 색상 디지털 코드를 이용한 통신 시스템이 사용된다. 사용자들은 색상 통신 방법을 이용하여 텍스트 데이터를 자유자재로 주고받을 수 있으며, 동작을 취하는 도중에도 끊임없이 데이터를 전송할 수 있다. 제안한 동작인식 플랫폼 기반의 실행 가능한 콘텐츠를 구현하여 결과를 제시한다.

사람 기계간 의사소통 시스템을 위한 눈동자 모션 인식 알고리즘 개선에 대한 연구 (Study on improvement of the pupil motion recognition algorithm for human-computer interface system)

  • 허승원;이희빈;이승준;유윤섭
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2018년도 추계학술대회
    • /
    • pp.377-378
    • /
    • 2018
  • 본 논문은 이전에 발표한 "FPGA와 OpenCV를 이용한 눈동자 모션인식을 통한 의사소통 시스템"을 보완한다. 몸을 자연스럽게 움직일 수 없는 전신마비, 루게릭 환자들을 위한 시스템으로, 눈동자의 모션을 인식하여 FPGA에서 텍스트를 실시간으로 선택한다. 본 논문에서는 사용자가 전신마비 환자인 것을 기반으로 눈 검출 기능의 연산을 최소한으로 줄여 모션인식의 속도를 향상키는 알고리즘을 제안한다.

  • PDF

A study on the Interactive Expression of Human Emotions in Typography

  • Lim, Sooyeon
    • International Journal of Advanced Culture Technology
    • /
    • 제10권1호
    • /
    • pp.122-130
    • /
    • 2022
  • In modern times, text has become an image, and typography is a style that is a combination of image and text that can be easily encountered in everyday life. It is developing not only for the purpose of conveying meaningful communication, but also to bring joy and beauty to our lives as a medium with aesthetic format. This study shows through case analysis that typography is a tool for expressing human emotions, and investigates its characteristics that change along with the media. In particular, interactive communication tools and methods used by interactive typography to express viewers' emotions are described in detail. We created interactive typography using the inputted text, the selected music by the viewer and the viewer's movement. As a result of applying it to the exhibition, we could confirm that interactive typography can function as an effective communication medium that shows the utility of both the iconography of letter signs and the cognitive function when combined with the audience's intentional motion.

A Rediscussion of the Apsidal Motion of CW Cephei

  • Kim, Chun-Hwey;Wonyong Han;Nha, Il-Seong
    • 한국우주과학회:학술대회논문집(한국우주과학회보)
    • /
    • 한국우주과학회 1996년도 한국우주과학회보 제5권1호
    • /
    • pp.23-23
    • /
    • 1996
  • No Abstract, See Full Text

  • PDF

한국어 발화 문장에 대한 비언어 표현 정보를 자동으로 생성하는 모델 (A Model to Automatically Generate Non-verbal Expression Information for Korean Utterance Sentence)

  • 김재윤;장진예;김산;정민영;강현욱;신사임
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.91-94
    • /
    • 2023
  • 자연스러운 상호작용이 가능한 인공지능 에이전트를 개발하기 위해서는 언어적 표현뿐 아니라, 비언어적 표현 또한 고려되어야 한다. 본 논문에서는 한국어 발화문으로부터 비언어적 표현인 모션을 생성하는 연구를 소개한다. 유튜브 영상으로부터 데이터셋을 구축하고, Text to Motion의 기존 모델인 T2M-GPT와 이종 모달리티 데이터를 연계 학습한 VL-KE-T5의 언어 인코더를 활용하여 구현한 모델로 실험을 진행하였다. 실험 결과, 한국어 발화 텍스트에 대해 생성된 모션 표현은 FID 스코어 0.11의 성능으로 나타났으며, 한국어 발화 정보 기반 비언어 표현 정보 생성의 가능성을 보여주었다.

  • PDF

휴대폰을 이용한 공교육 u-러닝의 기술 성숙도 분석 (The Analysis of the Level of Technological Maturity for the u-Learning of Public Education by Mobile Phone)

  • 이재원;나은구;송길주
    • 산업공학
    • /
    • 제19권4호
    • /
    • pp.306-315
    • /
    • 2006
  • In this paper we analyze whether we can use the mobile phone having been highly distributed into young generation as a device for the u-learning in Korean public education. For this purpose we deal with the technical maturity in three axes. Firstly, we examine the authoring nature of mobile internet-based contents such as both text and motion picture for the contents developers in the public education. As a research result the authoring of text has almost no difficulty, but that of the motion picture shows some problems. Secondly, we deal with whether u-learners can easily get and use u-contents on both mobile phone and PC respectively. After analysing this factor, we found that the downloading of motion picture contents into mobile phone is very limited. Therfore we talk about the usability and problem of various PC Sync tools and propose their standardization. Finally, the needs of the introduction of the ubiquitous SCORM which could enable to reuse u-contents among different Korean telco’s mobile phones are discussed. Here we describe some functionality of both ubiquitous SCORM and u-LMS. Our study looks like almost the first work examining the technological maturity for the introduction of u-learning with mobile phone in Korean public education and it could be used as a reference for the study of any other wireless telecommunication-based u-learning other than mobile telecommunication.

무선 멀티미디어 센서 네트워크에서 효율적인 이미지 전송을 위한 웨이블릿 기반 압축 기법 (Wavelet Based Compression Technique for Efficient Image Transmission in the Wireless Multimedia Sensor Networks)

  • 권영완;이좌형;정인범
    • 한국정보통신학회논문지
    • /
    • 제12권12호
    • /
    • pp.2323-2329
    • /
    • 2008
  • 저가형 이미지 센서 기술의 발전과 무선 센서 네트워크 기술의 발전으로 인해 WMSN(Wireless Multimedia Sensor Networks) 기술이 활발히 연구되고 있다. WMSN은 기존의 무선 센서 네트워크 기술에 멀티미디어 컨텐츠를 센싱하고 전송 및 처리하는 기반기술을 포함한다. 멀티미디어 컨텐츠는 많은 데이터량을 가지므로 이를 처리하기 위해서는 많은 컴퓨팅 자원과 높은 네트워크 대역폭을 필요로 한다. 저사양의 센서 노드에서 멀티미디어 컨텐츠를 수용하기 위해서는 컴퓨팅 자원을 고려한 압축 기법 및 효율적인 전송에 대한 연구가 필요하다. 본 논문에서는 무선 센서 네트워크에서 이미지를 효율적으로 압축하고 전송하기 위한 압축기법인 YWCE기법을 제안한다. YWCE는 웨이블릿의 Resolution Scalability 특성을 이용한 4가지 움직임 보상/예측 기법을 도입한다. 실험을 통하여 4가지 각 압축 기법들의 조합에 따라 매우 높은 성능을 나타냄을 보였다.

50세 이상 성인의 보행 시 스마트폰 사용에 따른 자세 조절 전략 (Postural Control Strategies on Smart Phone use during Gait in Over 50-year-old Adults)

  • Yu, Yeon Joo;Lee, Ki Kwang;Lee, Jung Ho;Kim, Suk Bum
    • 한국운동역학회지
    • /
    • 제29권2호
    • /
    • pp.71-77
    • /
    • 2019
  • Objective: The aim of this study was to investigate postural control strategies on smart phone use during gait in over 50-year-old adults. Method: 8 elderly subjects (age: $55.5{\pm}3.29yrs$, height: $159.75{\pm}4.20cm$, weight: $62.87{\pm}8.44kg$) and 10 young subjects (age: $23.8{\pm}3.19yrs$, height: $158.8{\pm}5.97cm$, weight: $53.6{\pm}5.6kg$) participated in the study. They walked at a comfortable pace in a gaitway of ~8 m while: 1) reading text on a smart phone, 2) typing text on a smart phone, or 3) walking without the use of a phone. Gait parameters and kinematic data were evaluated using a three-dimensional movement analysis system. Results: The participants read or wrote text messages they walked with: slower speed; lesser stride length and step width; greater flexion range of motion of the head; more flexion of the thorax in comparison with normal walking. Conclusion: Texting or reading message on a smart phone while walking may pose an additional risk to pedestrians' safety.

글자가 움직이는 동영상 자막 편집 어플리케이션 개발 (Development of Video Caption Editor with Kinetic Typography)

  • 하예영;김소연;박인선;임순범
    • 한국멀티미디어학회논문지
    • /
    • 제17권3호
    • /
    • pp.385-392
    • /
    • 2014
  • 본 논문에서는 사용자가 스마트폰을 이용하여 직접 찍은 동영상에 움직이는 자막을 즉석에서 간편하게 편집할 수 있는 안드로이드 어플리케이션인 VIVID를 개발하였다. VIVID를 통해 휴대폰에 저장된 동영상에 원하는 자막의 시간, 텍스트, 위치, 모션(자막의 움직임)을 간편하게 설정할 수 있으며, 결과물을 html 형식으로 웹 서버에 업로드하여 다른 사람들과 함께 공유할 수 있게 하였다.