• 제목/요약/키워드: First-person video

검색결과 61건 처리시간 0.022초

응급구조학과 비대면 실습 강의에서 360° 가상현실 영상과 1인칭 시점 영상의 만족도, 흥미도, 경험인식 비교 (Comparison of satisfaction, interest, and experience awareness of 360° virtual reality video and first-person video in non-face-to-face practical lectures in medical emergency departments)

  • 이효주;신상열;정은경
    • 한국응급구조학회지
    • /
    • 제24권3호
    • /
    • pp.55-63
    • /
    • 2020
  • Purpose: This study aimed to establish effective training strategies and methods by comparing the effects of 360° virtual reality video and first-person video in non-face-to-face practical lectures. Methods: This crossover study, implemented May 18-31, 2020, included 27 participants. We compared 360° virtual reality video and first-person video. SPSS version 25.0 was used for statistical analysis. Results: The 360° virtual reality video had a higher score of experience recognition (p=.039), vividness (p=.045), presence (p=.000), fantasy factor (p=.000) than the first-person video, but no significant difference was indicated for satisfaction (p=.348) or interest (p=.441). Conclusion: 360° virtual reality video and first-person video can be used as training alternatives to achieve the standard educational objectives in non-face-to-face practical lectures.

스포츠 장르 분석을 위한 스포츠 뉴스 비디오의 의미적 장면 분류 (Semantic Scenes Classification of Sports News Video for Sports Genre Analysis)

  • 송미영
    • 한국멀티미디어학회논문지
    • /
    • 제10권5호
    • /
    • pp.559-568
    • /
    • 2007
  • 앵커 장면 검출은 내용기반 뉴스 비디오 색인과 검색 시스템에서 비디오 장면의 의미적 파싱과 색인을 추출하는데 중요한 역할을 한다. 이 논문은 스포츠 뉴스의 단위 구조화를 위해서 뉴스 동영상에 존재하는 앵커 구간을 구분해내는 효율적인 알고리즘을 제안한다. 앵커 장면을 검출하기 위해서, 우선 MPEG4 압축 비디오에서 DCT 계수치와 모션 방향성 정보를 이용하여 앵커 후보 장면을 결정한다. 그리고 검출된 후보앵커 장면으로부터 영상처리 방법을 활용하여 뉴스 비디오를 앵커 장면과 비앵커(스포츠) 장면으로 분류한다. 제안된 방법은 앵커 장면 검출 실험에서 평균적으로 98%의 정확도와 재현율을 얻었다.

  • PDF

언리얼 엔진을 통한 FPS 게임 개발 (First-Person Shooter Game Development using Unreal Engine)

  • 김수균;강희조;성경
    • 한국항행학회논문지
    • /
    • 제14권5호
    • /
    • pp.718-724
    • /
    • 2010
  • 본 논문에서는 대중적으로 가장 널리 알려진 미국 에픽 게임즈에서 개발한 무료 개발 키트인 언리얼 엔진3을 이용하여 FPS(First Person Shooter) 게임을 개발하는데 목적이 있다. 언리얼 엔진은 무료라는 장점과 함께 뛰어난 기술과 다양한 기술지원, 언리얼 개발자 간의 네트워크 지워, 뛰어난 개발 도구들을 제공하고, 유연한 엔진 구성으로 인해 다양한 기술을 조합하여 확장하기 좋은 구조를 가지고 있다. 그러나 고사양 PC에서 동작할 수 있도록 요구한다는 것이 단점으로 꼽힌다. 본 논문에서는 언리얼 엔진 키트를 이용하여 특별한 프로그램 코딩 기술 없이도 고품질의 FPS 게임을 설계 및 개발하였다.

필드와 모션벡터의 특징정보를 이용한 스포츠 뉴스 비디오의 장르 분류 (Automatic Genre Classification of Sports News Video Using Features of Playfield and Motion Vector)

  • 송미영;장상현;조형제
    • 정보처리학회논문지B
    • /
    • 제14B권2호
    • /
    • pp.89-98
    • /
    • 2007
  • 비디오와 브라우징, 검색, 조작을 위해서 비디오 내용을 기술하는 색인이 요구된다. 지금까지 색인의 구성은 대부분 비디오 내용에 제한된 키워드를 수작업으로 할당하는 전문가에 의해 수행되었는데 이는 비용과 시간을 소비하는 사업이므로 비디오 내용을 자동으로 분류하는 것이 필요하다. 이 연구는 축구, 골프, 야구, 농구, 배구 등 5종의 스포츠 뉴스 비디오의 분석과 요약을 위해서 자동적이고 효율적인 방법을 제안한다. 우선, 스포츠 뉴스 비디오를 앵커 장면과 스포츠 기사 장면으로 분류한다. 장면 분류는 앵커 장면의 영상 전처리와 색상 특정을 기반으로 한다. 그리고 필드의 우세색상과 모션 방향을 특징으로 이용하여 스포츠 장면을 5개의 장르로 분류한다. 241개의 스포츠 뉴스 장면에 대한 실험에서 75%의 정확도를 얻었다. 따라서 제안된 기법은 향후 개별 스포츠 뉴스와 스포츠 하이라이트를 위한 뉴스 비디오를 검색하는데 이용될 수 있을 것이다.

얼굴 특징점을 활용한 영상 편집점 탐지 (Detection of video editing points using facial keypoints)

  • 나요셉;김진호;박종혁
    • 지능정보연구
    • /
    • 제29권4호
    • /
    • pp.15-30
    • /
    • 2023
  • 최근 미디어 분야에도 인공지능(AI)을 적용한 다양한 서비스가 등장하고 있는 추세이다. 하지만 편집점을 찾아 영상을 이어 붙이는 영상 편집은, 대부분 수동적 방식으로 진행되어 시간과 인적 자원의 소요가 많이 발생하고 있다. 이에 본 연구에서는 Video Swin Transformer를 활용하여, 발화 여부에 따른 영상의 편집점을 탐지할 수 있는 방법론을 제안한다. 이를 위해, 제안 구조는 먼저 Face Alignment를 통해 얼굴 특징점을 검출한다. 이와 같은 과정을 통해 입력 영상 데이터로부터 발화 여부에 따른 얼굴의 시 공간적인 변화를 모델에 반영한다. 그리고, 본 연구에서 제안하는 Video Swin Transformer 기반 모델을 통해 영상 속 사람의 행동을 분류한다. 구체적으로 비디오 데이터로부터 Video Swin Transformer를 통해 생성되는 Feature Map과 Face Alignment를 통해 검출된 얼굴 특징점을 합친 후 Convolution을 거쳐 발화 여부를 탐지하게 된다. 실험 결과, 본 논문에서 제안한 얼굴 특징점을 활용한 영상 편집점 탐지 모델을 사용했을 경우 분류 성능을 89.17% 기록하여, 얼굴 특징점을 사용하지 않았을 때의 성능 87.46% 대비 성능을 향상시키는 것을 확인할 수 있었다.

Viewpoint Invariant Person Re-Identification for Global Multi-Object Tracking with Non-Overlapping Cameras

  • Gwak, Jeonghwan;Park, Geunpyo;Jeon, Moongu
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권4호
    • /
    • pp.2075-2092
    • /
    • 2017
  • Person re-identification is to match pedestrians observed from non-overlapping camera views. It has important applications in video surveillance such as person retrieval, person tracking, and activity analysis. However, it is a very challenging problem due to illumination, pose and viewpoint variations between non-overlapping camera views. In this work, we propose a viewpoint invariant method for matching pedestrian images using orientation of pedestrian. First, the proposed method divides a pedestrian image into patches and assigns angle to a patch using the orientation of the pedestrian under the assumption that a person body has the cylindrical shape. The difference between angles are then used to compute the similarity between patches. We applied the proposed method to real-time global multi-object tracking across multiple disjoint cameras with non-overlapping field of views. Re-identification algorithm makes global trajectories by connecting local trajectories obtained by different local trackers. The effectiveness of the viewpoint invariant method for person re-identification was validated on the VIPeR dataset. In addition, we demonstrated the effectiveness of the proposed approach for the inter-camera multiple object tracking on the MCT dataset with ground truth data for local tracking.

Egocentric Vision for Human Activity Recognition Using Deep Learning

  • Malika Douache;Badra Nawal Benmoussat
    • Journal of Information Processing Systems
    • /
    • 제19권6호
    • /
    • pp.730-744
    • /
    • 2023
  • The topic of this paper is the recognition of human activities using egocentric vision, particularly captured by body-worn cameras, which could be helpful for video surveillance, automatic search and video indexing. This being the case, it could also be helpful in assistance to elderly and frail persons for revolutionizing and improving their lives. The process throws up the task of human activities recognition remaining problematic, because of the important variations, where it is realized through the use of an external device, similar to a robot, as a personal assistant. The inferred information is used both online to assist the person, and offline to support the personal assistant. With our proposed method being robust against the various factors of variability problem in action executions, the major purpose of this paper is to perform an efficient and simple recognition method from egocentric camera data only using convolutional neural network and deep learning. In terms of accuracy improvement, simulation results outperform the current state of the art by a significant margin of 61% when using egocentric camera data only, more than 44% when using egocentric camera and several stationary cameras data and more than 12% when using both inertial measurement unit (IMU) and egocentric camera data.

Using Freeze Frame and Visual Notifications in an Annotation Drawing Interface for Remote Collaboration

  • Kim, Seungwon;Billinghurst, Mark;Lee, Chilwoo;Lee, Gun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권12호
    • /
    • pp.6034-6056
    • /
    • 2018
  • This paper describes two user studies in remote collaboration between two users with a video conferencing system where a remote user can draw annotations on the live video of the local user's workspace. In these two studies, the local user had the control of the view when sharing the first-person view, but our interfaces provided instant control of the shared view to the remote users. The first study investigates methods for assisting drawing annotations. The auto-freeze method, a novel solution for drawing annotations, is compared to a prior solution (manual freeze method) and a baseline (non-freeze) condition. Results show that both local and remote users preferred the auto-freeze method, which is easy to use and allows users to quickly draw annotations. The manual-freeze method supported precise drawing, but was less preferred because of the need for manual input. The second study explores visual notification for better local user awareness. We propose two designs: the red-box and both-freeze notifications, and compare these to the baseline, no notification condition. Users preferred the less obtrusive red-box notification that improved awareness of when annotations were made by remote users, and had a significantly lower level of interruption compared to the both-freeze condition.

UHD TV휴먼다큐멘터리 서사전략: <순례-집으로 가는 길>을 중심으로 (Narrative Strategy of UHD TV Human Documentary:Focusing on )

  • 권상정;장우진
    • 한국콘텐츠학회논문지
    • /
    • 제19권11호
    • /
    • pp.516-526
    • /
    • 2019
  • 매체를 기반으로 하는 모든 이야기 형식이 그렇듯이 TV휴먼다큐멘터리의 서사 방식 역시 방송환경의 변화와 밀접한 연관성을 가지고 있다. 2017년 세계 최초로 지상파 UHD 방송이 우리나라에서 시작되었고 그 해 9월 KBS는 UHD특집 휴먼다큐멘터리 <순례>시리즈를 방송했다. 초고화질 비디오와 몰입형 오디오 구현이가능한 UHD로 제작된 <순례>는 기존의 TV휴먼다큐멘터리와는 전혀 다른 서사 방식을 보여주었다. TV휴먼 다큐멘터리에서 필수요소로 여겨지던 전지적 내레이션 대신 등장인물의 절제된 1인칭 내레이션을 사용하는 한편 다양한 구도 구현이 가능한 드론을 적극 활용해 등장인물의 심리를 섬세하게 표현, 시청자의 몰입을 가능하게 했다. 또한 TV휴먼다큐멘터리에서는 시도되지 않았던 편집방식인 몽타쥬 편집기법을 통해 내레이션으로 '설명하지' 않고 영상으로 '보여주는' 방식의 서사 전개 방식을 활용하고 있다. <순례-집으로 가는 길> 이후에 이와 유사한 서사 방식의 다큐멘터리가 다수 방송되며 UHD방송환경 아래에서 TV휴먼다큐멘터리의 흐름과 방향이 달라지고 있다는 것을 확인할 수 있다.

Automatic Person Identification using Multiple Cues

  • Swangpol, Danuwat;Chalidabhongse, Thanarat
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.1202-1205
    • /
    • 2005
  • This paper describes a method for vision-based person identification that can detect, track, and recognize person from video using multiple cues: height and dressing colors. The method does not require constrained target's pose or fully frontal face image to identify the person. First, the system, which is connected to a pan-tilt-zoom camera, detects target using motion detection and human cardboard model. The system keeps tracking the moving target while it is trying to identify whether it is a human and identify who it is among the registered persons in the database. To segment the moving target from the background scene, we employ a version of background subtraction technique and some spatial filtering. Once the target is segmented, we then align the target with the generic human cardboard model to verify whether the detected target is a human. If the target is identified as a human, the card board model is also used to segment the body parts to obtain some salient features such as head, torso, and legs. The whole body silhouette is also analyzed to obtain the target's shape information such as height and slimness. We then use these multiple cues (at present, we uses shirt color, trousers color, and body height) to recognize the target using a supervised self-organization process. We preliminary tested the system on a set of 5 subjects with multiple clothes. The recognition rate is 100% if the person is wearing the clothes that were learned before. In case a person wears new dresses the system fail to identify. This means height is not enough to classify persons. We plan to extend the work by adding more cues such as skin color, and face recognition by utilizing the zoom capability of the camera to obtain high resolution view of face; then, evaluate the system with more subjects.

  • PDF