• 제목/요약/키워드: Separating image

검색결과 162건 처리시간 0.025초

비디오 게임 인터페이스를 위한 인식 기반 제스처 분할 (Recognition-Based Gesture Spotting for Video Game Interface)

  • 한은정;강현;정기철
    • 한국멀티미디어학회논문지
    • /
    • 제8권9호
    • /
    • pp.1177-1186
    • /
    • 2005
  • 키보드나 조이스틱 대신 카메라를 통해 입력되는 사용자의 제스처를 이용하는 시각 기반 비디오 게임 인터페이스를 사용할 때 자연스러운 동작을 허용하기 위해서는, 연속 제스처를 인식할 수 있고 사용자의 의미없는 동작이 허용되어야 한다. 본 논문에서는 비디오 게임 인터페이스를 위한 인식과 분할을 결합한 제스처 인식 방법을 제안하며, 이는 주어진 연속 영상에서 의미있는 동작을 인식함과 동시에 의미없는 동작을 구별하는 방법이다. 제안된 방법을 사용자의 상체 제스처를 게임의 명령어로 사용하는 1인칭 액션 게임인 Quke II 게임에 적용한 결과, 연속 제스처에 대해 평균 $93.36\%$의 분할 결과로써 비디오 게임 인터페이스에서 유용한 성능을 낼 수 있음을 보였다.

  • PDF

클라우드 방송 서비스 플랫폼 (Cloud Broadcasting Service Platform)

  • 김홍익;이동익;이종한
    • 한국통신학회논문지
    • /
    • 제42권3호
    • /
    • pp.623-638
    • /
    • 2017
  • 클라우드(Cloud) 기술이 적용되는 영역은 기술의 발전과 서비스의 다양화로 점차 확대되고 있다. 방송 플랫폼에도 투자 효율화, 운영 효율화, 서비스 경쟁력 확보 등의 측면에서 클라우드 기술이 도입되고 있다. 최근 국내에서는 클라우드 방송 플랫폼이 UI와 서비스에 도입되면서 서비스 경쟁이 가속화 되고 있다. 클라우드 방송 기술은 단말기의 자원과 소프트웨어 구조에 종속성 없이 서비스를 제공하고, 단말기 별로 분리되어 관리되고 있던 UI와 서비스를 서버기반으로 통합하여 운영될 수 있도록 한다. 논문에서는 클라우드 방송 플랫폼에 대해서 설명하고 적용 효과에 대해서 설명한다.

Study of User Reuse Intention for Gamified Interactive Movies upon Flow Experience

  • Han, Zhe;Lee, Hyun-Seok
    • Journal of Multimedia Information System
    • /
    • 제7권4호
    • /
    • pp.281-293
    • /
    • 2020
  • As Christine Daley suggested, "interaction-image" is considered to be typical in the age of "Cinema 3.0", which integrates the interactivity of game art and obscures the boundary between producers and customers. In this case, users are allowed to involve actively in the scene as "players" to manage the tempo of the story to some extent, it, thus, makes users pleased to watch interactive movies repeatedly for trying a diverse option to unlock more branch lines. Accordingly, this paper aims to analyze the contributory factors and effect mechanism of users' reuse intention for gamified interactive movies and offer specific concepts to improve the reuse intention from the interactive film production and operation perspectives. Upon integrating the Flow theory and Technology Acceptance Model (TAM) and separating the intrinsic and extrinsic motivations of key factors based on Stimulus-Organism-Response (S-O-R), the research builds an empirical analysis model for users' reuse intention with cognition, design, attitude emotional experience and conducts an empirical analysis on 425 pieces of valid sample data applying SPSS22 and Amos23. The results show that user satisfaction and flow experience impact users' reuse intention highly and perceived usefulness, perceived ease of use, perceived enjoyment, remote perception, interactivity, and flow experience have significant positive influence on user satisfaction experience.

패션온라인창업 교육을 위한 전자책 콘텐츠 개발에 대한 연구 (A Study on the Development of E-book Contents for Fashion Online Entrepreneurship Education)

  • 정화연;홍은희
    • 한국의상디자인학회지
    • /
    • 제26권1호
    • /
    • pp.33-44
    • /
    • 2024
  • This study developed e-book content in order to use e-books as a tool to provide more efficient classes to learners who are familiar with smart devices and online spaces. E-book contents were produced using Sigil-0.9.10. The development process is as follows. Before e-book development, it is necessary to prepare manuscript files, image files to be inserted, fonts to be used, and e-book covers. After inserting the book cover images, it is necessary to register the table of contents using the title tag and register the free fonts. Also, a style must be created for text or images used in the main text connected to a file containing the entire text. Then, after separating the entire text file into separate files according to each chapter, the text is completed in turn. E-books were produced focusing on hyperlink functions so that educational content and various example images could be accessed. Currently, there is a lack of research on e-books as textbooks in universities within the fashion design major. In the future, if e-book contents are developed according to the characteristics of courses and the level of learners, they can be used as effective teaching tools.

비디오 객체 생성을 위한 자동 영상 분할 방법 (An Automatic Segmentation Method for Video Object Plane Generation)

  • 최재각;김문철;이명호;안치득;김성대
    • 방송공학회논문지
    • /
    • 제2권2호
    • /
    • pp.146-155
    • /
    • 1997
  • 본 논문은 MPEG-4와 같이 객체 및 내용 기반 영상 부호화에 필요한 동영상의 자동 영역 분할 알고리즘을 제안한다. 통계적 가설 검증(statistical hypothesis test)을 사용하여 영상 시퀀스내에 포함된 비디오 객체들(video objects)을 움직임 물체(moving objects)와 배경 (background)으로 자동 분할하는 새로운 영상 분할 알고리즘을 제안한다. 기존 방법들이 두 개의 연속된 영상을 사용하는 반면에, 제안된 방법은 3개의 연속된 영상을 사용하여, 2개의 차영상의 평균값을 비교하여 가설검증을 행함으로써 잡음에 강한 특성을 나타낸다. 그리고 제안된 방법은 기존 방법과는 달리 참분산(true variance)을 사전에 알고 있을 필요가 없는 장점을 갖고 있다[18]. 또한 시간정보만을 이용한 변화 검출 방법의 문제점인 불규칙하고 부정확한 영역의 경계를 공간정보를 이용하여 보정하는 새로운 방법을 제안한다. 시험 결과에서 주어진 것처럼 제안된 시공간정보를 이용한 영상 분할 알고리즘이 시각적으로 의미있는 분할 결과를 제공함을 알 수 있고, 정확한 영역 경계를 추출할 수 있기 때문에 MPEG-4와 같은 객체 기반 영상 부호화에 적용할 경우에 영역 경계에서 상당히 우수한 재생 화질을 얻을 수 있다.

  • PDF

Automatic Liver Segmentation on Abdominal Contrast-enhanced CT Images for the Pre-surgery Planning of Living Donor Liver Transplantation

  • Jang, Yujin;Hong, Helen;Chung, Jin Wook
    • Journal of International Society for Simulation Surgery
    • /
    • 제1권1호
    • /
    • pp.37-40
    • /
    • 2014
  • Purpose For living donor liver transplantation, liver segmentation is difficult due to the variability of its shape across patients and similarity of the density of neighbor organs such as heart, stomach, kidney, and spleen. In this paper, we propose an automatic segmentation of the liver using multi-planar anatomy and deformable surface model in portal phase of abdominal contrast-enhanced CT images. Method Our method is composed of four main steps. First, the optimal liver volume is extracted by positional information of pelvis and rib and by separating lungs and heart from CT images. Second, anisotropic diffusing filtering and adaptive thresholding are used to segment the initial liver volume. Third, morphological opening and connected component labeling are applied to multiple planes for removing neighbor organs. Finally, deformable surface model and probability summation map are performed to refine a posterior liver surface and missing left robe in previous step. Results All experimental datasets were acquired on ten living donors using a SIEMENS CT system. Each image had a matrix size of $512{\times}512$ pixels with in-plane resolutions ranging from 0.54 to 0.70 mm. The slice spacing was 2.0 mm and the number of images per scan ranged from 136 to 229. For accuracy evaluation, the average symmetric surface distance (ASD) and the volume overlap error (VE) between automatic segmentation and manual segmentation by two radiologists are calculated. The ASD was $0.26{\pm}0.12mm$ for manual1 versus automatic and $0.24{\pm}0.09mm$ for manual2 versus automatic while that of inter-radiologists was $0.23{\pm}0.05mm$. The VE was $0.86{\pm}0.45%$ for manual1 versus automatic and $0.73{\pm}0.33%$ for manaual2 versus automatic while that of inter-radiologist was $0.76{\pm}0.21%$. Conclusion Our method can be used for the liver volumetry for the pre-surgery planning of living donor liver transplantation.

RGB 컬러모델에서 자외선 조명하 박락태(剝落苔)의 설태와 설질 사이의 색 강도 차이에 관한 연구 (Comparison between Colour Intensity of Tongue Body and That of Tongue Coat under the Ultraviolet Light in RGB system of Peeling Tongue Coat Image)

  • 남동현;김지혜;이우범;이상석;홍유식
    • 대한한의진단학회지
    • /
    • 제15권2호
    • /
    • pp.149-158
    • /
    • 2011
  • Objectives: The objective of this study is to compare the colour intensity of tongue body and that of tongue coat under the visible light and the ultraviolet light. Methods: We selected 7 subjects with completely or partially peeled tongue coat among the recruited 94 adults for the experiment. We took each tongue picture under the visible light and the ultraviolet light (315-400 nm) and then extracted sample images from the tongue body and tongue coat regions. Mean, median and mode of colour intensity from the sample images were calculated in 256 RGB system. Results: The green and the blue colour intensities of the tongue coats were significantly higher than those of the tongue bodies under the visible light. In all channels, the red, green and blue, the colour intensities of the tongue coats were significantly higher than those of the tongue bodies under the ultraviolet light. The colour differences between tongue coats and tongue bodies under the ultraviolet light were significantly higher than the colour differences under the visible light. Especially the colour difference under the ultraviolet light was highest in the green channel. Conclusions: We suggested that green colour image of the RGB system taken under the ultraviolet light could be used for more easy separating tongue coat region from tongue body.

드론영상을 이용한 물체탐지알고리즘 기반 도로균열탐지 (Road Crack Detection based on Object Detection Algorithm using Unmanned Aerial Vehicle Image)

  • 김정민;현세권;채정환;도명식
    • 한국ITS학회 논문지
    • /
    • 제18권6호
    • /
    • pp.155-163
    • /
    • 2019
  • 본 연구에서는 대전광역시 주요 간선도로인 유성대로를 대상으로 드론을 통해 취득한 노면 영상데이터를 기반으로 물체탐지알고리즘(Object Detection algorithm) 가운데 Tiny-YOLO-V2와 Faster-RCNN을 활용하여 아스팔트 도로노면의 균열을 인식, 균열유형을 구분하고 실험 결과차이를 비교하였다. 분석결과, Faster-RCNN의 mAP는 71%이고 Tiny-YOLO-V2의 mAP는 33%로 측정되었으며, 이는 1stage Detection인 YOLO계열 알고리즘보다 2Stage Detection인 Faster-RCNN 계열의 알고리즘이 도로노면의 균열을 확인하고 분리하는데 더 좋은 성능을 보인다는 것을 확인하였다. 향후, 드론과 인공지능형 균열검지시스템을 이용한 도로자산관리체계(Infrastructure Asset Management) 구축방안 마련을 통해 효율적이고 경제적인 도로 유지관리 의사결정 지원 시스템 구축 및 운영 환경을 조성할 수 있을 것이라 판단된다.

로그폴라 변환과 ZDF를 이용한 이동 물체 추적 스테레오 시스템 (Stereo System for Tracking Moving Object using Log-Polar Transformation and ZDF)

  • Yoon, Jong-Kun;Park, Il-;Lee, Yong-Bum;Chien, Sung-Il
    • 대한전자공학회논문지SP
    • /
    • 제39권1호
    • /
    • pp.61-69
    • /
    • 2002
  • 능동 스테레오 비젼 시스템은 목표물 판별을 위해서 간단한 연산만으로 작은 시차값을 가지는 특징들만을 통과시킴으로써 목표물 위치 측정을 가능케 한다. 그런데 이 간단한 방법은, 복잡한 배경이 포함되거나 시차가 영인 영역에 다른 물체들도 동시에 존재하면 적용이 어렵게 된다. 이러한 문제점들을 해결하기 위하여, 본 논문에서는 시야 중심 영역의 해상도는 높이고 일반적으로 중요도가 낮은 주변의 해상도는 감소시키는 포비에이션 기법을 필터링 방법과 결합시켰다 포비에이트 영상 표현을 위하여 영상 피라미드 또는 로그폴라 변환을 사용하였다. 또한 추적이 수행되는 동안에 스테레오 시차가 작은 값이 유지되도록 투영을 이용하여 스테레오 시차를 추출하였다. 실험 결과는 로그폴라 변환이 복잡한 배경으로부터 목표물을 분리하는 제안된 방법이 영상 피라미드 또는 기존 방법보다 우수하며, 추적성능을 상당히 개선함을 보여주고 있다.

낮은 피사계 심도의 동영상에서 포커스 된 비디오 객체의 자동 검출 (Automatic Extraction of Focused Video Object from Low Depth-of-Field Image Sequences)

  • 박정우;김창익
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제33권10호
    • /
    • pp.851-861
    • /
    • 2006
  • 영상을 낮은 피사계 심도로 찍는 카메라 기법은 전통적으로 널리 이용되는 영상 취득 기술이다. 이 방법을 사용하면 사진사가 사진이나 동영상을 찍을 때 영상의 관심 영역에만 포커스를 두어 선명하게 표현하고 나머지는 흐릿하게 함으로써 자신의 의도를 보는 이에게의 분명하게 전달 할 수 있다. 본 논문은 이러한 피사계 심도가 낮은 동영상 입력에 대하여 사용자의 도움 없이 포커스 된 비디오 객체를 추출하는 새로운 방법을 제안한다. 본 연구에서 제안하는 방법은 크게 두 모듈로 나뉜다. 첫 번째 모듈에서는 동영상의 첫 번째 프레임에 대해서 포커스 된 영역과 그렇지 않은 흐릿한 부분을 자동으로 구분하여 관심 물체만을 추출한다. 두 번째 모듈에서는 첫 번째 모듈에서 구한 관심 물체의 모델을 바탕으로 동영상 프레임에서의 관심 물체만을 실시간이나 실시간에 가깝게 추출한다. 본 논문에서 제안하는 방법은 가상현실(VR)이나 실감 방송, 비디오 인덱싱 시스템과 같은 여러 응용 분야에 효과적으로 적용될 수 있고, 이러한 유용성은 실험 결과를 통해 보였다.