• 제목/요약/키워드: Scene movement

검색결과 114건 처리시간 0.028초

Object Detection Based on Deep Learning Model for Two Stage Tracking with Pest Behavior Patterns in Soybean (Glycine max (L.) Merr.)

  • Yu-Hyeon Park;Junyong Song;Sang-Gyu Kim ;Tae-Hwan Jun
    • 한국작물학회:학술대회논문집
    • /
    • 한국작물학회 2022년도 추계학술대회
    • /
    • pp.89-89
    • /
    • 2022
  • Soybean (Glycine max (L.) Merr.) is a representative food resource. To preserve the integrity of soybean, it is necessary to protect soybean yield and seed quality from threats of various pests and diseases. Riptortus pedestris is a well-known insect pest that causes the greatest loss of soybean yield in South Korea. This pest not only directly reduces yields but also causes disorders and diseases in plant growth. Unfortunately, no resistant soybean resources have been reported. Therefore, it is necessary to identify the distribution and movement of Riptortus pedestris at an early stage to reduce the damage caused by insect pests. Conventionally, the human eye has performed the diagnosis of agronomic traits related to pest outbreaks. However, due to human vision's subjectivity and impermanence, it is time-consuming, requires the assistance of specialists, and is labor-intensive. Therefore, the responses and behavior patterns of Riptortus pedestris to the scent of mixture R were visualized with a 3D model through the perspective of artificial intelligence. The movement patterns of Riptortus pedestris was analyzed by using time-series image data. In addition, classification was performed through visual analysis based on a deep learning model. In the object tracking, implemented using the YOLO series model, the path of the movement of pests shows a negative reaction to a mixture Rina video scene. As a result of 3D modeling using the x, y, and z-axis of the tracked objects, 80% of the subjects showed behavioral patterns consistent with the treatment of mixture R. In addition, these studies are being conducted in the soybean field and it will be possible to preserve the yield of soybeans through the application of a pest control platform to the early stage of soybeans.

  • PDF

Human-Computer Natur al User Inter face Based on Hand Motion Detection and Tracking

  • Xu, Wenkai;Lee, Eung-Joo
    • 한국멀티미디어학회논문지
    • /
    • 제15권4호
    • /
    • pp.501-507
    • /
    • 2012
  • Human body motion is a non-verbal part for interaction or movement that can be used to involves real world and virtual world. In this paper, we explain a study on natural user interface (NUI) in human hand motion recognition using RGB color information and depth information by Kinect camera from Microsoft Corporation. To achieve the goal, hand tracking and gesture recognition have no major dependencies of the work environment, lighting or users' skin color, libraries of particular use for natural interaction and Kinect device, which serves to provide RGB images of the environment and the depth map of the scene were used. An improved Camshift tracking algorithm is used to tracking hand motion, the experimental results show out it has better performance than Camshift algorithm, and it has higher stability and accuracy as well.

임의의 외란에 대한 영상 안정화 (Image Stabilization Scheme for Arbitrary Disturbance)

  • 곽휘권
    • 한국산학기술학회논문지
    • /
    • 제15권9호
    • /
    • pp.5750-5757
    • /
    • 2014
  • 본 논문은 의도하지 않게 카메라에 입력되는 회전, 병진 움직임뿐만 아니라 확대 축소에 의한 움직임을 SIFT 기법을 이용하여 추정하고 제거하는 영상 안정화 기법을 제시한다. 또한 영상 분할 및 통합 방법을 이용하여 움직이는 물체가 영상에 입력되었을 경우에도 이러한 외란을 제거하고 영상 안정화를 수행하도록 한다. 제시된 방법은 다른 방법과 결과를 비교하는 실험을 수행하여 성능이 우수함을 검증한다.

3차원 해상상태 생성을 위한 가시화 시뮬레이션 (On Visualization Simulation for Generation of Three Dimensional Sea State)

  • 손경호;배준영;김용민
    • 한국항해항만학회지
    • /
    • 제26권4호
    • /
    • pp.449-453
    • /
    • 2002
  • 최근에 한국해양대학교에서는 선박조종시뮬레이터를 개발했다. 이에 따라 시뮬레이터에 해상상태를 적용하기 위해 노력중이다. 이 논문에서는 해상에서의 파의 움직임을 표현하는 수학모델과 OpenGL API를 이용하여 해상상태의 가시화 시뮬레이션 및 계산 결과의 시뮬레이터에 적용가능에 대해 논한다.

체감형 미디어 서비스를 위한 공간음향 기술 동향 (Spatial Audio Technologies for Immersive Media Services)

  • 이용주;유재현;장대영;이미숙;이태진
    • 전자통신동향분석
    • /
    • 제34권3호
    • /
    • pp.13-22
    • /
    • 2019
  • Although virtual reality technology may not be deemed as having a satisfactory quality for all users, it tends to incite interest because of the expectation that the technology can allow one to experience something that they may never experience in real life. The most important aspect of this indirect experience is the provision of immersive 3D audio and video, which interacts naturally with every action of the user. The immersive audio faithfully reproduces an acoustic scene in a space corresponding to the position and movement of the listener, and this technology is also called spatial audio. In this paper, we briefly introduce the trend of spatial audio technology in view of acquisition, analysis, reproduction, and the concept of MPEG-I audio standard technology, which is being promoted for spatial audio services.

동영상에서 그룹핑(grouping) 단서로 작용하는 움직임(Movement)과 의미구조 형성의 관계 (The relation between Movement working as a Grouping clue in Moving Picture and Semantic structure forming)

  • 이수진
    • 디자인학연구
    • /
    • 제19권5호
    • /
    • pp.119-128
    • /
    • 2006
  • 미디어의 발전과 함께 시각표현은 정지화면에서 동영상으로 그 영역이 확대되었다. 애니메이션 영화, TV CM, GUI 등과 같은 분야는 프레임이 누적된 가현운동 현상이 나타나면서 쇼트, 씬과 같은 단위 구조가 만들어지므로 정지화면에 비해 움직임이 필연적인 조형요소가 된다. 따라서 형태, 색채, 공간, 크기, 움직임과 같은 조형요소 중에서 움직임은 특히 중요한 요소로 부각된다고 볼 수 있다. 소쉬르(Saussure)가 설명한 기표와 기의의 관계처럼 이미지의 표현과 형식은 그 내용과 서로 제약을 주는 반면 상호 보완에 의해 하나의 기호로서 수용된다. 이는 움직임 역시 그 형식적 특성이 메시지가 담고 있는 내용에 어떠한 관여를 할 것이라는 추론을 가능하게 한다. 이를 분석하기 전 먼저 게슈탈트이론 중 '그룹핑의 원리'를 이론적 근거로 하여 동영상 시지각 실험을 실시하여 움직임과 타 조형요소의 관계를 조사하였다. 그 결과 약 70-80%의 피실험자가 '움직임'을 지각 상 중요한 그룹핑 단서로 생각하는 것으로 나타났다. 이러한 형식적 특성을 토대로 동영상의 구조를 분석했을 때 움직임은 커뮤니케이션 과정에서 메시지의 의미의 맥락을 유지하는데 영향을 준다. 사람이나 사물, 배경의 형태와 색 등이 변하더라도 움직임이 유사한 지향점을 가지면 그 대상의 정체성은 유지될 수 있다. 둘째, 움직임에 의해 형상(figure)으로서 대상이 부각되므로 내용의 명료성을 높여준다. 셋째 추후 정보처리에 있어서 유사한 움직임의 진행을 예측할 수 있는 지식표상으로 작용하게 된다. 넷째, 교차편집과 같이 둘 이상의 씬이 빠르게 전환되고 복잡한 편집구조를 가지더라도 움직임이 내용에 일관성을 부여하는 성격을 갖는다. 움직임은 기본적인 시지각적 반응으로서 입력되는 시각정보를 그룹화시키는 하나의 단서가 된다. 또한 영상 메시지의 구조적인 틀을 형성하는데 관계하여 자칫 현란하고 남용될 수 있는 시각적 표현에 질서를 부여하고 의미 작용에 명료함을 높이는 효율성을 가진다. 동영상은 본질적으로 시간성을 내포하므로 다수의 단위 구조가 조합된 담화를 가지며, 미디어믹스 환경에 의해 공통적이면서도 차별화된 표현이 요구되고 있다. 따라서 본 연구는 게슈탈트 이론의 그룹핑 원리를 동영상 범주로 확대하여 적용해 봄으로써 움직임이 다른 조형요소보다 부각되는 속성이 됨과 의미구조 형성에 영향을 줌을 분석하였으며, 이는 미디어 특성에 따라 각 영상분야에서 구조적 조형미와 새로운 영상표현을 개발하는 관점이 될 수 있음을 제안한다.

  • PDF

캐니 에지 맵을 LOD로 변환한 맵을 이용하여 객체 소거를 위한 추적 (Object Tracking for Elimination using LOD Edge Maps Generated from Canny Edge Maps)

  • 장영대;박지헌
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2007년도 춘계학술발표대회
    • /
    • pp.333-336
    • /
    • 2007
  • We propose a simple method for tracking a nonparameterized subject contour in a single video stream with a moving camera and changing background. Then we present a method to eliminate the tracked contour object by replacing with the background scene we get from other frame. Our method consists of two parts: first we track the object using LOD (Level-of-Detail) canny edge maps, then we generate background of each image frame and replace the tracked object in a scene by a background image from other frame that is not occluded by the tracked object. Our tracking method is based on level-of-detail (LOD) modified Canny edge maps and graph-based routing operations on the LOD maps. To reduce side-effects because of irrelevant edges, we start our basic tracking by using strong Canny edges generated from large image intensity gradients of an input image. We get more edge pixels along LOD hierarchy. LOD Canny edge pixels become nodes in routing, and LOD values of adjacent edge pixels determine routing costs between the nodes. We find the best route to follow Canny edge pixels favoring stronger Canny edge pixels. Our accurate tracking is based on reducing effects from irrelevant edges by selecting the stronger edge pixels, thereby relying on the current frame edge pixel as much as possible. This approach is based on computing camera motion. Our experimental results show that our method works nice for moderate camera movement with small object shape changes.

  • PDF

Application of Virtual Studio Technology and Digital Human Monocular Motion Capture Technology -Based on <Beast Town> as an Example-

  • YuanZi Sang;KiHong Kim;JuneSok Lee;JiChu Tang;GaoHe Zhang;ZhengRan Liu;QianRu Liu;ShiJie Sun;YuTing Wang;KaiXing Wang
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제16권1호
    • /
    • pp.106-123
    • /
    • 2024
  • This article takes the talk show "Beast Town" as an example to introduce the overall technical solution, technical difficulties and countermeasures for the combination of cartoon virtual characters and virtual studio technology, providing reference and experience for the multi-scenario application of digital humans. Compared with the live broadcast that combines reality and reality, we have further upgraded our virtual production technology and digital human-driven technology, adopted industry-leading real-time virtual production technology and monocular camera driving technology, and launched a virtual cartoon character talk show - "Beast Town" to achieve real Perfectly combined with virtuality, it further enhances program immersion and audio-visual experience, and expands infinite boundaries for virtual manufacturing. In the talk show, motion capture shooting technology is used for final picture synthesis. The virtual scene needs to present dynamic effects, and at the same time realize the driving of the digital human and the movement with the push, pull and pan of the overall picture. This puts forward very high requirements for multi-party data synchronization, real-time driving of digital people, and synthetic picture rendering. We focus on issues such as virtual and real data docking and monocular camera motion capture effects. We combine camera outward tracking, multi-scene picture perspective, multi-machine rendering and other solutions to effectively solve picture linkage and rendering quality problems in a deeply immersive space environment. , presenting users with visual effects of linkage between digital people and live guests.

회학적 렌더링에서 움직임을 따라 회전하는 붓질 기법 (Rotating Brush Strokes to Track Movement for Painterly Rendering)

  • 한정훈;기현우;김효원;오경수
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.426-432
    • /
    • 2008
  • 회화는 2차원 평면 위에 색과 선을 사용하여 여러 가지 형상을 표현하는 조형예술이다. 본 논문에서는 이러한 회화의 평면적 특성에 입각하여 3차원 물체들로 구성된 장면을 화가가 캔버스 위에 붓을 놀려 채색한 것과 같은 회화 스타일로 렌더링하는 방법을 소개하고, 카메라의 시점과 시선이 변화하는 동적인 장면에서 여전히 평면적 특성을 유지하면서 붓질의 방향이 처음에 지정된 방향을 유지하도록 변화하는 방법을 제안한다. 회화의 정의에 띠라 캔버스와 같은 2차원 평면 위에 붓으로 칠한듯한 효과를 연출하기 위해서 본 논문에서는 화면 공간 위에서 크기가 동일한 빌보드를 사용하여 붓질-붓을 한번 놀려 색을 칠하는 것-을 한다. 화면 전체에 붓질을 하여 장면을 렌더링 하여도 장면을 바라보는 카메라가 움직이면 처음의 붓질 방향을 유지하기 위하여 붓질의 방향 역시 변하여야 한다. 만일 붓질이 변하지 않고 동일한 방향을 유지한다면 마치 일정한 붓질 모양의 패턴이 있는 유리 뒤로 물체들이 움직이는 것 같은 시각적 오류가 있는 결과를 얻게 된다. 이것을 막기 위하여 본 논문에서는 장면 안에서 시점이나 시선의 방향이 바뀌는 애니메이션이 일어날 때 그에 맞춰 물체 위의 붓질이 함께 회전하는 방법을 제안한다. 붓질이 회전할 각도는 첫 프레임의 장면과 현재 프레임의 장면의 샘플 포인트들에 대하여 위치 차이를 비교하는, least-square solution을 사용하는 Horn의 2차원 유사성 검사를 수행하여 얻는다. 본 논문에서는 실험을 통해, 처음에 회화 스타일로 렌더링된 장면에서 실시간으로 카메라를 움직이며 붓질의 방향이 변화하는 모습을 관찰하였고, 처음에 지정된 방향을 유지하도록 회전하는 것을 확인하였다.

  • PDF

영화 <졸업>에 나타난 롱테이크의 이용 : 미장센을 중심으로 (Use of Long Take in The Film <The Graduate> : Focused on Mise-en-Scène)

  • 윤수인
    • 한국콘텐츠학회논문지
    • /
    • 제12권4호
    • /
    • pp.143-155
    • /
    • 2012
  • 영화 <졸업>은 미국 마이크 니콜스 감독의 1967년 초기 작품이다. 오랜 세월이 지난 영화임에도 불구하고 빠르고 박진감 있게 드라마를 이끄는 힘을 가진 대한 의문에서 연구를 시작했다. 그 힘의 중심에는 롱테이크의 효과적인 사용이 있었다. 이 영화의 거의 모든 씬에서 롱테이크가 사용되고 있으며 몇 개의 씬은 롱테이크만으로 구성되어있다. 그리고 롱테이크의 사용 빈도가 높을 경우 발생할 수 있는 지루함, 또는 극중 몰입에서 일탈할 수 있는 영화적인 자각을 막기 위한 효과적인 영화적 장치들의 사용도 돋보인다. 한 쇼트 안에서의 효율적인 연기 연출과 미장센의 조화를 통해 상황과 인물에 대한 심리적인 몰입이 극대화되며 의도적인 몇 장면을 제외하고는 롱테이크를 인식조차 하기 힘들다. 롱테이크를 위해 사용되는 세부적인 요소들인 카메라 워킹과 조명 등의 기계적 장치와 배우들의 대사, 연기 그리고 이동 동선 등이 절묘하게 연결되어 서로 유기적인 작용을 하고 있기 때문이다. 본문에서 소개하는 대부분의 롱테이크는 여러 개의 짧은 쇼트들로 대체되는 것이 오히려 일반적일 수 있다. 하지만 마이크 니콜스는 이 영화에서 여러 개의 쇼트들 대신 롱테이크를 선택한 이점들을 확실하게 보여준다. 이 영화에서의 롱테이크는 일반적인 미학적 가치가 발생하는 롱테이크와는 약간 다른 목적을 보여주고 있다. 그 활용에 대한 구체적인 방법과 효과를 분석해 보는 것이 이 연구의 목적이다.