• 제목/요약/키워드: Motion recognition image processing

검색결과 64건 처리시간 0.026초

Image Processing for Video Images of Buoy Motion

  • Kim, Baeck-Oon;Cho, Hong-Yeon
    • Ocean Science Journal
    • /
    • 제40권4호
    • /
    • pp.213-220
    • /
    • 2005
  • In this paper, image processing technique that reduces video images of buoy motion to yield time series of image coordinates of buoy objects will be investigated. The buoy motion images are noisy due to time-varying brightness as well as non-uniform background illumination. The occurrence of boats, wakes, and wind-induced white caps interferes significantly in recognition of buoy objects. Thus, semi-automated procedures consisting of object recognition and image measurement aspects will be conducted. These offer more satisfactory results than a manual process. Spectral analysis shows that the image coordinates of buoy objects represent wave motion well, indicating its usefulness in the analysis of wave characteristics.

적외선 카메라를 이용한 에어 인터페이스 시스템(AIS) 연구 (A Study on Air Interface System (AIS) Using Infrared Ray (IR) Camera)

  • 김효성;정현기;김병규
    • 정보처리학회논문지B
    • /
    • 제18B권3호
    • /
    • pp.109-116
    • /
    • 2011
  • 본 논문에서는 기계적인 조작 장치 없이 손동작만으로 컴퓨터를 조작할 수 있는 차세대 인터페이스인 에어 인터페이스를 구현하였다. 에어 인터페이스 시스템 구현을 위해 먼저 적외선의 전반사 원리를 이용하였으며, 이후 획득된 적외선 영상에서 손 영역을 분할한다. 매 프레임에서 분할된 손 영역은 이벤트 처리를 위한 손동작 인식부의 입력으로 사용되고, 최종적으로 개별 제어 이벤트에 맵핑된 손동작 인식을 통하여 일반적인 제어를 수행하게 된다. 본 연구에서는 손영역 검출과 추적, 손동작 인식과정을 위해 구현되어진 영상처리 및 인식 기법들이 소개되며, 개발된 에어 인터페이스 시스템은 길거리 광고, 프레젠테이션, 키오스크 등의 그 활용성이 매우 클 것으로 기대된다.

거리 측정 센서의 위치와 각도에 따른 깊이 영상 왜곡 보정 방법 및 하드웨어 구현 (Depth Image Distortion Correction Method according to the Position and Angle of Depth Sensor and Its Hardware Implementation)

  • 장경훈;조호상;김근준;강봉순
    • 한국정보통신학회논문지
    • /
    • 제18권5호
    • /
    • pp.1103-1109
    • /
    • 2014
  • 디지털 영상 처리 분야에서 사람의 동작 인식은 다양하게 연구되고 있으며, 최근에는 깊이 영상을 이용한 방법이 매우 유용하게 사용되고 있다. 하지만 깊이 측정 센서의 위치와 각도에 따라 깊이 영상에서의 객체 크기나 형태가 왜곡되므로 사물 및 사람의 인식 과정에서 인식률이 감소하는 경우가 발생한다. 따라서 뛰어난 성능을 보장하기 위해서는 측정 센서에 의한 왜곡 보정은 반드시 고려되어야 할 사항이다. 본 논문에서는 동작 인식 시스템의 인식률을 향상시키기 위한 전처리 알고리즘을 제안한다. 깊이 측정 센서로부터 입력되는 깊이 정보를 실제 공간 (Real World)으로 변환하여 왜곡 보정을 수행한 후 투영 공간 (Projective World)으로 변환한다. 최종적으로 제안된 시스템을 OpenCV와 Window 프로그램을 사용하여 구현하였으며 Kinect를 사용하여 실시간으로 성능을 테스트하였다. 또한, Verilog-HDL을 사용하여 하드웨어 시스템을 설계하고, Xilinx Zynq-7000 FPGA Board에 탑재하여 검증하였다.

Spatio-temporal Semantic Features for Human Action Recognition

  • Liu, Jia;Wang, Xiaonian;Li, Tianyu;Yang, Jie
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제6권10호
    • /
    • pp.2632-2649
    • /
    • 2012
  • Most approaches to human action recognition is limited due to the use of simple action datasets under controlled environments or focus on excessively localized features without sufficiently exploring the spatio-temporal information. This paper proposed a framework for recognizing realistic human actions. Specifically, a new action representation is proposed based on computing a rich set of descriptors from keypoint trajectories. To obtain efficient and compact representations for actions, we develop a feature fusion method to combine spatial-temporal local motion descriptors by the movement of the camera which is detected by the distribution of spatio-temporal interest points in the clips. A new topic model called Markov Semantic Model is proposed for semantic feature selection which relies on the different kinds of dependencies between words produced by "syntactic " and "semantic" constraints. The informative features are selected collaboratively based on the different types of dependencies between words produced by short range and long range constraints. Building on the nonlinear SVMs, we validate this proposed hierarchical framework on several realistic action datasets.

ADD-Net: Attention Based 3D Dense Network for Action Recognition

  • Man, Qiaoyue;Cho, Young Im
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권6호
    • /
    • pp.21-28
    • /
    • 2019
  • Recent years with the development of artificial intelligence and the success of the deep model, they have been deployed in all fields of computer vision. Action recognition, as an important branch of human perception and computer vision system research, has attracted more and more attention. Action recognition is a challenging task due to the special complexity of human movement, the same movement may exist between multiple individuals. The human action exists as a continuous image frame in the video, so action recognition requires more computational power than processing static images. And the simple use of the CNN network cannot achieve the desired results. Recently, the attention model has achieved good results in computer vision and natural language processing. In particular, for video action classification, after adding the attention model, it is more effective to focus on motion features and improve performance. It intuitively explains which part the model attends to when making a particular decision, which is very helpful in real applications. In this paper, we proposed a 3D dense convolutional network based on attention mechanism(ADD-Net), recognition of human motion behavior in the video.

IGRT를 위한 비침습적인 호흡에 의한 장기 움직임 실시간 추적시스템 (A Non-invasive Real-time Respiratory Organ Motion Tracking System for Image Guided Radio-Therapy)

  • 김윤종;윤의중
    • 대한의용생체공학회:의공학회지
    • /
    • 제28권5호
    • /
    • pp.676-683
    • /
    • 2007
  • A non-invasive respiratory gated radiotherapy system like those based on external anatomic motion gives better comfortableness to patients than invasive system on treatment. However, higher correlation between the external and internal anatomic motion is required to increase the effectiveness of non-invasive respiratory gated radiotherapy. Both of invasive and non-invasive methods need to track the internal anatomy with the higher precision and rapid response. Especially, the non-invasive method has more difficulty to track the target position successively because of using only image processing. So we developed the system to track the motion for a non-invasive respiratory gated system to accurately find the dynamic position of internal structures such as the diaphragm and tumor. The respiratory organ motion tracking apparatus consists of an image capture board, a fluoroscopy system and a processing computer. After the image board grabs the motion of internal anatomy through the fluoroscopy system, the computer acquires the organ motion tracking data by image processing without any additional physical markers. The patients breathe freely without any forced breath control and coaching, when this experiment was performed. The developed pattern-recognition software could extract the target motion signal in real-time from the acquired fluoroscopic images. The range of mean deviations between the real and acquired target positions was measured for some sample structures in an anatomical model phantom. The mean and max deviation between the real and acquired positions were less than 1mm and 2mm respectively with the standardized movement using a moving stage and an anatomical model phantom. Under the real human body, the mean and maximum distance of the peak to trough was measured 23.5mm and 55.1mm respectively for 13 patients' diaphragm motion. The acquired respiration profile showed that human expiration period was longer than the inspiration period. The above results could be applied to respiratory-gated radiotherapy.

Leap Motion 시스템을 이용한 손동작 인식기반 제어 인터페이스 기술 연구 (A new study on hand gesture recognition algorithm using leap motion system)

  • 남재현;양승훈;허웅;김병규
    • 한국멀티미디어학회논문지
    • /
    • 제17권11호
    • /
    • pp.1263-1269
    • /
    • 2014
  • As rapid development of new hardware control interface technology, new concepts have been being proposed and emerged. In this paper, a new approach based on leap motion system is proposed. While we employ a position information from sensor, the hand gesture recognition is suggested with the pre-defined patterns. To do this, we design a recognition algorithm with hand gesture and finger patterns. We apply the proposed scheme to 3-dimensional avatar controling and editing software tool for making animation in the cyber space as a representative application. This proposed algorithm can be used to control computer systems in medical treatment, game, education and other various areas.

HMM을 이용한 알파벳 제스처 인식 (Alphabetical Gesture Recognition using HMM)

  • 윤호섭;소정;민병우
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1998년도 가을 학술발표논문집 Vol.25 No.2 (2)
    • /
    • pp.384-386
    • /
    • 1998
  • The use of hand gesture provides an attractive alternative to cumbersome interface devices for human-computer interaction(HCI). Many methods hand gesture recognition using visual analysis have been proposed such as syntactical analysis, neural network(NN), Hidden Markov Model(HMM) and so on. In our research, a HMMs is proposed for alphabetical hand gesture recognition. In the preprocessing stage, the proposed approach consists of three different procedures for hand localization, hand tracking and gesture spotting. The hand location procedure detects the candidated regions on the basis of skin-color and motion in an image by using a color histogram matching and time-varying edge difference techniques. The hand tracking algorithm finds the centroid of a moving hand region, connect those centroids, and thus, produces a trajectory. The spotting a feature database, the proposed approach use the mesh feature code for codebook of HMM. In our experiments, 1300 alphabetical and 1300 untrained gestures are used for training and testing, respectively. Those experimental results demonstrate that the proposed approach yields a higher and satisfying recognition rate for the images with different sizes, shapes and skew angles.

  • PDF

휴대단말기 영상에서의 기하학적 정보를 이용한 차량 번호판 인식 (Recognition of Car License Plate Using Geometric Information from Portable Device Image)

  • 염희정;은성종;황보택근
    • 한국콘텐츠학회논문지
    • /
    • 제10권10호
    • /
    • pp.1-8
    • /
    • 2010
  • 현재 카메라로 입력된 문자 영상 처리를 위한 기술 개발이 국내외에서 활발히 이루어지고 있으나 낮은 정확도나 처리시간이 많이 걸리는 문제점 등으로 실용화 비율은 현저히 낮다. 본 논문에서는 휴대단말기 카메라에서 얻은 영상으로 기하학적 정보를 이용한 차량 번호판 인식 방법을 제안한다. 휴대폰 영상의 낮은 해상도와 부족한 명암대비, 각도 차이 등을 고려한 전처리 작업 수행 후 투영에지 누적 계산을 통해 추출된 번호판 영역에서 체인코드와 Thickness 정보를 이용하여 문자를 인식한다. 제안된 알고리즘은 기존의 차량 번호판 인식 알고리즘의 문제점과 휴대단말기 영상 처리라는 점 등을 고려하여 가볍고 처리 시간을 단축시켰으며, 실험 결과 95%의 문자 인식 성공률을 얻었다. 향후 연구로 원거리 영상이나 모션블러가 가미된 영상에서의 번호판 인식 알고리즘을 모색할 예정이다.

제스쳐 인식을 이용한 DID 인터페이스 구현 (Implementation of DID interface using gesture recognition)

  • 이상헌;김대진;최홍섭
    • 디지털콘텐츠학회 논문지
    • /
    • 제13권3호
    • /
    • pp.343-352
    • /
    • 2012
  • 본 논문에서는 DID 시스템에서 사용할 수 있는 제스쳐 인식을 이용한 비접촉식 인터페이스를 구현하였다. 비접촉식 인터페이스는 별도의 부착물 없이 키넥트 카메라만을 사용함으로, 사용자의 편의와 공간적인 활용도를 높일 수 있다. 손 동작인식에는 사용자의 손 움직임의 기울기와 속력을 인식하는 방향성 기반의 인식 기법을 채용하였고 손 모양인식을 위해서 YCbCr 칼라모델을 이용한 손 영역 추출과 손 넓이의 원을 이용한 영상처리 기술로 손가락의 수를 인식하였다. 이러한 손 동작인식과 손 모양인식을 이용하여 다음 페이지, 이전 페이지, 화면 위로, 화면 아래로, 커서 움직임, 클릭 등의 이벤트를 발생시켜 DID 시스템 제어 명령으로 사용하였으며, 구현한 시스템을 갖고 동작 실험한 결과 93%의 명령 인식률을 보여 실용화의 가능성을 확인할 수 있었다.