• 제목/요약/키워드: Optical feature

검색결과 402건 처리시간 0.024초

Human Action Recognition Based on An Improved Combined Feature Representation

  • Zhang, Ning;Lee, Eung-Joo
    • 한국멀티미디어학회논문지
    • /
    • 제21권12호
    • /
    • pp.1473-1480
    • /
    • 2018
  • The extraction and recognition of human motion characteristics need to combine biometrics to determine and judge human behavior in the movement and distinguish individual identities. The so-called biometric technology, the specific operation is the use of the body's inherent biological characteristics of individual identity authentication, the most noteworthy feature is the invariance and uniqueness. In the past, the behavior recognition technology based on the single characteristic was too restrictive, in this paper, we proposed a mixed feature which combined global silhouette feature and local optical flow feature, and this combined representation was used for human action recognition. And we will use the KTH database to train and test the recognition system. Experiments have been very desirable results.

A New Ocular Torsion Measurement Method Using Iterative Optical Flow

  • Lee InBum;Choi ByungHun;Kim SangSik;Park Kwang Suk
    • 대한의용생체공학회:의공학회지
    • /
    • 제26권3호
    • /
    • pp.133-138
    • /
    • 2005
  • This paper presents a new method for measuring ocular torsion using the optical flow. Images of the iris were cropped and transformed into rectangular images that were orientation invariant. Feature points of the iris region were selected from a reference and a target image, and the shift of each feature was calculated using the iterative Lucas-Kanade method. The feature points were selected according to the strength of the corners on the iris image. The accuracy of the algorithm was tested using printed eye images. In these images, torsion was measured with $0.15^{\circ}$ precision. The proposed method shows robustness even with the gaze directional changes and pupillary reflex environment of real-time processing.

기가급 WDM-PON을 위한 광기술 분석 (Review on the Optical tin]k Technologies for the Gigabit-per-second Wavelength-Division-Multiplexing Passive Optical Networks (WDM-PONs))

  • 박태상;박근열;김진희;윤호성
    • 한국정보통신설비학회:학술대회논문집
    • /
    • 한국정보통신설비학회 2006년도 하계학술대회
    • /
    • pp.11-14
    • /
    • 2006
  • This paper reviews the optical link technologies which have been developed for gigabit-per-second wavelength-division-multiplexing passive optical networks (WDM-PONs). Similarly to the 100Mb/s WDM-PON systems which have been deployed for trial services by KT, the most important requirement for 1Gb/s WDM-PON is wavelength independence (colorless feature) of its ONU/ONTs, which makes possible convenient operation and cost-effective maintenance with minimum inventory cost. Among various methods to implement such colorless feature, four promising candidates for gigabit WDM-PON are analyzed with their own development issues and their expected performances are compared.

  • PDF

시각 신경계 반응 모델에 근거한 필기체 off-line 문자에서의 특징 추출 (Feature Extraction of Off-line Handwritten Characters Based on Optical Neural Field)

  • 홍경호;정은화;안병철
    • 한국정보처리학회논문지
    • /
    • 제6권12호
    • /
    • pp.3530-3538
    • /
    • 1999
  • 필기체 오프라인 문자 인식을 위한 특징 추출의 새로군 접근 방법으로, 인간의 시각 신경계의 반응모델에 근거한 특징 추출 방법을 제안한다. 필기체 문자의 특징 추출을 위한 신경망은 평활화 처리, 외곽선 제거, 특징 정보 추출의 3가지 단계로 나누어진다. 필기체 문자에서 발생하기 쉬운 매끄럽지 못한 화소들을 전처리 단계인 평활화 처리를 통해 제거한다. 다음 단계로 인식에 영향을 주지 않는 외곽선 정보를 추출하여 이를 제거한다. 그리고 마지막으로 문자 특징에 해당하는 정보를 추출한다. 제안된 특징 추출 시스템의 타당성을 확인하기 위한 실험은 필기체 오프라인 문자인 PE2 데이터를 사용하였다. 실험을 통해 시각 신경계 반응모델에 근거한 필기체 문자의 특징을 추출하는 시스템은 곡선이나 원, 사각형이 포함된 형태의 필기 문자에서도 특징 추출이 용이하다는 것을 확인할 수 있다.

  • PDF

Antiblurry Dejitter Image Stabilization Method of Fuzzy Video for Driving Recorders

  • Xiong, Jing-Ying;Dai, Ming;Zhao, Chun-Lei;Wang, Ruo-Qiu
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권6호
    • /
    • pp.3086-3103
    • /
    • 2017
  • Video images captured by vehicle cameras often contain blurry or dithering frames due to inadvertent motion from bumps in the road or by insufficient illumination during the morning or evening, which greatly reduces the perception of objects expression and recognition from the records. Therefore, a real-time electronic stabilization method to correct fuzzy video from driving recorders has been proposed. In the first stage of feature detection, a coarse-to-fine inspection policy and a scale nonlinear diffusion filter are proposed to provide more accurate keypoints. Second, a new antiblurry binary descriptor and a feature point selection strategy for unintentional estimation are proposed, which brought more discriminative power. In addition, a new evaluation criterion for affine region detectors is presented based on the percentage interval of repeatability. The experiments show that the proposed method exhibits improvement in detecting blurry corner points. Moreover, it improves the performance of the algorithm and guarantees high processing speed at the same time.

천정부착 랜드마크와 광류를 이용한 단일 카메라/관성 센서 융합 기반의 인공위성 지상시험장치의 위치 및 자세 추정 (Pose Estimation of Ground Test Bed using Ceiling Landmark and Optical Flow Based on Single Camera/IMU Fusion)

  • 신옥식;박찬국
    • 제어로봇시스템학회논문지
    • /
    • 제18권1호
    • /
    • pp.54-61
    • /
    • 2012
  • In this paper, the pose estimation method for the satellite GTB (Ground Test Bed) using vision/MEMS IMU (Inertial Measurement Unit) integrated system is presented. The GTB for verifying a satellite system on the ground is similar to the mobile robot having thrusters and a reaction wheel as actuators and floating on the floor by compressed air. The EKF (Extended Kalman Filter) is also used for fusion of MEMS IMU and vision system that consists of a single camera and infrared LEDs that is ceiling landmarks. The fusion filter generally utilizes the position of feature points from the image as measurement. However, this method can cause position error due to the bias of MEMS IMU when the camera image is not obtained if the bias is not properly estimated through the filter. Therefore, it is proposed that the fusion method which uses the position of feature points and the velocity of the camera determined from optical flow of feature points. It is verified by experiments that the performance of the proposed method is robust to the bias of IMU compared to the method that uses only the position of feature points.

다중 채널 동적 객체 정보 추정을 통한 특징점 기반 Visual SLAM (A New Feature-Based Visual SLAM Using Multi-Channel Dynamic Object Estimation)

  • 박근형;조형기
    • 대한임베디드공학회논문지
    • /
    • 제19권1호
    • /
    • pp.65-71
    • /
    • 2024
  • An indirect visual SLAM takes raw image data and exploits geometric information such as key-points and line edges. Due to various environmental changes, SLAM performance may decrease. The main problem is caused by dynamic objects especially in highly crowded environments. In this paper, we propose a robust feature-based visual SLAM, building on ORB-SLAM, via multi-channel dynamic objects estimation. An optical flow and deep learning-based object detection algorithm each estimate different types of dynamic object information. Proposed method incorporates two dynamic object information and creates multi-channel dynamic masks. In this method, information on actually moving dynamic objects and potential dynamic objects can be obtained. Finally, dynamic objects included in the masks are removed in feature extraction part. As a results, proposed method can obtain more precise camera poses. The superiority of our ORB-SLAM was verified to compared with conventional ORB-SLAM by the experiment using KITTI odometry dataset.

OptiNeural System for Optical Pattern Classification

  • Kim, Myung-Soo
    • Journal of Electrical Engineering and information Science
    • /
    • 제3권3호
    • /
    • pp.342-347
    • /
    • 1998
  • An OptiNeural system is developed for optical pattern classification. It is a novel hybrid system which consists of an optical processor and a multilayer neural network. It takes advantages of two dimensional processing capability of an optical processor and nonlinear mapping capability of a neural network. The optical processor with a binary phase only filter is used as a preprocessor for feature extraction and the neural network is used as a decision system through mapping. OptiNeural system is trained for optical pattern classification by use of a simulated annealing algorithm. Its classification performance for grey tone texture patterns is excellent, while a conventional optical system shows poor classification performance.

  • PDF

광류를 사용한 빠른 자연특징 추적 (Fast Natural Feature Tracking Using Optical Flow)

  • 배병조;박종승
    • 정보처리학회논문지B
    • /
    • 제17B권5호
    • /
    • pp.345-354
    • /
    • 2010
  • 시각기반 증강현실을 구현하기 위한 추적 방법들은 정형 패턴 마커를 가정하는 마커 추적기법과 영상 특징점을 추출하여 이를 추적하는 자연특징 추적기법으로 분류된다. 마커 추적기법은 빠른 마커의 추출 및 인식이 가능하여 모바일 기기에서도 실시간 처리가 가능하다. 한편 자연 특징 추적기법의 경우는 입력 영상의 다양성을 고려해야 하므로 계산량이 많은 처리과정을 거쳐야 한다. 따라서 저사양의 모바일 기기에서는 빠른 실시간 처리에 어려움이 있다. 기존의 자연특징 추적에서는 입력되는 카메라 영상의 매 프레임마다 특징점을 추출하고 패턴매칭 과정을 거친다. 다수의 자연특징점들을 추출하는 과정과 패턴매칭 과정은 계산량이 많아 실시간 응용에 많은 제약을 가하는 요인으로 작용한다. 특히 등록된 패턴의 개수가 증가될수록 패턴매칭 과정의 처리시간도 증가하게 된다. 본 논문에서는 이러한 단점을 해결하고자 자연특징 추적 과정에 광류를 사용하여 모바일 기기에서의 실시간 동작이 가능하도록 하였다. 패턴매칭에 사용된 특징점들은 다음의 연속 프레임에서 광류추적 기법을 적용하여 대응점들을 빠르게 찾도록 하였다. 또한 추적 과정에서 소실되는 특징점의 수에 비례하여 새로운 특징점들을 추가하여 특징점의 전체 개수는 일정 수준으로 유지되도록 하였다. 실험 결과 제안하는 추적 방법은 자연특징점 추적 시간을 상당히 단축시킬 뿐만 아니라 카메라 자세 추정 결과도 더욱 안정시킴을 보여주었다.

Unity3D를 이용한 스트랩 다운 영상 추적기의 동역학 및 유도 법칙 알고리즘의 상호-시뮬레이션 방법에 관한 연구 (Study on Co-Simulation Method of Dynamics and Guidance Algorithms for Strap-Down Image Tracker Using Unity3D)

  • 마린미카엘;김태호;방효충;조한진;조영기;최용훈
    • 한국항공우주학회지
    • /
    • 제46권11호
    • /
    • pp.911-920
    • /
    • 2018
  • 본 연구에서는 스트랩 다운 영상 탐색기를 활용한 유도무기와 목표물 사이의 관측각을 효과적으로 추적할 수 있는 연구를 수행하였고 이를 시각적으로 시뮬레이션 가능한 테스트 베드를 구축하였다. 영상 정보를 이용하여 목표물 추적을 위한 Lucas Kanade의 Optical flow 알고리즘과 같은 희박 특징점 추적 알고리즘 구현 시 고성능의 특징점 분포를 유지시키는 법을 기술하였으며, 특징점 추적 문제를 특징점 관리의 개념으로 확장하여 연구하였다. 이를 구현하기 위해 Unity3D 엔진을 이용하여 시각 환경을 구성하고 OpenCV를 이용하여 영상 처리 시뮬레이션을 개발하였다. 상호-시뮬레이션을 위해 매틀랩(Matlab) 시뮬링크(Simulink)로 동적 시스템 모델링을 하였고, Unity3D를 이용한 시각 환경을 구성, OpenCV를 이용한 컴퓨터 비전 작업을 수행하였다.