• 제목/요약/키워드: KLT-Model

검색결과 19건 처리시간 0.028초

기분석 어절 사전과 음절 단위의 확률 모델을 이용한 한국어 형태소 분석기 복제 (Cloning of Korean Morphological Analyzers using Pre-analyzed Eojeol Dictionary and Syllable-based Probabilistic Model)

  • 심광섭
    • 정보과학회 컴퓨팅의 실제 논문지
    • /
    • 제22권3호
    • /
    • pp.119-126
    • /
    • 2016
  • 본 논문에서는 어절 단위의 기분석 사전과 음절 단위의 확률 모델을 이용하는 한국어 형태소 분석기가 실용성이 있는지를 검증한다. 이를 위해 기존의 한국어 형태소 분석기 MACH와 KLT2000을 복제하고, 복제된 형태소 분석기의 분석 결과가 MACH와 KLT2000 분석 결과와 얼마나 유사한지 정밀도와 재현율로 평가하는 실험을 하였다. 실험은 1,000만 어절 규모의 세종 말뭉치를 10개의 세트로 나누고 10배수 교차 검증을 하는 방식으로 하였다. MACH의 분석 결과를 정답 집합으로 하고 MACH 복제품의 분석 결과를 평가한 결과 정밀도와 재현율이 각각 97.16%와 98.31%였으며, KLT2000 복제품의 경우에는 정밀도와 재현율이 각각 96.80%와 99.03%였다 분석 속도는 MACH 복제품의 경우 초당 30.8만 어절이며, KLT2000 복제품은 초당 43.6만 어절로 나타났다. 이 실험 결과는 어절 단위의 기분석 사전과 음절 단위의 확률 모델로 만든 한국어 형태소 분석기가 실제 응용에 사용될 수 있을 정도의 성능을 가진다는 것을 보여준다.

KLT를 이용한 AR 스펙트럼 추정기법에 관한 연구 (A new AR power spectral estimation technique using the Karhunen-Loeve Transform)

  • 공성곤;양흥석
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1986년도 한국자동제어학술회의논문집; 한국과학기술대학, 충남; 17-18 Oct. 1986
    • /
    • pp.134-136
    • /
    • 1986
  • In this paper, a new power spectral estimation technique is presented. At first, by transforming the original data with the Karhunen-Loeve Transform(KLT), we can reduce the amount of the redundant information. Next, by modeling the transformed data by means of the autoregressive(AR) model and then applying the least-squares parameter estimation algorithm to this model, even more accurate spectrum estimates can be obtained. The KLT is the optimum transform for signal representation with respect to the mean-square error criterion. And the least-squares method is used to overcome the inherent shortcomings of popular burg algorithm.

  • PDF

Hidden Markov Model과 Karhuman Loevs Transform를 이용한 얼굴인식 (A Face Recognition using the Hidden Markov Model and Karhuman Loevs Transform)

  • 김도현;황선기;강용석;김태우;김문환;배철수
    • 한국정보전자통신기술학회논문지
    • /
    • 제4권1호
    • /
    • pp.3-8
    • /
    • 2011
  • 본 논문은 실험영상이 학습영상에 대해 조명의 차이가 있는 경우에도 데이터베이스 안에서 누구인지를 식별하는 얼굴인식 방법을 제안하였으며, 또한 HMM과 KLT를 이용한 얼굴인식 알고리즘의 수행결과를 비교, 분석하였다. 얼굴인식 방법으로 측정벡터는 직교변환(Karhuman Loevs Trans-form : KLT)의 상관관계를 이용하여 얻은 HMM의 정역학특성을 사용하여 HMM 기존의 얼굴인식 방법에서 인식률을 개선하였으며, 실험결과로써 조명의 조건에 따른 여러 가지 복잡한 주변 상황변화에서도 제안된 방식의 효율성을 입증할 수 있었다.

영상기반항법을 위한 파티클 필터 기반의 특징점 추적 필터 설계 (Particle Filter Based Feature Points Tracking for Vision Based Navigation System)

  • 원대희;성상경;이영재
    • 한국항공우주학회지
    • /
    • 제40권1호
    • /
    • pp.35-42
    • /
    • 2012
  • 본 논문은 영상기반항법에서 특징점의 이동변위가 큰 경우에도 추적 성능을 확보할 수 있는 파티클 필터 기반의 특징점 추적 필터를 설계하였다. 기존 KLT(Kanade-Lucas-Tomasi) 알고리즘에서 이동량이 큰 경우의 추적 성능을 향상시키기 위해 특징점의 동역학 모델을 적용하였고, 불규칙적인 영상정보의 특성을 반영하기 위해 파티클 필터를 사용하였다. 저장된 이미지로 KLT 알고리즘과의 특징점 추적 성능을 비교한 결과 제안한 알고리즘은 큰 이동량을 갖는 경우에도 추적 기능을 유지하는 것을 확인하였다.

캠시프트와 KLT특징 추적 알고리즘을 융합한 모바일 로봇의 영상기반 사람추적 및 추종 (A vision based people tracking and following for mobile robots using CAMSHIFT and KLT feature tracker)

  • 이상진;원문철
    • 한국멀티미디어학회논문지
    • /
    • 제17권7호
    • /
    • pp.787-796
    • /
    • 2014
  • Many mobile robot navigation methods utilize laser scanners, ultrasonic sensors, vision camera, and so on for detecting obstacles and path following. However, human utilizes only vision(e.g. eye) information for navigation. In this paper, we study a mobile robot control method based on only the camera vision. The Gaussian Mixture Model and a shadow removal technology are used to divide the foreground and the background from the camera image. The mobile robot uses a combined CAMSHIFT and KLT feature tracker algorithms based on the information of the foreground to follow a person. The algorithm is verified by experiments where a person is tracked and followed by a robot in a hallway.

순차영상에서 투영변환과 KLT추적을 이용한 이동 카메라의 위치 및 방향 산출 (A Moving Camera Localization using Perspective Transform and Klt Tracking in Sequence Images)

  • 장효종;차정희;김계영
    • 정보처리학회논문지B
    • /
    • 제14B권3호
    • /
    • pp.163-170
    • /
    • 2007
  • 이동차량 혹은 이동로봇의 자율 주행에 있어서 주변 환경의 인식을 통하여 산출되는 자기위치확인은 가장 핵심적인 요소이다. 일반적으로 GPS나 INS를 통합하여 이동차량 혹은 이동로봇에 장착된 카메라의 위치와 방향을 얻을 수 있지만, 이 경우 정확한 자기위치인식을 위해서는 충분한 지상 기준점을 이용해야만 한다. 본 연구에서는 기존의 호모그래피 방법이 2차원 특징점의 상관관계를 이용하는 것과는 다르게 GPS와 INS 입력값을 이용하여 이전 시점 영상과 중첩된 3차원 모델로부터 얻어진 3차원 좌표를 투영 변환함으로써 예측한 위치와 현재 시점 영상으로부터 KLT 추적방법을 사용하여 산출된 대응 특징점의 위치 사이의 관계로부터 카메라의 위치와 방향을 산출하는 방법을 제안한다. 제안하는 방법의 성능을 평가하기 위해 무선으로 운행되는 간이실험장치 내에 CCD카메라, GPS, INS 등을 장착하였으며, 영상은 15Hz의 프레임율로 획득한 비디오시퀀스를 사용하여 실시간으로 카메라 위치와 방향을 산출하는 실험을 수행하였다.

조명의 변화에 강건한 얼굴인식 (Face Recognition Method Robust to Change in Lighting Condition)

  • 남기환;한준희;박호식;이영식;정연길;나상동;배철수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2005년도 춘계종합학술대회
    • /
    • pp.1137-1140
    • /
    • 2005
  • 본 논문은 실험영상이 학습영상에 대해 조명의 차이가 있는 경우에도 데이터베이스 안에서 누구인지를 식별하는 얼굴인식 방법을 제안하였으며, 또한 HMM과 KLT를 이용한 얼굴인식 알고리즘의 수행결과를 비교, 분석하였다. 얼굴인식 방법으로 측정벡터는 직교변환(Karhuman Loevs Trans-form : KLT)의 상관관계를 이용하여 얻은 HMM의 정역학특성을 사용하여 HMM 기존의 얼굴인식 방법에서 인식률을 개선하였으며, 실험결과로써 조명의 조건에 따른 여러 가지 복잡한 주변 상황변화에서도 제안된 방식의 효율성을 입증할 수 있었다.

  • PDF

Crowd escape event detection based on Direction-Collectiveness Model

  • Wang, Mengdi;Chang, Faliang;Zhang, Youmei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권9호
    • /
    • pp.4355-4374
    • /
    • 2018
  • Crowd escape event detection has become one of the hottest problems in intelligent surveillance filed. When the 'escape event' occurs, pedestrians will escape in a disordered way with different velocities and directions. Based on these characteristics, this paper proposes a Direction-Collectiveness Model to detect escape event in crowd scenes. First, we extract a set of trajectories from video sequences by using generalized Kanade-Lucas-Tomasi key point tracker (gKLT). Second, a Direction-Collectiveness Model is built based on the randomness of velocity and orientation calculated from the trajectories to express the movement of the crowd. This model can describe the movement of the crowd adequately. To obtain a generalized crowd escape event detector, we adopt an adaptive threshold according to the Direction-Collectiveness index. Experiments conducted on two widely used datasets demonstrate that the proposed model can detect the escape events more effectively from dense crowd.

Deformation estimation of truss bridges using two-stage optimization from cameras

  • Jau-Yu Chou;Chia-Ming Chang
    • Smart Structures and Systems
    • /
    • 제31권4호
    • /
    • pp.409-419
    • /
    • 2023
  • Structural integrity can be accessed from dynamic deformations of structures. Moreover, dynamic deformations can be acquired from non-contact sensors such as video cameras. Kanade-Lucas-Tomasi (KLT) algorithm is one of the commonly used methods for motion tracking. However, averaging throughout the extracted features would induce bias in the measurement. In addition, pixel-wise measurements can be converted to physical units through camera intrinsic. Still, the depth information is unreachable without prior knowledge of the space information. The assigned homogeneous coordinates would then mismatch manually selected feature points, resulting in measurement errors during coordinate transformation. In this study, a two-stage optimization method for video-based measurements is proposed. The manually selected feature points are first optimized by minimizing the errors compared with the homogeneous coordinate. Then, the optimized points are utilized for the KLT algorithm to extract displacements through inverse projection. Two additional criteria are employed to eliminate outliers from KLT, resulting in more reliable displacement responses. The second-stage optimization subsequently fine-tunes the geometry of the selected coordinates. The optimization process also considers the number of interpolation points at different depths of an image to reduce the effect of out-of-plane motions. As a result, the proposed method is numerically investigated by using a truss bridge as a physics-based graphic model (PBGM) to extract high-accuracy displacements from recorded videos under various capturing angles and structural conditions.

3차원 기하정보 및 특징점 추적을 이용한 다시점 거리영상의 온라인 정합 (Online Multi-view Range Image Registration using Geometric and Photometric Feature Tracking)

  • 백재원;문재경;박순용
    • 정보처리학회논문지B
    • /
    • 제14B권7호
    • /
    • pp.493-502
    • /
    • 2007
  • 본 논문에서는 물체의 3차원 모델을 복원하기 위하여 거리영상 카메라에서 획득한 다시점 3차원 거리영상을 온라인으로 정합(registration)하는 기술을 제안한다. 3차원 모델 복원을 위하여 거리영상 카메라를 복원하고자하는 물체 주위로 이동하여 연속된 다시점 거리영상과 사진영상을 획득하고 물체와 배경을 분리한다. 분리된 다시점 거리영상의 정합을 위하여 이미 등록된 거리영상의 변환정보 그리고 두 거리영상 사이의 기하정보를 이용하여 정합을 초기화한다. 위 과정을 통해 서로 인접한 거리영상에서 영상 특징점을 선택하고 특징점에 해당하는 거리영상의 3차원 점군을 이용하여 투영 기반(projection-based) 정합을 실시한다. 기하정합이 완료되면 사진영상 간의 대응점을 추적하여 정합을 정제(refinement)하는 과정을 거치는데 KLT (Kanade-Lucas-Tomasi) 추적기를 수정하여 대응점 탐색의 속도와 성공률을 증가시켰다. 영상 특징점과 추적된 대응점에 해당하는 3차원 점군을 이용하여 거리영상을 정제하였다. 정합과 정제의 결과를 통해 추정된 변환 행렬과 정합된 대응점들 사이의 거리를 계산하여 정합 결과를 검증하고 거리영상의 사용 여부를 결정한다. 만약 정합이 실패하더라도 경우에도 거리영상을 실시간으로 계속 획득하고 정합을 다시 시도한다. 위와 같은 과정을 반복하여 충분한 거리 영상을 획득하고 정합이 완료되면 오프라인에서 3차원 모델을 합성하였다. 실험 결과들을 통해 제안한 방법이 3차원 모델을 성공적으로 복원할 수 있음을 확인 할 수 있었고 오차 분석을 통해 모델 복원의 정확도를 검증하였다.