• Title/Summary/Keyword: 이중흐름 신경망

Search Result 3, Processing Time 0.018 seconds

An Efficient Hand Gesture Recognition Method using Two-Stream 3D Convolutional Neural Network Structure (이중흐름 3차원 합성곱 신경망 구조를 이용한 효율적인 손 제스처 인식 방법)

  • Choi, Hyeon-Jong;Noh, Dae-Cheol;Kim, Tae-Young
    • The Journal of Korean Institute of Next Generation Computing
    • /
    • v.14 no.6
    • /
    • pp.66-74
    • /
    • 2018
  • Recently, there has been active studies on hand gesture recognition to increase immersion and provide user-friendly interaction in a virtual reality environment. However, most studies require specialized sensors or equipment, or show low recognition rates. This paper proposes a hand gesture recognition method using Deep Learning technology without separate sensors or equipment other than camera to recognize static and dynamic hand gestures. First, a series of hand gesture input images are converted into high-frequency images, then each of the hand gestures RGB images and their high-frequency images is learned through the DenseNet three-dimensional Convolutional Neural Network. Experimental results on 6 static hand gestures and 9 dynamic hand gestures showed an average of 92.6% recognition rate and increased 4.6% compared to previous DenseNet. The 3D defense game was implemented to verify the results of our study, and an average speed of 30 ms of gesture recognition was found to be available as a real-time user interface for virtual reality applications.

Wind field prediction through generative adversarial network (GAN) under tropical cyclones (생성적 적대 신경망 (GAN)을 통한 태풍 바람장 예측)

  • Na, Byoungjoon;Son, Sangyoung
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2021.06a
    • /
    • pp.370-370
    • /
    • 2021
  • 태풍으로 인한 피해를 줄이기 위해 경로, 강도 및 폭풍해일의 사전 예측은 매우 중요하다. 이중, 태풍의 경로와는 달리 강도 및 폭풍해일의 예측에 있어서 바람장은 수치 모델의 초기 입력값으로 요구되기 때문에 정확한 바람장 정보는 필수적이다. 대기 바람장 예측 방법은 크게 해석적 모델링, 라디오존데 측정과 위성 사진을 통한 산출로 구분할 수 있다. Holland의 해석적 모델링은 비교적 적은 입력값이 필요하지만 정확도가 낮고, 라디오존데 측정은 정확도가 높지만 점 측정에 가깝기 때문에 이차원 바람장을 산출하기에 한계가 있다. 위성 사진을 통한 바람장 산출은 위성기술의 고도화로 관측 채널 수 및 시공간 해상도가 크게 증가하고 있기 때문에 다양한 기법들이 개발되고 있다. 본 연구에서는 생성적 적대 신경망 (Generative Adversarial Network, GAN)을 통해 일련의 연속된 과거 적외 채널 위성 사진 흐름의 패턴을 학습시켜 미래 위성 사진을 예측하고, 예측된 연속적인 위성 사진들의 교차상관 (cross-correlation)을 통해 바람장을 산출하였다. GAN을 적용함에 있어 2011년부터 2019년까지 한반도 근방에 접근했던 태풍 중에 4등급 이상인 68개의 태풍의 한 시간 간격으로 촬영된 총 15,683개의 위성 사진을 학습시켜 생성된 이미지들은 실측 위성 사진들과 매우 유사한 것으로 나타났다. 또한, 생성된 이미지들의 교차상관으로 얻어진 바람장 벡터들의 풍향, 풍속, 벡터 일관성 및 수치 모델과의 비교를 통해 각각의 벡터들의 품질 계수를 구하고 정확도가 높은 벡터들만 결과에 포함하였다. 마지막으로 국내 6개의 라디오존데 관측점에서의 실측 벡터와의 비교를 통해 본 연구 결과의 실효성을 검증하였다. 본 연구에서 확장하여, 이와 같이 AI 기법과 이미지 교차상관 기법을 사용하여 얻어진 바람장으로부터 태풍 강도예측에 필요한 요소인 태풍의 눈의 위치, 최고 속도와 태풍 반경을 직접적으로 산출할 수 있고. 이러한 위성 사진을 기반으로 한 바람장은 단순화된 해석적 바람장을 대체하여 폭풍 해일 모델링의 예측 성능 개선에 기여할 것으로 보여진다.

  • PDF

Teacher-Student Architecture Based CNN for Action Recognition (동작 인식을 위한 교사-학생 구조 기반 CNN)

  • Zhao, Yulan;Lee, Hyo Jong
    • KIPS Transactions on Computer and Communication Systems
    • /
    • v.11 no.3
    • /
    • pp.99-104
    • /
    • 2022
  • Convolutional neural network (CNN) generally uses two-stream architecture RGB and optical flow stream for its action recognition function. RGB frames stream display appearance and optical flow stream interprets its action. However, the standard method of using optical flow is costly in its computational time and latency associated with increased action recognition. The purpose of the study was to evaluate a novel way to create a two sub-networks in neural networks. The optical flow sub-network was assigned as a teacher and the RGB frames as a student. In the training stage, the optical flow sub-network extracts features through the teacher sub-network and transmits the information to student sub-network for baseline training. In the test stage, only student sub-network was operational with decreased in latency without computing optical flow. Experimental results shows that our network fed only by RGB stream gets a competitive accuracy of 54.5% on HMDB51, which is 1.5 times better than that on R3D-18.