• 제목/요약/키워드: time sequential simulation

검색결과 152건 처리시간 0.023초

고속 수중운동체 탐지를 위한 일반화된 사인파 주파수 변조 기반 고해상도 거리 및 속도 추정 기법 (High-resolution range and velocity estimation method based on generalized sinusoidal frequency modulation for high-speed underwater vehicle detection)

  • 박진욱;김근환;석종원;홍정표
    • 한국음향학회지
    • /
    • 제42권4호
    • /
    • pp.320-328
    • /
    • 2023
  • 고속 수중운동체 능동 탐지는 수중 무기 방어 시스템에 중요한 기술로, 정확한 표적 탐지와 거리 및 속도 추정이 필수적이다. 빔 형성 각도마다 신호를 순차적으로 송신해야 하지만 펄스 분할 송신 방법은 거리 추정의 모호성이 발생한다. 이를 보완하기 위해 다중 주파수 기반 방법이 제안되었지만 대역폭을 분할할 경우 시간-대역폭 곱에서 손실이 발생한다. 이러한 문제를 해결하기 위해, 본 연구에서는 대역폭을 분할하지 않아도 부펄스 간의 상관관계를 낮게 설계할 수 있는 일반화된 사인파 주파수 변조(Generalized Sinusoidal Frequency Modulation, GSFM)를 사용한 능동 고속 탐지 기법을 제안한다. 제안한 방법은 펄스 길이를 최소화시킨 GSFM을 사용함으로써 표적의 거리와 속도를 빠르게 갱신할 수 있다. 제안한 방법의 성능을 검증하기 위해 잔향이 존재하는 모의 환경을 구축하였다. 모의 실험 결과 0.05 s의 선형 주파수 변조 펄스는 한정적인 주파수 대역으로 인해 추정 거리 대비 평균적으로 50 %의 거리 추정 오차와 103 %의 속도 추정오차가 발생하였다. 이에 반해, GSFM은 같은 길이의 펄스를 사용하더라도 추정 거리 대비 거리 추정 오차와 속도 추정 오차가 각각 10 %와 14 %로 표적을 비교적 정확하고 빠르게 추적할 수 있었다. 게다가, GSFM은 방위별로 직교성이 높은 부펄스를 송신하여 표적의 대략적인 방위까지 알 수 있었다.

한국어 음소 단위 LSTM 언어모델을 이용한 문장 생성 (Korean Sentence Generation Using Phoneme-Level LSTM Language Model)

  • 안성만;정여진;이재준;양지헌
    • 지능정보연구
    • /
    • 제23권2호
    • /
    • pp.71-88
    • /
    • 2017
  • 언어모델은 순차적으로 입력된 자료를 바탕으로 다음에 나올 단어나 문자를 예측하는 모델로 언어처리나 음성인식 분야에 활용된다. 최근 딥러닝 알고리즘이 발전되면서 입력 개체 간의 의존성을 효과적으로 반영할 수 있는 순환신경망 모델과 이를 발전시킨 Long short-term memory(LSTM) 모델이 언어모델에 사용되고 있다. 이러한 모형에 자료를 입력하기 위해서는 문장을 단어 혹은 형태소로 분해하는 과정을 거친 후 단어 레벨 혹은 형태소 레벨의 모형을 사용하는 것이 일반적이다. 하지만 이러한 모형은 텍스트가 포함하는 단어나 형태소의 수가 일반적으로 매우 많기 때문에 사전 크기가 커지게 되고 이에 따라 모형의 복잡도가 증가하는 문제가 있고 사전에 포함된 어휘 외에는 생성이 불가능하다는 등의 단점이 있다. 특히 한국어와 같이 형태소 활용이 다양한 언어의 경우 형태소 분석기를 통한 분해과정에서 오류가 더해질 수 있다. 이를 보완하기 위해 본 논문에서는 문장을 자음과 모음으로 이루어진 음소 단위로 분해한 뒤 입력 데이터로 사용하는 음소 레벨의 LSTM 언어모델을 제안한다. 본 논문에서는 LSTM layer를 3개 또는 4개 포함하는 모형을 사용한다. 모형의 최적화를 위해 Stochastic Gradient 알고리즘과 이를 개선시킨 다양한 알고리즘을 사용하고 그 성능을 비교한다. 구약성경 텍스트를 사용하여 실험을 진행하였고 모든 실험은 Theano를 기반으로 하는 Keras 패키지를 사용하여 수행되었다. 모형의 정량적 비교를 위해 validation loss와 test set에 대한 perplexity를 계산하였다. 그 결과 Stochastic Gradient 알고리즘이 상대적으로 큰 validation loss와 perplexity를 나타냈고 나머지 최적화 알고리즘들은 유사한 값들을 보이며 비슷한 수준의 모형 복잡도를 나타냈다. Layer 4개인 모형이 3개인 모형에 비해 학습시간이 평균적으로 69% 정도 길게 소요되었으나 정량지표는 크게 개선되지 않거나 특정 조건에서는 오히려 악화되는 것으로 나타났다. 하지만 layer 4개를 사용한 모형이 3개를 사용한 모형에 비해 완성도가 높은 문장을 생성했다. 본 논문에서 고려한 어떤 시뮬레이션 조건에서도 한글에서 사용되지 않는 문자조합이 생성되지 않았고 명사와 조사의 조합이나 동사의 활용, 주어 동사의 결합 면에서 상당히 완성도 높은 문장이 발생되었다. 본 연구결과는 현재 대두되고 있는 인공지능 시스템의 기초가 되는 언어처리나 음성인식 분야에서 한국어 처리를 위해 다양하게 활용될 수 있을 것으로 기대된다.