• 제목/요약/키워드: Sound signal

Search Result 900, Processing Time 0.026 seconds

해상실험을 통한 저전력 수중음향통신 기법의 성능 분석 (Performance Analysis of the Underwater Acoustic Communication with Low Power Consumption by Sea Trials)

  • 이태진;김기만
    • 한국항해항만학회지
    • /
    • 제35권10호
    • /
    • pp.811-816
    • /
    • 2011
  • 이 논문에서는 저전력 통신 기법 가운데 하나인 PSPM(Phase Shift Pulse position Modulation) 전송 기법이 근거리 수중음향 채널에서 어떠한 성능을 나타낼지 고찰하기 위해 해상실험을 통해 분석하였다. PSPM은 QPSK(Quadrature Phase Shift Keying)와 PPM(Pulse Position Modulation) 기법을 서로 혼합한 형태로 WBAN(Wireless Body Area Network) 시스템에서 저전력 통신을 위해 제안된 기법이다. 이는 기존의 일반적인 전송 방식에 비해 대역효율은 떨어지지만 전력효율은 증가하는 것으로 알려져 있다. 이 논문에서는 실해역에서 취득한 PSPM 데이터를 통해 BER 성능을 분석한다. 실험 결과 QPSK의 경우 총 56,000개의 전송 데이터 비트 중 오차 비트 수가 3,384개로 BER이 약 $6.04{\times}10^{-2}$이고, PSPM의 경우는 19,652개로 BER이 약 $3.5{\times}10^{-1}$를 얻었다. 또한 영상 데이터 전송에 따른 PSNR(Peak signal-to-noise ratio)을 비교한 결과 QPSK의 경우 9.37 dB 였으며, PSPM의 경우 9.11 dB 였다.

Auto pilot 와 water jet drive system 간의 Interface 설계 (Design on the interfacing between auto-pilot and water-jet drive system)

  • 진형두;최조천
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2009년도 춘계학술대회
    • /
    • pp.535-538
    • /
    • 2009
  • Auto Pilot은 전자해도나 플로터를 이용하여 항행하고자 하는 코스를 입력 시킨 후 운행모드를 자동운항에 위치시키면 자동으로 경로를 따라 선박을 이동시키는 시스템이다. Water Jet 추진장치는 엔진과 연결된 펌프를 가동해 배 밑바닥에 있는 흡입구로부터 물을 빨아들인 후에 배 내부에 설치된 유도관을 거쳐 노즐을 통해 가속된 물을 배 뒤쪽으로 분사하면서 배를 앞으로 밀어주는 힘을 발생시키는 추진 장치다. Water Jet 추진장치는 수심의 영향이 적고, 고속영역 일수록 추진 효율이 높고 진동과 유동소음 측면에서도 매우 유리한 장점을 갖고 있어 새로운 추진시스템으로 국내외 적으로 수요가 확대되고 있다. 하지만 Auto Pilot 와 Water Jet 추진시스템의 신호 체계가 달라 상호간 효과적으로 신호를 전달할 수 있는 장치가 필요하다. 본 논문은 기존의 Auto Pilot 와 Water Jet 추진시스템의 신뢰성 있는 통신을 할 수 있도록 상호 연동하는 Interface 장치를 설계하였다.

  • PDF

오토파일럿과 워터젯시스템의 피드백 제어계 인터페이스 모듈의 구현 (A embodiment of the interface module for feed back control between auto-pilot with water-jet system)

  • 오진성;최조천
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2009년도 추계학술대회
    • /
    • pp.1108-1111
    • /
    • 2009
  • 디지털 오토파일럿은 전자해도상에서 선박의 운항예정 코스를 설정하여 입력시킨 후, 자동운항 모드로 세트하면 선박이 운항코스의 경로를 따라 자동으로 항행하는 시스템이다. 워터젯시스템은 엔진과 연결된 임펠러(회전익)를 구동하여 선저에 선수방향으로 설치된 흡입구를 통하여 해수를 흡입하여 압력을 높인 후, 노즐을 통하여 가속된 해수를 선저의 선미방향으로 분사시키므로써 선체를 조향하고 추진시키는 장치이다. 그러므로 워터젯시스템은 수심이 낮은 해역에서도 운항이 가능하며, 고효율의 고속추진, 상대적으로 낮은 진동과 유동소음 등의 환경에서 매우 효과적이므로 새로운 추진시스템으로 수요가 확대되고 있다. 그러나 워터젯시스템의 전기적인 제어신호는 표준화되어있지 않으므로 디지털 오토파일럿의 표준화된 인터페이스를 제공하지 않는다. 본 논문은 표준화된 오토파일럿과 워터젯시스템 사이에서 연동하므로써 고속선박을 신뢰성 있게 조향할 수 있는 피드백 제어인터페이스 모듈을 설계하였다.

  • PDF

동해 해역에서 해저면 잔향음 및 통계적 특징 (Ocean bottom reverberation and its statistical characteristics in the East Sea)

  • 정영철;이근화;성우제;김성일
    • 한국음향학회지
    • /
    • 제38권1호
    • /
    • pp.82-95
    • /
    • 2019
  • 본 연구에서는 2015년 8월, 동해 동남방 해역에서 수행된 해양 잔향음 빔 데이터를 분석하였다. 잔향음 데이터는 이동하는 연구선에 의해 예인된 LFM (Linear Frequency Modulation) 음원과 삼중선 배열을 통해 수집되었으며, 신호처리 과정을 거친 이후 해저지형, 음원/수신기 수심, 음속구조에 따른 잔향음 준위의 변화를 분석하였다. 추가로 해저 잔향음의 확률적 특성을 해석하기 위해 셀 평균화 알고리즘이 적용된 정규화 데이터가 활용되었고, 모멘트 추정기법을 통해 형상 모수를 추정하여 해저 산란체의 확률적 특징을 확인하였다. 또한, 콜모고로프 스미르노프 검정 기법을 이용하여 데이터가 레일레이 분포와 K 분포 확률에 일치하는지를 분석하였다. 결과적으로 해저 지형에 따른 잔향음의 거리종속 특성과 음원/수신기 수심에 따른 시간 지연 및 세기 변화를 확인하였고, 잔향음에서 레일레이 확률분포와 유사한 특성을 관찰할 수 있었다.

열변형 해석을 이용한 냉장고 수축팽창 소음저감 (Reduction of contraction and expansion noise of refrigerator using thermal deformation analysis)

  • 박성규;김원진
    • 한국음향학회지
    • /
    • 제38권3호
    • /
    • pp.344-351
    • /
    • 2019
  • 본 연구에서는 수축 및 팽창 소음 발생 메커니즘을 분석하고, 냉장고 운전 중에 소음발생 빈도를 줄이기 위한 효과적인 방법을 제안하였다. 냉장고의 수축팽창음 발생 시에 제품의 품질비용 상승에 영향을 주기 때문에 저감이 필요하다. 먼저, 무향실에서 측정된 음압 신호를 이용하여 주파수 스펙트럼 분석을 수행하여 소음의 특성과 발생 빈도를 분석하였다. 둘째, 열변형 해석을 수행하여 소음원의 위치를 예측했다. 분석결과에서 가장 큰 열변형은 냉동실의 왼쪽 내부 케이스의 중간에서 발생하였다. 또한 음원 위치의 가속도 레벨을 평가한 결과, 소음을 발생시키는 내부 부품이 냉동실의 세 번째 선반임을 알 수 있었다. 냉장고의 중앙 ABS(Acrylonitrile Butadiene Styrene) 두께 증가에 의한 열변형 저감을 통하여 수축팽창음을 저감할 수 있는 방법을 제안하였다.

청각장애 운전자의 사용자경험에 기반한 자동차 내 청각정보 유형 분석 (Analysis of Auditory Information Types in Vehicle based on User Experience of Hearing Impaired Drivers)

  • 변재형
    • 스마트미디어저널
    • /
    • 제10권1호
    • /
    • pp.70-78
    • /
    • 2021
  • 청각정보는 시각에 비해 방향에 제한을 받지 않으므로 자동차 내에서 긴급한 알림이나 경고의 목적으로 활용된다. 그러나 청각장애 운전자는 청각정보를 인지할 수 없으므로 이를 대체하기 위해 다양한 시각화 방법이 시도되고 있다. 청각정보를 시각화할 때는 시각에 집중되는 인지과부하를 방지하기 위해 중요한 정보만을 선별해서 제공하여야 하며, 이를 위해서는 자동차 내 청각정보의 유형 분석이 우선되어야 한다. 본 연구에서는 청각장애 운전자의 운전상황 관찰을 통해 자동차 내에서 경험하는 청각정보를 수집하였다. 수집된 33가지의 청각정보는 전문가 그룹에 의한 개방적 카드소팅을 통해 12개의 그룹으로 분류되었으며, 그룹 간 상대적 중요도 비교를 통해 4개의 계층으로 분석하였다. 제시된 자동차 내 청각정보 유형은 청각정보를 시각 또는 촉각으로 변환하여 표시할 때 중요한 정보를 선별하기 위한 가이드 라인으로서 활용이 가능하다. 본 연구는 청각장애 운전자를 대상으로 일상에서의 실제 운전상황 관찰에 의한 사용자 경험 분석이 이루어졌다는 데 의의가 있다.

수중구조를 위한 ICT 기반 수중통신 모니터링 장치 구현 (Implementation of ICT-based Underwater Communication Monitoring Device for Underwater Lifting)

  • 윤종화;강상일;윤달환
    • 전기전자학회논문지
    • /
    • 제26권3호
    • /
    • pp.396-400
    • /
    • 2022
  • 본 연구에서는 해저에서 발견한 인체를 해수면까지 운반하는 인양백을 기반으로 수중구조를 위한 ICT 기반 수중통신 모니터링 장치를 구현한다. 인양백은 에어를 주입하는 리프트백, 사이드백, CO2 카트리지 등으로 패키지화 되어 있다. 모니터링 시스템은 휴대하기 용이한 구조로 모바일 방식으로 개발한다. 수중 초음파 센서 신호는 USB 포트를 사용하여 공급되며, O/S는 리눅스로 구성한다. 수중통신동시험은 동해안에서 수심 6m~40m까지 실시간으로 측정 시험을 진행한다. 초음파 음향센서는 2,400bps로 변환되어 2원화에 따라 전송오차를 검증한다. 센서에서 모니터링까지 통신속도는 115,200bps, 제어기에서 수신부까지 통신속도는 2,400bps를 사용한다. 리프팅 장치의 상용화 단계에서 로우엔드 타입 개발이 용이하고 호환성이 넓도록 한다.

Effect of Digital Noise Reduction of Hearing Aids on Music and Speech Perception

  • Kim, Hyo Jeong;Lee, Jae Hee;Shim, Hyun Joon
    • Journal of Audiology & Otology
    • /
    • 제24권4호
    • /
    • pp.180-190
    • /
    • 2020
  • Background and Objectives: Although many studies have evaluated the effect of the digital noise reduction (DNR) algorithm of hearing aids (HAs) on speech recognition, there are few studies on the effect of DNR on music perception. Therefore, we aimed to evaluate the effect of DNR on music, in addition to speech perception, using objective and subjective measurements. Subjects and Methods: Sixteen HA users participated in this study (58.00±10.44 years; 3 males and 13 females). The objective assessment of speech and music perception was based on the Korean version of the Clinical Assessment of Music Perception test and word and sentence recognition scores. Meanwhile, for the subjective assessment, the quality rating of speech and music as well as self-reported HA benefits were evaluated. Results: There was no improvement conferred with DNR of HAs on the objective assessment tests of speech and music perception. The pitch discrimination at 262 Hz in the DNR-off condition was better than that in the unaided condition (p=0.024); however, the unaided condition and the DNR-on conditions did not differ. In the Korean music background questionnaire, responses regarding ease of communication were better in the DNR-on condition than in the DNR-off condition (p=0.029). Conclusions: Speech and music perception or sound quality did not improve with the activation of DNR. However, DNR positively influenced the listener's subjective listening comfort. The DNR-off condition in HAs may be beneficial for pitch discrimination at some frequencies.

Effect of Digital Noise Reduction of Hearing Aids on Music and Speech Perception

  • Kim, Hyo Jeong;Lee, Jae Hee;Shim, Hyun Joon
    • 대한청각학회지
    • /
    • 제24권4호
    • /
    • pp.180-190
    • /
    • 2020
  • Background and Objectives: Although many studies have evaluated the effect of the digital noise reduction (DNR) algorithm of hearing aids (HAs) on speech recognition, there are few studies on the effect of DNR on music perception. Therefore, we aimed to evaluate the effect of DNR on music, in addition to speech perception, using objective and subjective measurements. Subjects and Methods: Sixteen HA users participated in this study (58.00±10.44 years; 3 males and 13 females). The objective assessment of speech and music perception was based on the Korean version of the Clinical Assessment of Music Perception test and word and sentence recognition scores. Meanwhile, for the subjective assessment, the quality rating of speech and music as well as self-reported HA benefits were evaluated. Results: There was no improvement conferred with DNR of HAs on the objective assessment tests of speech and music perception. The pitch discrimination at 262 Hz in the DNR-off condition was better than that in the unaided condition (p=0.024); however, the unaided condition and the DNR-on conditions did not differ. In the Korean music background questionnaire, responses regarding ease of communication were better in the DNR-on condition than in the DNR-off condition (p=0.029). Conclusions: Speech and music perception or sound quality did not improve with the activation of DNR. However, DNR positively influenced the listener's subjective listening comfort. The DNR-off condition in HAs may be beneficial for pitch discrimination at some frequencies.

Emotion Recognition Implementation with Multimodalities of Face, Voice and EEG

  • Udurume, Miracle;Caliwag, Angela;Lim, Wansu;Kim, Gwigon
    • Journal of information and communication convergence engineering
    • /
    • 제20권3호
    • /
    • pp.174-180
    • /
    • 2022
  • Emotion recognition is an essential component of complete interaction between human and machine. The issues related to emotion recognition are a result of the different types of emotions expressed in several forms such as visual, sound, and physiological signal. Recent advancements in the field show that combined modalities, such as visual, voice and electroencephalography signals, lead to better result compared to the use of single modalities separately. Previous studies have explored the use of multiple modalities for accurate predictions of emotion; however the number of studies regarding real-time implementation is limited because of the difficulty in simultaneously implementing multiple modalities of emotion recognition. In this study, we proposed an emotion recognition system for real-time emotion recognition implementation. Our model was built with a multithreading block that enables the implementation of each modality using separate threads for continuous synchronization. First, we separately achieved emotion recognition for each modality before enabling the use of the multithreaded system. To verify the correctness of the results, we compared the performance accuracy of unimodal and multimodal emotion recognitions in real-time. The experimental results showed real-time user emotion recognition of the proposed model. In addition, the effectiveness of the multimodalities for emotion recognition was observed. Our multimodal model was able to obtain an accuracy of 80.1% as compared to the unimodality, which obtained accuracies of 70.9, 54.3, and 63.1%.