• Title/Summary/Keyword: 시각 및 청각정보

Search Result 147, Processing Time 0.028 seconds

Modelling of the Information Process with Visual and Audio in Human Brain (두뇌의 시$\cdot$청각 정보처리 과정의 모델링)

  • 김성주;서재용;조현찬;김성현;전홍태
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2002.05a
    • /
    • pp.187-190
    • /
    • 2002
  • 인간의 두뇌에서는 갖가지 다양한 형태의 입력들을 이용하여 동시에 여러 가지의 판단, 추론 및 기억 등의 기능을 수행한다 이러한 이유로 인간 두뇌는 거대한 지능형 정보처리기라고 할 수 있다 현재 정보처리 메커니즘은 다양한 형태로 발달되고 있지만 그 중에서도 지능형 정보처리 메커니즘으로는 소프트 컴퓨팅 기법을 응용한 것이 대부분이다. 본 논문에서는 소프트 컴퓨팅 기법을 이용하여 두뇌에서의 시각, 청각의 정보처리 과정을 하나의 구조로 모델링하고자 한다. 시각에서의 정보와 청각에서의 정보는 각기 다른 모듈에서 처리되는 방식을 취하고 있으며, 최종적으로 두 감각 정보를 이용한 처리가 가능하도록 모듈형태의 전체적인 구조를 지니고 있다. 상이한 두 가지의 정보를 동시에 처리하는 과정을 모델링함으로써 복잡한 문제의 해결 및 다양한 경우에 대한 고려를 수행하여 인간 두뇌 모델링의 기초를 마련하고자 한다.

  • PDF

The Effects of Control Takeover Request Modality of Automated Vehicle and Road Type on Driver's Takeover Time and Mental Workload (자율주행 차량의 제어권 인수요구 정보양상과 도로 형태에 따른 운전자의 제어권 인수시간과 정신적 작업부하 차이)

  • Nam-Kyung Yun;Jaesik Lee
    • Science of Emotion and Sensibility
    • /
    • v.26 no.4
    • /
    • pp.51-70
    • /
    • 2023
  • This study employed driving simulation to examine how takeover request (TOR) information modalities (visual, auditory, and visual + auditory) in Level-3 automated vehicles, and road types (straight and curved) influence the driver's control takeover time (TOT) and mental workload, assessed through subjective workload and heart rate variations. The findings reveal several key points. First, visual TOR resulted in the quickest TOT, while auditory TOR led to the longest. Second, TOT was considerably slower on curved roads compared to straight roads, with the greatest difference observed under the auditory TOR condition. Third, the auditory TOR condition generally induced lower subjective workload and heart rate variability than the visual or visual + auditory conditions. Finally, significant heart rate changes were predominantly observed in curved road conditions. These outcomes indicate that TOT and mental workload levels in drivers are influenced by both the TOR modality and road geometry. Notably, a faster TOT is associated with increased mental workload.

A study on the Visual and Aural Information Effect as the Amenity Evaluation Index (쾌적성 평가지표로서 시각 및 청각정보의 영향에 관한 연구)

  • Shin, Hoon;Song, Min-Jeong;Kim, Sun-Woo;Jang, Gil-Soo
    • Proceedings of the Korean Society for Noise and Vibration Engineering Conference
    • /
    • 2007.05a
    • /
    • pp.511-514
    • /
    • 2007
  • This study aims to derive the effect of road traffic noise perception by the visual and aural information through a laboratory experiment. To verify the result more precisely, ME(Magnitude Estimation) and SD(Semantic Differential Method) evaluation on the effect of visual and aural effect were carried out by 43 university students. As the result, up to 10% of psychological reduction effect was shown under the 65dB(A). As the noise level, it was analyzed that the vision affected about 7dB(A) and sound affected 5dB(A). However, if these two are given simultaneously, mainly sound affects to reduce the annoyance of noise and the vision next. Compared with the urban central circumstances, this effect(2dB(A) under 65dB(A) noise) was shown smaller than field test.

  • PDF

The Auditory and Visual Information Effects on the Loudness of Noises Perception (친환경적 시각 및 청각정보가 소음의 인지도에 미치는 영향)

  • Shin, Hoon;Song, Min-Jeong;Kook, Chan;Jang, Gil-Soo;Kim, Sun-Woo
    • Proceedings of the Korean Society for Noise and Vibration Engineering Conference
    • /
    • 2006.05a
    • /
    • pp.970-973
    • /
    • 2006
  • The effects of the additional visual and auditory stimuli on the loudness evaluation of road traffic noise was investigated by the method of magnitude estimation. As a result, it was shown that additional visual stimulus of noise barrier can influence on the loudness perception of road traffic noise. Also, additional auditory stimuli such as green music or sound of flowing water can influence on the loudness perception of road traffic noise. approximately $5{\sim}10%$ lower than the absence of stimuli. But this effect was disappeared in the range of over 65dB(A).

  • PDF

Automatic cognitive processing of korean written language as indexed by visual MMN(vMMN) (시각적 MMN(vMMN)의 분석을 통한 한국어 글말의 무의식적인 인지과정 연구)

  • Lee, Sung Eun
    • Annual Conference on Human and Language Technology
    • /
    • 2009.10a
    • /
    • pp.67-72
    • /
    • 2009
  • ERP의 일종인 MMN(Mismatch Negativity)은 언어의 청각 인지정보 처리과정(central auditory processing)을 규명하는 데 유용한 수단으로 이용되어 왔다. 그런데, 최근의 연구들은 이러한 MMN이 청각 자극뿐만 아니라 시각 자극에 의해서도 검출될 수 있음을 밝혀냈다. 본 연구는 이러한 시각적 MMN을 이용하여 뇌에서 이루어지는 한국어 화자의 무의식적인 한국어 문자 정보처리과정을 규명하려고 시도하였다. 본 연구에서는 한국어의 글말 최소쌍 '므'/'모'와 '므'/'무', 이에 대응되는 비언어자극 '+ㅡ'/'+ㅗ'와 '+ㅡ'/'+ㅜ'(+표시의 아래에 모음을 붙여서 만든 인공문자, 그림1 참고)를 수동적(passive) Oddball paradigm으로 제시하고 언어 자극에 대한 EEG를 비언어자극과 비교 하에 측정, 분석하였다. 본 연구의 결과, 언어자극과 비언어자극 모두에서 시각적 MMN이 검출되었다. 하지만, 언어자극의 시각적 MMN이 비언어자극의 시각적 MMN보다 높게 나타남을 확인하였다. 이는 한국어 모국어화자들이 무의식적인 인지과정에서 언어자극이 갖는 물리적인 시각 정보뿐만 아니라 한국어 문자의 언어적 정보도 함께 처리하고 있음을 보여주는 것이다. 본 연구의 결과들은 한국어 글말의 무의식적인 인지처리과정을 밝혀주는 한편, 한국어 문자가 인지과학에서 갖는 중요한 지위를 보여줄 수 있을 것으로 기대된다.

  • PDF

A Design and Implementation of Hangeul-Braille Translation System (한글점자번역시스템의 설계 및 구현)

  • Kim, Poong-Min;Kim, Sang-Kuk;Ha, Young-Lyol
    • Annual Conference on Human and Language Technology
    • /
    • 1993.10a
    • /
    • pp.605-629
    • /
    • 1993
  • 시각장애인이 정보를 접할 수 있는 방법으로는 청각과 촉각있으며, 청각으로는 어떤 음성매체를 통하여 사람의 목소리나 소리로써 의사전달이 이루어지며, 촉각으로는 시각장애인이 학습하여 익혀온 점자표기법으로 의사소통이 이루어진다. 이 촉각을 사용하는 방식인 점자표기법에 통일성을 기하고, 그 사용의 불편함을 해결하고자 일반 워드프로세서 기능에 점자출력이 가능하도록 한글점자번역시스템을 개발한 것이다. 그러므로 정보화 사회에 부응하여 많은 시각장애인들도 일반문자에 의한 교육 및 의사전달, 그리고 컴퓨터를 활용한 직업재활의 수단을 제공하는 것이다.

  • PDF

Artificial intelligence-based multi-sound recognition smart hub production (인공지능 기반 다중 소리 감지 스마트허브 제작)

  • Tae-min Lee;Byung-jun Sung;Chang-heon Lee;Seong-soo Kim;Byeong-su Kim;Chan-woo Han;Joon-ho Park
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.01a
    • /
    • pp.241-242
    • /
    • 2023
  • 본 논문에서는 딥러닝 소리 인식을 이용하여 실내에서 발생할 수 있는 다양한 소리를 시각적인 정보로 제공해주는 스마트허브 시스템을 제안한다. 인공지능 모델은 2D-CNN 구조를 활용하여 학습을 진행하였고, 스마트허브 하드웨어는 라즈베리파이를 이용하여 구현하였다. 제안된 시스템은 청각장애인을 위해 설계된 다양한 청각 정보를 시각 정보로 전달하는 다양한 제품을 하나로 대체할 수 있을 뿐만 아니라, 설치 및 운반이 간편하여 누구나 사용하기 쉬워서 활용도가 높을 것으로 기대된다.

  • PDF

An study on the Effects of Visual and Aural Information on Environmental Sound Amenity Evaluation (시각 및 청각 정보가 환경음의 쾌적성 평가에 미치는 영향에 관한 연구)

  • Shin, Hoon;Baek, Kun-Jong;Song, Min-Jeong;Jang, Gil-Soo
    • Transactions of the Korean Society for Noise and Vibration Engineering
    • /
    • v.17 no.9
    • /
    • pp.813-818
    • /
    • 2007
  • This study aims to know the effect of road traffic noise perception when the visual and aural information is added in a laboratory experiment. ME (magnitude estimation) and SD (semantic differential method) evaluation on the effect of visual and aural effect were carried out by 43 university students. As the result, up to 10 % of psychological reduction effect was shown under the 65 dB(A). As the noise level, it was analyzed that the vision affected about 7 dB(A) and sound affected 5 dB(A). However, if these two are given simultaneously, mainly sound affects to reduce the annoyance of noise and the vision next. Compared with the urban central circumstances, this effect (2 dB(A) under 65 dB(A) noise) was shown smaller than field test.

차세대 청각소자의 융합기술 연구동향

  • Heo, Sin;Lee, Yeong-Hwa;Park, Jun-Sik;Kim, Wan-Du;Choe, Hong-Su
    • Information and Communications Magazine
    • /
    • v.27 no.9
    • /
    • pp.30-38
    • /
    • 2010
  • 본 논문은 인간의 청각기능을 보조하거나 대체할 수 있는 차세대 청각보조장치 및 완전 이식형 인공와우에 관련한 기술동향에 대해서 기술한다. 청각보조장치는 MEMS 마이크로폰과 음장가시화 기술을 기반으로 하여 청각정보를 시각적으로 전달하고자 하는 장치이다. 이를 위해서는 초소형 MEMS 마이크로폰의 최적화 및 실시간 음장가시화 기술 개발이 선행되어야 한다. 차세대 생체모사 인공와우 기술은 기존 인공와우의 단점인 잦은 충전, 장애 노출 등을 극복하고 향상된 음감을 전달할 수 있는 완전 이식형 인공와우로서 그 기술동향을 논하고자 한다.

Development of a Wearable computer interface for aurally impaired persons (청각 장애인을 위한 웨어러블 단말 인터페이스 기술)

  • Park, Jin-Young;Ahn, Chong-Keun;Kim, Lae-Hyun;Ha, Sung-Do;Park, Se-Hyung
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.57-62
    • /
    • 2006
  • 최근 들어 IT 기술의 비약적인 발전과 더불어 사용자의 편의성을 극대화 시키는 웨어러블 컴퓨팅 기술이 주목을 받고 있다. 이러한 기술은 일반인 뿐만 아니라 장애인들에게 큰 도움이 될 것이고, 현재 관련된 연구들이 활발히 진행 중에 있다. 본 논문에서는 청각장애인을 위해 개발된 웨어러블 단말 인터페이스 기술을 소개하고자 한다. 웨어러블 단말장치는 소형 마이크로폰을 통해 입력된 주변의 소리로부터 미리 정해진 주요한 소리를 실시간 감지하여, 시각과 촉각 정보로 변환하여 소리의 종류 및 방향을 청각장애인에 알려주는 기능을 한다. 시각정보는 안경식 소형 디스플레이를 통해 상황에 맞는 그래픽아이콘을 보여주고 동시에 소형 진동자들이 부착된 햅틱 슈트를 통해 촉각 정보가 전달된다. 본 연구에서 개발한 웨어러블 단말장치를 통해 청각장애인이 일상생활에서 발생되는 여러 가지 위험상황 또는 긴급상황에 적절하게 대처할 수 있도록 도와주고자 한다.

  • PDF