• Title/Summary/Keyword: 청각의 시각화

Search Result 101, Processing Time 0.025 seconds

Development of Sound Information Visualization Glasses for the Hearing Impaired (청각장애인을 위한 사운드 정보 시각화 안경의 개발)

  • Lee, Gye-hwan;Kim, In-hyun;Lee, Jun-ho;Lee, Jeong-hoon;Hwang, Kwang-il
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2018.10a
    • /
    • pp.656-659
    • /
    • 2018
  • 통계적으로 일반인보다 청각장애인의 교통 사고율이 높은 것으로 나타나는데, 이는 청각 장애로 대표되는 차량을 포함한 위험 요소를 인식하기 힘든 상태나 조건에서 기인한다. 자동차가 접근하는 등의 소리를 듣지 못한다는 것은 결국 어떠한 위치에 위험요소가 존재하는지 인지하지 못함에 따라 사고로 이어질 가능성이 존재함을 의미하는데 이러한 문제점을 개선함과 동시에 대화중인 사람의 목소리를 시각화하여 정보를 제공함으로써 청각장애인으로 하여금 더 안전하고 쾌적한 삶을 누리게 하는 것이 청각장애인을 위한 사운드 정보 시각화 안경의 개발 목적이다. 위와 같은 배경을 통해 딥 러닝 기술에 기반하여 분류 과정을 거친 소리 정보의 판별을 통해 위험 요소를 인식한 후 시각화 하여 정보를 제공하는 디바이스를 제안한다.

Analysis of Auditory Information Types in Vehicle based on User Experience of Hearing Impaired Drivers (청각장애 운전자의 사용자경험에 기반한 자동차 내 청각정보 유형 분석)

  • Byun, Jae Hyung
    • Smart Media Journal
    • /
    • v.10 no.1
    • /
    • pp.70-78
    • /
    • 2021
  • The auditory information is used for urgent notification or warning in vehicle because it is not restricted by the direction compared to the visual. However, since the hearing impaired drivers cannot recognize sound signal, various methods of visualizing the auditory information have been attempted to replace it. When visualizing auditory information, only important information should be selected and provided to prevent cognitive overload concentrated on the vision. For this purpose, analysis of the type of auditory information in vehicle should be given in advance. In this study, the types of auditory information in vehicle were analyzed based on the user experience of hearing impaired drivers. Through the observation of the driving behavior of hearing impaired drivers, 33 auditory informations experienced in vehicle were collected. The collected auditory informations were classified into 12 groups through open card sorting by an expert group, and the types of auditory information in vehicle consisting of four levels were presented through a relative comparison of importance between groups. The presented type of auditory information in vehicle can be used as a guideline for selecting important information when the auditory information is converted into visual or tactile. This study is meaningful in that the user experience analysis was conducted by observing actual driving in daily life of hearing impaired drivers.

Wearable system for sound visualization and disaster alarm for the Hearing-Impaired (청각장애인을 위한 사운드-시각화 및 재난 경보 웨어러블 시스템)

  • Lee, Se-Hoon;Kong, Jin-yong;Yeom, Dae-hoon;Kang, Eun-ho;Baek, Yong-Tae
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2017.07a
    • /
    • pp.257-258
    • /
    • 2017
  • 본 논문에서는 청각 장애인들은 시각에 의존하지 않고는 소리를 인지할 수 없다는 문제를 해결하기 위해 사운드를 시각화하는 웨어러블 시스템을 구현하였다. 시스템의 음성 인식 센서가 음성을 인식해 웨어러블 디스플레이에 전송된 메시지를 확인하고, 기상 재난 메시지를 웨어러블에서 실시간으로 확인하여 안전사고를 예방할 수 있게 하여 청각장애인의 어려움을 해결하였다.

  • PDF

Configuration of Audio-Visual System using Visual Image (이미지를 활용한 오디오-비쥬얼 시스템 구성)

  • Seo, June-Seok;Hong, Sung-Dae;Park, Jin-Wan
    • The Journal of the Korea Contents Association
    • /
    • v.8 no.6
    • /
    • pp.121-129
    • /
    • 2008
  • With the help of information technology The problem of building a concrete form with a shapeless media is the starting point of presenting information by means of sound. Audio-Visual System using sound as a medium is a method that presents an auditory material visually and has a role of linking different sensory organs. In a sense, Audio-Visual System transfers a non-concrete sensation to a concrete one. Audio-Visual System presentation by late methods using active and non-active images produced by computerized irregular procedures can be limited because of the limited ways of visual output. On the other side, visualization using active images can induce more diverse expressions using sound as a medium. This study suggests a new way of expression in animations using visualization of various auditory materials and sounds built by Audio-Visual System with active images.

인터액티브 커뮤니케이션을 위한 햅틱장치의 설계

  • 최정수;백윤수
    • Proceedings of the Korean Society of Precision Engineering Conference
    • /
    • 2004.05a
    • /
    • pp.186-186
    • /
    • 2004
  • 정보화 산업의 급속한 발전을 통하여 무수히 많은 양의 정보들이 디지털화되어 왔고, 이러한 정보를 인식하기 위해서 인간은 멀티미디어나 컴퓨터를 통해 디지털화된 환경에 접속하게 되는데, 이는 시각과 청각을 통해 디지털화된 정보를 인간에게 전달하여 준다 이러한 시각과 청각을 이용한 정보 입출력 장치를 장시간 사용할 경우 정신적으로나 육체적으로 피곤함[l]과 지루함을 느끼게 되고, 장시간 사용이후에도 외부환경에 대한 반응이 일순간 둔감해질 수도 있다.(중략)

  • PDF

Wearable devices for the visually and aurally handicapped (시각 및 청각 장애인의 생활 보조를 위한 착용형 단말기 개발)

  • Kim, Rae-Hyeon;Ha, Seong-Do;Park, Jin-Yeong;Jo, Hyeon-Cheol;Park, Se-Hyeong
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.585-590
    • /
    • 2007
  • 최근 IT기술의 비약적인 발전과 더불어 사용자의 편의성을 극대화 시키는 웨어러블 컴퓨팅 기술이 주목을 받고 있다. 이러한 기술은 일반인뿐만 아니라 장애인들의 일상생활의 보조 도구에 활용되어 큰 도움이 될 것으로 예상된다. 본 논문에서는 시각 및 청각장애인을 위해 개발된 착용형 단말기들을 소개하고자 한다. 시각 장애인용 단말기인 SmartWand는 시각장애인용 지팡이에 부착하거나 손에 휴대할 수 있는 장치로, 시작장애인을 위한 보행 보조 및 색상과 명암 정보 인식 보조 기능을 갖춘 장치이다. SmarWand는 시각장애인이 보행 시 이용하는 기존의 지팡이로는 감지할 수 없는 전방의 장애물을 초음파 센서를 통해 탐지하여 촉각이나 음성으로 경고해주고, 물체의 색깔이나 주변의 밝기 정도를 측정하여 시각장애인에게 알려준다. 청각 장애인용 단말기인 SmarWatch는 손목에 착용하는 장치로서 아기 울음소리, 노크나 초인종 소리, 물 끓는 소리, 화재 경보 등 가정에서 발생하는 일상적인 소리를 인식할 수 있도록 해준다. SmartWatch는 입력 모듈의 마이크로 입력된 소리를 문선통신을 통해 컴퓨터로 전송한 후에 소리의 종류를 인식하고 적절한 제어신호를 다시 무선통신을 통해 전송받아 감지된 소리의 종류를 해당하는 진동과 시각정보로 표시해준다. 이런 착용형 단말기들을 통해 시각 및 청각 장애인의 일상 생활의 안정성과 편의성이 증대 되기를 기대한다.

  • PDF

An ambient display for hearing impaired people (청각 장애인을 위한 소리 시각화 시스템)

  • Kim, Dae-Seok;Lee, Tae-Wha;Lee, Dong-Man;Park, Jin-Ah;Hahn, Min-Soo
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02a
    • /
    • pp.46-51
    • /
    • 2006
  • 청각 장애인은 집에서 발생하는 여러 가지 소리나 가전 제품의 신호를 감지하지 못하므로 생활의 불편을 상당히 느끼고 있다. 이러한 사람들을 위해 소리 정보를 시각 정보로 변경하여, 사용자들의 시야에 보여주는 것을 목적으로 연구를 시작하였다. 본 연구에서는 집이라는 환경에서 사용자의 위치와 오리엔테이션 정보를 습득하여, 사용자에게 필요한 정보를 시야에 들어오는 범위에 방해되거나 불편하지 않게 표시하는 시스템을 제안한다. 프로젝터에 부착된 카메라를 이용하여 사용자를 인식하고, 사용자를 따라다니며 화면을 디스플레이 하는 기존 방법의 단점들을 해결하기 위해 위치 센서로 사람의 위치와 방향을 파악하여 사용자에게 필요한 정보를 사용자가 현재 바라보는 곳에 디스플레이 하는 방법을 제안한다. 3D 모델로 제작된 집의 구조를 이용하여, 프로젝터의 방향과 초점 제어를 사전에 계산하여 보다 정확한 위치에 정보가 디스플레이 되도록 하였다. 본 논문에서 제안하는 방법이 기존의 PDA 나 PC 모니터를 이용해 정보를 제공하는 방법보다 사용자들이 정보를 인지하는 데 걸리는 시간이 좀더 빠르고 이 방법을 선호하기 때문에, 청각 장애인에게 정보를 제공하는 시스템으로 적합하다는 결론을 도출하였다.

  • PDF

Auditory in formation and Planning of Reactive Interface (리액티브-인터페이스설계와 청각정보)

  • 김상식
    • Archives of design research
    • /
    • v.20
    • /
    • pp.123-132
    • /
    • 1997
  • These days we live in society which the expanion and variety f information continuse with the evolution of technology. However, because much information exists in a black box, we have difficulty in using information embodied in products. For example, companies do not consider that much the position of users in using information and they thnd to tely too much on LCDs. But the limitation of monitors' screen and the tendency of miniaturization cause users some burden in obtaining visual information. Accordingly, the objective of this paper is to study an extent to which the auditory information is able to support userinterface, to compare it with the visual information, and eventually to find the way of suing auditory information as a means of expression.

  • PDF

Functional MRI of Language: Difference of its Activated Areas and Lateralization according to the Input Modality (언어의 기능적 자기공명영상: 자극방법에 따른 활성화와 편재화의 차이)

  • Ryoo, Jae-Wook;Cho, Jae-Min;Choi, Ho-Chul;Park, Mi-Jung;Choi, Hye-Young;Kim, Ji-Eun;Han, Heon;Kim, Sam-Soo;Jeon, Yong-Hwan;Khang, Hyun-Soo
    • Investigative Magnetic Resonance Imaging
    • /
    • v.15 no.2
    • /
    • pp.130-138
    • /
    • 2011
  • Purpose : To compare fMRIs of visual and auditory word generation tasks, and to evaluate the difference of its activated areas and lateralization according to the mode of stimuli. Materials and Methods : Eight male normal volunteers were included and all were right handed. Functional maps were obtained during auditory and visual word generation tasks in all. Normalized group analysis were performed in each task and the threshold for significance was set at p<0.05. Activated areas in each task were compared visually and statistically. Results : In both tasks, left dominant activations were demonstrated and were more lateralized in visual task. Both frontal lobes (Broca's area, premotor area, and SMA) and left posterior middle temporal gyrus were activated in both tasks. Extensive bilateral temporal activations were noted in auditory task. Both occipital and parietal activations were demonstrated in visual task. Conclusion : Modality independent areas could be interpreted as a core area of language function. Modality specific areas may be associated with processing of stimuli. Visual task induced more lateralized activation and could be a more useful in language study than auditory task.

Development of IoT-based Lighting System for the Hearing impaired (청각장애인을 위한 IoT 기반 조명 시스템 개발)

  • Son, Hyun-ji;Lee, So-jung;Han, Min-seo;Han, Hye-jin;Kim, Sung-wook
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.968-970
    • /
    • 2022
  • 일반적으로 가정 내에서 발생하는 안전 사고의 비율은 비장애인에 비해 청각장애인이 높다. 이는 외부인에게 도움을 받을 수 없는 상황에서 청각장애인 스스로 위험상황에 대한 소리를 인지하지 못하기 때문이다[1]. 본 연구에서는 이러한 문제를 해결하기 위해 시각적 효과 또는 진동 신호를 통해 청각장애인들에게 사고 상황 인지를 돕는 시스템을 제안한다. 현재 상용 제품의 경우는 청각장애인이 스마트기기를 소지하고 있을 때만 알림을 인지할 수 있기 때문에 긴급 상황에서 효과가 떨어질 수 있다. 따라서 제안 시스템에서는 어플리케이션 알림과 함께 건물내 전등 색상에 변화를 주는 서비스를 개발하여 스마트 기기를 소지하지 않는 상황에서도 위험상황에 대한 즉각적인 인지를 통해 위험에 대처할 수 있도록 한다. 소리를 시각화하는 것이 본 연구의 핵심 방법론이며 이를 위해 Convolutional Neural Network 모델과 라즈베리파이를 활용하였다.