• Title/Summary/Keyword: 모달실험

Search Result 163, Processing Time 0.028 seconds

A research on feedback effect according to different sensory modality for attention recovery (집중력 회복을 위한 감각 모달리티 별 피드백에 대한 연구)

  • Hyun, Hye-Jung;Whang, Min-Cheol;Park, Jun-Seok;Lee, Yoon-Joung;Kim, Young-Joo;Kim, Jong-Hwa
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.137-142
    • /
    • 2007
  • 한정된 주의력 자원을 회복 시키기 위한 방법 중 피드백이 효과가 있는 것으로 보고되고 있다. 그러나 피드백의 구체적 내용에 대한 집중력 회복의 연구는 미미하다. 본 연구는 집중력을 회복할 수 있는 감각적 자극 중 정서적 피드백 간의 효과 차이를 분석 하였다. 집중력을 평가하기 위한 온라인 실험 시스템을 구축하고 시각, 청각, 촉각 피드백 자극을 제시하여 각각의 감각자극과 집중력 회복의 효과를 분석 하였다. 실험 참여자의 감각 피드백의 선호도에 따른 영향 요인을 알아보기 위하여 실험 후 주관적 설문을 실시하였다. 감각 피드백을 6명의 대학원생에게 일주일에 걸쳐 반복적으로 약200개의 자극을 제시하고 5회 이상 실험을 통하여 얻어진 30회 결과를 분석하였다. 결과적으로 피드백 별 수행 수준에서는 청각, 촉각, 시각 순으로 효과가 높았으며, 반응 시간에서는 촉각, 청각, 시각 순으로 효과적으로 나타났다.

  • PDF

Modal Analysis of Automotive Body Model using Mode Synthesis Method (모드합성법을 사용한 차체모델의 모달해석)

  • 장경진;지태한;박영필
    • Proceedings of the Korean Society for Noise and Vibration Engineering Conference
    • /
    • 1995.04a
    • /
    • pp.34-39
    • /
    • 1995
  • 최근 승용차의 급격한 수요증가와 더불어 차량의 승차감 개선에 많은 관심이 집중되면서, 저진동 저소음 차량에 대한 연구가 활발히 이루어지고 있다. 이러한 연구의 일부로서, 수치해석법 및 진동실험에 의하여 복잡한 전체 구조물을 해석할 경우, 계산기의 기억용량, 계산시간, 비용이 많이 들게 되고, 한번 해석을 행한 구조물을 부분적으로 변경할지라도 전체의 계산을 다시 수행해야만 한다. 그래서, 복잡한 전체 구조물을 몇 개의 부분구조물로 나누어, 분계의 특성에 맞게 각기 수치해석법이나 모달실험을 적용한 후, 다시 합성하는 방법이 제시되었는데, 이것이 부분구조합성법이다. 이 방법을 사용하면, 유한요소 모델링이 쉬운 분계와 실험이 쉬운 분계를 서로 구분하여 각기 해석한 후 합성함으로써, 각 분계의 특성에 맞는 효율적인 해석을 수행할 수가 있다. 지금까지의 연구를 살펴보면, 유한요소해석에 의한 모드합성법에서는 Hurty가 구속모드법을 제안한 이래, 불구속모드법, 주종계법 등 많은 연구가 있었으나, 실험모달해석을 병행할 경우에는 결합부에서의 회전자유도의 처리문제, 특성 행렬의 동정문제, 많은 절점으로부터 데이타를 얻어야 하는 등의 어려움이 있었다. 이러한 문제를 개선시켜서 Hermanski등은 회전자유도가 보간된 모드합성법(interpolated mode synthesis, IMS)을 연구하여, 적은 실험데이타만을 사용하면서 단순지지 보에 적용함으로써 타당성을 입증하였다. 한편, 차체는 복잡한 부분구조물들로 이루어져 있으므로, 본 연구에서는 유한요소모델링의 용이함, 실험의 간편성, 계산의 효율성등을 추구하며, 실험과 유한요소해석을 병행한 부분구조합성법을 차량의 BIW(body in white)에 적용하는 방법을 연구하게 되었다. 그 기본연구로서 실험과 유한요소해석을 병행하여 회전자유도를 보간하는 방법을 먼저 단순한 판구조물에 적용을 하고, 나아가 실제 BIW를 축소하여 자체 제작한 모형차에 적용시켜 보았다.물은 분계 A(16개의 사각요소)와 분계 B(8개의 사각요소)로 이루어져 있으며 두개의 스프링으로 결합되어 있다. 설계변수는 강성에 국한하였으며 결합부의 결합형태는 탄성결합과 강결합으로 하였다. 감도해석과 축소임피던스 합성법에 의해 구해진 고유진동수와 FRF를 상용 유한 요소 해석 패키지인 MSC/NASTRAN을 통하여 검증하여 이 연구의 타당성을 검토하였다.인풋기어에서의 회전수 변동을 측정하고, 이 실험 데이타를 기초로 하여 엔진 토크 및 변속기에서의 드래그 토크를 계산하여 엔진-변속기 인풋기어의 반한정계 2자유도 진동모델과 비틀림 특성을 가진 클러치 디스크의 프리댐퍼 영역에 대해 시뮬레이션을 수행하여 클러치 비틀림 기구의 설계인자인 비틀림 강성, 히스테리시스 토크에 따른 비틀림 진동 저감 효과를 연구하고자 한다.성을 확인하였다. 여기서는 실험실 수준의 평 판모델을 제작하고 실제 현장에서 이루어질 수 있는 진동제어 구조물에 대 한 동적실험 및 FRS를 수행하는 과정과 동일하게 따름으로써 실제 발생할 수 있는 오차나 error를 실험실내의 차원에서 파악하여 진동원을 있는 구조 물에 대한 진동제어기술을 보유하고자 한다. 이용한 해마의 부피측정은 해마경화증 환자의 진단에 있어 육안적인 MR 진단이 어려운 제한된 경우에만 실제적 도움을 줄 수 있는 보조적인 방법으로 생각된다.ofile whereas relaxivity at high field is not affected by τS. On the other hand, the change in τV does not affect low field profile but strongly in fluences on both inflection fie이 and the maximum relaxivity value. The results shows a fluences on both inflection field and the maximum relaxivity value. Th

  • PDF

Haptic and Sound Grid for Enhanced Positioning in 3-D Virtual Environment (햅틱 / 사운드 그리드를 이용한 3차원 가상 환경 내의 위치 정보 인식 향상)

  • Kim, Seung-Chan;Yang, Tae-Heon;Kwon, Dong-Soo
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.447-454
    • /
    • 2007
  • 본 논문에서는 사용자의 가상환경 내의 위치 정보에 대한 감각을 향상시키는 방법론으로서 햅틱 피드백(haptic feedback)과 사운드 피드백(sound feedback)의 모달리티를 활용한 그리드(grid)를 제안한다. 제안된 그리드는 사용자의 3차원 공간 내의 움직임(explorative procedure)에 추가적인 비 시각적인(non-visual) 위치정보 피드백을 부여하는데 그 목적을 두고 있다. 햅틱 모달리티를 활용한 3차원 그리드는 SensAble사의 PHANTOM(R) Omni$^{TM}$ 를 활용하여 설계되었으며, 사운드 모달리티를 활용한 경우 저주파 배경음의 주파수 특성(frequency characteristics of sound source)을 사용자 손의 공간 좌표값에 근거하여 재생 시의 표본 추출 비율(sampling rate)를 연속적으로 바꾸는 방식으로 설계되었다. 이러한 공간 그리드는 두 모달리티 각각의 독립적인 제시 및 동시 제시/제거를 통해 평가되었으며, 동시 제시의 경우 두 모달리티간의 어긋남(cross-modal asynchrony)이 없도록 설계되어 사용자의 공간 작업 시 모달리티간의 조화 (manipulating congruency)를 확보할 수 있도록 하였다. 실험을 통해 얻어진 결과는 그것의 통계적 유의미성을 분석하기 위해 다원변량분석과 사후검증(Turkey. HSD)을 거쳐 해석이 되었다. 공간 내 특정 좌표 선택을 기준으로 하는 그리드의 사용자 평과 결과, 3차원 내의 움직임에 대해 햅틱 및 사운드 피드백의 비 시각적 피드백은 사용자의 공간 작업의 오차를 줄여 주고 있음이 확인되었다. 특히 시각적인 정보만으로 확인하기 어려운 Z축 상의 움직임은 그리드의 도움으로 그 오차정도가 50% 이상 줄어 드는 것으로 확인되었다(F=19.82, p<0.01). 이러한 시각적 정보를 보존하는 햅틱, 사운드 피드백 방식을 HCI의 중요한 요소인 사용성과 유용성과 연관시켜 MMHCI(multimodal human-computer interaction) 방법론으로의 적용 가능성을 검토해 본다.

  • PDF

Implementation of a Multimodal Controller Combining Speech and Lip Information (음성과 영상정보를 결합한 멀티모달 제어기의 구현)

  • Kim, Cheol;Choi, Seung-Ho
    • The Journal of the Acoustical Society of Korea
    • /
    • v.20 no.6
    • /
    • pp.40-45
    • /
    • 2001
  • In this paper, we implemented a multimodal system combining speech and lip information, and evaluated its performance. We designed speech recognizer using speech information and lip recognizer using image information. Both recognizers were based on HMM recognition engine. As a combining method we adopted the late integration method in which weighting ratio for speech and lip is 8:2. By the way, Our constructed multi-modal recognition system was ported on DARC system. That is, our system was used to control Comdio of DARC. The interrace between DARC and our system was done with TCP/IP socked. The experimental results of controlling Comdio showed that lip recognition can be used for an auxiliary means of speech recognizer by improving the rate of the recognition. Also, we expect that multi-model system will be successfully applied to o traffic information system and CNS (Car Navigation System).

  • PDF

Design and Implementation of Emergency Recognition System based on Multimodal Information (멀티모달 정보를 이용한 응급상황 인식 시스템의 설계 및 구현)

  • Kim, Eoung-Un;Kang, Sun-Kyung;So, In-Mi;Kwon, Tae-Kyu;Lee, Sang-Seol;Lee, Yong-Ju;Jung, Sung-Tae
    • Journal of the Korea Society of Computer and Information
    • /
    • v.14 no.2
    • /
    • pp.181-190
    • /
    • 2009
  • This paper presents a multimodal emergency recognition system based on visual information, audio information and gravity sensor information. It consists of video processing module, audio processing module, gravity sensor processing module and multimodal integration module. The video processing module and gravity sensor processing module respectively detects actions such as moving, stopping and fainting and transfer them to the multimodal integration module. The multimodal integration module detects emergency by fusing the transferred information and verifies it by asking a question and recognizing the answer via audio channel. The experiment results show that the recognition rate of video processing module only is 91.5% and that of gravity sensor processing module only is 94%, but when both information are combined the recognition result becomes 100%.

구조 변경 기법을 이용한 로타리 컴프레서의 방사소음특성 분석 및 소음저감

  • 박상영;이상현;이수일;이승갑;박윤서
    • Proceedings of the Korean Society of Precision Engineering Conference
    • /
    • 1995.10a
    • /
    • pp.778-781
    • /
    • 1995
  • In this paper, sound radiation of a rotary compressor used in room air-conditioner is investigated. structural eigenmodes are identified through modal test. Since accumulator is found important factor of sound radiation, damping material was added around accumulator to reduce sound radiation level of rotary compressor. As result, sound radiation was reduced to 3 dB.

  • PDF

Effects of Extraction Method and Choice of Lip Parameters on the Bi-modal Speech Recognition (입술정보추출 및 파라미터 선정 방법에 따른 바이모달 음성인식 성능 비교)

  • 박병구
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • 1998.06e
    • /
    • pp.347-350
    • /
    • 1998
  • 음성신호와 영상신호를 함께 이용하는 바이모달(Bi-modal)음성인식에서 어떤 입술 파라미터를 사용하는가에 따라 인식시스템의 성능이 달라진다. 그래서 본 논문에서는 이미지에 근거한 입술파라미터를 견인하게 추출하기 위한 방법으로 x 프로파일(profile)을 이용한 방법을 사용하였다. 파라미터를 선정을 달리하여 실험한 결과 15dB이상에서는 안쪽입술의 2개의 파라미터를 이용한 경우가, 10dB이하에서는 4개의 입술파라미터를 이용한 경우가 더 좋은 인식률을 보였다. 안쪽 입술 파라미터를 이용한 경우가 바깥쪽 입술 파라미터를 이용한 경우보다 더 좋은 인식률을 보였다.

  • PDF

Improved Semantic Segmentation in Multi-modal Network Using Encoder-Decoder Feature Fusion (인코더-디코더 사이의 특징 융합을 통한 멀티 모달 네트워크의 의미론적 분할 성능 향상)

  • Sohn, Chan-Young;Ho, Yo-Sung
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2018.11a
    • /
    • pp.81-83
    • /
    • 2018
  • Fully Convolutional Network(FCN)은 기존의 방법보다 뛰어난 성능을 보였지만, FCN은 RGB 정보만을 사용하기 때문에 세밀한 예측이 필요한 장면에서는 다소 부족한 성능을 보였다. 이를 해결하기 위해 인코더-디코더 구조를 이용하여 RGB와 깊이의 멀티 모달을 활용하기 위한 FuseNet이 제안되었다. 하지만, FuseNet에서는 RGB와 깊이 브랜치 사이의 융합은 있지만, 인코더와 디코더 사이의 특징 지도를 융합하지 않는다. 본 논문에서는 FCN의 디코더 부분의 업샘플링 과정에서 이전 계층의 결과와 2배 업샘플링한 결과를 융합하는 스킵 레이어를 적용하여 FuseNet의 모달리티를 잘 활용하여 성능을 개선했다. 본 실험에서는 NYUDv2와 SUNRGBD 데이터 셋을 사용했으며, 전체 정확도는 각각 77%, 65%이고, 평균 IoU는 47.4%, 26.9%, 평균 정확도는 67.7%, 41%의 성능을 보였다.

  • PDF

Sensitivity Lighting System Based on multimodal (멀티모달 기반의 감성 조명 시스템)

  • Kwon, Sun-Min;Jung, In-Bum
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.16 no.4
    • /
    • pp.721-729
    • /
    • 2012
  • In this paper, human sensibility is measured on multi-modal environment and a sensitivity lighting system is implemented according to driven emotional indexes. We use LED lighting because it supports ecological circumstance, high efficiency, and long lifetime. In particular, the LED lighting provides various color schemes even in single lighting bulb. To cognize the human sensibility, we use the image information and the arousal state information, which are composed of multi-modal basis and calculates emotional indexes. In experiments, as the LED lighting color vision varies according to users' emotional index, we show that it provides human friendly lighting system compared to the existing systems.

Convergence evaluation method using multisensory and matching painting and music using deep learning based on imaginary soundscape (Imaginary Soundscape 기반의 딥러닝을 활용한 회화와 음악의 매칭 및 다중 감각을 이용한 융합적 평가 방법)

  • Jeong, Hayoung;Kim, Youngjun;Cho, Jundong
    • Journal of the Korea Convergence Society
    • /
    • v.11 no.11
    • /
    • pp.175-182
    • /
    • 2020
  • In this study, we introduced the technique of matching classical music using deep learning to design soundscape that can help the viewer appreciate painting and proposed an evaluation index to evaluate how well matching painting and music. The evaluation index was conducted with suitability evaluation through the Likeard 5-point scale and evaluation in a multimodal aspect. The suitability evaluation score of the 13 test participants for the deep learning based best match between painting and music was 3.74/5.0 and band the average cosine similarity of the multimodal evaluation of 13 participants was 0.79. We expect multimodal evaluation to be an evaluation index that can measure a new user experience. In addition, this study aims to improve the experience of multisensory artworks by proposing the interaction between visual and auditory. The proposed matching of painting and music method can be used in multisensory artwork exhibition and furthermore it will increase the accessibility of visually impaired people to appreciate artworks.