• 제목/요약/키워드: multimodal input

검색결과 34건 처리시간 0.026초

A Triple Residual Multiscale Fully Convolutional Network Model for Multimodal Infant Brain MRI Segmentation

  • Chen, Yunjie;Qin, Yuhang;Jin, Zilong;Fan, Zhiyong;Cai, Mao
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권3호
    • /
    • pp.962-975
    • /
    • 2020
  • The accurate segmentation of infant brain MR image into white matter (WM), gray matter (GM), and cerebrospinal fluid (CSF) is very important for early studying of brain growing patterns and morphological changes in neurodevelopmental disorders. Because of inherent myelination and maturation process, the WM and GM of babies (between 6 and 9 months of age) exhibit similar intensity levels in both T1-weighted (T1w) and T2-weighted (T2w) MR images in the isointense phase, which makes brain tissue segmentation very difficult. We propose a deep network architecture based on U-Net, called Triple Residual Multiscale Fully Convolutional Network (TRMFCN), whose structure exists three gates of input and inserts two blocks: residual multiscale block and concatenate block. We solved some difficulties and completed the segmentation task with the model. Our model outperforms the U-Net and some cutting-edge deep networks based on U-Net in evaluation of WM, GM and CSF. The data set we used for training and testing comes from iSeg-2017 challenge (http://iseg2017.web.unc.edu).

Deep Learning-Based Companion Animal Abnormal Behavior Detection Service Using Image and Sensor Data

  • Lee, JI-Hoon;Shin, Min-Chan;Park, Jun-Hee;Moon, Nam-Mee
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권10호
    • /
    • pp.1-9
    • /
    • 2022
  • 본 논문에서는 영상 데이터와 센서 데이터를 활용한 딥러닝 기반의 반려동물 이상행동 탐지 서비스를 제안한다. 최근 반려동물 보유 가구의 증가로 인해 기존 푸드 및 의료 중심의 반려동물 시장에서 인공지능을 더한 펫테크(Pet Tech) 산업이 성장하고 있다. 본 연구에서는 인공지능을 통한 반려동물의 건강관리를 위해 영상 및 센서 데이터를 활용한 딥러닝 모델을 기반으로 반려동물의 행동을 분류하고, 이상행동을 탐지하였다. 자택의 CCTV와 직접 제작한 펫 웨어러블 디바이스를 활용하여 반려동물의 영상 데이터 및 센서 데이터를 수집하고, 모델의 입력 데이터로 활용한다. 행동의 분류를 위해 본 연구에서는 반려동물의 객체를 검출하기 위한 YOLO(You Only Look Once) 모델과 관절 좌표를 추출하기 위한 DeepLabCut을 결합하여 영상 데이터를 처리하였고, 센서 데이터를 처리하기 위해 각 센서 별 연관관계 및 특징을 파악할 수 있는 GAT(Graph Attention Network)를 활용하였다.

고화질 멀티 모달 영상 합성을 통한 다중 콘텐츠 통합 애니메이션 방법 (Multicontents Integrated Image Animation within Synthesis for Hiqh Quality Multimodal Video)

  • 노재승;강진범
    • 지능정보연구
    • /
    • 제29권4호
    • /
    • pp.257-269
    • /
    • 2023
  • 최근 딥러닝 모델을 통해 사진이나 영상을 활용하여 영상 합성을 수행하는 것에 대한 요구가 높아지고 있다. 기존 영상 합성 모델의 경우 주어진 영상으로부터 모션 정보만을 전이하여 사진에 대한 애니메이션 효과를 생성하였다. 하지만 이러한 합성 모델의 경우 음성에 따른 립싱크가 불가능하다는 문제와 함께 합성 결과물의 화질이 떨어진다는 문제점이 있다. 문제를 해결하기 위해 본 논문에서는 이미지 애니메이션 기법을 기반으로 한 새로운 프레임워크에 대해 설명한다. 본 프레임워크에서는 합성하려는 사진과 영상, 그리고 오디오를 제공하면 사진의 인물 특징을 유지한 채 주어진 영상의 행동을 따라 움직이는 것뿐만 아니라 음성에 맞게 발화하는 모습도 함께 합성하여 모션 전이와 함께 립싱크를 수행한 합성 결과물을 생성한다. 또한 초해상화 기법을 영상 합성물에도 활용하여 더욱 고화질, 고해상도의 합성 결과물을 제공하도록 구성하였다.

실물형 인터렉션 디자인 특성 분석: 과학관 체험 전시물을 대상으로 (Specifying the Characteristics of Tangible User Interface: centered on the Science Museum Installation)

  • 조명은;오명원;김미정
    • 감성과학
    • /
    • 제15권4호
    • /
    • pp.553-564
    • /
    • 2012
  • 본 연구는 실물형 인터페이스 개념과 특징을 설명하고 있는 선행연구를 대상으로 실물형 인터페이스디자인에 대한 특성을 토출하여 이를 토대로 실물형 인터페이스 디자인 가이드라인을 제안하였다. 도출된 인터페이스 디자인 가이드 라인의 특성은 물리적 조작성, 기기의 용이성 및 편리성, 지각적 표현성, 상황인지 및 공간성, 그리고 사회적 상호작용으로 구분되었으며 25개의 세부항목이 추출되었다. 개발된 가이드라인은 사용자와의 상호작용 측면이 강조된 것으로 이를 실제공간의 체험형 전시물들에 적용하여 평가함으로써 현 실물형 인터페이스 디자인의 특성을 분석하였다. 조사대상으로 선정된 국립과학 박물관의 전시 설치물들 중 실물형 인터페이스 평가가 가능하다고 판단되는 15개의 설치물을 대상으로 개발된 디자인 가이드 라인에 따라 전문가 평가를 하였다. 평가결과 신체모션을 이용한 인터페이스에 대한 점수가 가장 높았으며 이들은 상황인지 및 공간성 영역에서 높은 평가를 받았다. 상황인지 및 공간성은 새로이 확장된 실물형 인터페이스 특성으로 최근 그 중요성이 강조되고 있다. 분석 결과 대부분의 설치물들은 버튼과 조이스틱 위주의 물리적 조작성을 제공하는 설치물이 가장 많았으나 향후 시각, 청각, 촉각 등의 다감각 인터페이스나 사용자가 직접 설치장치들을 재배열하는 인터렉션 개발 등이 필요하였다. 본 연구는 실물형 인터페이스 디자인을 평가할 수 있는 기준을 제시하였다는데 그 의의가 있으며 실물형 인터페이스디자인이 적용된 전시 설치물들이 개발되고 적용됨에 있어 발전 방향을 모색하는데 도움을 줄 것으로 기대한다. 향후 개발된 실물형 인터페이스 디자인 가이드 라인에 따라 전문가 평가뿐만 아니라 실제 사용자들을 대상으로 하는 사용자 경험 평가가 병행되어야 할 것이다.

  • PDF