• 제목/요약/키워드: 음성영상융합

검색결과 84건 처리시간 0.031초

모바일 쿠폰 선물증여 빈도에 따른 군집별 증여동기 차이에 관한 융합모형연구 (Mobile Coupon Gift-giving Motivation Disparity Fusion Model among Groups decided by giving Frequency)

  • 여현진
    • 한국융합학회논문지
    • /
    • 제7권5호
    • /
    • pp.7-13
    • /
    • 2016
  • 모바일 시대를 열었다고 해도 과언이 아닌 스마트폰의 대중화로 인해, 우리는 다양한 생활 양식의 변화를 겪어왔다. 특히 의사소통의 수단이 음성/영상 통화에서 텍스트로 변화되게 한 모바일 메신저는 이제는 선물하는 방식에도 변화를 가져오고 있다. 디지털 바우처에 대한 연구는 다양하게 연구되고 실증되었으나, 본 연구에서는 이러한 모바일 바우처 선물동기를 선물동기이론, 기술수용이론, 소비자 가치이론을 통해 실증한 지난 연구를 기반으로 표본의 인구통계학적 특성에 따른 선물빈도 차이를 의사결정나무를 통해 밝히고, 집단을 구분하여 특정 집단간 선물동기이론이 다르게 적용되는 지에 대해 실증했다. 결론적으로 선물 빈도에 따라 3개의 집단으로 분되며 각 집단은 다른 동기결과를 나타냈다.

DSP상에서 실시간 처리 가능한 MPEG-4 Library에 관한 연구 (A Study for the MPEG-4 Library to operate in real-time on the DSP)

  • 홍성화;정석용
    • 한국융합학회논문지
    • /
    • 제2권1호
    • /
    • pp.7-13
    • /
    • 2011
  • 멀티미디어 시대의 정보는 영상을 중심으로 음향, 문자, 도형 등이 서로 결합되어 있다. 때문에 통신망이 발달하고 저장미디어의 용량이 늘어난다 하더라도 이러한 방대한 정보를 그대로 수용할 수는 없다. 이러한 의미에서 영상, 음향, 음성의 압축과 다중화를 위한 국제표준들인 H261, jPEG, ]BIG, MPEG-1, MPEG-2, MPEG-4, H263, G시리즈 등은 멀티미디어의 핵섬 기술들이다. 이러한 멀티미디어 서비스 시대의 기반을 조성하기 기반 기술의 첫걸음으로 실시간 MPEG-4 멀티미디어 서비스를 제공하기 위한 실시간 MPEG-4 전송 시스템을 개발하였다. 이 시스템은 향후 개발되어질 여러 시스템에 활용되어질 수 있는 기반 기술이 될 것이다. 화상회의, 빌딩 보안 시스템, 인터넷을 활용할 VOD 동영상 시스템 등에서 활용할 수 있게 될 것이다. 또한 테스트베드의 활용된 기술들인 임베디드 리녹스, MPEG-4 소프트웨어, 이미지 센싱 기술들은 또 다른 시스템 개발시 원천기술이 될 것이다.

딥러닝을 이용한 강좌 추천시스템 (Course recommendation system using deep learning)

  • 임민아;황승연;신동진;오재곤;김정준
    • 한국인터넷방송통신학회논문지
    • /
    • 제23권3호
    • /
    • pp.193-198
    • /
    • 2023
  • 딥러닝을 이용한 학습자 맞춤 강의 추천 프로젝트를 연구한다. 추천시스템은 웹과 앱에서 쉽게 발견할 수 있으며 이 특성을 이용한 예제는 사용자 클릭으로 특성 영상 추천과 SNS에서 평소 사용자가 관심 있던 분야의 아이템을 광고하는 것이 있다. 본 연구에서는 문장 유사도인 Word2Vec를 주로 이용하여 2번의 필터링을 거쳤으며 Surprise 라이브러리를 통해 강좌 추천을 하였다. 이러한 시스템으로 사용자에게 간편하고 편리하게 원하는 분류의 강좌 데이터를 제공한다. Surprise 라이브러리는 Python scikit-learn 기반의 라이브러리이며 추천시스템에 편리하게 사용된다. 데이터를 분석하여 시스템을 빠른 속도로 구현하고 딥러닝을 사용하여 강좌 단계를 거쳐 보다 더 정밀한 결과를 구현해낸다. 사용자가 관심 있는 키워드를 입력하면 해당 키워드와 강좌 제목과의 유사도를 실행하고 추출된 영상 데이터로 또 음성 텍스트와의 유사도를 실행하여 추출된 데이터로 Surprise 라이브러리를 통해 가장 높은 순위의 영상 데이터를 추천한다.

외과적으로 확진된 이첨 대동맥 판막의 진단을 위한 심장 CT 및 경흉부 심초음파의 진단적 성능: 판막 아형 및 칼슘의 양이 미치는 효과 (Diagnostic Performance of Cardiac CT and Transthoracic Echocardiography for Detection of Surgically Confirmed Bicuspid Aortic Valve: Effect of Calcium Extent and Valve Subtypes)

  • 김정주;김성목;안중현;김지훈;최연현
    • 대한영상의학회지
    • /
    • 제84권6호
    • /
    • pp.1324-1336
    • /
    • 2023
  • 목적 이첨 대동맥 판막의 아형과 판막 석회화의 정도에 따른 심장 CT와 경흉부심초음파의 이첨 대동맥 판막 진단 능력을 비교해 보고자 한다. 대상과 방법 대동맥 판막 치환술 전 심장 CT와 경흉부 심초음파를 시행한 266명의 환자(이첨 대동맥 판막, 106명; 삼첨 대동맥 판막, 166명)를 후향적으로 포함하였다. 심장 CT를 이용하여 판막의 모양을 평가하였고, 관상동맥 칼슘 측정 CT를 이용하여 판막의 칼슘 정도를 정량화하였다. 대동맥 판막은 융합형과 2-대동맥동형 아형으로 분류하였다. 심장 CT와 경흉부 심초음파의 진단정확도는 수술 소견을 대비표준으로 하여 계산하였다. 결과 CT는 이첨 대동맥 판막을 진단함에 있어서 경흉부 심초음파보다 민감도, 음성 예측도, 정확도에서 통계적으로 유의하게 높은 값을 보여주었다(각각 p < 0.001, p < 0.001, p = 0.003). 경흉부 심초음파는 판막의 석회화가 증가할수록 민감도가 감소하는 경향을 보였다. CT와 경흉부 심초음파 간의 진단 오류율은 2-대동맥동형 아형에서 10.9%, 융합형 아형에서 28.3%였다(p = 0.044). 결론 심장 CT는 이첨 대동맥 판막을 진단함에 있어 경흉부 심초음파보다 높은 진단능을 보여주며, 특히 판막 석회화가 심하거나 융합형의 아형인 환자에서 이첨 대동맥 판막을 진단하는데 도움을 줄 수 있다.

다중 센서 융합 알고리즘을 이용한 사용자의 감정 인식 및 표현 시스템 (Emotion Recognition and Expression System of User using Multi-Modal Sensor Fusion Algorithm)

  • 염홍기;주종태;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제18권1호
    • /
    • pp.20-26
    • /
    • 2008
  • 지능형 로봇이나 컴퓨터가 일상생활 속에서 차지하는 비중이 점점 높아짐에 따라 인간과의 상호교류도 점점 중요시되고 있다. 이렇게 지능형 로봇(컴퓨터) - 인간의 상호 교류하는데 있어서 감정 인식 및 표현은 필수라 할 수 있겠다. 본 논문에서는 음성 신호와 얼굴 영상에서 감정적인 특징들을 추출한 후 이것을 Bayesian Learning과 Principal Component Analysis에 적용하여 5가지 감정(평활, 기쁨, 슬픔, 화남, 놀람)으로 패턴을 분류하였다. 그리고 각각 매개체의 단점을 보완하고 인식률을 높이기 위해서 결정 융합 방법과 특징 융합 방법을 적용하여 감정 인식 실험을 하였다. 결정 융합 방법은 각각 인식 시스템을 통해 얻어진 인식 결과 값을 퍼지 소속 함수에 적용하여 감정 인식 실험을 하였으며, 특징 융합 방법은 SFS(Sequential Forward Selection) 특징 선택 방법을 통해 우수한 특징들을 선택한 후 MLP(Multi Layer Perceptron) 기반 신경망(Neural Networks)에 적용하여 감정 인식 실험을 실행하였다. 그리고 인식된 결과 값을 2D 얼굴 형태에 적용하여 감정을 표현하였다.

모션 그래픽스의 디지털 사이니지 적용 (Digital Signage with Motion Graphics)

  • 박대혁
    • 디지털융복합연구
    • /
    • 제18권2호
    • /
    • pp.377-383
    • /
    • 2020
  • 디지털 사이니지는 기존 사인물을 대체할 디지털 영상 플랫폼으로 지속적으로 연구되어지고 있다. 전통적인 디지털 사이니지는 스틸 이미지와 텍스트가 결합되어 각종 정보를 이미지 전환방식으로 출력하는 형태였으나 오늘날에 이르러서는 사이니지 시스템의 고사양화, 인터넷 속도의 빠른 향상과 영상 및 음성 압축 기술의 발전, 그리고 HTML5의 상용화 환경에 따라 큰 전환을 이루고 있다. 또한 범용적 형태인 와이드 스크린 디스플레이 뿐만 아니라 다중 디스플레이와 셋탑박스의 다양한 조합, OLED, 미디어파사드, 레이져빔 프로젝터 등을 활용해 다양한 형태로 변형되어 크리에이터의 창의적이고 다양한 시도를 가능하게 하고 있다. 본 연구는 이처럼 다양하고 빠르게 진화하고 있는 미래형 플랫폼 디지털 사이니지의 모션 그래픽스 적용에 대한 연구 및 적용사례, 기술 분석을 통해 테크놀러지와 그래픽 디자인, 영상의 융합에 대한 연구와 나아가서는 디지털 영상 콘텐츠 제작자, 인터렉티브 산업계 종사자, 모션 그래픽스 디자이너들에게 도움이 될 수 있는 연구 논문이 될 것을 기대한다.

전술용 인터넷의 보안 기술 연구 (Security Technology in Tactical Internet)

  • 김점구
    • 융합보안논문지
    • /
    • 제6권4호
    • /
    • pp.59-66
    • /
    • 2006
  • 차세대 군 전술용 정보 네트워크는 상용 인터넷 기술을 기반으로 전술환경에서 데이터, 음성 및 영상 등의 다양한 정보 제공을 목표로 하는 전술용 인터넷(TI : Tactical Internet)으로 발전되는 추세이다. 한편, 미군(美軍)을 중심으로 전술용 인터넷에 상용 정보통신 기술의 도입이 급속히 진행됨에 따라 전술용 인터넷에 대한 위협과 공격유형은 점차 다양한 형태로 변화하고 있다. 본 논문에서는 차세대 전술용 정보 네트워크로써 전술용 인터넷을 수용하는 경우, 고려할 수 있는 보안요소 및 기술들을 살펴보고 이를 기반으로 전술용 인터넷에 대한 보안 방안에 대해 논하고자 한다.

  • PDF

이동 단말기에서 다중 서비스 지원 방안 (Method for Supporting Multiple Service in a Mobile Terminal)

  • 이종찬;박상준;이진관
    • 융합보안논문지
    • /
    • 제8권2호
    • /
    • pp.79-85
    • /
    • 2008
  • 본 논문은 다중 세션 지원 방법에 관한 것으로, 이동 단말기가 멀티미디어 서비스를 위한 SDP(Session Data Protocol) 설정 시 각 프로토콜 계층을 구분하기 위한 식별자를 세션에 따라 다르도록 설정하고, 계층별 식별자를 연계하여 복수의 세션을 구분한다. 다중 세션을 처리하기 위하여 주 처리 태스크와 부 태스크를 둔다. 이 태스크는 QoS 속성을 사용하여 무선 인터페이스상에서 세션 단위로 트래픽 관리를 수행한다. 이를 기반으로 큐잉, 수락 제어, 부하 제어, 자원 할당 그리고 스케쥴링이 세션의 우선순위를 기반으로 처리된다. 이를 통하여 하나의 MT에 동시에 여러 종류의 서비스를 제공할 수 있게 함으로써 음성, 영상, 데이터 서비스 등 자원 할당 요구사항이 서로 다른 서비스들이 공존 가능하게 된다.

  • PDF

시각 장애우를 위한 YOLO와 OCR 알고리즘 기반의 유통기한 자동 알림 시스템 (Automatic Notification System of Expiration Date Based on YOLO and OCR algorithm for Blind Person)

  • 김민수;문미경;한창희
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2021년도 제64차 하계학술대회논문집 29권2호
    • /
    • pp.697-698
    • /
    • 2021
  • 본 논문에서는 시각 장애우의 식품 안전성 증진을 위해 광학 문자 인식 (optical character recognition, OCR) 및 실시간 객체 인식 (you only look once, YOLO) 알고리즘에 기반한 식품의 유통기한 자동 알림 시스템을 제안한다. 제안하는 시스템은 1) 스마트폰 카메라를 통해 실시간으로 입력되는 영상에서 YOLO 알고리즘을 활용하여 유통기한으로 예측되는 이미지 영역을 검출하고, 2) 검출된 영역에서 OCR 알고리즘을 활용하여 유통기한 데이터를 추출하며, 3) 최종 추출된 유통기한 데이터를 음성으로 변환하여 시각 장애우에게 전달한다. 개발된 시스템은 유통기한 정보를 추출해서 사용자에게 전달하기까지 평균 약 7초 이내의 빠른 응답 속도를 보였으며, 62.8%의 객체 인식 정확도와 93.6%의 문자 인식 정확도를 보였다. 이러한 결과들은 제안하는 시스템을 시각 장애우들이 실용적으로 활용할 수 있다는 가능성을 보여준다.

  • PDF

Identity-CBAM ResNet 기반 얼굴 감정 식별 모듈 (Face Emotion Recognition using ResNet with Identity-CBAM)

  • 오규태;김인기;김범준;곽정환
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.559-561
    • /
    • 2022
  • 인공지능 시대에 들어서면서 개인 맞춤형 환경을 제공하기 위하여 사람의 감정을 인식하고 교감하는 기술이 많이 발전되고 있다. 사람의 감정을 인식하는 방법으로는 얼굴, 음성, 신체 동작, 생체 신호 등이 있지만 이 중 가장 직관적이면서도 쉽게 접할 수 있는 것은 표정이다. 따라서, 본 논문에서는 정확도 높은 얼굴 감정 식별을 위해서 Convolution Block Attention Module(CBAM)의 각 Gate와 Residual Block, Skip Connection을 이용한 Identity- CBAM Module을 제안한다. CBAM의 각 Gate와 Residual Block을 이용하여 각각의 표정에 대한 핵심 특징 정보들을 강조하여 Context 한 모델로 변화시켜주는 효과를 가지게 하였으며 Skip-Connection을 이용하여 기울기 소실 및 폭발에 강인하게 해주는 모듈을 제안한다. AI-HUB의 한국인 감정 인식을 위한 복합 영상 데이터 세트를 이용하여 총 6개의 클래스로 구분하였으며, F1-Score, Accuracy 기준으로 Identity-CBAM 모듈을 적용하였을 때 Vanilla ResNet50, ResNet101 대비 F1-Score 0.4~2.7%, Accuracy 0.18~2.03%의 성능 향상을 달성하였다. 또한, Guided Backpropagation과 Guided GradCam을 통해 시각화하였을 때 중요 특징점들을 더 세밀하게 표현하는 것을 확인하였다. 결과적으로 이미지 내 표정 분류 Task에서 Vanilla ResNet50, ResNet101을 사용하는 것보다 Identity-CBAM Module을 함께 사용하는 것이 더 적합함을 입증하였다.