• 제목/요약/키워드: 영상 이해

검색결과 1,036건 처리시간 0.038초

Airborne Multispectral Scanner(AMS) 영상의 기하학적인 보정 정확도 분석

  • 이성순;지광훈;강준묵
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2000년도 춘계 학술대회 논문집 통권 3호 Proceedings of the 2000 KSRS Spring Meeting
    • /
    • pp.172-176
    • /
    • 2000
  • Airborne Multispectral Scanner(AMS) 영상에 대한 활용이 증가하면서 영상 보정에 대한 관심이 증가하고 있다. 최근 들어 AMS 장비와 더불어 GPS 수신기를 탑재해 항공기의 위치 보정은 물론 기하학적 영상 보정을 수행하는 DGPS에 대한 연구가 진행되고 있다. 그러나 다양한 AMS 영상의 응용을 위해 DGPS를 이용한 영상보정 뿐만아니라 영상자체에 대한 기하학적 보정에 대한 연구도 병행되어야 한다. 따라서 본 연구에서는 AMS 영상의 지형 정합도를 향상시키기 이해 기존의 Geometric 보정 방법인 Affine 및 고차 다항식 방법으로 보정을 수행한 결과와 새로운 개념인 연속적인 Piecewise 알고리즘을 도입하여 보정한 결과를 비교하고자 한다. 또한 기준점의 배치 및 개수의 관계를 고찰하여 효율적인 영상정합방법을 제시하고자 한다. 이러한 Airborne Multispectral-scanner 영상 보정에 대한 연구는 다목적 실용위성의 기하학적인 보정에 관한 기초연구 자료로도 그 효용성이 클 것으로 기대된다.

  • PDF

정보성 동영상 요약 및 키워드 기반 영상검색 시스템 (Information Video Summarization and Keyword-based Video Tracking System)

  • 김기훈;문미경
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제68차 하계학술대회논문집 31권2호
    • /
    • pp.701-702
    • /
    • 2023
  • 비대면 교육이 증가함에 따라 강의, 특강과 같은 정보성 동영상의 수가 급격히 많아지고 있다. 이러한 정보성 동영상을 보아야 하는 학습자들은 자원과 시간을 효율적으로 활용할 수 있는 동영상 이해 및 학습 시스템이 필요하다. 본 논문에서는 GPT-3 모델과 KoNLPy 사용하여 동영상 요약을 수행하고 키워드 기반 해당 영상 프레임으로 바로 갈 수 있는 시스템의 개발내용에 대해 기술한다. 이를 통해 동영상 콘텐츠를 효과적으로 활용하여 학습자들의 학습 효율성을 향상시킬 수 있을 것으로 기대한다.

  • PDF

P-값을 이해하기 위한 멀티미디어 프로그램의 개발

  • 최숙희
    • Communications for Statistical Applications and Methods
    • /
    • 제4권3호
    • /
    • pp.807-816
    • /
    • 1997
  • 통계학의 개념들을 직관적으로 이해시키기 위해 기존의 교재중심 강의교육에서 탈피하여 실제적인 실험을 중시하고 컴퓨터를 교육에 활용하는 방안에 국내외적으로 많은 관심이 쏠리고 있다. 본 연구에서는 통계학의 기초개념들을 쉽게 배울 수 있는 통계교육용 멀티미디어 프로그램개발의 한 단계로서 유의성검증시 필요한 p-값(유의확률)의 의미를 정확히 이해하고 적용할 수 있도록 하는 프로그램을 개발하였다. 다양한 상황을 소리, 컴퓨터그래픽, 애니메이션, 텍스트와 동영상을 통합한 멀티미디어 환경하에서 구현하여 피교육자가 흥미를 가지고 학습함으로써 단순한 계산결과가 아니라 원리와 과정을 알 수 있도록 구성하였다. 이 프로그램은 한글 windows 95가 설치된 개인용컴퓨터에서 사용할 수 있으며 internet을 통하여 web browser에서 직접 실행할 수 있다.

  • PDF

Basic and Advanced MR Pulse Sequence - Fundamental Understanding-

  • 장용민
    • 대한자기공명의과학회:학술대회논문집
    • /
    • 대한자기공명의과학회 2002년도 제7차 학술대회 초록집
    • /
    • pp.15-29
    • /
    • 2002
  • MRI에서 펄스 시퀀스(pulse sequence)란 고주파 RF(radiofrequency) 펄스 및 경사자장(gradient) 펄스를 가하고 MR 신호를 획득하는 순서를 시간대별로 도식화 한 pulse diagram을 이야기한다. 이러한 pulse sequence는 실제로 영상을 획득하기 위한 RF amplifier, gradient amplifier 등의 하드웨어를 순차적(sequential)으로 구동하는 역할을 한다. 따라서 이러한 pulse sequence는 현재 임상적으로 사용되는 다양한 영상기법들을 이해하는데 필수적이다.

  • PDF

인공지능기반의 자동 창작 영상에 관한 논구 (A Discussion on AI-based Automated Picture Creations)

  • 김정회;윤준성
    • 문화기술의 융합
    • /
    • 제10권3호
    • /
    • pp.723-730
    • /
    • 2024
  • 본 연구는 자동 창작 영상에 관한 개념과 이해의 변화를 추적하기 위하여, 기존의 영상분야를 대표하는 사진과 영화의 창작 방식을 인공지능 기반의 영상 창작 방법과 '자동'이라는 측면에서 유비적으로 탐구하고, 새로운 자동영상창작에 관한 이해와 가능성을 논구 한다. 사진과 영화의 발명 시기에는, 회화를 비롯한 전통예술 장르와 비견하여, 이들에게 '자동 창작'이라는 영역을 설정한 바 있다. 최근 인공지능이 영상 제작에도 적용되면서 '자동 창작'에 관한 개념도 확장되어, 기존의 문학, 미술, 사진, 영화의 경계를 자유롭게 넘나드는 실험적 창작이 활발하다. 인공지능의 자동 창작은 머신 러닝과 딥 러닝과 같은 기술을 활용하여, 인공지능이 독립적으로 창작 과정을 수행하게 한다. 인공지능을 활용한 자동 창작은 효율성을 크게 향상시킬 수 있지만, 동시에 예술창작과정의 주관적인 판단의 문제에 직면하게 된다. 자동 창작으로 몰렸던 사진과 영화의 창작과정과 인공지능의 창작과정을 비교하면, 자동 창작 영상의 입면은 작가의 문제로 귀착될 수 있다. 그러나 다원적이 예술분야가 소통할 수 있는 기회로 작동된다면, 인공지능기반의 자동 창작 영상은 장르를 넘나드는 방법론이 될 수 있을 것이다.

멀티미디어 통신 인터페이스를 위한 동영상 내의 물체 추적 방법 (Moving object tracking method for mulimedia telecommunication interface)

  • 조영기;이성룡
    • 한국경영과학회:학술대회논문집
    • /
    • 대한산업공학회/한국경영과학회 1996년도 춘계공동학술대회논문집; 공군사관학교, 청주; 26-27 Apr. 1996
    • /
    • pp.593-596
    • /
    • 1996
  • 멀티미디어 통신기술을 이용한 통신 환경의 구축은 초고속, 광대역으로 발전하는 통신기술의 발전과 날로 고도화 되는 컴퓨터 기술의 발달에 힘입어 그 적용범위가 확산되고 있다. 특히 이러한 환경에서 동영상의 통신은 기존의 문자, 그래픽 혹은 정지화상을 이용한 통신에서 보다는 더욱 많은 정보를 사용자에게 이해하기 쉽게 전달한다는 점에서 그 응용분야가 증대되고 있다. 그러나 기존의 동영상 통신에서는 동영상이 화상회의 등의 예에서 보듯이 사용자에게 단순히 영상정보를 제공하는 수단으로서만 이용이 되었다. 진정한 의미의 양방향 통신을 위해서는 이러한 동영상에 대한 사용자의 제어가 가능한 인터페이스가 필요한데, 본 연구에서는 이러한 인터페이스의 구축을 위한 기반기술로써 동영상내의 물체 추적방법에 대해 소개한다. 개발된 방법은 영상의 밝기나 형태변화에 민감하지 않고 추적물체의 모델링을 자동적으로 할 수 있다는 점에서 기존의 영상처리 방법과는 구별된다.

  • PDF

ORMN: 참조 표현 이해를 위한 심층 신경망 모델 (ORMN: A Deep Neural Network Model for Referring Expression Comprehension)

  • 신동협;김인철
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제7권2호
    • /
    • pp.69-76
    • /
    • 2018
  • 참조 표현이란 장면 영상 내의 특정 물체를 가리키는 자연어 문장들을 의미한다. 본 논문에서는 참조 표현 이해를 위한 새로운 심층 신경망 모델을 제안한다. 본 논문에서 제안하는 모델은 장면 영상 내 대상 물체의 영역을 찾아내기 위해, 참조 표현에서 언급하는 대상 물체뿐만 아니라 보조 물체, 그리고 대상 물체와 보조 물체 사이의 관계까지 풍부한 정보를 활용한다. 또한 제안 모델에서는 영상 내 각 후보 영역의 적합도 계산을 위해 물체 적합도와 관계 적합도를 참조 표현의 문장 구조에 따라 결합한다. 따라서, 본 모델은 크게 총 네 가지 서브 네트워크들로 구성된다: 언어 표현 네트워크(LRN), 물체 정합 네트워크(OMN), 관계 정합 네트워크(RMN), 그리고 가중 결합 네트워크(WCN). 본 논문에서는 세 가지 서로 다른 참조 표현 데이터집합들을 이용한 실험을 통해, 제안 모델이 현존 최고 수준의 참조 표현 이해 성능을 보인다는 것을 입증하였다.