• 제목/요약/키워드: 영상 데이터 수집

검색결과 544건 처리시간 0.032초

PC 클러스터를 이용한 실시간 분산 웹 영상 내용기반 검색 시스템에 관한 연구 (A Study on the Real-time Distributed Content-based Web Image Retrieval System using PC Cluster)

  • 이은애;하석운
    • 한국멀티미디어학회논문지
    • /
    • 제4권6호
    • /
    • pp.534-542
    • /
    • 2001
  • 최근의 내용기반 영상 검객 시스템은 한정된 수의 영상을 저장해 놓은 단일의 서버를 이용하고 있다. 이로 인해 웹 상의 다양한 영상을 원하는 웹 사용자의 요구를 만족시키지 못하고 있다. 수많은 웹 영상을 대상으로 하는 내용기반 영상 검색 시스템은 무엇보다도 실시간에 기반을 두어야 한다. 이를 구현하기 위해서는 영상 수집과 특징 추출에 걸리는 많은 소모 시간 문제가 해결되어야 한다. 최근, 고속의 데이터 처리를 목적으로 부하분산 PC클러스터가 개발되고 있다. 본 논문에서는 많은 시간을 요하는 영상 수집과 특징 추출 작업을 부하분산 PC클러스터의 종속 컴퓨터들에 분배함으로써 전체 검색 시간을 감소시켰으며, 이를 통해 실시간 웹 영상 검색의 가능성을 발견할 수 있었다.

  • PDF

생산 공정에서 CNN을 이용한 음향 PSD 영상 기반 공구 상태 진단 기법 (Sound PSD Image based Tool Condition Monitoring using CNN in Machining Process)

  • 이경민
    • 한국정보통신학회논문지
    • /
    • 제26권7호
    • /
    • pp.981-988
    • /
    • 2022
  • 정보통신기술(ICT)를 적용한 스마트팩토리로 불리는 지능형 생산 공장은 각종 센서를 통해 공정 데이터를 실시간으로 수집하고 있다. 이렇게 수집된 데이터를 효과적으로 활용하는 연구가 많이 진행되고 있는데, 본 논문에서는 생산 공정에서 발생되는 음향 신호를 기반으로 공구 상태를 진단하는 기법을 제안한다. 첫 번째로 결함이 있는 공구를 감지할 뿐만 아니라 공회전 및 공정 운용에 따른 다양한 공구 상태를 제시한다. 두 번째로 푸리에 분석을 이용하여 사운드의 전력스펙트럼을 영상으로 표현하고, 데이터에 숨겨진 건강한 패턴을 드러내고, 강조하기 위해 일부 변형을 적용한다. 마지막으로 이렇게 획득한 대비 강화된 PSD 영상은 CNN을 이용해 상태별로 진단한다. 그 결과 제안한 음향 PSD 영상 + CNN 방법은 데이터의 차별화된 특징이 잘 반영되어 공구 상태에 따른 높은 진단 결과를 보여준다.

Low Peak Feature와 영상 Color를 이용한 유사 동영상 검색 (Similar Movie Retrieval using Low Peak Feature and Image Color)

  • 정명범;고일주
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권8호
    • /
    • pp.51-58
    • /
    • 2009
  • 본 논문에서는 오디오의 Low Peak Feature와 영상의 Color 값을 이용하여 유사한 동영상을 찾는 알고리즘을 제안한다. 동영상 검색 시 영상 데이터 전체를 이용하면 많은 시간과 저장 공간이 필요하다. 게다가 같은 영상임에도 해상도 또는 코덱이 다른 경우 전혀 다른 영상으로 인식된다. 따라서 해상도와 코덱이 달라져도 변화가 크지 않은 오디오의 파형으로부터 강인한 Peak 특징을 추출하고, 그 위치의 영상 Color 값을 비교하여 유사한 동영상을 검색하는 방법을 제안한다. 제안 방법의 성능을 확인하기 위해 2,000개의 동영상 데이터를 수집하여 실험하였으며, 그 결과 97.7%의 검색 성공률을 나타내었다.

실시간 시선 추적과 거리 측정 기법을 활용한 눈 보호 앱 개발 (Development of Eye Protection App using Realtime Eye Tracking and Distance Measurement Method)

  • 이혜란;이준표
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2019년도 제60차 하계학술대회논문집 27권2호
    • /
    • pp.223-224
    • /
    • 2019
  • 본 논문에서는 카메라의 실시간 영상에서 얻을 수 있는 데이터를 수집 및 분석하여 일반인들에게 스마트폰의 실제 사용량, 최적화면 표현, 그리고 건조증 위험도의 정보를 제공하는 "i-eye" 응용 앱을 제안하여 눈 건강관리를 가능하게 한다. 제안하는 앱은 발전된 스마트 폰을 기반으로 동작되며 아이트래킹(eye-gaze tracking), 영상거리측정(image distance measurement), 눈 데이터분석(eye data analysis)의 3가지 핵심기술을 제안한다.

  • PDF

단안 이미지로부터 3D 사람 자세 추정을 위한 순서 깊이 기반 연역적 약지도 학습 기법 (Ordinal Depth Based Deductive Weakly Supervised Learning for Monocular 3D Human Pose Estimation)

  • 이영찬;이규빈;유원상
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.826-829
    • /
    • 2024
  • 3D 사람 자세 추정 기술은 다양한 응용 분야에서의 높은 활용성으로 인해 대량의 학습 데이터가 수집되어 딥러닝 모델 연구가 진행되어 온 반면, 동물 자세 추정의 경우 3D 동물 데이터의 부족으로 인해 관련 연구는 극히 미진하다. 본 연구는 동물 자세 추정을 위한 예비연구로서, 3D 학습 데이터가 없는 상황에서 단일 이미지로부터 3D 사람 자세를 추정하는 딥러닝 기법을 제안한다. 이를 위하여 사전 훈련된 다중 시점 학습모델을 사용하여 2D 자세 데이터로부터 가상의 다중 시점 데이터를 생성하여 훈련하는 연역적 학습 기반 교사-학생 모델을 구성하였다. 또한, 키포인트 깊이 정보 대신 2D 이미지로부터 레이블링 된 순서 깊이 정보에 기반한 손실함수를 적용하였다. 제안된 모델이 동물데이터에서 적용 가능한지 평가하기 위해 실험은 사람 데이터를 사용하여 이루어졌다. 실험 결과는 제안된 방법이 기존 단안 이미지 기반 모델보다 3D 자세 추정의 성능을 개선함을 보여준다.

위성영상 기반 격자형 강우자료를 활용한 강수량 변동성 평가 (Evaluation of Precipitation Variability using Grid-based Rainfall Data Based on Satellite Image)

  • 박광수;남원호;문영식;양미혜;이희진
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2022년도 학술발표회
    • /
    • pp.330-330
    • /
    • 2022
  • 우리나라에서 발생하는 기상 재해 현상은 주로 태풍, 집중호우, 장마 등 인명 및 경제적인 피해가 크며, 단기간에 국지적으로 나타난다. 현재 재해 감시 및 예보는 주로 종관기상관측체계를 이용하고 있다. 하지만, 우리나라의 복잡한 지형, 인구 밀집 지형, 관측 시기가 일정하지 않은 지형과 같은 조건에서 미계측 자료 및 지역이 다수 존재 때문에 강수의 공간 분포와 강도에 대한 정밀한 정보를 제공하지 못하는 실정이다. 최근 광범위한 관측영역과 공간 분해능의 개선, 자료추출 알고리즘의 개발로 전세계적으로 위성영상 기반 기상관측 자료의 활용성이 증대되고 있다. 본 연구에서는 한반도 지역의 지상 관측데이터와 전지구 격자형 위성 강우자료를 비교하여 한반도의 적용성을 분석하고자 한다. 다양한 위성영상 기반 기상자료인 Climate Hazards Groups InfraRed Precipitation with Station (CHIRPS), Precipitation Estimation From Remotely Sensed Information Using Artificial Neural Networks-Climate Data Record (PERSIANN-CDR), Global Precipitation Climatology Centre (GPCC), Precipitation Estimation From Remotely Sensed Information Using Artificial Neural Networks-Cloud Classification System (PERSIANN-CCS) 4개의 강우위성영상을 수집하여, 1991년부터 2020년까지 30년 데이터를 활용하였다. 강수량 변동성 비교를 위하여 기상청의 종관기상관측장비 (Automated Synoptic Observation System, ASOS), 자동기상관측시설 (Automatic Weather System, AWS) 데이터와 상관 분석을 수행하고, 강우위성영상의 국내 적합성을 판단하고자 한다.

  • PDF

나는(flying) 궤적(path)에 있어서 감성반응을 일으키는 물리적 속성(요소)에 대한 연구 (The study on physical factors related with emotional reaction on the flying path)

  • 김도윤;정재욱
    • 디자인학연구
    • /
    • 제18권4호
    • /
    • pp.139-146
    • /
    • 2005
  • 지금까지의 애니메이션 작업은 애니메이터의 객관적 감성과 경험에 의해 이루어져 왔다. 소프트웨어 디자인에 있었어도 지성적인 데이터들을 바탕으로 제작되어져 왔다. 이는 객관화하기 용이한 자료로서 데이터화하기가 쉬웠기 때문 일 것으로 보인다. 이와는 반대로 인간의 감성은 객관화하고 디지털화하기 어려운 요소들이 많이 존재한다. 본 연구는 디지털화하기 어려운 인간의 감성적 데이터를 객관화하고 이를 정량적 데이터로 활용할 수 있는 방법에 대한 부분으로 나는(flying) 궤적(path)을 연구 대상으로 하였다. 실험에 있어 인간이 나는 제적에 대해 어떻게 표현하는지에 대한 감성어를 수집하였다. 수집한 감성어를 통해 감성 평가어를 추출하고 추출한 감성 평가어에서 느껴지는 나는 궤적에 대한 스케치 이미지를 수집하였다. 수집한 스케치 이미지를 기초로 본 연구의 핵심이 되는 실험 동영상 샘플을 제작하였다. 다음으로 나는 궤적을 나타내는 감성어에 대한 물리적 요소와 동영상 샘플과의 상관관계를 분석하기 위해 수량화이론III류와 수량화이론I류를 각각 이용하였다. 그 결과 감성어와 동영상 샘플과의 구조를 파악 할 수 있었고, 나는 궤적에 대한 감성반응의 물리적 자극요소 또한 분석 할 수 있었다. 나는 궤적은 오브젝트(object)가 지나간 경로(path)에 해당한다. 이러한 경로(궤적)를 보고 감성자극 요소들이 복합적으로 작용하여 독특한 감성어로 표현되어 지는 것으로 보인다. 여기엔 감성을 자극하는 요소들이 존재하는데, 그 요소로는 속도, 회전, 규칙 그리고 호의 길이가 그 물리적 요소인 것으로 파악되었다. 본 연구를 통해 나는 궤적의 애니메이션을 표현하는데 있어 애니메이터들의 주관적인 감성 표현들을 객관화, 정량화 시키고자 하였으며, 본 연구의 데이터는 감성 애니메이션 시스템 설계에 있어 기본 데이터로 적용되는 것을 목표로 하고 있다.

  • PDF

항공영상을 이용한 차량속도 추출 방법 (A Method for Extracting Vehicle Speed Using Aerial Images)

  • 황정래;강혜영;최현상
    • 한국측량학회지
    • /
    • 제30권1호
    • /
    • pp.11-19
    • /
    • 2012
  • 기존의 교통정보 수집 인프라는 고속도로와 국도 위주로 구축되어 있어 그 주변지역의 좁은 도로에 대한 교통상황을 정확하게 알 수 없어 교통정보의 신뢰성이 떨어짐으로써 내비게이션 등의 교통정보를 이용하는 사용자들에게 신뢰도 높은 교통정보를 제공하기 어려운 실정이다. 따라서 본 연구에서는 광역의 모니터링이 가능한 비행선을 이용하여 항공영상을 수집하고, 그 수집된 데이터로부터 차량속도를 추출하는 방법을 제시하였으며, 추출된 차량속도의 정확도를 검증하기 위한 실험도 수행하였다. 본 연구에서 제시한 차량속도 추출 방법은 교통 모니터링의 수요 증대에 따른 새로운 접근의 교통정보를 추출하는데 이용이 가능하며, 항공영상을 이용한 차량 및 교통정보 추출 기술에 있어 새로운 연구 트렌드로 자리매김할 것으로 예상된다.

미디어 편집을 위한 인물 식별 및 검색 기법 (Character Recognition and Search for Media Editing)

  • 박용석;김현식
    • 방송공학회논문지
    • /
    • 제27권4호
    • /
    • pp.519-526
    • /
    • 2022
  • 동영상 콘텐츠 편집 시 등장인물을 구분하고 식별하는 작업은 많은 시간과 노력이 요구되는 작업이다. 노동 집약적 특성이 있는 미디어 편집 작업 시 인공지능 기술을 활용하면 미디어 제작 시간을 획기적으로 줄일 수 있어 창작과정의 효율성 향상에 도움을 줄 수 있다. 본 논문에서는 동영상 편집을 위한 인물 식별 및 검색 작업을 자동화하기 위해 다수의 인공지능 기술을 혼합하여 활용하는 기법을 제안한다. 객체 검출, 얼굴 검출, 자세 예측 기법을 사용하여 인물 객체에 대한 특징 정보를 수집하고, 수집된 정보를 바탕으로 얼굴 인식, 색 공간 분석 기법 등을 활용하여 인물 객체 식별 정보를 생성한다. 인물 특징 및 식별 정보는 편집 대상 영상의 각 프레임에 대해서 수집되며 영상 편집을 위한 프레임 단위 검색을 위한 메타데이터로 사용된다.

컨볼루셔널 뉴럴 네트워크를 이용한 주인공 식별 기반의 영상장면 탐색 기법 (A scene search method based on principal character identification using convolutional neural network)

  • 권명규;양형식
    • 융합정보논문지
    • /
    • 제7권2호
    • /
    • pp.31-36
    • /
    • 2017
  • 본 논문은 대량의 영상에서 특정 출연자가 나오는 영상부분을 탐색하여 재생하고자 한다. TV영상 프로그램에서 주인공이나 특정 장면을 탐색 하려면 영상을 플레이하거나 코너를 설정하여 시청한다. 기존 방식은 장면 탐색이나 코너별 시청시 수동으로 offset값을 설정 하여야만 한다. 그러나 본 논문에서 제안하는 방식은 주인공 얼굴을 학습 시킨후 영상인식으로 주인공을 찾고 주인공이 등장하는 장면으로 이동하여 영상을 재생 하게 된다. 특정 출연자에 대한 데이터는 크롤링 기법을 활용하여 추출 및 수집한다. 수집된 데이터를 기반으로 컨볼루셔널 뉴럴 네트워크 알고리즘을 사용하여 학습하고 이를 이용하여 성능 평가를 진행한다. 성능 평가는 드라마를 재생하면서 추출된 키 프레임에서 학습 된 특정 출연자를 추출, 판단하는 방법으로 정확도를 측정한다. 학습된 장면을 얼마나 빨리 그리고 정확하게 탐색 하는지 성능 확인결과 약 93%의 정확도를 확보하였다. 도출된 성능을 기반으로 특정 장면만을 시청하는 코너별 시청, 인물 탐색 및 상세정보 retrieval 등 영상서비스에 응용 하고자 한다.