• 제목/요약/키워드: 카메라 행렬

검색결과 126건 처리시간 0.031초

가상 놀이 공간 인터페이스를 위한 HMM 기반 상반신 제스처 인식 (HMM-based Upper-body Gesture Recognition for Virtual Playing Ground Interface)

  • 박재완;오치민;이칠우
    • 한국콘텐츠학회논문지
    • /
    • 제10권8호
    • /
    • pp.11-17
    • /
    • 2010
  • 본 논문은 HMM기반의 상반신 제스처 인식에 대하여 연구하였다. 공간상의 제스처를 인식하기 위해서는 일단 제스처를 구성하고 있는 포즈에 대한 구분이 우선되어야 한다. 인터페이스에 사용되는 포즈를 구분하기 위해서 정면과 옆면에 설치한 적외선 카메라 두 대를 실험에 사용하였다. 그리고 각각의 적외선 카메라에서 하나의 포즈에 대한 정면 포즈와 옆면 포즈로 나눠서 획득한다. 획득한 적외선 포즈 영상은 SVM의 비선형 RBF 커널 함수를 이용하여 구분하였다. RBF 커널을 사용하면 비선형적 분류 포즈들간의 오분류 현상을 구분할 수 있다. 이렇게 구분된 포즈들의 연속은 HMM의 상태천이행렬을 이용하여 제스처로 인식된다. 인식된 제스처는 OS Value에 매핑하여 기존의 Application에 적용할 수 있다.

$^{99m}Tc$-DTPA를 이용한 사구체 여과율 측정에서 주사 전선량계수치의 평가 (The Evaluation of Predose Counts in the GFR Test Using $^{99m}Tc$-DTPA)

  • 연준호;이혁;지용기;김수영;이규복;석재동
    • 핵의학기술
    • /
    • 제14권1호
    • /
    • pp.94-100
    • /
    • 2010
  • $^{99m}Tc$-DTPA를 이용한 사구체 여과율(Glomerular Filtration Rate, GFR) 측정은 간편한 방법으로 신장의 기능평가를 할 수 있는 장점이 있다. GFR 값은 순 주사기 계수, 신장 깊이, 교정 신장 계수, 영상획득 시간, 감마카메라의 특성 등 여러 원인에 의해 그 결과가 달라질 수 있다. 본 연구에서는 $^{99m}Tc$-DTPA를 이용한 GFR 측정에서 행렬크기(matrix size)와 주사 전 방사능 양의 변화가 계수 값에 미치는 영향을 알아보고자 하였다. 영상 획득에 사용된 장비는 GE사의 Infinia이며 확대계수(zoom factor)는 1.0으로 하여 저에너지 범용성 콜리메이터를 사용하였다. 촬영조건으로 행렬 크기(matrix size)는 $64{\times}64$, $128{\times}128$, $256{\times}256$으로 변화를 주었고, 주사 전 방사능 양은 $^{99m}Tc$-DTPA를 222 (6), 296 (8), 370 (10), 444 (12), 518 MBq (14 mCi)로 각각 74 MBq (2 mCi)단위로 증가시켜 각각의 행렬 크기에 따라 계수치를 얻었다. 주사기는 검출기로부터 30 cm 거리를 두고 5, 10, 20, 30, 40, 50, 60초까지 영상을 얻은 후 그 계수치를 비교하였다. 행렬 크기와 주사 전 방사능 양의 변화로 얻은 계수치를 실제 GFR 공식에 적용하였다. 행렬 크기 $64{\times}64$에서의 단위시간 당 계수치는 26.8, 34.5, 41.5, 49.1, 55.3 kcps, $128{\times}128$는 25.3, 33.4, 41.0, 48.4, 54.3kcps, $256{\times}256$의 경우는 25.5, 33.7, 40.8, 48.1, 54.7 kcps로 나타났다. 5초 동안 얻은 총 계수치는 $64{\times}64$에서 134, 172, 208, 245, 276 kcounts, $128{\times}128$는 127, 172, 205, 242, 271 kcounts, $256{\times}256$의 경우에는 137, 168, 204, 240, 273 kcounts로 나타났다. 그리고 60초 동안 얻은 총 계수치는 $64{\times}64$에서 1,503, 1,866, 2,093, 2,280, 2,321 kcounts, $128{\times}128$는 1,511, 1,994, 2,453, 2,890, 3,244 kcounts, $256{\times}256$의 경우에는 1,524, 2,011, 2,439, 2,869, 3,268 kcounts로 각각 나타났다. 총 계수치의 백분율 차이(% Difference)에 있어 $64{\times}64$는 최소 0%에서 최대 30.02%의 차이를 보였으며, $128{\times}128$$256{\times}256$은 각각 최소 0%에서 최대 0.60와 0.69%의 차이를 보였다. 행렬크기 $64{\times}64$의 계수 값에서 GFR 값은 주사 전 방사능 양이 222 MBq (6 mCi)에서 20초와 60초에서 0.37과 6.77%, 518 MBq (14 mCi)에서 20초와 60초에서 0.18과 42.89%로 얻었다. 그러나 $128{\times}128$$256{\times}256$에서는 0.60과 0.63%로 각각 나타났다. 행렬크기의 변화에서 $128{\times}128$$256{\times}256$은 주사 전 방사능 양과 계수 시간 변화에 따라 계수치 백분율과 GFR 값에 큰 변화를 보이지 않았다. 그러나 행렬크기가 $64{\times}64$에서는 주사 전 계수치가 1,500 kcounts를 초과할 때, 222 MBq (6mCi)에서는 50초와 518 MBq (14 mCi)에서는 30초 이상에서 주사 전 방사능 양과 시간의 변화에 따라 과잉계측이 서로 다르게 나타났으며, GFR 값에서는 더 큰 차이의 변화를 보였다. 따라서 $^{99m}Tc$-DTPA GFR 검사에서 주사 전 선량계측 시간에 따른 방사능 정량분석 검사에서는 행렬 크기, 주입 방사능 양, 그리고 획득시간 간의 변화 값을 정확히 알고 있어야 검사 결과에 대한 신뢰성을 확보 할 수 있을 것이다.

  • PDF

스포츠 동영상의 모자익을 위한 이동계수의 계층적 향상 (Hierrachical manner of motion parameters for sports video mosaicking)

  • 이재철;이수종;고영훈;노흥식;이완주
    • 정보학연구
    • /
    • 제7권2호
    • /
    • pp.93-104
    • /
    • 2004
  • 스포츠 중계 영상과 같은 동영상은 카메라의 줌과 팬에 의한 화면 전역 이동이 크게 발생하며, 적은 수의 특징점 및 다수의 불규칙 운동 개체들로 인하여 이동 해석이 매우 어렵다. 본 논문에서는 이러한 다이나믹한 동영상의 전역 이동 계수를 추출하기 위한 새로운 알고리듬을 제안하고, 이를 개체 추적 시스템에서의 이동 보상과 파노라마 합성에 이용할 수 있도록 하였다. 인접 프레임 사이의 이동을 연속적으로 적용할 때, 누적되는 오차를 최소화하기 위하여, 다중 프레임 간의 이동으로부터, 사이 프레임들 간의 이동을 보간하는 방법을 제안하였다. 여기서 아핀 변환 또는 원근 투영 변환을 하나의 정방 행렬로 보고, 미소 이동을 갖는 행렬의 거듭제곱으로 분할하는 문제를 제시하고, 뉴튼 랩슨 방법을 벡터와 행렬 행태로 변형하여 풀이하는 방법을 제안하였고 매우 효율적으로 계산할 수 있음을 보였다. 이를 다수의 프레임 사이에서 재 계산된 이동과의 오차의 분할에 이용하고, 같은 방법을 계층적으로 수행하는 이동 계수의 향상 방법을 제안하였다. 제안된 방법은 방송용 특수 효과의 연출과 비디오 인덱싱 등의 응용 분야에 활용할 수 있다.

  • PDF

임베디드 보드에서의 인공신경망 압축을 이용한 CNN 모델의 가속 및 성능 검증 (Acceleration of CNN Model Using Neural Network Compression and its Performance Evaluation on Embedded Boards)

  • 문현철;이호영;김재곤
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 추계학술대회
    • /
    • pp.44-45
    • /
    • 2019
  • 최근 CNN 등 인공신경망은 최근 이미지 분류, 객체 인식, 자연어 처리 등 다양한 분야에서 뛰어난 성능을 보이고 있다. 그러나, 대부분의 분야에서 보다 더 높은 성능을 얻기 위해 사용한 인공신경망 모델들은 파라미터 수 및 연산량 등이 방대하여, 모바일 및 IoT 디바이스 같은 연산량이나 메모리가 제한된 환경에서 추론하기에는 제한적이다. 따라서 연산량 및 모델 파라미터 수를 압축하기 위한 딥러닝 경량화 알고리즘이 연구되고 있다. 본 논문에서는 임베디트 보드에서의 압축된 CNN 모델의 성능을 검증한다. 인공지능 지원 맞춤형 칩인 QCS605 를 내장한 임베디드 보드에서 카메라로 입력한 영상에 대해서 원 CNN 모델과 압축된 CNN 모델의 분류 성능과 동작속도 비교 분석한다. 본 논문의 실험에서는 CNN 모델로 MobileNetV2, VGG16 을 사용했으며, 주어진 모델에서 가지치기(pruning) 기법, 양자화, 행렬 분해 등의 인공신경망 압축 기술을 적용하였을 때 원래의 모델 대비 추론 시간 및 분류의 정확도 성능을 분석하고 인공신경망 압축 기술의 유용성을 확인하였다.

  • PDF

Vision Tracking을 이용한 주행 차량의 교통정보 산출 기법 (Traffic Data Calculation Solution for Moving Vehicles using Vision Tracking)

  • 박영기;임상일;조익현;차재상
    • 한국ITS학회 논문지
    • /
    • 제19권5호
    • /
    • pp.97-105
    • /
    • 2020
  • 최근 스마트시티 구축을 위하여 지능형 도로인프라를 이용한 차량의 교통정보를 취득하고, 이를 효율적으로 관리하기 위한 기술의 개발이 요구되고 있다. 그동안 도로의 교통정보를 분석하기 위해서는 루프 검지기, 초음파 검지기, 영상식 검지기 등의 다양한 기술들이 활용되고 있었다. 그런데, 이러한 종래의 기술들은 도로내에서 이동하는 차량을 대상으로 교통정보 DB 구축을 위해 필요한 교통 밀도, 대기행렬의 길이등 다양한 교통 DB의 수집에 어려움이 있었다. 따라서, 본 논문에서는 도로위에 지능형 CCTV등 카메라 인프라를 기본으로 구축되는 스마트 시티를 가정하여 도로의 CCTV카메라를 이용하여 도로 CCTV의 Vision Tracking을 이용한 주행차량의 교통DB산출하는 솔루션을 제시하고, 이에 대한 모의실험과 기초성능 검증을 행하였다. 본 논문에서 제시한 솔루션은 일반론으로 발전시켜야할 숙제는 여전히 남아있지만, 가변하는 스마트시티 도로환경속에서 도로부착형 CCTV카메라 이동차량 환경을 반영한 새로운 지능형 교통DB산출솔루션으로 관련 분야에서 유용하게 활용될수 있을것으로 기대된다.

카메라를 사용한 유색 스크린에 투영된 영상의 색 보정 기법 (Color Correction for Projected Image on Light Colored Screen using a Still Camera)

  • 김대철;이태형;하영호
    • 대한전자공학회논문지SP
    • /
    • 제48권1호
    • /
    • pp.16-22
    • /
    • 2011
  • 최근 프로젝터는 휴대용 프로젝터의 등장으로 원하는 장소에서 영상을 투영할 수 있어 현장에서의 회의에 사용되는 등 그 용도가 확장 되었다. 하지만 이러한 휴대성으로 인하여 백색의 균일한 투영면에 영상을 투영하지 못하는 경우 투영면의 색에 의하여 투영된 영상에서 색 왜곡이 발생한다. 따라서 색을 지닌 투영면에 의해 발생된 색 왜곡을 보정하기 위해 여러 알고리즘들이 제안되었다. 하지만 이들 알고리즘은 측정 장치를 사용하여 휴대용 프로젝터에 적용에 있어 제한적이다. 본 논문에서는 카메라를 측정 장치로 사용하여 유색의 투영면과 백색의 투영면에서의 색을 일치시키는 알고리즘을 제안한다. 먼저, 각 채널당 9단계의 계조를 나타내는 테스트 영상을 백색과 유색의 투영면에 투영한 후 카메라로 획득한다. 다음으로, 두 투영면에서의 각 각의 계조를 나타내는 테스트 영상의 획득한 영상을 통해 디지털 값을 획득한다. 획득한 디지털 값은 같은 패치에 대해 투영면에 따라 다른 값을 가지게 된다. 백색의 투영면에서 테스트 영상의 값을 기준으로 유색의 투영면에서 같은 값을 가지게 하는 테스트 영상을 찾는다. 두 개의 투영면에서 테스트 영상의 값을 일치 시키는 입력 디지털 값씩 차이는 색씩 변화를 나타낸다. 따라서, 두 투영면에서의 테스트 영상의 값을 일치 시키는 두 투영면에서의 입력 디지털 값을 다항 희귀 방정식에 대입하여 색 보정 행렬을 구한다. 실험을 통하여 제안한 방법과 이전 방법을 비교하였고 주관적 평가와 객관적 평가에서 제안한 방법이 우수한 성능을 나타내었다.

고정익 UAV를 이용한 고해상도 영상의 토지피복분류 (Land Cover Classification of High-Spatial Resolution Imagery using Fixed-Wing UAV)

  • 양승룡;이학술
    • 한국재난정보학회 논문집
    • /
    • 제14권4호
    • /
    • pp.501-509
    • /
    • 2018
  • 연구목적: UAV기반의 사진측량은 기존 항공촬영에 비해 비용이 절감될 뿐만 아니라 원하는 시간과 장소에 대한 고해상도의 데이터를 취득하기 용이하기 때문에, 공간정보 분야에서도 UAV를 활용한 연구가 진행되고 있다. 본 연구에서는 UAV 기반의 고해상도 영상을 활용하여 토지피복 분류를 수행하고자 하였다. 연구방법: 고해상도 영상의 획득을 위하여 RGB카메라를 사용하였으며, 추가적으로 식생지역을 정확하게 분류하기 위해서 다중분광 카메라를 사용하여 동일 지역을 추가 촬영하였다. 최종적으로 RGB 및 다중분광 카메라를 이용하여 생성된 정사영상, DSM(Digital Surface Model), NDVI(Normalized Difference Vegetation Index), GLCM(Gray-Level Co-occurrence Matrix)을 이용하여 대표적인 감독분류기법인 RF(Random Forest)방법을 이용해 총 7개 클래스에 대해 토지피복분류를 수행하였다. 연구결과: 분류정확도 평가를 위해 오차행렬을 기반으로 한 정확도 평가를 실시하였으며, 정확도 평가 결과 RGB 영상만을 이용한 감독분류결과와 비교하여 제안 방법이 해당 지역의 클래스를 효과적으로 분류할 수 있음을 확인하였다. 결론: 본 연구에서 제안한 정사영상, 다중분광영상, NDVI, GLCM을 모두 추가한 경우 기존의 정사영상만을 이용하였을 때 보다 높은 정확도를 나타냈다. 추후 연구로는 추가적인 입력자료의 개발을 통해 분류 정확도를 향상시키고자 한다.

고해상도 단순 이미지의 객체 분류 학습모델 구현을 위한 개선된 CNN 알고리즘 연구 (Study of Improved CNN Algorithm for Object Classification Machine Learning of Simple High Resolution Image)

  • 이협건;김영운
    • 한국정보전자통신기술학회논문지
    • /
    • 제16권1호
    • /
    • pp.41-49
    • /
    • 2023
  • CNN(Convolutional Neural Network) 알고리즘은 인공신경망 구현에 활용되는 대표적인 알고리즘으로 기존 FNN(Fully connected multi layered Neural Network)의 문제점인 연산의 급격한 증가와 낮은 객체 인식률을 개선하였다. 그러나 IT 기기들의 급격한 발달로 최근 출시된 스마트폰 및 태블릿의 카메라에 촬영되는 이미지들의 최대 해상도는 108MP로 약 1억 8백만 화소이다. 특히 CNN 알고리즘은 고해상도의 단순 이미지를 학습 및 처리에 많은 비용과 시간이 요구된다. 이에 본 논문에서는 고해상도 단순 이미지의 객체 분류 학습모델 구현을 위한 개선된 CNN 알고리즘을 제안한다. 제안하는 알고리즘은 고해상도의 이미지들의 학습모델 생성 시간을 감소하기 위해 CNN 알고리즘의 풀링계층의 Max Pooling 알고리즘 연산을 위한 인접 행렬 값을 변경한다. 변경한 행렬 값마다 4MP, 8MP, 12MP의 고해상도 이미지들의 처리할 수 있는 학습 모델들을 구현한다. 성능평가 결과, 제안하는 알고리즘의 학습 모델의 생성 시간은 12MP 기준 약 36.26%의 감소하고, 학습 모델의 객체 분류 정확도와 손실률은 기존 모델 대비 약 1% 이내로 오차 범위 안에 포함되어 크게 문제가 되지 않는다. 향후 본 연구에서 사용된 학습 데이터보다 다양한 이미지 종류 및 실제 사진으로 학습 모델을 구현한 실질적인 검증이 필요하다.

가상 시점 영상 합성을 위한 깊이 기반 가려짐 영역 메움법 (A Depth-based Disocclusion Filling Method for Virtual Viewpoint Image Synthesis)

  • 안일구;김창익
    • 대한전자공학회논문지SP
    • /
    • 제48권6호
    • /
    • pp.48-60
    • /
    • 2011
  • 최근 3차원 영상과 자유 시점 영상에 대한 연구가 매우 활발하다. 다수의 카메라로부터 취득된 다시점 영상 사이를 가상적으로 이동하며 시청할 수 있는 자유 시점 렌더링은 다양한 분야에 적용될 수 있어 주목받는 연구주제이다. 하지만 다시점 카메라 시스템은 경제적인 비용 및 전송의 제약이 따른다. 이러한 문제를 해결하기 위한 대안으로 한 장의 텍스처 영상과 상응하는 깊이 영상을 이용하여 가상 시점을 생성하는 방법이 주목받고 있다. 가상 시점 생성 시 발생하는 문제점은 원래 시점에서는 객체에 의해 가려져 있던 영역이 가상시점에서는 보이게 된다는 것이다. 이 가려짐 영역을 자연스럽게 채우는 것은 가상 시점 렌더링의 질을 결정한다. 본 논문은 가상 시점 렌더링에서 필연적으로 발생하는 가려짐 영역을 깊이 기반 인페인팅을 이용하여 합성하는 방법을 제안한다. 텍스처 합성 기술에서 우수한 성능을 보인 패치 기반 비모수적 텍스처 합성 방법에서 중요한 요소는 어느 부분을 먼저 채울 지 우선순위를 결정하는 것과 어느 배경 영역으로 채울 지 예제를 결정하는 것이다. 본 논문에서는 헤시안(Hessian) 행렬 구조 텐서(structure tensor)를 이용해 잡음에 강건한 우선순위 설정 방법을 제안한다. 또한 홀 영역을 채울 적절한 배경 패치를 결정하는 데에 있어서는 깊이 영상을 이용해 배경영역을 알아내고 에피폴라 라인을 고려한 패치 결정 방법을 제안한다. 기존 방법들과 객관적인 비교와 주관적인 비교를 통하여 제안된 방법의 우수성을 보이고자 한다.

3차원 기하정보 및 특징점 추적을 이용한 다시점 거리영상의 온라인 정합 (Online Multi-view Range Image Registration using Geometric and Photometric Feature Tracking)

  • 백재원;문재경;박순용
    • 정보처리학회논문지B
    • /
    • 제14B권7호
    • /
    • pp.493-502
    • /
    • 2007
  • 본 논문에서는 물체의 3차원 모델을 복원하기 위하여 거리영상 카메라에서 획득한 다시점 3차원 거리영상을 온라인으로 정합(registration)하는 기술을 제안한다. 3차원 모델 복원을 위하여 거리영상 카메라를 복원하고자하는 물체 주위로 이동하여 연속된 다시점 거리영상과 사진영상을 획득하고 물체와 배경을 분리한다. 분리된 다시점 거리영상의 정합을 위하여 이미 등록된 거리영상의 변환정보 그리고 두 거리영상 사이의 기하정보를 이용하여 정합을 초기화한다. 위 과정을 통해 서로 인접한 거리영상에서 영상 특징점을 선택하고 특징점에 해당하는 거리영상의 3차원 점군을 이용하여 투영 기반(projection-based) 정합을 실시한다. 기하정합이 완료되면 사진영상 간의 대응점을 추적하여 정합을 정제(refinement)하는 과정을 거치는데 KLT (Kanade-Lucas-Tomasi) 추적기를 수정하여 대응점 탐색의 속도와 성공률을 증가시켰다. 영상 특징점과 추적된 대응점에 해당하는 3차원 점군을 이용하여 거리영상을 정제하였다. 정합과 정제의 결과를 통해 추정된 변환 행렬과 정합된 대응점들 사이의 거리를 계산하여 정합 결과를 검증하고 거리영상의 사용 여부를 결정한다. 만약 정합이 실패하더라도 경우에도 거리영상을 실시간으로 계속 획득하고 정합을 다시 시도한다. 위와 같은 과정을 반복하여 충분한 거리 영상을 획득하고 정합이 완료되면 오프라인에서 3차원 모델을 합성하였다. 실험 결과들을 통해 제안한 방법이 3차원 모델을 성공적으로 복원할 수 있음을 확인 할 수 있었고 오차 분석을 통해 모델 복원의 정확도를 검증하였다.