• 제목/요약/키워드: Image Sets

검색결과 700건 처리시간 0.029초

뇌 PET과 MR 영상의 자동화된 3차원적 합성기법 개발 (Development of an Automatic 3D Coregistration Technique of Brain PET and MR Images)

  • 이재성;곽철은;이동수;정준기;이명철;박광석
    • 대한핵의학회지
    • /
    • 제32권5호
    • /
    • pp.414-424
    • /
    • 1998
  • 목적: PET과 MR 영상을 체계적으로 합성i분석하여 각각의 영상기법이 갖는 단점을 보완하고 기능을 향상시킴으로써 보다 정확하고 유용한 임상정보를 얻을 수 있다. 두 영상을 공간적으로 합성하기 위해서 머리 표피 경계점들 간의 거리를 최소화하는 알고리즘을 이용할 경우 경계점 추출의 정확성 및 견실성과 거리 계산 속도가 합성 알고리즘의 성능을 결정하는 중요한 요소가 된다. 본 연구에서는 PET 영상의 경계 추출과 거리 계산 방법을 개선하고 이를 이용하여 PET과 MR 영상을 3차원적으로 합성하였다. 대상 및 방법: 공간적인 합성을 위한 영상처리기법의 핵심인 경계점 추출을 위해 PET영상에서는 방출스캔 sinogram의 경계를 강조한 후 재구성한 횡단면으로부터 2 mm 간격으로 머리 표피 경계점들을 추출하였으며 MR 영상에서는 각 횡단면마다 약 2도 간격으로 경계점들을 추출하였다. 두 영상의 모든 경계점들 간의 평균 유클리디안 거리를 최소화하는 3차원 가상공간 상에서의 위치 이동과 회전 각도를 최소자승법을 이용하여 구한 후 PET영상을 역 전환하여 위치 정합을 하였다. 평균 거리의 계산 속도를 향상시키기 위하여 고정된 대상의 각 경계점을 중심으로 하여 주변 공간 정들에서의 거리를 순차적으로 계산하고 이들의 최소값을 취하는 방법으로 거리지도를 구성하였으며 최소자승법에서 경계점들 간의 위치가 변할 때마다 매번 평균거리를 다시 계산하지 않고 거리지도를 참조하여 평균 거리를 산출하는 방법을 사용하였다. 위치 정합된 두 영상의 동시 표현을 위하여 PET 영상의 화소값에 $0.4{\sim}0.7$부터 1사이의 범위로 정규화된 MR 영상의 화소 값으로 가중치를 주는 가중정규화 방법을 사용하였다. 결과: 방출스캔의 sinogram을 이용함으로써 PET영상의 경계를 견실하게 추출할 수 있었으며, 거리지도를 이용하여 거리 계산을 한 결과 계산 속도를 향상시킬 수 있었다. 정상인의 뇌영상에 대해 위치 정합을 실시한 결과 평균 거리 오차는 2mm 이하였다. 가중정규화 방법을 사용하였을 때 합성된 영상의 정성적인 식별 명확도가 향상하였다. 결론: 견실한 PET 영상 경계점 추출과 거리지도를 이용한 계산 속도의 향상을 통해 뇌 PET과 MR 영상 합성기법의 성능을 개선할 수 있었으며 이를 이용하며 개발한 영상정합 프로그램은 임상 환경에서 유용하게 사용될 수 있을 것이다.

  • PDF

F-18-FPCIP 뇌 영상에서 True-X 재구성 기법을 기반으로 했을 때의 Iteration과 Subset의 영향 (The Influence of Iteration and Subset on True X Method in F-18-FPCIT Brain Imaging)

  • 최재민;김경식;남궁창경;남기표;임기천
    • 핵의학기술
    • /
    • 제14권1호
    • /
    • pp.122-126
    • /
    • 2010
  • F-18-FPCIT는 뇌 선조체에 주로 분포된 도파민 운반체에 강한 친화력을 보이며, 이는 파킨슨 씨 병의 진단에 유용한 진단적 정보를 제공한다. 본 연구에서는 iteration과 subset에 따른 영상의 변화를 관찰하고 적정한 iteration과 subset의 범위를 제안해 보고자 한다. 영상의 획득은 ACR 팬텀과 뇌 질환이 없는 정상인의 뇌 영상을 획득하였다. 정상인의 뇌영상은 F-18-FPCIT를 정맥주사 후 3시간째 획득하였으며, iteration과 subset의 조건을 5가지로 구분하여 영상을 재구성하였다. 영상의 분석은 동일한 위치에 같은 크기의 ROI를 그려 평균, 최대, 최소의 SUV를 측정하였고, 이를 바탕으로 표준편차, 변이계수를 계산하였다. 또한 팬텀영상에서는 각 조건별 열소와 냉소의 SUV를 비교하여 어떠한 조건에서 실제와 가장 비슷한 SUV ratio를 재현하는지 조사하였다. 위 실험에서 얻어진 값은 Spearman test를 통해 유의성을 유무를 판별하였다. 따라 SUV는 증가하였고 이러한 추세는 Spearman test에서 유의성을 나타내었다. 표준편차 역시 iteration, subset조건이 증가함에 따라 값의 증가를 보였다. 산출된 값들은 통계적으로 유의하였다. 팬텀 연구에서는 6 iteraions, 16 iterations 에서 실제와 가장 비슷한 SUV ratio를 재현하였다. 하지만 iteration, subset 조건별로 얻어진 SUV ratio들은 통계적으로 유의하지 않았다.

  • PDF

Deep Convolution Neural Networks 이용하여 결함 검출을 위한 결함이 있는 철도선로표면 디지털영상 재 생성 (Regeneration of a defective Railroad Surface for defect detection with Deep Convolution Neural Networks)

  • 김현호;한석민
    • 인터넷정보학회논문지
    • /
    • 제21권6호
    • /
    • pp.23-31
    • /
    • 2020
  • 본 연구는 철도표면상에 발생하는 노후 현상 중 하나인 결함 검출을 위해 학습데이터를 생성함으로써 결함 검출 모델에서 더 높은 점수를 얻기 위해 진행되었다. 철도표면에서 결함은 선로결속장치 및 선로와 차량의 마찰 등 다양한 원인에 의해 발생하고 선로 파손 등의 사고를 유발할 수 있기 때문에 결함에 대한 철도 유지관리가 필요 하다. 그래서 철도 유지관리의 자동화 및 비용절감을 위해 철도 표면 영상에 영상처리 또는 기계학습을 활용한 결함 검출 및 검사에 대한 다양한 연구가 진행되고 있다. 일반적으로 영상 처리 분석기법 및 기계학습 기술의 성능은 데이터의 수량과 품질에 의존한다. 그렇기 때문에 일부 연구는 일반적이고 다양한 철도표면영상의 데이터베이스를 확보하기위해 등간격으로 선로표면을 촬영하는 장치 또는 탑재된 차량이 필요로 하였다. 본연구는 이러한 기계적인 영상획득 장치의 운용비용을 감소시키고 보완하기 위해 대표적인 영상생성관련 딥러닝 모델인 생성적 적대적 네트워크의 기본 구성에서 여러 관련연구에서 제시된 방법을 응용, 결함이 있는 철도 표면 재생성모델을 구성하여, 전용 데이터베이스가 구축되지 않은 철도 표면 영상에 대해서도 결함 검출을 진행할 수 있도록 하였다. 구성한 모델은 상이한 철도 표면 텍스처들을 반영한 철도 표면 생성을 학습하고 여러 임의의 결함의 위치에 대한 Ground-Truth들을 만족하는 다양한 결함을 재 생성하도록 설계하였다. 재생성된 철도 표면의 영상들을 결함 검출 딥러닝 모델에 학습데이터로 사용한다. 재생성모델의 유효성을 검증하기 위해 철도표면데이터를 3가지의 하위집합으로 군집화 하여 하나의 집합세트를 원본 영상으로 정의하고, 다른 두개의 나머지 하위집합들의 몇가지의 선로표면영상을 텍스처 영상으로 사용하여 새로운 철도 표면 영상을 생성한다. 그리고 결함 검출 모델에서 학습데이터로 생성된 새로운 철도 표면 영상을 사용하였을 때와, 생성된 철도 표면 영상이 없는 원본 영상을 사용하였을 때를 나누어 검증한다. 앞서 분류했던 하위집합들 중에서 원본영상으로 사용된 집합세트를 제외한 두 개의 하위집합들은 각각의 환경에서 학습된 결함 검출 모델에서 검증하여 출력인 픽셀단위 분류지도 영상을 얻는다. 이 픽셀단위 분류지도영상들과 실제 결함의 위치에 대한 원본결함 지도(Ground-Truth)들의 IoU(Intersection over Union) 및 F1-score로 평가하여 성능을 계산하였다. 결과적으로 두개의 하위집합의 텍스처 영상을 이용한 재생성된 학습데이터를 학습한 결함 검출모델의 점수는 원본 영상만을 학습하였을 때의 점수보다 약 IoU 및 F1-score가 10~15% 증가하였다. 이는 전용 학습 데이터가 구축되지 않은 철도표면 영상에 대해서도 기존 데이터를 이용하여 결함 검출이 상당히 가능함을 증명하는 것이다.

사차원전산화단층촬영과 호흡연동 직각 Kilovolt 준비 영상을 이용한 간 종양의 움직임 분석 (Evaluation of the Positional Uncertainty of a Liver Tumor using 4-Dimensional Computed Tomography and Gated Orthogonal Kilovolt Setup Images)

  • 주상규;홍채선;박희철;안종호;신은혁;신정석;김진성;한영이;임도훈;최두호
    • Radiation Oncology Journal
    • /
    • 제28권3호
    • /
    • pp.155-165
    • /
    • 2010
  • 목 적: 4-dimensional computed tomography (4DCT) 영상과 on board imaging (OBI) 및 real time position management (RPM) 장치로 매 회 치료 시마다 얻은 호흡연동 직각 kilovolt (KV) 준비 영상(gated orthogonal kilovolt setup image)을 이용해 간암 환자를 치료하는 동안 발생하는 종양 위치의 불확실성을 평가하고자 했다. 대상 및 방법: 3차원입체조형치료가 예정된 20명의 간암 환자를 대상으로 RPM과 전산화단층촬영모의치료기를 이용해 치료계획용 4DCT를 시행했다. 표적 근처에 위치한 간동맥화학색전술 후 집적된 리피오돌(lipiodol) 혹은 횡격막을 종양의 위치 변이를 측정하는 표지자로 선택했다. 표지자의 위치 차이를 이용해 온라인 분할간 및 분할중 내부 장기 변이와 움직임 진폭을 측정했다. 측정된 자료의 정량적 평가를 위해 통계 분석을 실시했다. 결 과: 20명 환자로부터 측정된 표지자의 분할간변이의 중앙값은 X (transaxial), Y (superior-inferior), Z (anterior-posterior) 축에서 각각 0.00 cm (범위, -0.50~0.90 cm), 0.00 cm (범위, -2.4~1.60 cm), 0.00 cm (범위, -1.10~0.50 cm) 였다. 4명의 환자에서 X, Y, Z축 중 하나 이상에서 0.5 cm를 초과하는 변이가 관찰되었다. 4DCT와 호흡연동 직각 준비 영상으로부터 얻은 표적의 움직임 진폭의 차이는 X, Y, Z 축에서 각각 중앙값이 -0.05 cm (범위, -0.83~0.60 cm), -0.15 cm (범위, -2.58~1.18 cm), -0.02 cm (범위, -1.37~0.59 cm) 였다. 두 영상간 표적의 움직임 진폭 차이가 1 cm를 초과하는 환자가 Y축 방향으로 3명 관찰되었으며, 0.5 cm 초과 1 cm 미만의 차이를 보이는 환자도 Y축과 Z축 방향을 합쳐 5명 관찰되었다. 분할중 표지자 위치 변이의 중앙값은 X, Y, Z축에서 각각 0.00 cm (범위, -0.30~0.40 cm), -0.03 cm (범위, -1.14~0.50 cm), 0.05 cm (범위, -0.30~0.50 cm)였으며 2명의 환자에서 1 cm를 초과하는 변이가 Y축 방향으로 관찰되었다. 결 론: 4DCT와 호흡연동 직각 KV 준비 영상으로 얻은 표지자의 분할간, 분할중 및 움직임 진폭에서 큰 변이가 관찰되었다.

상처와 주름이 있는 지문 판별에 효율적인 심층 학습 비교연구 (A Comparative Study on the Effective Deep Learning for Fingerprint Recognition with Scar and Wrinkle)

  • 김준섭;림빈 보니카;성낙준;홍민
    • 인터넷정보학회논문지
    • /
    • 제21권4호
    • /
    • pp.17-23
    • /
    • 2020
  • 인간의 특성과 관련된 측정 항목을 나타내는 생체정보는 도난이나 분실의 염려가 없으므로 높은 신뢰성을 가진 보안 기술로서 큰 주목을 받고 있다. 이러한 생체정보 중 지문은 본인 인증, 신원 파악 등의 분야에 주로 사용된다. 신원을 파악할 때 지문 이미지에 인증을 수행하기 어려운 상처, 주름, 습기 등의 문제가 있을 경우, 지문 전문가가 전처리단계를 통해 직접 지문에 어떠한 문제가 있는지 파악하고 문제에 맞는 영상처리 알고리즘을 적용해 문제를 해결한다. 이때 지문에 상처와 주름이 있는 지문 영상을 판별해주는 인공지능 소프트웨어를 구현하면 손쉽게 상처나 주름의 여부를 확인할 수 있고, 알맞은 알고리즘을 선정해 쉽게 지문 이미지를 개선할 수 있다. 본 연구에서는 이러한 인공지능 소프트웨어의 개발을 위해 캄보디아 왕립대학교의 학생 1,010명, Sokoto 오픈 데이터셋 600명, 국내 학생 98명의 모든 손가락 지문을 취득해 총 17,080개의 지문 데이터베이스를 구축했다. 구축한 데이터베이스에서 상처나 주름이 있는 경우를 판별하기 위해 기준을 확립하고 전문가의 검증을 거쳐 데이터 어노테이션을 진행했다. 트레이닝 데이터셋과 테스트 데이터셋은 캄보디아의 데이터, Sokoto 데이터로 구성하였으며 비율을 8:2로 설정했다. 그리고 국내 학생 98명의 데이터를 검증 데이터 셋으로 설정했다, 구성된 데이터셋을 사용해 Classic CNN, AlexNet, VGG-16, Resnet50, Yolo v3 등의 다섯 가지 CNN 기반 아키텍처를 구현해 학습을 진행했으며 지문의 상처와 주름 판독에서 가장 좋은 성능을 보이는 모델을 찾는 연구를 수행했다. 다섯가지 아키텍처 중 지문 영상에서 상처와 주름 여부를 가장 잘 판별할 수 있는 아키텍처는 ResNet50으로 검증 결과 81.51%로 가장 좋은 성능을 보였다.

CT 영상 및 kV X선 영상을 이용한 자동 표지 맞춤 알고리듬 개발 (Development of an Automatic Seed Marker Registration Algorithm Using CT and kV X-ray Images)

  • 정광호;조병철;강세권;김경주;배훈식;서태석
    • Radiation Oncology Journal
    • /
    • 제25권1호
    • /
    • pp.54-61
    • /
    • 2007
  • 목 적: 본 연구의 목적은 전립선암 환자의 방사선 치료 시 표적의 정확한 위치를 찾기 위해 표지(marker)를 삽입한 경우 방사선치료계획 시 촬영한 CT 영상과 매 치료 시 온보드 영상장치(on-board imager, OBI)로부터 획득된 직교 kV X선 영상을 이용하여 표지의 위치를 계산하고 자동으로 맞춤을 수행하여 환자 셋업 오차를 보정하도록 하는 방법을 개발하는 것이다. 대상 및 방법: 세 개의 금 표지를 환자 전립선의 기준 위치에 삽입한 후 CT 모의치료기를 이용하여 2 mm 슬라이스 간격으로 CT 영상을 획득하였으며 매 치료 전에 환자 셋업 보정을 위하여 OBI를 이용하여 직교하는 kV X선 환자 영상을 획득하였다. CT 및 kV X선 영상 내 표지 정보 및 좌표 값 추출을 위하여 화소값의 문턱값 처리, 필터링, 외곽선 추출, 패턴 인식 등 다수의 영상처리 알고리듬을 적용하였다. 각 표지들 위치의 대표값으로 삼각형의 무게중심 개념을 이용하였으며 기준 CT 영상 및 직교 kV X선 영상으로부터 각각 무게중심의 좌표를 구한 후 그 차이를 보정해야 할 셋업의 오차로 계산하였다. 알고리듬의 건전성(robustness) 평가를 위해 팬텀을 이용하여 계산된 CT 및 kV X선 영상의 무게중심이 실제 지정된 위치와 일치하는지 여부를 확인하였으며, 본원에서 방사선 치료를 시행한 네 명의 전립선암 환자에 대상으로 치료 직전 촬영한 38 내지 39쌍의 kV X선 영상에 대하여 알고리듬을 적용한 후 OBI 프로그램에서 제공되는 2차원-2차원 맞춤 결과와 비교하였다. 결 과: 팬텀 실험 결과 실제 값과 CT 영상 및 직교 kV X선 영상으로부터 계산된 무게 중심 좌표 값이 1 mm 오차 내에서 일치함을 확인할 수 있었다. 환자 영상에 적용한 경우에도 모든 영상에 대하여 성공적으로 각 표지의 위치를 계산할 수 있었으며 2차원-2차원 맞춤 기능을 이용하여 계산된 셋업 오차와 비교해본 결과 1 mm 범위 내에서 일치함을 확인할 수 있었다. 본 알고리듬을 이용하여 계산한 결과 셋업 오차는 전후(AP) 방향으로 환자별로 작게는 $0.1{\pm}2.7\;mm$에서 크게는 $1.8{\pm}6.6\;mm$까지, 상하(SI) 방향으로 $0.8{\pm}1.6\;mm$에서 $2.0{\pm}2.7\;mm$, 좌우(Lat) 방향으로 $-0.9{\pm}1.5\;mm$에서 $2.8{\pm}3.0\;mm$까지였으며 환자에 따라 그 편차의 차이가 있었다. 결 론: 제안된 알고리듬을 이용하여 1회 셋업 오차를 평가하는 데 소요되는 시간은 10초 미만으로서 임상 적용 시 환자 셋업 시간을 줄이고 주관성을 배제하는 데 도움이 될 수 있을 것으로 기대된다. 그러나 온라인 환자 셋업 보정 시스템에 적용하기 위해서는 선형가속기의 제어 시스템에 통합되는 것이 필요하다.

초분광 이미지를 이용한 배나무 화상병에 대한 최적 분광 밴드 선정 (Spectral Band Selection for Detecting Fire Blight Disease in Pear Trees by Narrowband Hyperspectral Imagery)

  • 강예성;박준우;장시형;송혜영;강경석;유찬석;김성헌;전새롬;강태환;김국환
    • 한국농림기상학회지
    • /
    • 제23권1호
    • /
    • pp.15-33
    • /
    • 2021
  • 화상병이란 erwinia amylovora라는 강한 전염성을 보유하고 있어 감염 시 1년 내에 과수를 고사시키며 그 중심으로 반경 500m이내에 과수 재배를 불가능하게 만드는 세균성 바이러스이다. 이 화상병은 과수의 잎과 가지를 진한 갈색 또는 검은색으로 변색시키기 때문에 분광학적으로 검출이 가능하다고 판단되며 이는 다중분광센서를 탑재한 무인기를 이용하는 것이 효율적이다. 그러나 다중분광센서는 적은 중심 파장과 함께 넓은 반치전폭(FWHM)을 가지고 있어 화상병에 가장 민감하게 반응하는 파장 대역을 파악하기 어렵다. 그렇기 때문에, 본 논문에서는 화상병에 감염된 잎과 가지와 비감염된 잎과 가지의 초분광 이미지를 5 nm FWHM으로 취득한 후 각각 10 nm, 25 nm, 50 nm와 80 nm FWHM로 평준화한 후 샘플을 7:3, 5:5와 3:7의 비율로 훈련데이터와 검증데이터로 나누어 의사결정트리 기법으로 최적의 파장을 선정하고 overall accuracy (OA)와 kappa coefficient (KC)를 이용한 분류 정확도 평가를 통해 배나무 화상병 검출가능성을 확인하였다. 화상병에 감염 및 비감염된 잎과 가지의 초분광 반사율을 비교한 결과, green, red edge 및 NIR 영역에서 차이가 두드러지게 나타났으며 첫 번째 분류 노드로 선택된 파장 영역은 대체로 750 nm와 800 nm였다. 잎과 가지 영역의 영상데이터를 의사결정트리 기법을 이용하여 분류정확도를 종합적으로 비교한 결과, 50nm FWHM 인 4개 대역(450, 650, 750, 950nm)은 10nm FWHM인 8개 대역(440, 580, 660, 680, 680, 710, 730, 740nm)의 분류 정확도 차이가 OA에서 1.8%와 KC에서 4.1%로 나타나 더 낮은 비용의 밴드패스필터인 50nm FWHM을 이용하는 것이 더 유리하다고 판단된다. 또한 기존의 50nm FWHM 파장대역들에 25nm FWHM파장대역들(550, 800nm)을 추가하는 것을 통해 화상병 검출뿐만 아니라 농업에서 다양한 역할을 수행할 수 있는 다중분광센서를 개발할 수 있다고 판단된다.

다목적실용위성 3A 영상 자료의 지표 반사도 성과 검증: RadCalNet Baotou(BTCN) 자료 적용 사례 (Validation of Surface Reflectance Product of KOMPSAT-3A Image Data: Application of RadCalNet Baotou (BTCN) Data)

  • 김광섭;이기원
    • 대한원격탐사학회지
    • /
    • 제36권6_2호
    • /
    • pp.1509-1521
    • /
    • 2020
  • 다목적실용위성(KOMPSAT-3A: Korea Multi-Purpose Satellite 3A)으로부터 산출된 지표 반사도 성과의 검정 작업을 위하여 분광 반사도 측정값을 제공하고 있는 포털인 Radiometric Calibration Network(RadCalNet)에서 제공하는 4 개의 사이트 자료 중에서 중국 바오터우(Baotou: BTCN) 데이터를 이용한 실험을 수행하였다. 실험을 위한 반사도 성과는 대기 반사도와 지표 반사도를 일괄적으로 처리할 수 있도록 재설계하고 구현한 오픈소스 Orfeo ToolBox(OTB)의 확장 프로그램(Extension)을 이용하여 생성하였다. 절대 대기 보정에 적용되는 두 가지의 센서 모델 변수를 고려하여 2016년, 2017년, 2018년 자료 1개씩 총 3개의 영상 자료를 실험에 적용하였다. 한편 각각 USGS LaSRC 알고리즘과 SNAP Sen2Cor 프로그램을 이용하여 Landsat-8과 Sentinel-2B 영상정보로부터 산출한 반사도 성과와의 비교 검증 작업을 수행하여 센서 별 차이를 확인하고자 하였다. 대기 반사도와 지표 반사도를 대상으로 절대 대기 보정을 위한 필수 입력 값인 Gain과 Offset에 대한 센서 모델 변수 값을 적용한 결과로, 2019년에 발표된 변수 값을 사용한 성과에 비하여 2017년 변수 값을 사용한 성과가 RadCalNet BTCN 자료에 비교적 잘 부합되는 것으로 나타났다. RadCalNet BTCN 자료를 기준으로 KOMPSAT-3A 영상정보의 지표 반사도 성과와의 차이는 밴드 별로 B 밴드(-0.031 ~ 0.034), G 밴드(-0.001 ~ 0.055), R 밴드(-0.072 ~ 0.037), NIR 밴드(-0.060 ~ 0.022)로 일치도가 높은 것으로 나타났고, Landsat-8 영상과 Sentinel-2B 영상의 지표 반사도의 경우도 KOMPSAT-3A 영상의 지표 반사도 성과의 정확도와 유사한 수준인 것으로 나타났다. 이번 연구 결과는 고해상도 위성에서 지표 반사도 값에 대한 분석 대기 데이터(Analysis Ready Data: ARD) 적용 가능성을 확인한 것에 의미가 있다.

Landsat-8 OLI 영상정보의 대기 및 지표반사도 산출을 위한 OTB Extension 구현과 RadCalNet RVUS 자료를 이용한 성과검증 (An Implementation of OTB Extension to Produce TOA and TOC Reflectance of LANDSAT-8 OLI Images and Its Product Verification Using RadCalNet RVUS Data)

  • 김광섭;이기원
    • 대한원격탐사학회지
    • /
    • 제37권3호
    • /
    • pp.449-461
    • /
    • 2021
  • 광학 위성정보에 대한 분석대기자료(ARD)는 각 센서 별 분광특성과 촬영각 등을 적용하는 전처리 작업에 의한 성과물이다. 대기보정 처리과정은 통하여 얻을 수 있는 대기반사도와 지표반사도는 기본적이면서 복잡한 알고리즘을 요구한다. 대부분 위성 정보처리 소프트웨어에서는 Landsat 위성 대기보정 처리 알고리즘 및 기능을 제공하고 있다. 또한 사용자는 클라우드 환경에서 Google Earth Engine(GEE)을 통하여 USGS-ARD와 같은 Landsat 반사도 성과에 직접 접근할 수 있다. 이번 연구에서는 고해상도 위성정보 처리에 활용되고 있는 Orfeo ToolBox(OTB) 오픈 소스 소프트웨어의 대기보정 기능을 확장 구현하였다. 현재 OTB 도구는 어떠한 Landsat 센서도 지원하지 않기 때문에, 이 확장 도구는 최초로 개발된 사례이다. 이 도구를 이용하여 RadCalNet 사이트의 Railroad Valley, United States(RVUS) 반사율 자료 값을 이용한 결과 검증을 위하여 같은 지역의 Landsat-8 OLI 영상의 절대 대기보정에 의한 반사도 성과를 산출하였다. 산출된 결과는 RVUS 자료를 기준으로 반사도 값과의 차이가 5% 미만으로 나타났다. 한편 이 반사도 성과는 USGS-ARD 반사도 값뿐만 아니라 QGIS Semi-automatic Classification Plugin과 SAGA GIS와 같은 다른 오픈 소스 도구에서 산출된 성과를 이용한 비교 분석을 수행하였다. OTB 확장도구로부터 산출한 반사도 성과는 RadCalNet RVUS의 자료와 높은 일치도를 나타내는 USGS-ARD의 값과 가장 부합되는 것으로 나타났다. 이 연구에서 OTB 대기보정 처리의 다양한 위성센서 적용 가능성을 입증한 결과로 이 모듈을 다른 센서정보로 확장하여 구현하는 경우에도 정확도가 높은 반사도 산출이 가능한 것을 확인할 수 있었다. 이와 같은 연구 방법은 향후 차세대중형위성을 포함하는 다양한 광학위성에 대한 반사도 성과 산출 도구개발에도 활용할 수 있다.

MHI와 M-bin Histogram을 이용한 이동물체 추적 (Moving Object Tracking Using MHI and M-bin Histogram)

  • 오연석;이순탁;백중환
    • 한국항행학회논문지
    • /
    • 제9권1호
    • /
    • pp.48-55
    • /
    • 2005
  • 본 논문에서는 다중 카메라 감시 시스템에서의 효율적인 이동물체 추적기법을 제안한다. 시스템에 사용된 컬러 CCD 카메라는 고유의 IP를 할당받는 네트워크 카메라이며, 입력영상은 미디어 서버와 브릿지, 그리고 AP(Access Point)와의 무선통신을 통해 전송된다. 감시시스템은 네트워크를 통해 전송된 영상을 트래킹 모듈에 전달하게 되며, 컬러 매칭 기법을 이용하여 이동물체를 실시간으로 추적한다. 두 개의 트래킹 세트를 구성하여 이동물체가 특정 카메라의 FOV(Field of view)를 벗어날 경우, 카메라 간에 핸드 오버가 가능케 함으로써 계속해서 이동물체를 추적하도록 한다. 핸드 오버 발생시에 타깃이 되는 정확한 이동물체 추적을 위하여 배경 정보 처리와 컬러 정보를 이용한 MHI(Motion History Information)와 M-bin histogram 기법을 제안한다. MHI를 이용하여 이동물체의 운동방향과 속도를 계산해 낼 수 있으며, 이러한 정보를 바탕으로 예상 이동위치를 판단할 수 있다. MHI를 이용한 결과, 단순히 M-bin histogram 기법을 이용하여 템플릿 매칭을 했을 경우 보다 속도와 안정성에 있어서 성능 향상을 가져옴을 실험을 통해 확인할 수 있었다.

  • PDF