• Title/Summary/Keyword: Image-to-Image Translation

Search Result 303, Processing Time 0.033 seconds

CBCT을 이용한 ExacTrac 6D 영상유도방사선치료법의 정확도 평가 (Evaluation of accuracy in the ExacTrac 6D image induced radiotherapy using CBCT)

  • 박호춘;김효중;김종덕;지동화;송주영
    • 대한방사선치료학회지
    • /
    • 제28권2호
    • /
    • pp.109-121
    • /
    • 2016
  • ExacTrac 6D couch를 이용한 영상유도 방사선 치료의 정확도를 검증하기 위하여 여섯 개의 방향의 오차 값을 임의로 부여하여 교정 한 후 CBCT 이미지와 비교 분석하여 ExacTrac의 정확도를 평가 하고자 하였다. Rando head Phantom의 치료좌표 값을 X, Y, Z 방향으로 이동시킨 Translationgroup과 pitch, Roll, Yaw방향으로 이동시킨 Rotationgroup으로 나누어 교정하였다. 교정 수치는 couch의 여섯 개의 방향으로 복합적으로 상호 작용하여 이동 하였다. 교정 값은 최소 1mm, 최대 23mm까지 다양하게 나타났다. 치료좌표로 수정된 Phantom를 CBCT 촬영한 이미지와 3D/3D matching 오차 값의 분석에서는 Rotation group에서 높은 오차 값이 나타났다. CBCT로 교정된 치료좌표 오차 값에 대한 선량분포의 비교에서는 정상조직에 선량 제한치 값은 처방선량에 충족되었으며 종양조직의 선량 균질성 지표인 PHI, PCI 값은 Rotation group에서 저 선량 분포영역이 다소 높음으로 나타났다. 본 연구에서는 ExacTrac 6D couch 의 정확도에 대한 평가를 CBCT를 이용하여 검증해 보았다. 단편적인 이동에 대한 오차 값은 비교적 정확한 교정 능력을 갖추고 있었지만, couch에 각이 들어가는 이동에서는 부정확한 교정 수치를 보였다. 환자의 체위가 Rotation방향으로 많은 변화가 예상되어지거나 ExacTrac 교정하였을 때 pitch, Roll, Yaw값의 오차가 크게 나타나면 CBCT 영상유도를 시행하여 정확히 치료 좌표를 교정하여 예상치 못한 부작용을 최소화해야 된다고 여겨진다.

  • PDF

Fine-Motion Estimation Using Ego/Exo-Cameras

  • Uhm, Taeyoung;Ryu, Minsoo;Park, Jong-Il
    • ETRI Journal
    • /
    • 제37권4호
    • /
    • pp.766-771
    • /
    • 2015
  • Robust motion estimation for human-computer interactions played an important role in a novel method of interaction with electronic devices. Existing pose estimation using a monocular camera employs either ego-motion or exo-motion, both of which are not sufficiently accurate for estimating fine motion due to the motion ambiguity of rotation and translation. This paper presents a hybrid vision-based pose estimation method for fine-motion estimation that is specifically capable of extracting human body motion accurately. The method uses an ego-camera attached to a point of interest and exo-cameras located in the immediate surroundings of the point of interest. The exo-cameras can easily track the exact position of the point of interest by triangulation. Once the position is given, the ego-camera can accurately obtain the point of interest's orientation. In this way, any ambiguity between rotation and translation is eliminated and the exact motion of a target point (that is, ego-camera) can then be obtained. The proposed method is expected to provide a practical solution for robustly estimating fine motion in a non-contact manner, such as in interactive games that are designed for special purposes (for example, remote rehabilitation care systems).

광학적 상관관계를 기반으로 하는 지문인식 방법에 관한 연구 (A study on correlation-based fingerprint recognition method)

  • 김상백;주성현;정만호
    • 한국광학회지
    • /
    • 제13권6호
    • /
    • pp.493-500
    • /
    • 2002
  • 지문 인식은 보통 지문 영상의 획득과 획득된 지문 영상을 비교하는 단계로 구분해서 생각할 수 있다. 본 논문에서는 지문 영상을 획득하는 단계에서 지문 입력 센서를 사용하여 연구의 초점을 지문의 비교 방법에 맞추었다. 지문 입력 센서에서 는 지문 영상이 영상처리되어 출력되기 때문에 지문을 획득할 때 발생할 수 있는 잡음들에 대해서는 고려하지 않았고 사용자가 임의적으로 여러 번 지문을 입력하게 하여 회전과 이동이 복합적으로 존재하는 영상 왜곡을 고려하였다. 사용자의 지문 인식을 위한 방법으로 광학적 상관관계(Optical Correlation)를 출력하는 Non-linear Joint Transform Correlator(NRC)를 컴퓨터 상에서 구현하였고, 지문 입력 시에 발생할 수 있는 왜곡에 불변적인 특징을 갖도록 지문의 중심점을 찾는 알고리즘을 추가하여 지문 인식의 정확도를 보완하였다. 또한, 찾아진 지문 영상의 중심점을 가지고 100$\times$100픽셀 크기의 중심 영역만을 추출하여 지문 인식에 필요한 시간과 입력 영상의 정보를 줄이면서 높은 정확도를 갖는 매칭 기법을 제시하였다

캐릭터 객체의 변환을 이용하는 입체 동영상 콘텐츠 제작 (Producing Stereoscopic Video Contents Using Transformation of Character Objects)

  • 이관욱;원지연;최창열;김만배
    • 방송공학회논문지
    • /
    • 제16권1호
    • /
    • pp.33-43
    • /
    • 2011
  • 3D 디스플레이의 급격한 공급으로 다양한 3D 입체 콘텐츠의 제작이 요구되고 있다. 3D 콘텐츠의 제작 방법으로는 일반적으로 스테레오 카메라로 입체물을 제작할 수 있지만, 기존 2D 콘텐츠에서 입체영상물을 제작하는 기법도 중요한 기술이다. 이러한 2D 콘텐츠의 변환작업을 통한 3D 영상물 제작은 3D 변환 분야에서 활발히 진행되고 있다. 그러나 단순히 한 장의 영상을 3D로 변환하는 것은 콘텐츠의 실감을 전달하지 못한다. 본 논문에서는 기존의 2D 영상에 존재하는 객체에 생명력을 불어넣어, 그림속이 객체가 살아나 움직이는 새로운 애니메이션 콘텐츠 제작 방법을 제안한다. 또한 3D 디스플레이에서 시청이 가능하도록 입체영상으로 제작된다. 입력영상이 주어지면 배경영상, 전경객체 마스크, 배경 깊이맵, 객체 깊이맵을 생성한다. 각 전경객체의 이동, 회전, 및 줌을 통해 생동감있는 객체를 구현하며, 변환된 객체의 깊이맵 및 배경영상을 이용하여 실감있는 입체영상을 제작한다. 실험영상은 신윤복의 단오풍정 및 픽사의 애니메이션 UP의 클립영상을 이용하여 3D 입체영상으로 구현하였다.

개선된 화질의 영상을 이용한 열화상 카메라 캘리브레이션 (Calibration of Thermal Camera with Enhanced Image)

  • 김주오;이덕우
    • 한국산학기술학회논문지
    • /
    • 제22권4호
    • /
    • pp.621-628
    • /
    • 2021
  • 본 논문에서는 3개의 시점을 가진 열화상 카메라의 캘리브레이션을 수행하는 방법을 제안하고, 카메라의 내부 파라미터 추정 및 그 결과의 정확도를 파악하기 위해 역투영 오류값을 제시한다. 3개의 시점을 가진 카메라는 일반 카메라와 다르게 각 시점마다 겹치는 영상이 존재하지 않고, 획득한 영상의 화질은 일반 카메랄 획득한 영상보다 낮다. 카메라 캘리브레이션은 3차원 실제 영상의 좌표 정보 또는 카메라와 목표물체 사이의 거리를 계산하기 전에 반드시 수행되어야 하는 작업이다. 카메라 캘리브레이션 작업을 통해 얻는 것은 카메라의 내부 및 외부 파라미터이며 내부 파라미터는 카메라의 초점거리, 비대칭계수, 이미지 중심점으로 구성되어 있고, 외부 파라미터는 사용되는 카메라들 사이 또는 사용되는 카메라의 상대적 위치인 회전행렬과 변위벡터로 구성되어 있다. 본 논문에서는 열화상 카메라의 캘리브레이션을 수행하는 방법을 제안하며, 열화상 카메라의 캘리브레이션 수행을 위해 온도에 반응하는 열상 체커보드를 활용한다. 캘리브레이션이 안정적으로 수행되기 위해 본 논문에서는 심층 학습 기반 촬영대상 물체의 화질을 개선하여 코너 추출의 정확도를 높인 후 캘리브레이션 파라미터 계산을 수행하고, 개선된 화질의 영상이 캘리브레이션을 개선한 결과를 제시한다.

Direct RTI Fingerprint Identification Based on GCMs and Gabor Features Around Core point

  • Cho, Sang-Hyun;Sung, Hyo-Kyung;Park, Jin-Geun;Park, Heung-Moon
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -1
    • /
    • pp.446-449
    • /
    • 2000
  • A direct RTI(Rotation and translation invariant) fingerprint identification is proposed using the GCMs(generalized complex moments) and Gabor filter-based features from the grey level fingerprint around core point. The core point is located as reference point for the translation invariant matching. And its symmetry axis is detected for the rotation invariant matching from its neighboring region centered at the core point. And then, fingerprint is divided into non-overlapping blocks with respect to the core point and, in contrast to minutiae-based method using various processing steps, features are directly extracted from the blocked grey level fingerprint using Gabor filter, which provides information contained in a particular orientation in the image. The Proposed fingerprint identification is based on the Euclidean distance of the corresponding Gabor features between the input and the template fingerprint. Experiments are conducted on 300 ${\times}$ 300 fingerprints obtained from the CMOS sensor with 500 dpi resolution, and the proposed method could obtain 97% identification rate.

  • PDF

단안 영상의 입체 자유시점 Tour-Into-Picture (Stereoscopic Free-viewpoint Tour-Into-Picture Generation from a Single Image)

  • 김제동;이광훈;김만배
    • 방송공학회논문지
    • /
    • 제15권2호
    • /
    • pp.163-172
    • /
    • 2010
  • 자유시점 비디오는 원하는 시점을 자유로이 선택하여 보는 능동형 비디오이다. 이 기술은 박물관 투어, 엔터테인먼트 등의 다양한 분야에서 활용된다. 본 논문에서는 자유시점 비디오의 새로운 분야로 가상 카메라와 깊이맵을 이용하여 한 장의 영상 내부를 항해하는 입체 자유시점 Tour-Into-Picture (TIP)을 제안한다. 오래전부터 TIP가 연구되어 왔는데, 이 분야는 한 장의 단안 사진 내부를 항해하면서 애니메이션으로 볼 수 있게 하는 기술이다. 제안 방법은 전경 마스크, 배경영상, 및 깊이맵을 반자동 방법으로 구한다. 다음에는 영상 내부를 항해하면서 입체 원근투영 영상들을 획득한다. 배경영상과 전경객체의 3D 데이터를 기반으로 가상 카메라의 3차원 공간이동, 요/피치/롤링 등의 회전, 룩어라운드, 줌 등의 다양한 카메라 기능을 활용하여 입체 자유시점 비디오를 구현한다. 원근투영은 직교투형보다 우수한 입체감을 전달하며, 기존 방법과 비교하여 텍스쳐의 3D 데이터를 직접 원근투영하여 처리속도를 향상시켰다. 소프트웨어는 MFC Visual C++ 및 OpenGL 기반으로 구축되었으며, 실험영상으로 신윤복의 단오풍정을 사용하여 고전화의 입체 자유시점 비디오를 시청이 가능하다.

대용량 DB를 사용한 지문인식 시스템 (A Fingerprint Identification System using Large Database)

  • 차정희;서정만
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권4호
    • /
    • pp.203-211
    • /
    • 2005
  • 본 논문에서는 대용량 DB에서 개인을 인식하는 새로운 자동 지문인식 시스템을 제안한다. 시스템은 전처리, 분류, 매칭의 3단계로 구성되는데, 분류단계에서는 방향성 이미지 분포의 통계적인 접근 방법에 기반한 새로운 분류기법을 제안하였고, 정합단계에서는 기존 알고리즘보다 더 빠르고 정확한, 개선된 특징점 후보쌍 추출 알고리즘을 제안하였다. 정확성을 위해 정합 단계에서 세선화된 이미지로부터 지문의 특징점을 추출하고 특징점의 연결정보를 사용한 정합과정을 소개한다. 특징점 정합과정에서 연결정보를 사용하는 것은 간단하지만 정확한 방법이며, 두 지문의 비교단계에서 빠르게 기준 특징점 쌍을 선택하는 문제를 해결해 준다. 알고리즘은 지문의 회전과 이동에 무관하다. 제안한 시스템은 반도체 칩방식 입력장치로부터 획득한 1000개의 지문영상으로 실험하였으며, 실험결과는 제안한 방법이 기존방법보다 오인식율은 줄어들고 정확도는 증가하였음을 보여준다.

  • PDF

두경부암의 영상유도방사선치료에서 ExacTrac의 유용성 평가 (Evaluation of the Usefulness of Exactrac in Image-guided Radiation Therapy for Head and Neck Cancer)

  • 백민규;김민우;하세민;채종표;조광섭;이상봉
    • 대한방사선치료학회지
    • /
    • 제32권
    • /
    • pp.7-15
    • /
    • 2020
  • 목 적: 현대 방사선치료기술에서 종양표적위치 및 정상장기에 정확한 선량을 전달하기 위해 여러 방법의 영상유도방사선치료(Image Guided Radiation Therapy, IGRT)가 사용되고 있으며 그 중 선형가속기에 장착된 CBCT(Cone Beam Computed Tomography, CBCT)와 이외 장치인 ExacTrac(ExacTrac X-ray System)이 있다. 두 시스템을 비교한 이전 연구들에서는 Offline-review 이용하여 후향적으로 팬텀 및 환자의 Set-up 오차를 분석하거나 X, Y, Z 축과 하나의 회전방향(Couch Rotation)으로만 연구되어졌다. 본 연구에서는 Head and Neck Cancer 환자를 대상으로 CBCT와 ExacTrac을 이용하여 한 치료중심센터에서 각각 6 DoF(Degree Of Freedom) IGRT를 시행한 후, 두 IGRT 장비에서 나타난 팬텀 및 환자의 Set-up 오차, 환자 Set-up에 걸리는 시간, 노출 방사선량의 비교를 통해 유용성을 평가하고자 한다. 대상 및 방법: Rando Phantom을 이용하여 환자 움직임을 배제한 상태의 Set-up 오차 평가와 Head and Neck Cancer 환자의 Set-up 오차 값 두 가지 경우로 나누어 획득하였다. 노출 방사선량 평가는 유리선량계로 하였다. 환자 Set-up 후 IGRT 시행하는데 소요되는 시간을 평가하기 위해 Head and Neck Cancer 환자 11명을 대상으로 하였다. 총 치료기간동안 환자 당 평균 10회의 CBCT와 ExacTrac 영상을 동시에 얻었고, 관심영역지정(Region Of Interest, ROI) 설정 후 6D 온라인 자동위치교정(Online Automatching) 값의 차를 6개의 축(Translation group: SI, AP, LR; Rotation group: Pitch, Roll, Rtn)으로 각각 계산하였다. 결 과: Phantom과 환자에서 Set-up 오차는 Translation group에서 1mm 미만, Rotation group에서 1.5° 미만의 차이가 보였으며, Rtn 값을 제외한 다른 모든 축의 RMS 값이 1mm, 1° 미만으로 나타났다. 각 시스템에서 최종적으로 Set-up 오차 교정까지 걸리는 시간은 CBCT를 이용한 IGRT에서는 평균 256±47.6sec, ExacTrac을 이용 시 평균 84±3.5sec로 각각 나타났다. 1회 치료 당 IGRT에 의한 방사선 노출선량은 Head and Neck 부위 7곳의 측정위치 중 Oral Mucosa에서 CBCT와 ExacTrac이 각각 2.468mGy, 0.066mGy로 상대적으로 ExacTrac에 비해 피폭선량이 37배 높게 측정되었다. 결 론: CBCT와 ExacTrac 두 시스템 간의 6D 온라인 자동위치교정을 통해 Set-up 오차는 두 시스템의 자체적인 Systematic error 뿐 아니라, 환자 움직임(Random error)를 포함한 Set-up 오차가 1mm, 1.02° 미만으로 나타났다. 이는 본원에서 Head and Neck IMRT 치료 시 PTV Margin이 3mm이라는 것을 고려했을 때, 이 오차범위는 합리적으로 사료된다. 하지만 치료기간 동안 환자체중변화로 인한 따른 표적, 손상위험장기의 변화를 고려했을 때 CBCT와 적절히 병용하여 사용하는 것이 좋을 것으로 사료된다.

Single-Plane Fluoroscopic Three-Dimensional Kinematics of Normal Stifle Joint in Beagle Dogs

  • Kim, Hyungkyoo;Jeong, Jaemin;Seo, Jeonhee;Lee, Young-Won;Choi, Ho-Jung;Park, Jiyoung;Jeong, Seong Mok;Lee, Haebeom
    • 한국임상수의학회지
    • /
    • 제34권5호
    • /
    • pp.318-324
    • /
    • 2017
  • The objective of this study was to establish kinematic reference ranges for the femorotibial (FT) joint and the patellofemoral (PF) joint in healthy small-breed dogs by measuring 3D kinematics at the walk. Single-plane fluoroscopy was used to image the stifle joints of five healthy beagle dogs while the dogs were walking. 3D bone models of the femur, patella, and tibia were reconstructed by computed tomography scanning of the beagle dogs' hind limbs. The shape-matching technique was used to measure kinematic data from the fluoroscopic images and the 3D bone models. The cranial translation of the tibia during walking was inversely proportional to the FT joint flexion. There were significant correlations between the patellar motion and the tibial motion. The FT joint flexion had a strong correlation with the patellar proximodistal translation and flexion. Additionally, the tibial mediolateral translation had a strong correlation with the patellar shift and tilt. In this study, normal in vivo 3D FT joint and PF joint kinematics were demonstrated, and the average kinematic parameters were determined in walking beagle dogs.