• 제목/요약/키워드: Graph Optimization

검색결과 200건 처리시간 0.033초

A Study of Double Dark Photons Produced by Lepton Colliders using High Performance Computing

  • Park, Kihong;Kim, Kyungho;Cho, Kihyeon
    • Journal of Astronomy and Space Sciences
    • /
    • 제39권1호
    • /
    • pp.1-10
    • /
    • 2022
  • The universe is thought to be filled with not only Standard Model (SM) matters but also dark matters. Dark matter is thought to play a major role in its construction. However, the identity of dark matter is as yet unknown, with various search methods from astrophysical observartion to particle collider experiments. Because of the cross-section that is a thousand times smaller than SM particles, dark matter research requires a large amount of data processing. Therefore, optimization and parallelization in High Performance Computing is required. Dark matter in hypothetical hidden sector is though to be connected to dark photons which carries forces similar to photons in electromagnetism. In the recent analysis, it was studied using the decays of a dark photon at collider experiments. Based on this, we studies double dark photon decays at lepton colliders. The signal channels are e+e- → A'A' and e+e- → A'A'γ where dark photon A' decays dimuon. These signal channels are based on the theory that dark photons only decay into heavily charged leptons, which can explain the muon magnetic momentum anomaly. We scanned the cross-section according to the dark photon mass in experiments. MadGraph5 was used to generate events based on a simplified model. Additionally, to get the maximum expected number of events for the double dark photon channel, the detector efficiency for several center of mass (CM) energy were studied using Delphes and MadAnalysis5 for performance comparison. The results of this study will contribute to the search for double dark photon channels at lepton colliders.

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.

M&W 파동 패턴과 유전자 알고리즘을 이용한 주식 매매 시스템 개발 (Development of a Stock Trading System Using M & W Wave Patterns and Genetic Algorithms)

  • 양훈석;김선웅;최흥식
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.63-83
    • /
    • 2019
  • 투자자들은 기업의 내재가치 분석, 기술적 보조지표 분석 등 복잡한 분석보다 차트(chart)에 나타난 그래프(graph)의 모양으로 매매 시점을 찾는 직관적인 방법을 더 선호하는 편이다. 하지만 패턴(pattern) 분석 기법은 IT 구현의 난이도 때문에 사용자들의 요구에 비해 전산화가 덜 된 분야로 여겨진다. 최근에는 인공지능(artificial intelligence, AI) 분야에서 신경망을 비롯한 다양한 기계학습(machine learning) 기법을 사용하여 주가의 패턴을 연구하는 사례가 많아졌다. 특히 IT 기술의 발전으로 방대한 차트 데이터를 분석하여 주가 예측력이 높은 패턴을 발굴하는 것이 예전보다 쉬워졌다. 지금까지의 성과로 볼 때 가격의 단기 예측력은 높아졌지만, 장기 예측력은 한계가 있어서 장기 투자보다 단타 매매에서 활용되는 수준이다. 이외에 과거 기술력으로 인식하지 못했던 패턴을 기계적으로 정확하게 찾아내는 데 초점을 맞춘 연구도 있지만 찾아진 패턴이 매매에 적합한지 아닌지는 별개의 문제이기 때문에 실용적인 부분에서 취약할 수 있다. 본 연구는 주가 예측력이 있는 패턴을 찾으려는 기존 연구 방법과 달리 패턴들을 먼저 정의해 놓고 확률기반으로 선택해서 매매하는 방법을 제안한다. 5개의 전환점으로 정의한 Merrill(1980)의 M&W 파동 패턴은 32가지의 패턴으로 시장 국면 대부분을 설명할 수 있다. 전환점만으로 패턴을 분류하기 때문에 패턴 인식의 정확도를 높이기 위해 드는 비용을 줄일 수 있다. 32개 패턴으로 만들 수 있는 조합의 수는 전수 테스트가 불가능한 수준이다. 그래서 최적화 문제와 관련한 연구들에서 가장 많이 사용되고 있는 인공지능 알고리즘(algorithm) 중 하나인 유전자 알고리즘(genetic algorithm, GA)을 이용하였다. 그리고 미래의 주가가 과거를 반영한다 해도 같게 움직이지 않기 때문에 전진 분석(walk-forward analysis, WFA)방법을 적용하여 과최적화(overfitting)의 실수를 줄이도록 하였다. 20종목씩 6개의 포트폴리오(portfolio)를 구성하여 테스트해 본 결과에 따르면 패턴 매매에서 가격 변동성이 어느 정도 수반되어야 하며 패턴이 진행 중일 때보다 패턴이 완성된 후에 진입, 청산하는 것이 효과적임을 확인하였다.

전산화 방사선촬영(CR) 시스템을 이용한 근사적 의료 피폭 선량 평가 (Evaluation of Approximate Exposure to Low-dose Ionizing Radiation from Medical Images using a Computed Radiography (CR) System)

  • 우민선;이재승;임인철
    • 한국방사선학회논문지
    • /
    • 제6권6호
    • /
    • pp.455-464
    • /
    • 2012
  • 본 연구는 일반 X선 검사에서 CR 시스템을 이용한 환자의 근사적 피폭 선량을 평가할 수 있는 실험적 모델을 제시하고 저선량 영역에서 의료 피폭에 대한 방어의 최적화 조건으로 환자의 선량 권고량(diagnostic reference level. DRL)을 비교하고자 하였다. 이를 위하여 기준선량계와 광자극발광선량계(optically stimulated luminescence dosimeters. OSLDs)를 이용하여 관전압(kVp) 및 관전류 노출시간의 곱(mAs)에 따른 입사표면선량(entrance surface dose. ESD)을 교차 측정하였으며 CR 시스템에서 각 노출 조건에 대한 Hounsfield unit (HU) scale을 측정하여 ESD와 HU 스케일에 대한 특성 관계를 이용하여 근사적 피폭 선량을 구하였다. 또한 임상적으로 적용 가능한지를 알기 위하여 두부, 경부, 흉부, 복부, 골반부 노출 조건으로 물 팬텀에 모사하여 피폭 선량을 구하였다. 결과적으로 두 선량계의 평균 ESD는 각각 2.10, 2.01, 1.13, 2.97, 1.95 mGy 이었으며 CR 영상에서 측정한 HU 스케일은 각각 $3,276{\pm}3.72$, $3,217{\pm}2.93$, $2,768{\pm}3.13$, $3,782{\pm}5.19$, $2,318{\pm}4.64$ 이었다. 이 때 ESD와 HU 스케일에 대한 특성 관계를 이용하여 근사적으로 구한 ESD는 각각 2.16, 2.06, 1.19, 3.05, 2.07 mGy이었으며 평균 측정값과 근사적으로 구한 ESD의 오차는 3% 미만으로 영상의학 분야의 측정 오차 5%를 감안한다면 신뢰할 수 있는 오차 범위라 할 수 있었다. 결론적으로 CR 시스템을 이용한 일반 X선 검사에서 환자의 피폭 선량을 근사적으로 평가할 수 있는 새로운 실험적 모델을 제시하였으며 CR 검사뿐 만 아니라 디지털 방사선촬영(digital radiography. DR) 시스템 및 필름-증감지 시스템에 적용 가능할 것으로 판단되었다.

전압-주파수-구역을 고려한 에너지 최적화 네트워크-온-칩 설계 방법론 (Voltage-Frequency-Island Aware Energy Optimization Methodology for Network-on-Chip Design)

  • 김우중;권순태;신동군;한태희
    • 대한전자공학회논문지SD
    • /
    • 제46권8호
    • /
    • pp.22-30
    • /
    • 2009
  • 네트워크 온 칩 (Network-on-Chip, NoC) 기술은 기존 시스템-온-칩(System-on-Chip, SoC) 설계에서 IP 블록 수 증가와 이에 수반된 상호 연결 네트워크 복잡화 및 데이터 대역폭 제한 등의 문제점을 해결하기 위한 새로운 설계 패러다임이다. 더불어 동작 주파수 증가에 따른 급격한 전력 소모 클럭 신호의 분배와 동기화 문제 역시 중요한 이슈이며, 이에 대한 대안으로 광역적으로는 비동기, 국부적으로는 동기식 (Globally Asynchronous Locally Synchronous, GALS) 인 시스템 설계 방법론이 저전력 기술과 결합되어 에너지 소모를 줄이고 모듈적인 설계를 위해서 고려되어 왔다 GALS 방식의 설계 스타일은 정밀한 시스템 수준 전력 관리를 적용하기 위해 최근 소개되고 있는 전압 주파수 구역 (Voltage-Frequency-Island, VFI) 의 개념과 매우 잘 어울린다. 본 논문에서는 VFI를 적용한 NoC 시스템에서 최적의 전압선택을 통해 에너지 소모를 최소화하는 효율적인 알고리즘을 제시한다. 최적의 코어(또는 처리 소자) 전압과 VFI를 찾기 위해 통신량을 고려한 코어 그래프 분할, 통신-경쟁 시간을 고려한 타일 매핑, 전력 변화량을 고려한 코어의 동적 전압 조절 그리고 효율적인 VFI 병합 및 VFI 동적 전압 재 조절을 포함한다. 본 논문에서 제안한 설계 방법론은 기존 연구결과 대비 평균적으로 10.3%의 에너지 효율 향상이 있다는 것을 실험 결과를 통해 보여준다.

고성능 집적회로 설계를 위한 새로운 클락 배선 (A New Clock Routing Algorithm for High Performance ICs)

  • 유광기;정정화
    • 전자공학회논문지C
    • /
    • 제36C권11호
    • /
    • pp.64-74
    • /
    • 1999
  • 본 논문에서는 연결 에지 추가 기법을 이용하여 주어진 클락 스큐를 만족시키면서 동시에 총 배선 길이를 증가시키지 않는 새로운 클락 배선 최적화 알고리즘을 제안한다. 고속의 동기식 집적 회로에서는 클락 스큐가 회로의 속도를 제한하는 주된 요소로 작용하므로 성능의 향상을 위해서는 클락 스큐를 최소화해야 한다. 일반적으로 클락 스큐를 최소화하면 총 배선 길이가 증가하므로 오동작하지 않는 클락 스큐 범위 내에서 클락 배선을 수행한다. 이를 이용하여 본 논문에서는 제로 스큐 트리에 연결 점 이동 방법을 적용하여 총 배선길이와 지연 시간을 감소시킨다. 제안하는 알고리즘은 클락 트리의 두 노드 사이에 연결 에지를 추가하여 일반적인 그래프 형태의 클락 토폴로지를 구성하여 주어진 클락 스큐 범위를 만족시키고 동시에 총 배선장의 증가를 억제한다. 연결 에지를 구성하는 두 노드를 선택하기 위한 새로운 비용 함수를 고안하였다. 클락 트리 상에서 지연 시간의 차이가 크면서 거리가 가까운 두 노드를 연결함으로서 싱크 사이의 지연 시간의 차를 감소시켜서 클락 스큐를 감소시킨다. 또한 클락 신호선의 지연 시간 최소화를 위하여 배선 토폴로지 설계 및 배선 폭 조절 알고리즘을 개발하였다. 본 논문에서 제안하는 알고리듬을 C 프로그램 언어로 구현하여 실험한 결과 주어진 스큐 범위를 만족시키면서 지연 시간을 감소시키는 효과를 얻을 수 있었다

  • PDF

360도 카메라 기반 건설현장 철근 배근 정보 원격 계측 기법 개발 (Development of Remote Measurement Method for Reinforcement Information in Construction Field Using 360 Degrees Camera)

  • 이명훈;우욱용;최하진;강수민;최경규
    • 한국구조물진단유지관리공학회 논문집
    • /
    • 제26권6호
    • /
    • pp.157-166
    • /
    • 2022
  • 철근 콘크리트 구조 건설현장에서 육안 검사 방식으로 수행되는 현재 단계의 구조감리는 그 필요성에 비하여 매우 노동 집약적이기에 현실적으로 현장의 모든 상황을 파악하기에 제한적이며, 검사자의 주관성도 배제될 수 없다. 따라서 본 연구는 철근을 대상으로 한 구조감리의 효율성 개선을 위해 360° 카메라를 통해 수집한 RGB 및 Depth 데이터 기반 3D model을 이용하여 배근 간격을 도출하고 실측값과의 비교를 통해 정확도를 검증하였다. 소규모 현장(약 265 m2)의 12개 지점에 대해 계측을 수행하였으며, 지점당 스캔시간은 약 20초, 이동 및 설치시간을 포함한 총 계측 시간은 약 15분이 소요되었다. 계측된 데이터는 SLAM 알고리즘을 통하여 RGB-based 3D model과 3D point cloud model을 생성하였으며, 각각의 모델에서의 계측값을 실측값과 비교하여 정확도 검증을 진행하였다. RGB-based 3D model과 3D point cloud model은 각각 10mm, 0.1mm의 최소분해능을 갖으며, 각 모델로부터 계측된 철근의 배근 간격 은 의 오차는 최대 28.4%, 최소 3.1% (RGB-based 3D model) 최대 10.8%, 최소 0.3% (3D point cloud model)로 확인되었다. 본 연구를 토대로 추후 자동화 기반의 원격구조 감리 기술개발을 통하여 현장적용 및 분석의 효율성을 증대시키고자 한다.

수질사고 예방형 상수도 관망 밸브 시스템 설계 (A new approach to design isolation valve system to prevent unexpected water quality failures)

  • 박경진;신금채;이승엽
    • 한국수자원학회논문집
    • /
    • 제55권spc1호
    • /
    • pp.1211-1222
    • /
    • 2022
  • 상수도 관망 운영 단계에서 비정상상황은 필연적으로 발생하며, 이때 밸브를 이용한 구역의 격리가 필요하다. 밸브를 이용한 구역 격리 시 흐름 경로와 유향, 유속의 변화와 같은 수리적 변화로 인해 수리적 피해는 불가피하며, 대부분의 기존 연구들은 수리적 피해를 최소화할 수 있도록 밸브의 위치를 결정하여 왔다. 다만, 수리적 변화는 예지치 못한 수질 사고를 유발할 수 있기에, 격리 시 수질 사고 발생 여부를 미리 판단할 필요가 있다. 이에 본 연구에서는 밸브 위치에 따른 예지치 못한 수질 문제를 예방할 수 있는 밸브 설계 방안을 제안한다. 이를 위한 격리 전후의 관로별 흐름 특성 변화율을 정량화하는 유향 변경률 인자(Flow Direction Change Ratio, FDCR)와 신뢰도(reliability)를 고려한 최적 설계 방법론을 제안하였으며, 해당 모형을 가상 상수도 관망에 적용하여 FDCR 고려 유무에 따른 설계안을 비교하였다. 설계 결과 FDCR을 고려한 경우 기존 설계안 대비 유향 변동이 없는 것을 확인하였으며, 세그먼트 격리에 따른 절점별 압력과 관별 유속의 평균과 변동성을 확인한 결과 기존 설계안 대비 우수한 성능을 나타냄을 확인하였다. 또한 설계안 비교를 위해 그래프 이론 기반 인자인 수리학적 거리 인자(Hydrualic Geodesic Index, HGI)를 활용하였으며, HGI가 높은 설계안이 유향 변동성이 낮은 것으로 나타났다. 본 연구는 향후 수질 사고를 고려한 밸브 시스템의 설계 및 운영에 활용할 수 있을 것으로 기대한다.

유전자 알고리즘을 이용한 다분류 SVM의 최적화: 기업신용등급 예측에의 응용 (Optimization of Multiclass Support Vector Machine using Genetic Algorithm: Application to the Prediction of Corporate Credit Rating)

  • 안현철
    • 경영정보학연구
    • /
    • 제16권3호
    • /
    • pp.161-177
    • /
    • 2014
  • 기업신용등급은 금융시장의 신뢰를 구축하고 거래를 활성화하는데 있어 매우 중요한 요소로서, 오래 전부터 학계에서는 보다 정확한 기업신용등급 예측을 가능케 하는 다양한 모형들을 연구해 왔다. 구체적으로 다중판별분석(Multiple Discriminant Analysis, MDA)이나 다항 로지스틱 회귀분석(multinomial logistic regression analysis, MLOGIT)과 같은 통계기법을 비롯해, 인공신경망(Artificial Neural Networks, ANN), 사례기반추론(Case-based Reasoning, CBR), 그리고 다분류 문제해결을 위해 확장된 다분류 Support Vector Machines(Multiclass SVM)에 이르기까지 다양한 기법들이 학자들에 의해 적용되었는데, 최근의 연구결과들에 따르면 이 중에서도 다분류 SVM이 가장 우수한 예측성과를 보이고 있는 것으로 보고되고 있다. 본 연구에서는 이러한 다분류 SVM의 성능을 한 단계 더 개선하기 위한 대안으로 유전자 알고리즘(GA, Genetic Algorithm)을 활용한 최적화 모형을 제안한다. 구체적으로 본 연구의 제안모형은 유전자 알고리즘을 활용해 다분류 SVM에 적용되어야 할 최적의 커널 함수 파라미터값들과 최적의 입력변수 집합(feature subset)을 탐색하도록 설계되었다. 실제 데이터셋을 활용해 제안모형을 적용해 본 결과, MDA나 MLOGIT, CBR, ANN과 같은 기존 인공지능/데이터마이닝 기법들은 물론 지금까지 가장 우수한 예측성과를 보이는 것으로 알려져 있던 전통적인 다분류 SVM 보다도 제안모형이 더 우수한 예측성과를 보임을 확인할 수 있었다.

Resolution Recovery 기반의 Astonish 영상 재구성 기법의 평가 (The Evaluation of Resolution Recovery Based Reconstruction Method, Astonish)

  • 승종민;이형진;김진의;김현주;김중현;이재성;이동수
    • 핵의학기술
    • /
    • 제15권1호
    • /
    • pp.58-64
    • /
    • 2011
  • SPECT 영상에서의 resolution recovery를 기반으로 하는 3D 재구성 기법은 detector면으로부터 거리에 의한 공간적 blur를 보상하여 높은 spatial resolution과 contrast를 가지는 특징이 있다. 본 논문에서는 이러한 재구성 기법 중의 하나인 Philips사의 Astonish 프로그램을 phantom 실험을 통하여 기존의 재구성 기법과 비교, 평가하고 임상적 유용성을 높이고자 하였다. Skylight SPECT system (Philips)에서 NEMA IEC PET body phantom과 Flanges Jaszczak phantom (Data Spectrum corp.)을 이용하여 시간과 거리에 따른 4가지의 다른 입력 조건에서 실험을 실시하였다. 가까운 거리와 먼 거리 (짧은 거리보다 10 cm 더해진 거리)에서 각각 full time (40 kcts/frame)과 half time (full time의 절반)을 적용하여 영상을 얻고, iteration 수에 변화를 주어 MLEM, 3D-OSEM, Astonish로 영상을 재구성하였다. NEMA IEC PET body phantom의 각 sphere에서 background variability에 따른 contrast ratio의 변화양상을 확인하고 각 재구성 기법에서의 최적의 iteration 수를 찾아보았다. 이로부터 얻은 최적의 iteration 수를 Jaszczak phantom 영상의 재구성에 적용하여 비교해보고 실제 환자의 myocardial SPECT data에 대하여 육안적 평가를 실시하였다. 전반적인 contrast ratio는 Astonish가 MLEM과 3D-OSEM보다 높았다. 직경 37 mm의 가장 큰 hot sphere에서 짧은 거리에서는 Astonish가 MLEM과 3D-OSEM보다 각각 27.1%와 17.4%의 더 높은 contrast ratio를 보였고, 먼 거리에서는 40.5%와 32.6%로 더 높았다. 그러나 시간에 따른 변화의 차이는 크게 나타나지 않았다. 또한, 육안적 평가에서 Astonish가 다른 두 재구성 기법에 비하여 더 좋은 영상을 보였다. 이 실험에서는 정량적 분석 및 육안적 평가를 통하여 Astonish가 기존의 영상 재구성 기법인 MLEM과 3D-OSEM에 비하여 시간을 단축시켜 업무의 효율성을 높일 뿐만 아니라 질적으로도 우수한 영상을 구현하여 임상적으로 신뢰성이 높은 검사 결과를 제공할 수 있음을 확인하였다.

  • PDF