KSII Transactions on Internet and Information Systems (TIIS)
/
v.9
no.11
/
pp.4604-4622
/
2015
It is not easy to reconstruct the geometrical characteristics of the distorted images captured by the devices. One of the most popular optimization methods is fast iterative shrinkage/ thresholding algorithm. In this paper, to deal with its approximation error and the turbulence of the decrease process, an adaptive proximal conjugate gradient (APCG) framework is proposed. It contains three stages. At first stage, a series of adaptive penalty matrices are generated iterate-to-iterate. Second, to trade off the reconstruction accuracy and the computational complexity of the resulting sub-problem, a practical solution is presented, which is characterized by solving the variable ellipsoidal-norm based sub-problem through exploiting the structure of the problem. Third, a correction step is introduced to improve the estimated accuracy. The numerical experiments of the proposed algorithm, in comparison to the favorable state-of-the-art methods, demonstrate the advantages of the proposed method and its potential.
The Journal of Korean Institute of Electromagnetic Engineering and Science
/
v.14
no.8
/
pp.803-808
/
2003
Several dielectric pipes buried in the lossy half space are reconstructed from the scattered fields measured along the interface between the air and the lossy ground. Iterative inversion method by using the hybrid optimization algorithm combining the genetic and the Levenberg-Marquardt algorithm enables us to find the positions, the sizes, and the medium parameters such as the permittivities and the conductivities of the buried pipes as well as those of the background lossy half space even when the dielectric pipes are close together. Illposedness of the inversion caused by the errors in the measured scattered fields are regularized by filtering the evanescent modes of the scattered fields out.
Kim, Tae-Hun;Kim, Se-Yun;Kim, Jeong-Hong;Yun, Byoung-Ju;Park, Kil-Houm
Journal of Communications and Networks
/
v.14
no.1
/
pp.21-26
/
2012
As electrocardiogram (ECG) signals are generally sampled with a frequency of over 200 Hz, a method to compress diagnostic information without losing data is required to store and transmit them efficiently on a wireless personal area network (WPAN). In this paper, an ECG signal compression method for communications onWPAN, which uses feature points based on curvature, is proposed. The feature points of P, Q, R, S, and T waves, which are critical components of the ECG signal, have large curvature values compared to other vertexes. Thus, these vertexes were extracted with the proposed method, which uses local extrema of curvatures. Furthermore, in order to minimize reconstruction errors of the ECG signal, extra vertexes were added according to the iterative vertex selectionmethod. Through the experimental results on the ECG signals from Massachusetts Institute of Technology-Beth Israel hospital arrhythmia database, it was concluded that the vertexes selected by the proposed method preserved all feature points of the ECG signals. In addition, it was more efficient than the amplitude zone time epoch coding method.
The shape and the distribution of material construction of the scatterer may be obtained from its scattered fields by the iterative inversion in the spectral domain. The illposedness, the resolution, and the uniqueness of the inversion are the key problems in the inversion and inter-related. The illposedness is shown to be caused by the evanescent modes which carries and amplifies exponentially the measurement errors in the back-propagation of the measured scattered fields. By filtering out all the evanescent modes in the cost functional defined as the squared difference between the measured and the calculated spatial spectrum of the scattered fields from the iteratively chosen medium parameters of the scatterer, one may regularize the illposedness of the inversion in the expense of the resolution. There exist many local minima of the cost functional for the inversion of the large and the high-contrast scatterer and the hybrid algorithm combining the genetic algorithm and the Levenberg-Marquardt algorithm is shown to find efficiently its global minimum. The resolution of reconstruction obtained by keeping all the propating modes and filtering out the evanescent modes for the regularization becomes 0.5 wavelength. The super resolution may be obtained by keeping the evanescent modes when the measurement error and instance, respectively, are small and near.
The Morlet wavelet transform method is proposed to analyze a single interferogram with spatial carrier frequency that is captured by an optical interferometer. The method can retain low frequency components that contain the phase information of a measured optical surface, and remove high frequency disturbances by wavelet decomposition and reconstruction. The key to retrieving the phases from the low-frequency wavelet components is to extract wavelet ridges by calculating the maximum value of the wavelet transform amplitude. Afterwards, the wrapped phases can be accurately solved by multiple iterative calculations on wavelet ridges. Finally, we can reconstruct the wave-front of the measured optical element by applying two-dimensional discrete cosine transform to those wrapped phases. Morlet wavelet transform does not need to remove the spatial carrier frequency components manually in the processing of interferogram analysis, but the step is necessary in the Fourier transform algorithm. So, the Morlet wavelet simplifies the process of the analysis of interference fringe patterns compared to Fourier transform. Consequently, wavelet transform is more suitable for automated programming analysis of interference fringes and avoiding the introduction of additional errors compared with Fourier transform.
Objective: To evaluate the image quality of novel dark-blood computed tomography angiography (CTA) imaging combined with deep learning reconstruction (DLR) compared to delayed-phase CTA images with hybrid iterative reconstruction (HIR), to visualize the cervical artery wall in patients with Takayasu arteritis (TAK). Materials and Methods: This prospective study continuously recruited 53 patients with TAK (mean age: 33.8 ± 10.2 years; 49 females) between January and July 2022 who underwent head-neck CTA scans. The arterial- and delayed-phase images were reconstructed using HIR and DLR. Subtracted images of the arterial-phase from the delayed-phase were then added to the original delayed-phase using a denoising filter to generate the final-dark-blood images. Qualitative image quality scores and quantitative parameters were obtained and compared among the three groups of images: Delayed-HIR, Dark-blood-HIR, and Dark-blood-DLR. Results: Compared to Delayed-HIR, Dark-blood-HIR images demonstrated higher qualitative scores in terms of vascular wall visualization and diagnostic confidence index (all P < 0.001). These qualitative scores further improved after applying DLR (Dark-blood-DLR compared to Dark-blood-HIR, all P < 0.001). Dark-blood DLR also showed higher scores for overall image noise than Dark-blood-HIR (P < 0.001). In the quantitative analysis, the contrast-to-noise ratio (CNR) values between the vessel wall and lumen for the bilateral common carotid arteries and brachiocephalic trunk were significantly higher on Dark-blood-HIR images than on Delayed-HIR images (all P < 0.05). The CNR values were significantly higher for Dark-blood-DLR than for Dark-blood-HIR in all cervical arteries (all P < 0.001). Conclusion: Compared with Delayed-HIR CTA, the dark-blood method combined with DLR improved CTA image quality and enhanced visualization of the cervical artery wall in patients with TAK.
Seul Bi Lee;Youngtaek Hong;Yeon Jin Cho;Dawun Jeong;Jina Lee;Soon Ho Yoon;Seunghyun Lee;Young Hun Choi;Jung-Eun Cheon
Korean Journal of Radiology
/
v.24
no.4
/
pp.294-304
/
2023
Objective: We aimed to investigate whether image standardization using deep learning-based computed tomography (CT) image conversion would improve the performance of deep learning-based automated hepatic segmentation across various reconstruction methods. Materials and Methods: We collected contrast-enhanced dual-energy CT of the abdomen that was obtained using various reconstruction methods, including filtered back projection, iterative reconstruction, optimum contrast, and monoenergetic images with 40, 60, and 80 keV. A deep learning based image conversion algorithm was developed to standardize the CT images using 142 CT examinations (128 for training and 14 for tuning). A separate set of 43 CT examinations from 42 patients (mean age, 10.1 years) was used as the test data. A commercial software program (MEDIP PRO v2.0.0.0, MEDICALIP Co. Ltd.) based on 2D U-NET was used to create liver segmentation masks with liver volume. The original 80 keV images were used as the ground truth. We used the paired t-test to compare the segmentation performance in the Dice similarity coefficient (DSC) and difference ratio of the liver volume relative to the ground truth volume before and after image standardization. The concordance correlation coefficient (CCC) was used to assess the agreement between the segmented liver volume and ground-truth volume. Results: The original CT images showed variable and poor segmentation performances. The standardized images achieved significantly higher DSCs for liver segmentation than the original images (DSC [original, 5.40%-91.27%] vs. [standardized, 93.16%-96.74%], all P < 0.001). The difference ratio of liver volume also decreased significantly after image conversion (original, 9.84%-91.37% vs. standardized, 1.99%-4.41%). In all protocols, CCCs improved after image conversion (original, -0.006-0.964 vs. standardized, 0.990-0.998). Conclusion: Deep learning-based CT image standardization can improve the performance of automated hepatic segmentation using CT images reconstructed using various methods. Deep learning-based CT image conversion may have the potential to improve the generalizability of the segmentation network.
Journal of the Institute of Convergence Signal Processing
/
v.8
no.3
/
pp.156-162
/
2007
The parallel beam SPECT system acquires projection data by using collimators in conjunction with photon detectors. The projection data of the parallel beam SPECT system is, however, blurred by the point response function of the collimator that is used to define the range of directions where photons can be detected. By increasing the number of parallel holes per unit area in collimator, one can reduce such blurring effect. This approach also, however, has the blurring problem if the distance between the object and the collimator becomes large. In this paper we consider correction methods for artifacts caused by non-circular orbit of parallel beam SPECT with many parallel holes per detector cell. To do so, we model the relationship between the object and its projection data as a linear system, and propose an iterative reconstruction method including artifacts correction. We compute the projector and the backprojector, which are required in iterative method, as a sum of convolutions with distance-dependent point response functions instead of matrix form, where those functions are analytically computed from a single function. By doing so, we dramatically reduce the computation time and memory required for the generation of the projector and the backprojector. We conducted several simulation studies to compare the performance of the proposed method with that of conventional Fourier method. The result shows that the proposed method outperforms Fourier methods objectively and subjectively.
Dong Wook Kim;Jiyeon Ha;Yousun Ko;Kyung Won Kim;Taeyong Park;Jeongjin Lee;Myung-Won You;Kwon-Ha Yoon;Ji Yong Park;Young Jin Kee;Hong-Kyu Kim
Korean Journal of Radiology
/
v.22
no.4
/
pp.624-633
/
2021
Objective: To evaluate the reliability of CT measurements of muscle quantity and quality using variable CT parameters. Materials and Methods: A phantom, simulating the L2-4 vertebral levels, was used for this study. CT images were repeatedly acquired with modulation of tube voltage, tube current, slice thickness, and the image reconstruction algorithm. Reference standard muscle compartments were obtained from the reference maps of the phantom. Cross-sectional area based on the Hounsfield unit (HU) thresholds of muscle and its components, and the mean density of the reference standard muscle compartment, were used to measure the muscle quantity and quality using different CT protocols. Signal-to-noise ratios (SNRs) were calculated in the images acquired with different settings. Results: The skeletal muscle area (threshold, -29 to 150 HU) was constant, regardless of the protocol, occupying at least 91.7% of the reference standard muscle compartment. Conversely, normal attenuation muscle area (30-150 HU) was not constant in the different protocols, varying between 59.7% and 81.7% of the reference standard muscle compartment. The mean density was lower than the target density stated by the manufacturer (45 HU) in all cases (range, 39.0-44.9 HU). The SNR decreased with low tube voltage, low tube current, and in sections with thin slices, whereas it increased when the iterative reconstruction algorithm was used. Conclusion: Measurement of muscle quantity using HU threshold was reliable, regardless of the CT protocol used. Conversely, the measurement of muscle quality using the mean density and narrow HU thresholds were inconsistent and inaccurate across different CT protocols. Therefore, further studies are warranted in future to determine the optimal CT protocols for reliable measurements of muscle quality.
Kim, Dong-Seok;Kim, Seong-Hwan;Shim, Dong-Oh;Yoo, Hee-Jae
The Korean Journal of Nuclear Medicine Technology
/
v.15
no.1
/
pp.17-24
/
2011
Purpose: Presently in the nuclear medicine field, the high-speed image reconstruction algorithm like the OSEM algorithm is widely used as the alternative of the filtered back projection method due to the rapid development and application of the digital computer. There is no to relate and if it applies the optimal parameter be clearly determined. In this research, the quality change of the Jaszczak phantom experiment and brain SPECT patient data according to the iteration times and subset number change try to be been put through and analyzed in 3D OSEM reconstruction method of applying 3D beam modeling. Materials and Methods: Patient data from August, 2010 studied and analyzed against 5 patients implementing the brain SPECT until september, 2010 in the nuclear medicine department of ASAN medical center. The phantom image used the mixed Jaszczak phantom equally and obtained the water and 99mTc (500 MBq) in the dual head gamma camera Symbia T2 of Siemens. When reconstructing each image altogether with patient data and phantom data, we changed iteration number as 1, 4, 8, 12, 24 and 30 times and subset number as 2, 4, 8, 16 and 32 times. We reconstructed in reconstructed each image, the variation coefficient for guessing about noise of images and image contrast, FWHM were produced and compared. Results: In patients and phantom experiment data, a contrast and spatial resolution of an image showed the tendency to increase linearly altogether according to the increment of the iteration times and subset number but the variation coefficient did not show the tendency to be improved according to the increase of two parameters. In the comparison according to the scan time, the image contrast and FWHM showed altogether the result of being linearly improved according to the iteration times and subset number increase in projection per 10, 20 and 30 second image but the variation coefficient did not show the tendency to be improved. Conclusion: The linear relationship of the image contrast improved in 3D OSEM reconstruction method image of applying 3D beam modeling through this experiment like the existing 1D and 2D OSEM reconfiguration method according to the iteration times and subset number increase could be confirmed. However, this is simple phantom experiment and the result of obtaining by the some patients limited range and the various variables can be existed. So for generalizing this based on this results of this experiment, there is the excessiveness and the evaluation about 3D OSEM reconfiguration method should be additionally made through experiments after this.
본 웹사이트에 게시된 이메일 주소가 전자우편 수집 프로그램이나
그 밖의 기술적 장치를 이용하여 무단으로 수집되는 것을 거부하며,
이를 위반시 정보통신망법에 의해 형사 처벌됨을 유념하시기 바랍니다.
[게시일 2004년 10월 1일]
이용약관
제 1 장 총칙
제 1 조 (목적)
이 이용약관은 KoreaScience 홈페이지(이하 “당 사이트”)에서 제공하는 인터넷 서비스(이하 '서비스')의 가입조건 및 이용에 관한 제반 사항과 기타 필요한 사항을 구체적으로 규정함을 목적으로 합니다.
제 2 조 (용어의 정의)
① "이용자"라 함은 당 사이트에 접속하여 이 약관에 따라 당 사이트가 제공하는 서비스를 받는 회원 및 비회원을
말합니다.
② "회원"이라 함은 서비스를 이용하기 위하여 당 사이트에 개인정보를 제공하여 아이디(ID)와 비밀번호를 부여
받은 자를 말합니다.
③ "회원 아이디(ID)"라 함은 회원의 식별 및 서비스 이용을 위하여 자신이 선정한 문자 및 숫자의 조합을
말합니다.
④ "비밀번호(패스워드)"라 함은 회원이 자신의 비밀보호를 위하여 선정한 문자 및 숫자의 조합을 말합니다.
제 3 조 (이용약관의 효력 및 변경)
① 이 약관은 당 사이트에 게시하거나 기타의 방법으로 회원에게 공지함으로써 효력이 발생합니다.
② 당 사이트는 이 약관을 개정할 경우에 적용일자 및 개정사유를 명시하여 현행 약관과 함께 당 사이트의
초기화면에 그 적용일자 7일 이전부터 적용일자 전일까지 공지합니다. 다만, 회원에게 불리하게 약관내용을
변경하는 경우에는 최소한 30일 이상의 사전 유예기간을 두고 공지합니다. 이 경우 당 사이트는 개정 전
내용과 개정 후 내용을 명확하게 비교하여 이용자가 알기 쉽도록 표시합니다.
제 4 조(약관 외 준칙)
① 이 약관은 당 사이트가 제공하는 서비스에 관한 이용안내와 함께 적용됩니다.
② 이 약관에 명시되지 아니한 사항은 관계법령의 규정이 적용됩니다.
제 2 장 이용계약의 체결
제 5 조 (이용계약의 성립 등)
① 이용계약은 이용고객이 당 사이트가 정한 약관에 「동의합니다」를 선택하고, 당 사이트가 정한
온라인신청양식을 작성하여 서비스 이용을 신청한 후, 당 사이트가 이를 승낙함으로써 성립합니다.
② 제1항의 승낙은 당 사이트가 제공하는 과학기술정보검색, 맞춤정보, 서지정보 등 다른 서비스의 이용승낙을
포함합니다.
제 6 조 (회원가입)
서비스를 이용하고자 하는 고객은 당 사이트에서 정한 회원가입양식에 개인정보를 기재하여 가입을 하여야 합니다.
제 7 조 (개인정보의 보호 및 사용)
당 사이트는 관계법령이 정하는 바에 따라 회원 등록정보를 포함한 회원의 개인정보를 보호하기 위해 노력합니다. 회원 개인정보의 보호 및 사용에 대해서는 관련법령 및 당 사이트의 개인정보 보호정책이 적용됩니다.
제 8 조 (이용 신청의 승낙과 제한)
① 당 사이트는 제6조의 규정에 의한 이용신청고객에 대하여 서비스 이용을 승낙합니다.
② 당 사이트는 아래사항에 해당하는 경우에 대해서 승낙하지 아니 합니다.
- 이용계약 신청서의 내용을 허위로 기재한 경우
- 기타 규정한 제반사항을 위반하며 신청하는 경우
제 9 조 (회원 ID 부여 및 변경 등)
① 당 사이트는 이용고객에 대하여 약관에 정하는 바에 따라 자신이 선정한 회원 ID를 부여합니다.
② 회원 ID는 원칙적으로 변경이 불가하며 부득이한 사유로 인하여 변경 하고자 하는 경우에는 해당 ID를
해지하고 재가입해야 합니다.
③ 기타 회원 개인정보 관리 및 변경 등에 관한 사항은 서비스별 안내에 정하는 바에 의합니다.
제 3 장 계약 당사자의 의무
제 10 조 (KISTI의 의무)
① 당 사이트는 이용고객이 희망한 서비스 제공 개시일에 특별한 사정이 없는 한 서비스를 이용할 수 있도록
하여야 합니다.
② 당 사이트는 개인정보 보호를 위해 보안시스템을 구축하며 개인정보 보호정책을 공시하고 준수합니다.
③ 당 사이트는 회원으로부터 제기되는 의견이나 불만이 정당하다고 객관적으로 인정될 경우에는 적절한 절차를
거쳐 즉시 처리하여야 합니다. 다만, 즉시 처리가 곤란한 경우는 회원에게 그 사유와 처리일정을 통보하여야
합니다.
제 11 조 (회원의 의무)
① 이용자는 회원가입 신청 또는 회원정보 변경 시 실명으로 모든 사항을 사실에 근거하여 작성하여야 하며,
허위 또는 타인의 정보를 등록할 경우 일체의 권리를 주장할 수 없습니다.
② 당 사이트가 관계법령 및 개인정보 보호정책에 의거하여 그 책임을 지는 경우를 제외하고 회원에게 부여된
ID의 비밀번호 관리소홀, 부정사용에 의하여 발생하는 모든 결과에 대한 책임은 회원에게 있습니다.
③ 회원은 당 사이트 및 제 3자의 지적 재산권을 침해해서는 안 됩니다.
제 4 장 서비스의 이용
제 12 조 (서비스 이용 시간)
① 서비스 이용은 당 사이트의 업무상 또는 기술상 특별한 지장이 없는 한 연중무휴, 1일 24시간 운영을
원칙으로 합니다. 단, 당 사이트는 시스템 정기점검, 증설 및 교체를 위해 당 사이트가 정한 날이나 시간에
서비스를 일시 중단할 수 있으며, 예정되어 있는 작업으로 인한 서비스 일시중단은 당 사이트 홈페이지를
통해 사전에 공지합니다.
② 당 사이트는 서비스를 특정범위로 분할하여 각 범위별로 이용가능시간을 별도로 지정할 수 있습니다. 다만
이 경우 그 내용을 공지합니다.
제 13 조 (홈페이지 저작권)
① NDSL에서 제공하는 모든 저작물의 저작권은 원저작자에게 있으며, KISTI는 복제/배포/전송권을 확보하고
있습니다.
② NDSL에서 제공하는 콘텐츠를 상업적 및 기타 영리목적으로 복제/배포/전송할 경우 사전에 KISTI의 허락을
받아야 합니다.
③ NDSL에서 제공하는 콘텐츠를 보도, 비평, 교육, 연구 등을 위하여 정당한 범위 안에서 공정한 관행에
합치되게 인용할 수 있습니다.
④ NDSL에서 제공하는 콘텐츠를 무단 복제, 전송, 배포 기타 저작권법에 위반되는 방법으로 이용할 경우
저작권법 제136조에 따라 5년 이하의 징역 또는 5천만 원 이하의 벌금에 처해질 수 있습니다.
제 14 조 (유료서비스)
① 당 사이트 및 협력기관이 정한 유료서비스(원문복사 등)는 별도로 정해진 바에 따르며, 변경사항은 시행 전에
당 사이트 홈페이지를 통하여 회원에게 공지합니다.
② 유료서비스를 이용하려는 회원은 정해진 요금체계에 따라 요금을 납부해야 합니다.
제 5 장 계약 해지 및 이용 제한
제 15 조 (계약 해지)
회원이 이용계약을 해지하고자 하는 때에는 [가입해지] 메뉴를 이용해 직접 해지해야 합니다.
제 16 조 (서비스 이용제한)
① 당 사이트는 회원이 서비스 이용내용에 있어서 본 약관 제 11조 내용을 위반하거나, 다음 각 호에 해당하는
경우 서비스 이용을 제한할 수 있습니다.
- 2년 이상 서비스를 이용한 적이 없는 경우
- 기타 정상적인 서비스 운영에 방해가 될 경우
② 상기 이용제한 규정에 따라 서비스를 이용하는 회원에게 서비스 이용에 대하여 별도 공지 없이 서비스 이용의
일시정지, 이용계약 해지 할 수 있습니다.
제 17 조 (전자우편주소 수집 금지)
회원은 전자우편주소 추출기 등을 이용하여 전자우편주소를 수집 또는 제3자에게 제공할 수 없습니다.
제 6 장 손해배상 및 기타사항
제 18 조 (손해배상)
당 사이트는 무료로 제공되는 서비스와 관련하여 회원에게 어떠한 손해가 발생하더라도 당 사이트가 고의 또는 과실로 인한 손해발생을 제외하고는 이에 대하여 책임을 부담하지 아니합니다.
제 19 조 (관할 법원)
서비스 이용으로 발생한 분쟁에 대해 소송이 제기되는 경우 민사 소송법상의 관할 법원에 제기합니다.
[부 칙]
1. (시행일) 이 약관은 2016년 9월 5일부터 적용되며, 종전 약관은 본 약관으로 대체되며, 개정된 약관의 적용일 이전 가입자도 개정된 약관의 적용을 받습니다.