• 제목/요약/키워드: Pixel

검색결과 3,987건 처리시간 0.032초

Corneal Ulcer Region Detection With Semantic Segmentation Using Deep Learning

  • Im, Jinhyuk;Kim, Daewon
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권9호
    • /
    • pp.1-12
    • /
    • 2022
  • 안과 환자의 질병을 판단하기 위해서는 특수 촬영 장비를 통해 찍은 안구영상을 이용한 안과의사의 주관적 판단의 개입이 전통적으로 활용되고 있다. 본 연구에서는 안과 의료진이 질병을 판단할 때 보조적 도움이 될 수 있도록 객관적 진단결과를 제시해주는 각막궤양 의미론적 분할방법에 대하여 제안하였다. 이를 위해 DeepLab 모델을 활용하였고 그 중 Backbone network으로 Xception과 ResNet 네트워크를 이용하였다. 실험결과를 나타내기 위한 평가지표로 다이스 유사계수와 IoU 값을 이용하였고 ResNet101 네트워크를 사용하였을 때 'crop & resized' 이미지에 대해 최대 평균 정확도 93%의 다이스 유사계수 값을 보였다. 본 연구는 객체 검출을 위한 의미론적 분할모델 또한 안구의 각막궤양 부분과 같은 불규칙하고 특이한 모양을 추출하고 분류하는데 뛰어난 결과를 도출할 수 있는 성능을 보유하고 있음을 보여주었다. 향후 학습용 Dataset을 양적으로 보강하여 실험결과의 정확도를 제고할 수 있도록 하고 실제 의료진단 환경에서 구현되어 사용되어 질 수 있도록 할 계획이다.

야간 자율주행 안전성 향상을 위한 조명반사광 감소에 관한 기초연구 (A Basic Study on the Reduction of Illuminated Reflection for improving the Safety of Self-driving at Night)

  • 박창민
    • Journal of Platform Technology
    • /
    • 제10권3호
    • /
    • pp.60-68
    • /
    • 2022
  • AI 기술이 발전함에 따라 자율주행의 안전성에 관한 관심이 대두되고 있다. 최근, 자율주행의 차량이 증가하고 있지만 그에 대한 부작용을 해소하기 위한 노력은 다소 부진한 실정이다. 특히, 야간에 운행되는 자율주행 차량은 더욱 많은 문제들을 안고 있다. 운행의 다양한 환경에서 야간 주행의 환경은 매우 중요한 요소이다. 이에, 본 연구에서는 야간 자율주행 차량에서 핵심적인 문제점으로 부상하고 있는 반대 차량의 전조등 또는 주위 다양한 조명에 의해 발생되는 반사광을 감소시키는 방안을 제안한다. 이를 위하여, 먼저, 야간 주행 중에 센서에 의해 획득한 영상에서 반사광 특성 정보를 활용하여 조명 반사광을 추출한 후, 반사계수를 활용한 각 픽셀의 색상을 찾아 specular 영역을 감소한다. 그 후 영역의 밝기성분만을 이용한 새로운 영역을 찾아 최종적으로 이를 감소하는 방안을 제시한다. 조명 반사광을 완벽히 감소할 수는 없지만 대체적으로 만족할 만한 결과를 얻을 수 가 있었다. 따라서 제안된 연구 방법이 야간에서의 자율주행에서 다양한 단점 및 문제들을 해결하고 사고를 줄이는 방법에 기여할 것으로 사료된다.

효율적인 균열 데이터 수집을 위한 벡터 기반 데이터 증강과 네트워크 학습 (Vector-Based Data Augmentation and Network Learning for Efficient Crack Data Collection)

  • 김종현
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제28권2호
    • /
    • pp.1-9
    • /
    • 2022
  • 본 논문에서는 균열을 감지 할 때 필요한 데이터를 생성할 수 있는 벡터 기반 증강 기법과 이를 학습할 수 있는 합성곱 인공신경망(Convolution Neural Networks, ConvNet) 기법을 제안한다. 균열을 빠르고 정확하게 감지하는 것은 건물 붕괴와 낙하 사고를 사전에 방지할 수 있는 중요한 기술이다. 이 문제를 인공지능으로 해결하기 위해서는 대량의 데이터 확보가 필수적이지만, 실제 균열 이미지를 얻기 위한 상황은 대부분 위험하기 때문에 대량의 균열 데이터를 확보하기는 어렵다. 이런 데이터베이스 구축의 문제점은 인위적인 특정 부분에 변형을 주어 데이터의 양을 늘리는 탄성왜곡(Elastic distortion)으로 완화시킬 수 있지만, 본 논문에서는 이보다 향상된 균열 패턴 결과를 ConvNet을 활용하여 모델링한다. 탄성왜곡보다 우리의 방법이 실제 균열 패턴과 유사하게 추출된 결과를 얻을 수 있었고, 일반적인 데이터 증강에서 사용되는 픽셀 단위가 아닌, 벡터 기반으로 균열 데이터 증강을 설계함으로써 균열의 변화량 측면에서 우수한 결과를 얻을 수 있다. 결과적으로 본 논문에서는 적은 개수의 균열 데이터를 입력으로 사용했음에도 불구하고 균열의 방향 및 패턴을 다양하게 생성하여 효율적으로 균열 데이터베이스를 구축할 수 있다.

Transferring Calibrations Between on Farm Whole Grain NIR Analysers

  • Clancy, Phillip J.
    • 한국근적외분광분석학회:학술대회논문집
    • /
    • 한국근적외분광분석학회 2001년도 NIR-2001
    • /
    • pp.1210-1210
    • /
    • 2001
  • On farm analysis of protein, moisture and oil in cereals and oil seeds is quickly being adopted by Australian farmers. The benefits of being able to measure protein and oil in grains and oil seeds are several : $\square$ Optimize crop payments $\square$ Monitor effects of fertilization $\square$ Blend on farm to meet market requirements $\square$ Off farm marketing - sell crop with load by load analysis However farmers are not NIR spectroscopists and the process of calibrating instruments has to the duty of the supplier. With the potential number of On Farm analyser being in the thousands, then the task of calibrating each instrument would be impossible, let alone the problems encountered with updating calibrations from season to season. As such, NIR technology Australia has developed a mechanism for \ulcorner\ulcorner\ulcorner their range of Cropscan 2000G NIR analysers so that a single calibration can be transferred from the master instrument to every slave instrument. Whole grain analysis has been developed over the last 10 years using Near Infrared Transmission through a sample of grain with a pathlength varying from 5-30mm. A continuous spectrum from 800-1100nm is the optimal wavelength coverage fro these applications and a grating based spectrophotometer has proven to provide the best means of producing this spectrum. The most important aspect of standardizing NIB instruments is to duplicate the spectral information. The task is to align spectrum from the slave instruments to the master instrument in terms of wavelength positioning and then to adjust the spectral response at each wavelength in order that the slave instruments mimic the master instrument. The Cropscan 2000G and 2000B Whole Grain Analyser use flat field spectrographs to produce a spectrum from 720-1100nm and a silicon photodiode array detector to collect the spectrum at approximately 10nm intervals. The concave holographic gratings used in the flat field spectrographs are produced by a process of photo lithography. As such each grating is an exact replica of the original. To align wavelengths in these instruments, NIR wheat sample scanned on the master and the slave instruments provides three check points in the spectrum to make a more exact alignment. Once the wavelengths are matched then many samples of wheat, approximately 10, exhibiting absorbances from 2 to 4.5 Abu, are scanned on the master and then on each slave. Using a simple linear regression technique, a slope and bias adjustment is made for each pixel of the detector. This process corrects the spectral response at each wavelength so that the slave instruments produce the same spectra as the master instrument. It is important to use as broad a range of absorbances in the samples so that a good slope and bias estimate can be calculated. These Slope and Bias (S'||'&'||'B) factors are then downloaded into the slave instruments. Calibrations developed on the master instrument can then be downloaded onto the slave instruments and perform similarly to the master instrument. The data shown in this paper illustrates the process of calculating these S'||'&'||'B factors and the transfer of calibrations for wheat, barley and sorghum between several instruments.

  • PDF

Light-field 이미지로 변환된 다중 평면 홀로그램 영상에 대해 객체 검출 알고리즘을 적용한 평면별 객체의 깊이 정보 해석 및 조절 기법 (A Technique for Interpreting and Adjusting Depth Information of each Plane by Applying an Object Detection Algorithm to Multi-plane Light-field Image Converted from Hologram Image)

  • 배영규;신동하;이승열
    • 방송공학회논문지
    • /
    • 제28권1호
    • /
    • pp.31-41
    • /
    • 2023
  • 재생하고자 하는 3차원 이미지에서 발현되는 빛의 간섭 무늬를 계산하여 얻게 되는 Computer Generated Hologram(CGH)은 본래의 3차원 이미지와 유사관계를 찾기 힘든 형태로 형성되기에 직접적인 초점 위치 혹은 크기 등의 변환이 어려운 것으로 알려져 있다. 본논문은 이러한 문제 중 하나인 다중 평면으로 구성된 3차원 이미지 CGH의 평면별 초점 거리를 변환하는 문제를 해결하는 기술을 제안한다. 제안하는 기술은 CGH로부터 재생되는 3차원 이미지를 여러 각도에서 관측한 2차원 이미지의 집합으로 구성된 Light-Field (LF) 이미지로 변환하고, 관측한 각도별로 이동하는 객체의 위치를 객체 탐지 알고리즘인 YOLOv5(You Only Look Once version 5)로 분석한 뒤, 이를 조절함으로써 초점 거리가 변환된 LF 이미지와 이를 역변환한 결과인 CGH를 생성한다. 해당 기술은 CGH의 픽셀 사이즈가 3.6 ㎛, 해상도가 3840⨯2160인 상황에서 10 cm 거리에 재생되는 상에 적용되어 영상 품질의 큰 손실 없이 약 3 cm 정도의 범위에서 초점 거리를 변환시킬 수 있음을 시뮬레이션 분석과 실제 실험 관측을 통해 확인하였다.

해상 객체 탐지를 위한 머신러닝 기반의 초분광 영상 분석 기술 (Hyperspectral Image Analysis Technology Based on Machine Learning for Marine Object Detection)

  • 오상우;서동민
    • 해양환경안전학회지
    • /
    • 제28권7호
    • /
    • pp.1120-1128
    • /
    • 2022
  • 해양사고 발생시 실종자는 해양에 노출된 시간이 길어질수록 생존확률이 빠르게 감소하기 때문에 인명구조를 위해서는 신속한 수색이 필요하다. 또한 해양의 수색영역은 육상에 비해서 매우 넓기 때문에 효율적인 수색을 위해서는 선박을 이용한 육안수색보다는 인공위성이나 항공기에 탑재된 센서를 이용한 해상 객체 탐지 기술의 적용이 필요하다. 본 연구는 항공기에 탑재된 초분광 영상 센서를 이용하여 해양에서 객체를 신속하게 탐지하기 위한 목적으로 진행되었다. 초분광 영상 센서로 촬영된 영상은 8,241 × 1,024의 공간 해상도를 가지며, 한 화소당 0.7 m의 분해능과 127개의 스펙트럼으로 구성된 대용량의 데이터이다. 본 연구에서는 이러한 데이터를 신속하게 분석하기 위한 목적으로 DBSCAN을 사용한 해수 식별 알고리즘과 밀도 기반의 육지 제거 알고리즘을 결합한 해상 객체 탐지 모델을 개발하였다. 개발한 모델은 초분광 영상에 적용하였을 때 약 5 km2의 해상 영역을 100초 내로 분석할 수 있는 성능을 보였다. 또한 개발한 모델의 탐지 정확도를 평가하기 위해서 항공기를 이용하여 목포, 군산, 여수 지역의 초분광 영상을 촬영하였으며, 본 연구에서 개발한 탐지 모델에 적용한 결과, 실험 영상 내의 선박들을 90 %의 정확도로 탐지할 수 있는 결과를 얻었다. 본 연구에서 개발된 기술은 소형 선박의 수색·구조 활동을 지원하는 중요한 정보로 활용될 수 있을 것으로 기대한다.

공간분해능 및 민감도 향상을 위한 새로운 감마카메라 설계 (Gamma Camera Design to Improve Spatial Resolution and Sensitivity)

  • 강승훈;이승재
    • 한국방사선학회논문지
    • /
    • 제17권2호
    • /
    • pp.201-206
    • /
    • 2023
  • 감마카메라의 공간분해능을 향상시키기 위해서는 콜리메이터의 구멍 크기를 작게 만들어야 하므로 민감도는 저하된다. 민감도를 향상시키기 위해서는 구멍 크기를 크게 해야 하므로 공간분해능은 저하된다. 즉, 공간분해능과 민감도는 서로 상반된 특성을 보인다. 본 연구에서는 공간분해능과 민감도를 모두 향상시키는 감마카메라를 설계하였다. 동일한 공간분해능을 보이는 감마카메라에서 보다 높은 민감도를 획득하기 위해 섬광체의 구조를 기존시스템과 다르게 설계하였다. 섬광 픽셀을 사용하고, 섬광 픽셀 사이에는 격벽을 위치시켜 입사한 감마선이 다른 섬광 픽셀로 투과되어 상호작용하는 것을 방지하였다. 설계한 감마카메라의 성능을 평가하기 위해 Geant4 Application for Tomographic Emission (GATE) 시뮬레이션을 수행하였다. 동일한 공간분해능을 획득하는 조건의 콜리메이터를 각각 사용하여 기존 감마카메라와 설계한 감마카메라의 민감도를 획득한 결과 각각 0.0026%, 0.0042%로 설계한 감마카메라의 민감도가 61.54% 향상된 결과를 나타내었다. 본 연구에서 설계한 감마카메라를 사용하면 우수한 공간분해능을 확보하면서 민감도를 기존 시스템보다 향상시킬 수 있을 것으로 판단된다.

사후전산화단층촬영의 법의병리학 분야 활용을 위한 조건부 적대적 생성 신경망을 이용한 CT 영상의 해상도 개선: 팬텀 연구 (Enhancing CT Image Quality Using Conditional Generative Adversarial Networks for Applying Post-mortem Computed Tomography in Forensic Pathology: A Phantom Study)

  • 윤예빈;허진행;김예지;조혜진;윤용수
    • 대한방사선기술학회지:방사선기술과학
    • /
    • 제46권4호
    • /
    • pp.315-323
    • /
    • 2023
  • Post-mortem computed tomography (PMCT) is commonly employed in the field of forensic pathology. PMCT was mainly performed using a whole-body scan with a wide field of view (FOV), which lead to a decrease in spatial resolution due to the increased pixel size. This study aims to evaluate the potential for developing a super-resolution model based on conditional generative adversarial networks (CGAN) to enhance the image quality of CT. 1761 low-resolution images were obtained using a whole-body scan with a wide FOV of the head phantom, and 341 high-resolution images were obtained using the appropriate FOV for the head phantom. Of the 150 paired images in the total dataset, which were divided into training set (96 paired images) and validation set (54 paired images). Data augmentation was perform to improve the effectiveness of training by implementing rotations and flips. To evaluate the performance of the proposed model, we used the Peak Signal-to-Noise Ratio (PSNR), Structural Similarity Index Measure (SSIM) and Deep Image Structure and Texture Similarity (DISTS). Obtained the PSNR, SSIM, and DISTS values of the entire image and the Medial orbital wall, the zygomatic arch, and the temporal bone, where fractures often occur during head trauma. The proposed method demonstrated improvements in values of PSNR by 13.14%, SSIM by 13.10% and DISTS by 45.45% when compared to low-resolution images. The image quality of the three areas where fractures commonly occur during head trauma has also improved compared to low-resolution images.

360도 영상에서 다중 객체 추적 결과에 대한 뷰포트 추출 가속화 (Acceleration of Viewport Extraction for Multi-Object Tracking Results in 360-degree Video)

  • 박희수;백석호;이석원;이명진
    • 한국항행학회논문지
    • /
    • 제27권3호
    • /
    • pp.306-313
    • /
    • 2023
  • 실사 및 그래픽 기반 가상현실 콘텐츠는 360도 영상을 기반으로 하며, 시청자의 의도나 자동 추천 기능을 통한 뷰포트 추출이 필수적이다. 본 논문은 360도 영상에서 다중 객체 추적 기반의 뷰포트 추출 시스템을 설계하고, 다중 뷰포트 추출에 필요한 병렬화된 연산 구조를 제안한다. 360도 영상에서 뷰포트 추출 과정을 ERP 좌표의 3D 구 표면 좌표 변환과 3D 구 표면 좌표의 뷰포트 내 2D 좌표 변환 과정을 순서대로 픽셀 단위의 스레드로 구성하여 연산을 병렬화하였다. 제안 구조는 항공 360도 영상 시퀀스들에 대하여 최대 30개의 뷰포트 추출 과정에 대한 연산 시간이 평가되었으며, 뷰포트 수에 정비례하는 CPU 기반 연산 시간에 비해 최대 5240배 가속화됨을 확인하였다. ERP 프레임 I/O 시간을 줄일 수 있는 고속의 I/O나 메모리 버퍼를 사용 시 뷰포트 추출 시간을 7.82배 추가 가속화가 가능하다. 제안하는 뷰포트 추출 병렬화 구조는 360도 비디오나 가상현실 콘텐츠들에 대한 동시 다중 접속 서비스나 사용자별 영상 요약 서비스 등에 활용될 수 있다.

A of Radiation Field with a Developed EPID

  • Y.H. Ji;Lee, D.H.;Lee, D.H.;Y.K. Oh;Kim, Y.J.;C.K. Cho;Kim, M.S.;H.J. Yoo;K.M. Yang
    • 한국의학물리학회:학술대회논문집
    • /
    • 한국의학물리학회 2003년도 제27회 추계학술대회
    • /
    • pp.67-67
    • /
    • 2003
  • It is crucial to minimize setup errors of a cancer treatment machine using a high energy and to perform precise radiation therapy. Usually, port film has been used for verifying errors. The Korea Cancer Center Hospital (KCCH) has manufactured digital electronic portal imaging device (EPID) system to verify treatment machine errors as a Quality Assurance (Q.A) tool. This EPID was consisted of a metal/fluorescent screen, 45$^{\circ}$ mirror, a camera and an image grabber and could display the portal image with near real time KIRAMS has also made the acrylic phantom that has lead line of 1mm width for ligh/radiation field congruence verification and reference points phantom for using as an isocenter on portal image. We acquired portal images of 10$\times$10cm field size with this phantom by EPID and portal film rotating treatment head by 0.3$^{\circ}$, 0.6$^{\circ}$ and 0.9$^{\circ}$. To check field size, we acquired portal images with 18$\times$18cm, 19$\times$19cm and 20$\times$20cm field size with collimator angle 0$^{\circ}$ and 0.5$^{\circ}$ individually. We have performed Flatness comparison by displaying the line intensity from EPID and film images. The 0.6$^{\circ}$ shift of collimator angle was easily observed by edge detection of irradiated field size on EPID image. To the extent of one pixel (0.76mm) difference could be detected. We also have measured field size by finding optimal threshold value, finding isocenter, finding field edge and gauging distance between isocenter and edge. This EPID system could be used as a Q.A tool for checking field size, light/radiation congruence and flatness with a developed video based EPID.

  • PDF