Acknowledgement
본 논문은 4단계 BK21 사업(금오공과대학교 IT융복합공학과)에 의하여 지원되었으며, 중소벤처기업부에서 지원하는 2022년도 산학연 플랫폼 협력기술개발사업 (S3310765)의 연구수행으로 인한 결과물임을 밝힙니다.
For the early identification and treatment of colorectal cancer, accurate polyp segmentation is crucial. However, polyp segmentation is a challenging task, and the majority of current approaches struggle with two issues. First, the position, size, and shape of each individual polyp varies greatly (intra-class inconsistency). Second, there is a significant degree of similarity between polyps and their surroundings under certain circumstances, such as motion blur and light reflection (inter-class indistinction). U-net, which is composed of convolutional neural networks as encoder and decoder, is considered as a standard for tackling this task. We propose an updated U-net architecture replacing the encoder part with vision transformer network for polyp segmentation. The proposed architecture performed better than the standard U-net architecture for the task of polyp segmentation.
대장암의 조기 발견과 치료를 위해서는 정확한 폴립의 분할이 중요하나 다음과 같은 제약이 따른다. 개별 폴립의 위치, 크기 및 모양이 서로 상이하며, 모션 흐림 및 빛 반사와 같은 특정 상황에서 폴립과 주변 환경 간에 상당한 정도의 유사성이 존재한다. 인코더와 디코더 역할을 하는 Convolutional Neural Networks로 구성된 U-net은 이러한 한계를 극복하기 위해 다양하게 사용된다. 본 연구는 보다 정확한 폴립 분할을 위한 비전트랜스포머가 포함된 U-net 아키텍처를 제안하였고, 그 결과 제안된 방식은 표준 U-net 아키텍처보다 더 나은 성능을 보였음을 확인할 수 있었다.
본 논문은 4단계 BK21 사업(금오공과대학교 IT융복합공학과)에 의하여 지원되었으며, 중소벤처기업부에서 지원하는 2022년도 산학연 플랫폼 협력기술개발사업 (S3310765)의 연구수행으로 인한 결과물임을 밝힙니다.