• 제목/요약/키워드: 자동 영상 분할

검색결과 397건 처리시간 0.026초

딥러닝 기반 터널 콘크리트 라이닝 균열 탐지 (Deep learning based crack detection from tunnel cement concrete lining)

  • 배수현;함상우;이임평;이규필;김동규
    • 한국터널지하공간학회 논문집
    • /
    • 제24권6호
    • /
    • pp.583-598
    • /
    • 2022
  • 인력기반 터널 점검은 점검자의 주관적인 판단에 영향을 받으며 지속적인 이력관리가 어렵다. 따라서 최근에는 딥러닝 기반 자동 균열 탐지 연구가 활발히 진행되고 있다. 하지만 대부분의 연구에서는 사용하는 대규모 공개 균열 데이터셋은 터널 내부에서 발생하는 균열과 매우 상이하다. 또한 현행 터널 상태평가에서 정교한 균열 레이블을 구축하기 위해서는 추가적인 작업이 요구된다. 이에 본 연구는 균열 형상이 다소 단순하게 표현된 기존 데이터셋을 딥러닝 모델에 입력하여 균열 탐지 성능을 개선하는 방안을 제시한다. 기존 터널 데이터셋, 고품질 터널 데이터셋과 공개 균열 데이터셋을 조합하여 학습한 딥러닝 모델의 성능 평가와 비교를 수행한다. 그 결과 Cross Entropy 손실함수를 사용한 DeepLabv3+에 공개 데이터셋, 패치 단위 분류와 오버샘플링을 수행한 터널 데이터셋을 모두 학습한 경우 성능이 가장 좋았다. 향후 기 구축된 터널 영상 취득 시스템 데이터를 딥러닝 모델 학습에 효율적으로 활용하기 위한 방안을 수립하는 데 기여할 것으로 기대한다.

다중가우시안혼합모델을 이용한 소동물 심근경색 PET 영상의 정량적 평가 기술 (Quantitative Assessment Technology of Small Animal Myocardial Infarction PET Image Using Gaussian Mixture Model)

  • 우상근;이용진;이원호;김민환;박지애;김진수;김종국;강주현;지영훈;최창운;임상무;김경민
    • 한국의학물리학회지:의학물리
    • /
    • 제22권1호
    • /
    • pp.42-51
    • /
    • 2011
  • 전통적으로 심근 생존능을 식별하고 심근 관류를 정확히 평가하기 위한 도구로 핵의학영상이 이용되고 있으나 경색영역을 정의하기에는 어려움이 있다. 이에 본 연구에서는 극성지도의 분포를 분석하여 특성에 맞는 적응적 임계값을 이용하여 심근경색 모델을 정량적으로 평가하고자 하였다. 쥐 심근경색 모델은 왼쪽 관상동맥을 결찰시켜 제작하였다. 소동물PET 영상은 37 MBq $^{18}F$-FDG를 쥐의 꼬리정맥에 주사한 후 60분 섭취 후 Siemens Inveon SPECT/PET 스캐너를 이용하여 20분 동안 ECG 신호와 함께 획득하였고, OSEM 2D 알고리즘을 이용하여 재구성하였다. PET 영상의 심근 극성지도는 Siemens QGS 소프트웨어에 적합한 형식으로 변환 후 자동으로 심근 벽을 설정하여 작성하였다. 심근경색영역의 기준데이터는 TTC 염색으로 설정하였으며 전체 좌심실대비 염색된 영역의 백분율로 획득하였다. 최적의 임계값 설정을 위해 절대치 설정 방법, Otsu 알고리즘, 다중가우시안혼합모델(Multi Gaussian mixture model, MGMM)을 이용하여 평가하였다. 절대치 설정 방법은 10~90%까지 10%단위로 미리 정의 된 임계값을 이용하였고, Otsu 알고리즘은 영상 내에서 두 군집의 분산을 최대로 하는 임계값으로 설정하였다. MGMM 방법은 영상의 화소 강도를 분석하여 여러 개의 가우시안 분포함수(MGMM2, $\cdots$ MGMM4)로 반복 수행하여 최적의 가우시안 분포를 구하여 적응적 임계값을 설정하였다. 극성지도 평가지표는 각각의 알고리즘에서 측정된 임계값을 이용하여 이진화하고 전체 극성지도와 경색영역의 백분율로 획득한 후, TTC 염색으로 획득된 기준데이터와의 차이를 비교하였다. 그 차이는 절대치 방법의 20%에서 $7.04{\pm}3.44%$, 30%에서 $3.87{\pm}2.09%$, 40%에서 $2.15{\pm}2.07%$이었다. Otsu 방법은 $3.56{\pm}4.16%$이었으며 MGMM 방법은 $2.29{\pm}1.94%$이었다. 소동물 PET 극성지도에서는 30% 임계값이 조직학적 데이터와 비교하여 가장 작은 차이를 보였다. 그러나 TTC 염색으로 측정한 크기가 10% 이하에서는 MGMM 방법이 절대치 방법보다 작은 차이를 보였다(MGMM: 0.006%, 절대치방법: 0.59%). 이 연구에서는 심근경색 모델 평가를 위하여 생체영상 극성지도에서 다중가우시안혼합모델을 이용하여 평가하고자 하였다. MGMM은 사용자의 선택 없이도 자동적으로 영상 특성을 고려하여 적응적 임계값을 찾아주는 방법으로 극성지도에서 심근경색을 평가하는데 도움이 될 것으로 기대된다.

Rule과 Case를 활용한 설계 의사결정 지원 시스템 (Decision Supporting System for Shadow Mask′s Development Using Rule and Case)

  • 김민성;진홍기;정사범;손기목;예병진
    • 한국지능정보시스템학회:학술대회논문집
    • /
    • 한국지능정보시스템학회 2002년도 춘계학술대회 논문집
    • /
    • pp.315-322
    • /
    • 2002
  • 최근에 경험적 지식을 체계화하는 방법으로 사례기반추론(CBR: Case Based Reasoning) 및 규칙기반추론(RBR: Rule Based Reasoning)이 여러 분야에서 이용되고 있다. CBR과 RBR이 각각 활용되기도 하지만 문제 해결의 정확성을 높이기 위해 복합된 형태로 사용되기도 하고, 흑은 효과적으로 문제를 해결하기 위해 문제 해결 단계별로 각각 사용되기도 한다 또한 데이터에서 지식을 추출하기 위한 세부 알고리즘으로는 인공지능과 통계적 분석기법 등이 활발하게 연구 및 적용되고 있다. 본 연구는 모니터의 핵심 부품인 섀도우마스크(Shadow Mask)를 개발하는데 있어 도면 협의부터 설계가지의 과정에 CBR과 RBR을 활용하고 발생되는 데이터를 이용하여 진화(Evolution)하는 지식기반시스템(Knowledge Based System)으로 구축하는 것을 목적으로 하고 있다. 특히 도면 협의시 인터넷상에 웹서버 시스템을 통하여 규격 (User Spec.)을 생성하고 이를 이용하여 자동으로 도면이 설계되도록 하고 저장된 사례들을 공유할 수 있도록 하여 도면 검토 시간이 단축되고 검토의 정확성을 기할 수 있어 실패비용을 감소시켰다. 그리고 실제 설계시 CBR과 RBR을 활용하여 자동설계를 할 수 있게 하였고 현장에서 발생되는 데이터를 지식화하여 유사사례 설계가 가능하도록 하였다. 지식기반시스템은 신속한 도면 검토가 가능하므로 인원 활용이 극대화되고, 섀도우 마스크 설계자와 마스터 패턴 설계자 사이의 원활한 의사소통을 통해 고객과의 신뢰성 확보와 신인도 향상을 기대할 수 있는 효과가 있다. 그리고 고급설계자에게만 의지되어온 것을 어느 정도 해결할 수 있고, 신입설계자에게는 훌륭한 교육시스템이 될 수 있다.한 도구임을 입증하였다는 점에서 큰 의의를 갖는다고 하겠다.운 선용품 판매 및 관련 정보 제공 등 해운 거래를 위한 종합적인 서비스가 제공되어야 한다. 이를 위해, 본문에서는 e-Marketplace의 효율적인 연계 방안에 대해 해운 관련 업종별로 제시하고 있다. 리스트 제공형, 중개형, 협력형, 보완형, 정보 연계형 등이 있는데, 이는 해운 분야에서 사이버 해운 거래가 가지는 문제점들을 보완하고 업종간 협업체제를 이루어 원활한 거래를 유도할 것이다. 그리하여 우리나라가 동북아 지역뿐만 아니라 세계적인 해운 국가 및 물류 ·정보 중심지로 성장할 수 있는 여건을 구축하는데 기여할 것이다. 나타내었다.약 1주일간의 포르말린 고정이 끝난 소장 및 대장을 부위별, 별 종양개수 및 분포를 자동영상분석기(Kontron Co. Ltd., Germany)로 분석하였다. 체의 변화, 장기무게, 사료소비량 및 마리당 종양의 개수에 대한 통계학적 유의성 검증을 위하여 Duncan's t-test로 통계처리 하였고, 종양 발생빈도에 대하여는 Likelihood ration Chi-square test로 유의성을 검증하였다. C57BL/6J-Apc$^{min/+}$계 수컷 이형접합체 형질전환 마우스에 AIN-76A 정제사료만을 투여한 대조군의 대장선종의 발생률은 84%(Group 3; 21/25례)로써 I3C 100ppm 및 300ppm을 투여한 경우에 있어서는 각군 모두 60%(Group 1; 12/20 례, Group 2; 15/25 례)로 감소하는 경향을 나타내었다. 대장선종의 마리당 발생개수에 있어서는 C57BL/6J-Apc$^{min/+}$계 수컷 이형접합체 형질전환 마우스에 AIN-76A 정제사료만을 투여한

  • PDF

저속주행환경에서 컬러비전 기반의 근거리 전방차량추적 (Color Vision Based Close Leading Vehicle Tracking in Stop-and-Go Traffic Condition)

  • 노광현;한민홍
    • 한국정보처리학회논문지
    • /
    • 제7권9호
    • /
    • pp.3037-3047
    • /
    • 2000
  • 본 논문에서는 커러영상처리로 차량 후면에 위치하고 붉은색을 띄는 미등과 브레이크등을 이용하여 저속주행환경에서 근거리 전방차량을 추적하는 방법에 대해 설명한다. HSV 컬러모델로 변환된 컬러영상에서 미등과 브레이크등의 컬러특징을 이용하여 후보영역을 분할한 후, 미등과 브레이크등 패턴의 기하학적 특징과 위치적 특징을 이용하여 한 쌍의 미등 혹은 브레이크등을 탐지한다. 탐지된 등의 위치를 이용하여 전방차량의 위치를 측정하고 연속적으로 추적한다. 또한, 등 영역내의 HSV 컬러요소 변화를 측정하여 전방차량의 브레이크 사용여부를 판단한다. 도심지의 도로영상을 이용한 실험에서 성공적으로 근거리 전방차량을 추적할 수 있었으며, 주간보다 야간에서 효과적으로 적용될 수 있었다. 또한 본 알고리즘이 구현된 컬러비전시스템을 무인자동차 KAV-III(Korea Autonomous Vehicle-III)에 탑재하여 야간에 자동으로 전방차량을 15km/h의 속도로 따라갈 수 있는 결과를 얻었다. 이 방법은 도심지에서 가다서다를 반복하는 저속주행환경에서 차량 스스로 운전하여 운전자의 부담을 줄일 수 있는 LSA(Low Speed Automation)시스템 개발에 적용될 수 있을 것이다.

  • PDF

MPEG-2 비트열로부터 객체 기반 MPEG-4 응용을 위한 고속 정보 추출 알고리즘 (Fast information extraction algorithm for object-based MPEG-4 application from MPEG-2 bit-streamaper)

  • 양종호;원치선
    • 한국통신학회논문지
    • /
    • 제26권12A호
    • /
    • pp.2109-2119
    • /
    • 2001
  • 본 논문에서는 MPEG-2 비트열로부터 객체 기반 MPEG-4로의 고속 변환을 위한 정보 추출 알고리즘을 소개한다. 객체 기반 MPEG-4로의 변환을 위한 정보로써 객체 영상과 형상 정보, 매크로블록 움직임 벡터, 헤더정보가 MPEG-2로부터 추출된다. 추출된 정보를 이용하면 객체 기반 MPEG-4로의 고속 변환이 가능하다. 가장 중요한 정보인 객체 영상 추출은 MPEG-2의 움직임 벡터와 워터쉐드 알고리즘을 이용하여 이루어진다. 사용자의 인지정보를 이용하여 프레임 내에서 객체를 추출하고, 추출된 객체로 연속된 프레임에서 객체를 추적하게 된다. 수행 중 객체의 빠른 움직임으로 만족스럽지 못한 결과를 내더라도, 사용자가 개입하여 다시 좋은 결과를 얻을 수 있도록 하였다. 객체 추적 과정은 크게 두 단계로 객체 추출 단계와 객체 추적 단계로 나누어져 있다. 객체 추출 단계는 블록분류와 워터쉐드 알고리즘으로 자동 분할된 영상에서 사용자가 직접 객체를 추출하는 단계이다. 사용자가 개입하는 단계이기 때문에, 번거로울 수 있으나 손쉽게 추출할 수 있도록 구현하였다. 객체 추적 단계는 연속된 프레임 에서 객체를 추적하는 단계로 MPEG-2 움직임 벡터와 객체 모양 정보를 이용하여 고속으로 구해지고 워터쉐드 알고리즘으로 윤곽선 보정작업을 하였다. 실험 결과 MPEG-2 비트스트림으로부터 객체 기반 MPEG-4로의 고속변환이 가능함을 알 수 있었다.

  • PDF

MPEG-1,2로부터 객체 기반 MPEG-4 변환을 위한 고속 정보 추출 알고리즘 (Fast information extraction algorithm for object-based MPEG-4 conversion from MPEG-1,2)

  • 양종호;박성욱
    • 전자공학회논문지CI
    • /
    • 제41권3호
    • /
    • pp.91-102
    • /
    • 2004
  • 본 논문에서는 MPEG-1,2로부터 객체 기반 MPEG-4로의 고속 변환을 위한 정보 추출 알고리즘을 소개한다. 객체 기반 MPEG-4로의 변환을 위한 정보로써 객체 영상과 형상 정보, 매크로블록 움직임 벡터, 헤더정보가 MPEG-4로부터 추출된다. 추출된 정보를 이용하면 객체 기반 MPEG-4로의 고속 변환이 가능하다. 가장 중요한 정보인 객체 영상 추출은 MPEG-2의 움직임 벡터와 워터쉐드 알고리즘을 이용하여 이루어진다. 사용자의 인지정보를 이용하여 프레임 내에서 객체를 추출하고, 추출된 객체로 연속된 프레임에서 객체를 추적하게 된다. 수행 중 객체의 빠른 움직임으로 만족스럽지 못한 결과를 내더라도, 사용자가 개입하여 다시 좋은 결과를 얻을 수 있도록 하였다. 객체 추적 과정은 크게 두 단계로 객체 추출 단계와 객체 추적 단계로 나누어져 있다. 객체 추출 단계는 블록분류와 워터쉐드 알고리즘으로 자동 분할된 영상에서 사용자가 직접 객체를 추출하는 단계이다. 사용자가 개입하는 단계이기 때문에, 번거로울 수 있으나 손쉽게 추출할 수 있도록 구현하였다 객체 추적 단계는 연속된 프레임에서 객체를 추적하는 단계로, MPEG-1,2 움직임 벡터와 객체 모양 정보를 이용하여 고속으로 구해지고 워터쉐드 알고리즘으로 윤곽선 보정작업을 하였다 실험 결과 MPEG-1,2 비트스트림으로부터 객체 기반 MPEC-4로의 고속 변환이 가능함을 알 수 있었다.

간 이식편의 체적 예측을 위한 2점 이용 간 분리 (Liver Splitting Using 2 Points for Liver Graft Volumetry)

  • 서정주;박종원
    • 정보처리학회논문지B
    • /
    • 제19B권2호
    • /
    • pp.123-126
    • /
    • 2012
  • 본 논문은 생체간이식 전에 복부 MDCT(Multi-Detector Computed Tomography) 영상에서 간 이식편의 체적을 간단하고 정확하게 계산하기 위하여 좌간과 우간을 나누는 방법을 제안하였다. 본 알고리즘은 기증자와 수혜자의 안전을 보장하기 위하여 시스템과 의료진의 상호작업을 최소화 하여 의료진이 수술 전 이식편의 판단을 정확하게 처리할 수 있도록 하였다. 간이 추출된 영상에 좌간과 우간을 나눌 수 있는 2점(중간 정맥(MHV: Middle Hepatic Vein) 내부의 한 점과 좌우문맥(PV: Portal Vein) 분지부에서 한 점)을 선택한다. 선택된 중간정맥 내부의 점을 이용하여 중간정맥을 자동 인식한 후 중간정맥을 기준으로 절개선을 결정하여 문맥 분지부의 한 점을 연결하는 절개면을 형성한다. 좌간과 우간의 체적과 간 전체에 대한 좌우간의 비율을 계산한다. 계산된 체적의 정확성을 입증하기 위해 진단 방사선과 의사가 수동으로 처리하여 계산한 체적과 함께 수술 중 획득한 실측무게와 비교하였다. 실측무게와 수동으로 예측된 체적 사이의 오차에 대한 평균${\pm}$표준편차는 $162.38cm^3{\pm}124.39$이고, 실측무게와 2점을 이용하여 예측된 체적과의 오차에 대한 평균${\pm}$표준편차는 $107.69cm^3{\pm}97.24$이다. 실측무게와 수동으로 예측된 체적의 상관관계는 0.79이고, 실측무게와 2점을 이용하여 예측된 체적의 상관관계는 0.87이다. 그리고 2점을 선택한 후 좌우간을 분할하여 체적을 계산하는 시간을 측정하여 수술실에서 실시간으로 처리 가능한지의 여부를 확인하였다. 한 데이터세트($149.17pages{\pm}55.92$) 당 처리 시간의 평균${\pm}$표준편차는 $57.28sec{\pm}32.81$이다.

<한국어 립씽크를 위한 3D 디자인 시스템 연구> ()

  • 신동선;정진오
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 2부
    • /
    • pp.362-369
    • /
    • 2006
  • 3 차원 그래픽스에 적용하는 한국어 립씽크 합성 체계를 연구하여, 말소리에 대응하는 자연스러운 립씽크를 자동적으로 생성하도록 하는 디자인 시스템을 연구 개발하였다. 페이셜애니메이션은 크게 나누어 감정 표현, 즉 표정의 애니메이션과 대화 시 입술 모양의 변화를 중심으로 하는 대화 애니메이션 부분으로 구분할 수 있다. 표정 애니메이션의 경우 약간의 문화적 차이를 제외한다면 거의 세계 공통의 보편적인 요소들로 이루어지는 반면 대화 애니메이션의 경우는 언어에 따른 차이를 고려해야 한다. 이와 같은 문제로 인해 영어권 및 일본어 권에서 제안되는 음성에 따른 립싱크 합성방법을 한국어에 그대로 적용하면 청각 정보와 시각 정보의 부조화로 인해 지각의 왜곡을 일으킬 수 있다. 본 연구에서는 이와 같은 문제점을 해결하기 위해 표기된 텍스트를 한국어 발음열로 변환, HMM 알고리듬을 이용한 입력 음성의 시분할, 한국어 음소에 따른 얼굴특징점의 3 차원 움직임을 정의하는 과정을 거쳐 텍스트와 음성를 통해 3 차원 대화 애니메이션을 생성하는 한국어 립싱크합성 시스템을 개발 실제 캐릭터 디자인과정에 적용하도록 하였다. 또한 본 연구는 즉시 적용이 가능한 3 차원 캐릭터 애니메이션뿐만 아니라 아바타를 활용한 동적 인터페이스의 요소기술로서 사용될 수 있는 선행연구이기도 하다. 즉 3 차원 그래픽스 기술을 활용하는 영상디자인 분야와 HCI 에 적용할 수 있는 양면적 특성을 지니고 있다. 휴먼 커뮤니케이션은 언어적 대화 커뮤니케이션과 시각적 표정 커뮤니케이션으로 이루어진다. 즉 페이셜애니메이션의 적용은 보다 인간적인 휴먼 커뮤니케이션의 양상을 지니고 있다. 결국 인간적인 상호작용성이 강조되고, 보다 편한 인간적 대화 방식의 휴먼 인터페이스로 그 미래적 양상이 변화할 것으로 예측되는 아바타를 활용한 인터페이스 디자인과 가상현실 분야에 보다 폭넓게 활용될 수 있다.

  • PDF

만화책 형식 동작 데이터 시각화 (Visualizing Motion Data as Sequential Images in Comic Book Layout)

  • 이강훈
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제15권4호
    • /
    • pp.31-40
    • /
    • 2009
  • 오늘날 실제 사람의 움직임을 촬영하여 얻은 동작 데이터는 영화제작, 게임 개발, 재활의학, 스포츠 분석 등의 다양한 분야에서 활용되고 있다. 시간에 따라 변화하는 일련의 자세로 이루어진 동작 데이터는 그 내용을 신속하고 정확하게 파악하는 것이 쉽지 않다. 이는 특히 많은 양의 동작데이터를 관리하고 원하는 동작을 찾고자 할 때 장애가 되곤 한다. 널리 사용되는 한 가지 방법은 동영상을 재생하듯이 관찰 시점을 진전시키는 동시에 3차원 공간상의 시야를 조절하는 것이다. 하지만 이 방식은 시점과 시야의 두 요소를 함께 고려하면서 데이터의 길이에 비례하는 시간 동안 지속적인 상호작용을 수행하여야 하는 번거로움을 야기한다. 본 논문은 동작 데이터를 분석하여 일련의 효과적인 관찰 시점 및 시야를 자동으로 찾아내고, 이로부터 생성된 이미지 시퀀스를 만화책 레이아웃 형식으로 배치하는 새로운 시각화 방법을 제안한다. 사용자는 만화책을 읽는 것처럼 바르게 전체 흐름을 파악할 수 있고, 원하는 동작이 등장하는 부분을 쉽게 찾아낼 수 있다. 이동, 권투, 환경과의 상호작용 등 여러 종류의 동작 데이터를 만화책 형식으로 시각화한 결과를 보임으로써 제안된 방법의 유용성을 확인하였다.

  • PDF

워터쉐드와 U-net을 이용한 마네킹 패션 이미지의 자동 3D 데이터 추출 방법 (Automatic 3D data extraction method of fashion image with mannequin using watershed and U-net)

  • 박영민
    • 문화기술의 융합
    • /
    • 제9권3호
    • /
    • pp.825-834
    • /
    • 2023
  • 인터넷 쇼핑에서 상품의 사진과 동영상을 대체해 3D콘텐츠와 웹 3D 소프트웨어로 사용자에게 친숙한 이미지를 제공하려는 시도가 이어지고 있다 본 연구에서는 2D 이미지를 3D로 변환하여 고객들이 다양한 위치에서 상품을 파악할 수 있는 웹 3D 기술에 접목시키고 변환에 필요한 비용과 계산 시간을 줄일 수 있는 자동 변환기술을 제안하였다. 단 8대의 카메라 만을 사용하여 마네킹을 회전하는 턴테이블 위에 올려 놓고 촬영하는 시스템을 개발하였다. 이러한 시스템에서 촬영한 이미지에서 옷 부분만 추출하기 위해 U-net을 이용하여 마커를 제거하고, 배경 영역과 마네킹 영역의 컬러 특징 정보를 파악하여 옷 영역만을 추출하는 알고리즘을 제안하였다. 이 알고리즘을 이용하면 이미지를 촬영한 후 옷 영역만을 추출하는데 걸리는 시간이 이미지 하나당 2.25초며, 한 개의 옷에 대해 64장의 이미지를 촬영하는 경우에 총 144초(2분 4초)가 소요되어 매우 우수한 성능으로 3D오브젝트를 추출할 수 있다.