• 제목/요약/키워드: Image Merge

검색결과 109건 처리시간 0.023초

Watersheds 기반 계층적 이진화를 이용한 단백질 반점 분할 알고리즘 (The Algorithm of Protein Spots Segmentation using Watersheds-based Hierarchical Threshold)

  • 김영호;김정자;김대현;원용관
    • 정보처리학회논문지B
    • /
    • 제12B권3호
    • /
    • pp.239-246
    • /
    • 2005
  • 생물학자가 단백질을 검색하고 분석하기 위해서는 2차원 젤 전기영동(2DGE : Two Dimensional Gel Electrophoresis) 실험을 해야 한다. 실험 결과는 2차원 영상이 생성된다. 2차원 영상에서 단백질 반점의 패턴 분석을 위해 2차원 젤 영상에 펼쳐진 단백질 반점들을 영상처리를 통해 분할하고, 대조 그룹의 단백질 패턴과 비교분석을 통해 밝히고자하는 단백질 반점을 찾아내야 한다. 단백질 반점을 분할하는 알고리즘에 있어서 기존에는 가우시안 함수를 적용하였지만, 최근 들어 형태학 분리개념에 의한 Watersheds 영역기반 분할(Watersheds region-based segmentation) 알고리즘을 활용하고 있다. 그러나 Watersheds 영역기반 분할 알고리즘은 크기가 큰 영상에서 원하는 영역을 신속하게 분할한다는 장점이 있지만, 영상 화소의 그레이 값이 연속적인 경우 실제 반점의 개수 에 비해 과다분할(over-segmentation)되거나 과소분할(under-segmentation)의 문제점을 안고 있다. 이는 마커(marker) 포인트의 설정에 의해 어느 정도 해결할 수 있지만 병합(merge)과 분할(split) 과정을 반복해야 한다. 본 논문은 Watersheds 기반 계층적 이진화 기법을 적용하여 마커 드리븐 Watersheds 영상분할의 문제점을 해결하고자 한다.

해리스 코너 검출기를 이용한 배경 영상에서의 문자 검출 (Character Detection in Complex Scene Image using Harris Corner Detector)

  • 김민하;김미경;차의영
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2013년도 추계학술대회
    • /
    • pp.97-100
    • /
    • 2013
  • 본 논문은 복잡한 배경 영상에서 필기체가 아닌 수평, 수직 성분이 많이 포함된 문자 검출 방법을 제안한다. 본 논문에서 검출하고자 하는 문자는 코너 성분이 많이 밀집되어 있으며 배경 영상은 그에 비해 코너 성분이 적고 드문드문하다는 특징을 이용하여 먼저 해리스 코너 검출기를 이용하여 전체 영상에서 코너를 검출한다. 검출된 코너들의 위치 정보를 이용해 밀집되어 있는 코너들을 클러스터링 함으로써 문자 영역을 검출한다. 검출된 문자 영역간의 위치 정보와 히스토그램 분포를 비교하여 비슷한 특징을 갖는 영역들을 합치고 문자 성분의 특징을 갖지 않는 영역은 필터링 하여 문자 영역을 개선한다. 문자 영역에서 R채널, G채널, B채널 각각의 채널에 대한 히스토그램 분포를 분석하여 문자를 검출한다.

  • PDF

SOM과 grassfire 기법을 이용한 효율적인 컬러 영상 분할 (Efficient Color Image Segmentation using SOM and Grassfire Algorithm)

  • 황영철;차의영
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2008년도 지능정보 및 응용 학술대회
    • /
    • pp.142-145
    • /
    • 2008
  • 본 논문에서는 self-organizing map(SOM)과 grassfire 기법을 이용한 계산 효율적인 컬러 영상 분할 방법을 제안한다. SOM에서 출력 뉴런 수를 축소하고 학습에 사용하는 입력 데이터를 줄임으로써 실행 시간을 단축 시켰다. 입력 영상을 CIE $L^*u^*v^*$ 컬러 공간으로 변환하고 3개의 입력 뉴런과 $4{\times}4$ 또는 $3{\times}3$ 출력 뉴런 구조의 SOM을 이용해 학습한다. 학습 완료 후 입력 영상의 픽셀에 대응하는 출력 값을 구하고 grassfire 기법을 이용해 지역적으로 인접하고 출력 값이 동일한 픽셀들을 하나의 영역으로 결합한다. 다양한 영상을 이용한 실험을 통해 제안한 방법이 컬러 영상 분할에서 기존의 방법에 비해 좋은 결과를 얻을 수 있음을 확인하였다.

  • PDF

유전자 알고리즘을 이용한 반자동 영상분할 시스템 개발 (Semi-automation Image segmentation system development of using genetic algorithm)

  • 임혁순;박상성;장동식
    • 한국컴퓨터정보학회논문지
    • /
    • 제11권4호
    • /
    • pp.283-289
    • /
    • 2006
  • 현재 영상분할은 사용자가 원하는 영상을 분할하고, 분할된 객체에 다른 영상을 합성하는 기술에 대해 많은 연구가 진행되어왔다. 본 논문에서는 점진적 영역병합과 유전자 알고리즘을 이용하여 새로운 반자동 영상 분할방법을 제안하였다. 제안된 알고리즘은 사용자가 원하는 객체를 선정한 후, 유전자 알고리즘을 이용해 객체의 경계를 검색한다. 검색된 경계를 기반으로 분수령 알고리즘을 이용하여 사용자가 원하는 객체의 영역을 분할하였다. 분할된 객체에서 불명확한 영역들을 점진적 영역 병합으로 배경과 객체를 분리하였다. 그리고, 알고리즘 개발을 효과적으로 수행하기 위해 GUI기반의 인터페이스를 만들어 사용자가 원하는 값을 적용할 수 있게 하였다. 실험에서는 제한된 방법의 우수성 입증을 위하여 다양한 영상을 분석하였다.

  • PDF

IKONOS 영상을 활용한 IHS, FIHS, PCA, BT, WT 영상 융합법의 비교분석 (A Comparative Analysis of IHS, FIHS, PCA, BT and WT Image Fusion Methods Using IKONOS Image Data)

  • 김현;유재호;김중곤;서용수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2009년도 춘계학술대회
    • /
    • pp.599-602
    • /
    • 2009
  • 본 논문에서는 IKONOS 영상에서 고공간 해상도인 PAN 영상과 저공간 해상도인 MS 영상을 사용하여 IHS 융합법, FIHS 융합법, PCA 융합법, BT 융합법, WT 융합법으로 각각 처리한 후, 그 결과를 공간해상도 및 분광특성의 측면에서 비교 분석하였다. 이 5가지 방법에 의한 융합결과를 분광특성의 측면에서 평가한 결과 FIHS, BT, PCA, IHS, WT 융합법 순으로 칼라왜곡이 나타났다. 공간특성의 측면에서 평가한 결과는 거의 동일한 공간해상도를 나타내었으며, Original IKONOS 위성영상에서는 식별하기 어려운 건물지붕의 형태, 건물사이의 도로 등이 명확히 잘 구별되고 있다. 정량적 결과분석에서는 평균, 표준 편차, 상관계수 등을 사용하여 비교하였다.

  • PDF

객체기반 분류기법을 이용한 UAV 영상의 토지피복도 제작 연구 (A Study on Land Cover Map of UAV Imagery using an Object-based Classification Method)

  • 신지선;이태호;정필모;권혁수
    • 대한공간정보학회지
    • /
    • 제23권4호
    • /
    • pp.25-33
    • /
    • 2015
  • 생태계 평가 연구는 대부분 토지피복 정보를 기반으로 하여 연구되며, 주로 전지구적인 범위로 이루어져 왔다. 그러나 이러한 결과들을 지역적 현안에 대한 의사결정 자료로 활용하기에는 범위와 스케일에 있어서 활용성이 떨어지는 측면이 있다. 지역적 스케일에 활용 가능한 토지피복 정보로는 환경부에서 제작된 토지피복도가 있지만 시각판독법(On Screen Digitizing Method)의 한계와 시기별, 지역별 차이로 인해 자료 활용에 제한이 있다. 본 연구는 객체기반 분류기법을 이용하여 UAV 영상의 중분류 토지피복도를 제작하는데 목적이 있다. 이를 위하여 고해상도 UAV 영상을 5m 공간해상도로 재배열한 후 영상분할을 수행한 결과 scale 20, merge 34가 최적의 가중치 값으로 나타났으며, RapidEye 영상 분할에서는 scale 30, merge 30이 중분류 수준에 적절한 가중치 값으로 나타났다. 토지피복도는 예제기반분류를 사용하여 제작하였고, 층화추출법을 사용하여 정확도 검증을 수행하였다. 그 결과, RapidEye 분류 영상은 90%, UAV 분류 영상은 91%로 양호한 토지피복분류 결과가 도출되었다.

제재목 화상입력시스템의 최적 화상병합 조건 구명 (Optimization of Image Merging Conditions for Lumber Scanning System)

  • 김광모;김병남;심국보
    • Journal of the Korean Wood Science and Technology
    • /
    • 제38권6호
    • /
    • pp.498-506
    • /
    • 2010
  • 국산 침엽수재를 고부가가치의 구조부재로 활용하기 위해서는 국내 기준에 적합한 등급구분 체계가 갖춰져야 한다. 김 등(2009a, b)의 연구에서는 목재의 생산 및 유통규모가 작은 국내 현실에서 제재목 등급구분의 자동화 및 기계화를 목적으로 화상처리시스템을 개발하였다. 본 연구에서는 이전 연구에서 개발한 화상처리시스템의 핵심 기술 중 하나인 화상입력시스템의 성능을 향상시키기 위하여 최적 화상병합 조건을 구명하고자 하였다. 연구 결과 국산 낙엽송 $180{\time}120$ mm 부재의 화상을 병합하는 데 있어서 획득된 화상의 green채널 정보를 병합 에 이용하는 것이 가장 높은 병합정확성을 얻을 수 있었다. 입력된 화상의 전처리 과정으로 Y-derivative Sharr's kernel 필터를 적용함으로써 화상병합 성능을 향상시킬 수 있었으나, 카메라 보정에 의한 효과는 미미 하였다. 또한 화상병합을 위한 최적 템플릿 크기는 폭 30 pixel ${\time}$ 높이 150 pixel로 확인되었다. 이상의 조건을 적용하였을 때, 병합된 화상의 길이오차는 평균 3.1 mm, 연산시간은 평균 9.7초로 나타났다.

증강현실 모니터링 기술의 의료융합 (AR monitoring technology for medical convergence)

  • 이경숙;임원봉;문영래
    • 한국융합학회논문지
    • /
    • 제9권2호
    • /
    • pp.119-124
    • /
    • 2018
  • 증강현실 기술은 사용자의 시각에 가상의 영상 정보를 결합하여 다양한 영상 정보를 동시에 취득할 수 있게 한다. 이러한 증강현실 기술은 최근 의료융합을 통해 이미지 가이드 수술(Image-Guide Operation), 수술 교육 훈련, 영상 진단 분야에서 수술 및 진단 시 환자의 장기나 조직들을 구분하여 가시화하고 가장 효과적인 수술 방법을 제시 할 수 있다. 이에 본 논문을 통해 증강현실 기술의 의료 융합을 위한 각 요소 기술의 기술적 특징과 적용 방안 등을 고찰하고자 하였다. 의료융합을 위한 증강현실 기술에서는 효율적인 의료 영상의 구현을 위해 디스플레이, 마커인식 그리고 영상합성 인터페이스 기술의 유기적인 구동이 필수적이다. 이러한 증강현실 기술은 향후, 이미지 가이드 수술, 수술 교육 및 영상 진단 등의 분야에서 현재의 의료 기술을 획기적으로 증진시킬 수 있는 방안이 될 수 있으리라 여겨진다.

제재목 화상입력시스템의 화상병합 성능 검증 (The Verification of Image Merging for Lumber Scanning System)

  • 김병남;김광모;심국보;이형우;심상로
    • Journal of the Korean Wood Science and Technology
    • /
    • 제37권6호
    • /
    • pp.556-565
    • /
    • 2009
  • 제재목 육안등급판정 자동화시스템은 정확한 입력 화상이 요구된다. 이송 중인 재장 3.6 m의 국내산 소나무의 제재목 화상을 생성시키기 위해서 영역카메라를 이용하여 부분 화상을 획득하였고 2종류의 템플릿 위치지정법과 6가지의 템플릿 크기 조건을 적용하여 병합하였다. 특징영역 추출법이 템플릿 고정법에 비해 병합 성능이 우수하였다. 길이오차의 발생 요인은 명도차이, 특정 패턴, 템플릿 크기 등에 의한 유사도 하락에 있었다. 부정합은 길이가 길고 반복적인 목리에서 주로 발생하였다. 템플릿 크기는 6가지 템플릿 종류 중에 크기가 가장 작은 $100{\times}100$ 화소가 가장 병합 성능이 우수하였다. 병합 성능을 향상시키기 위해서는 정밀한 템플릿의 크기 선정과 명도 차이를 감소시킬 수 있는 화상병합 전처리에 대한 연구가 요구된다.

어안 워핑 이미지 기반의 Ego motion을 이용한 위치 인식 알고리즘 (Localization using Ego Motion based on Fisheye Warping Image)

  • 최윤원;최경식;최정원;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제20권1호
    • /
    • pp.70-77
    • /
    • 2014
  • This paper proposes a novel localization algorithm based on ego-motion which used Lucas-Kanade Optical Flow and warping image obtained through fish-eye lenses mounted on the robots. The omnidirectional image sensor is a desirable sensor for real-time view-based recognition of a robot because the all information around the robot can be obtained simultaneously. The preprocessing (distortion correction, image merge, etc.) of the omnidirectional image which obtained by camera using reflect in mirror or by connection of multiple camera images is essential because it is difficult to obtain information from the original image. The core of the proposed algorithm may be summarized as follows: First, we capture instantaneous $360^{\circ}$ panoramic images around a robot through fish-eye lenses which are mounted in the bottom direction. Second, we extract motion vectors using Lucas-Kanade Optical Flow in preprocessed image. Third, we estimate the robot position and angle using ego-motion method which used direction of vector and vanishing point obtained by RANSAC. We confirmed the reliability of localization algorithm using ego-motion based on fisheye warping image through comparison between results (position and angle) of the experiment obtained using the proposed algorithm and results of the experiment measured from Global Vision Localization System.