• 제목/요약/키워드: 2D 투영 변환

검색결과 42건 처리시간 0.026초

볼록 집합 투영 기법을 이용한 3D 메쉬 워터마킹 (3D Mesh Watermarking Using Projection onto Convex Sets)

  • 이석환;권성근;권기룡
    • 전자공학회논문지CI
    • /
    • 제43권2호
    • /
    • pp.81-92
    • /
    • 2006
  • 본 논문에서는 3D 메쉬 모델에 대한 POCS 기반의 워터마킹 방법을 제안하였다. 제안한 방법에서는 워터마킹 시스템의 조건들 중 견고성 및 비가시성에 대한 볼록 집합을 설계한 후 3D 메쉬 모델의 꼭지점들을 이 두 집합들로 수렴 조건을 만족할 때 까지 반복 교대 투영한다. 견고성 제약 조건 집합은 각 꼭지점의 거리 분포에 워터마크를 삽입하는 방법에 의하여 정의되며, 비가시성 제약 조건 집합은 꼭지점 좌표의 변화량에 의하여 정의된다. 실험 결과로부터 제안한 방법이 좌표 변환, 스케일링, 메쉬 간단화, 절단, 및 꼭지점 잡음 첨가 등의 공격에 대한 우수한 견고성 및 비가시성을 확인하였다.

이미지 검색을 위한 색상 성분 분석 (Color Component Analysis For Image Retrieval)

  • 최영관;최철;박장춘
    • 정보처리학회논문지B
    • /
    • 제11B권4호
    • /
    • pp.403-410
    • /
    • 2004
  • 최근 의료 영상 분석(Medical Image Analysis)이나 영상 검색(Image Retrieval)을 위한 전처리(Preprocessing) 단계로 영상 분석(Image Analysis)에 대한 연구가 활발히 진행되고 있다. 본 논문에서는 영상 검색에서 색상 성분(Color Component)의 활용 방법을 제안하고자 한다. 이미지를 검색하기 위해 색상 성분을 기반으로 하고, 색상(Color)을 분석하기 위한 기법으로 CLCM(Color Level Co-occurrence Matrix)과 통계적 기법을 이용하고 있다. CLCM은 기하학적 회전 변환(Geometric Rotate Transform)을 통해서 색상 성분을 3차원 공간상에 투영(Projection)하여 공간 관계(Spatial Relationship)로부터 나타나는 분포를 해석하는 방법으로, 본 논문에서 제안하는 주제이다. CLCM은 색상 모델에서 만들어지는 2차원 히스토그램을 지칭하며 색상 모델의 기하학적인 회전 변환을 통해서 생성된다. 그리고 이를 분석하기 위한 방법으로 통계 기법을 활용하고 있다. CLCM과 유사하게 2차원 분포도를 사용하는 GLCM(Gray Level Co-occurrence Matrix)[1]과 불변 모멘트(Invariant Moment)[2,3] 같은 알고리즘은 2차원적인 데이터를 해석하기 위하여 기본적인 통계 기법을 활용하고 있다. 하지만 GLCM과 불변 모멘트가 각각의 도메인에 최적화되어 있다 하더라도 공간 좌표상에 존재하는 불규칙적인 데이터를 완전히 해석할 수는 없다. 즉 GLCM과 불변 모멘트는 기초 통계 기법만을 사용하고 있기 때문에 추출된 특징들의 신뢰성이 낮다는 것이다. 본 논문에서는 이러한 단점을 보완하여 공간 관계를 해석함과 동시에 데이터의 가중치를 해석하기 위해 전형적인 다변량 통계에서 사용하는 주성분 분석(Principal Component Analysis)[4,5]을 이용하고 있다. 그리고 데이터의 정확도를 높이기 위해서 3차원 공간상에 색상 성분을 투영하여 이를 회전시키면서 데이터의 특성을 다각도에서 추출하는 방법을 제시한다.

UV-map 기반의 신경망 학습을 이용한 조립 설명서에서의 부품의 자세 추정 (UV Mapping Based Pose Estimation of Furniture Parts in Assembly Manuals)

  • 강이삭;조남익
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2020년도 하계학술대회
    • /
    • pp.667-670
    • /
    • 2020
  • 최근에는 증강현실, 로봇공학 등의 분야에서 객체의 위치 검출 이외에도, 객체의 자세에 대한 추정이 요구되고 있다. 객체의 자세 정보가 포함된 데이터셋은 위치 정보만 포함된 데이터셋에 비하여 상대적으로 매우 적기 때문에 인공 신경망 구조를 활용하기 어려운 측면이 있으나, 최근에 들어서는 기계학습 기반의 자세 추정 알고리즘들이 여럿 등장하고 있다. 본 논문에서는 이 가운데 Dense 6d Pose Object detector (DPOD) [11]의 구조를 기반으로 하여 가구의 조립 설명서에 그려진 가구 부품들의 자세를 추정하고자 한다. DPOD [11]는 입력으로 RGB 영상을 받으며, 해당 영상에서 자세를 추정하고자 하는 객체의 영역에 해당하는 픽셀들을 추정하고, 객체의 영역에 해당되는 각 픽셀에서 해당 객체의 3D 모델의 UV map 값을 추정한다. 이렇게 픽셀 개수만큼의 2D - 3D 대응이 생성된 이후에는, RANSAC과 PnP 알고리즘을 통해 RGB 영상에서의 객체와 객체의 3D 모델 간의 변환 관계 행렬이 구해지게 된다. 본 논문에서는 사전에 정해진 24개의 자세 후보들을 기반으로 가구 부품의 3D 모델을 2D에 투영한 RGB 영상들로 인공 신경망을 학습하였으며, 평가 시에는 실제 조립 설명서에서의 가구 부품의 자세를 추정하였다. 실험 결과 IKEA의 Stefan 의자 조립 설명서에 대하여 100%의 ADD score를 얻었으며, 추정 자세가 자세 후보군 중 정답 자세에 가장 근접한 경우를 정답으로 평가했을 때 100%의 정답률을 얻었다. 제안하는 신경망을 사용하였을 때, 가구 조립 설명서에서 가구 부품의 위치를 찾는 객체 검출기(object detection network)와, 각 개체의 종류를 구분하는 객체 리트리벌 네트워크(retrieval network)를 함께 사용하여 최종적으로 가구 부품의 자세를 추정할 수 있다.

  • PDF

두 개의 공면점을 활용한 타원물체의 3차원 위치 및 자세 추정 (3-D Pose Estimation of an Elliptic Object Using Two Coplanar Points)

  • 김헌희;박광현;하윤수
    • 전자공학회논문지SC
    • /
    • 제49권4호
    • /
    • pp.23-35
    • /
    • 2012
  • 본 논문은 3차원 공간상에 존재하는 타원형 물체의 위치 및 자세 추정 기법을 다룬다. 영상에 투영된 타원특징을 해석하여 원래의 타원에 대한 3차원 자세정보를 구하는 것은 어려운 문제이다. 본 논문은 타원특징의 3차원 정보를 추출하기 위하여, 두개의 공면점을 도입한 위치 및 자세 추정 알고리즘을 제안한다. 제안된 방법은 모델과 영상좌표계에서 각각 정의되는 타원-공면점에 대한 대응쌍이 주어질 때 두 좌표계에 대한 동차변환행렬의 유일해를 결정한다. 타원-공면점은 폴라리티를 기반으로 원근변환에 불변하는 한 쌍의 삼각특징으로 변환되며, 삼각특징들로부터 평면 호모그래피가 추정된다. 카메라 좌표계에 대한 물체 좌표계의 3차원 위치 및 자세 파라미터들은 호모그래피 분해를 통해 계산된다. 제안된 방법은 3차원 자세 및 위치 추정 오차의 분석과 공면점의 위치에 따른 민감도의 분석을 통해 평가된다.

원형 링 패턴 인식에 기반한 실내용 자세추정 시스템 (An Indoor Pose Estimation System Based on Recognition of Circular Ring Patterns)

  • 김헌희;하윤수
    • Journal of Advanced Marine Engineering and Technology
    • /
    • 제36권4호
    • /
    • pp.512-519
    • /
    • 2012
  • 본 논문은 원형 링 패턴의 인식에 기반한 물체의 3차원 위치/자세 추정 시스템을 제안한다. 단일 비전 기반의 자세추정 문제를 다루기 위하여, 본 논문은 물체인식 과정의 단순화를 위한 원형 링 패턴의 설계방법을 기술한다. 또한, 본 논문은 2차원 투영공간에서 원형 링 패턴이 가지는 기하학적 변환관계를 적극 활용한 실내용 위치/자세 추정 절차를 상세히 설명한다. 제안된 방법은 쿼드로터형 비행체의 3차원 위치/자세 추정에 적용되며 정확도 및 정밀도 분석을 통해 평가된다.

CR영상에서 웨이블릿 패킷-푸리에 방법을 이용한 그리드 잡음 제거 (Grid Noise Removal in Computed Radiography Images Using the Combined Wavelet Packet-Fourier Method)

  • 이아영;김동윤
    • 전자공학회논문지
    • /
    • 제49권11호
    • /
    • pp.175-182
    • /
    • 2012
  • X선이 객체를 투과할 때 산란 방사선이 발생한다. 이를 방지하기 위하여 산란 방지 그리드를 사용하는데, 이때 투영 방사선 영상에 그리드 영상이 중첩되어 나타난다. 이러한 영상이 출력되면 영상에 무아레 무늬가 나타나 해부학적 정보를 가리게 된다. 그리드에 의한 잡음을 제거하기 위하여 현재까지 수행된 연구에서는 1차원 주파수 영역에서 그리드의 주파수를 계산하거나 2차원 웨이블릿 변환 및 푸리에 변환을 사용하여 잡음의 주파수를 제거하였다. 이러한 방법들은 그리드 잡음뿐만 아니라 영상에서의 진단 정보도 함께 제거하였다. 본 연구에서는 웨이블릿 패킷과 푸리에 변환 방법을 조합하여 CR 영상에서 그리드 잡음을 제거하는 방법을 제안하였다. 제안한 방법을 팬텀영상에 적용한 결과 신호 대 잡음 비율이 기존 방법에 비하여 5.2 - 7.4 dB 향상 되었으며, 실제 CR영상에 적용한 결과 그리드에 의한 주파수 대역을 효과적으로 제거하고 나머지 주파수 대역을 보호함으로써 영상 정보의 손실을 최소화한 결과를 얻을 수 있었다.

3차원 메이크업 시뮬레이션을 위한 자동화된 마스크 생성 (Automatic Mask Generation for 3D Makeup Simulation)

  • 김현중;김정식;최수미
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.397-402
    • /
    • 2008
  • 본 논문에서는 햅틱 인터랙션 기반의 3차원 가상 얼굴 메이크업 시뮬레이션에서 메이크업 대상에 대한 정교한 페인팅을 적용하기 위한 자동화된 마스크 생성 방법을 개발한다. 본 연구에서는 메이크업 시뮬레이션 이전의 전처리 과정에서 마스크를 생성한다. 우선, 3차원 스캐너 장치로부터 사용자의 얼굴 텍스쳐 이미지와 3차원 기하 표면 모델을 획득한다. 획득된 얼굴 텍스쳐 이미지로부터 AdaBoost 알고리즘, Canny 경계선 검출 방법과 색 모델 변환 방법 등의 영상처리 알고리즘들을 적용하여 마스크 대상이 되는 주요 특정 영역(눈, 입술)들을 결정하고 얼굴 이미지로부터 2차원 마스크 영역을 결정한다. 이렇게 생성된 마스크 영역 이미지는 3차원 표면 기하 모델에 투영되어 최종적인 3차원 특징 영역의 마스크를 레이블링하는데 사용된다. 이러한 전처리 과정을 통하여 결정된 마스크는 햅틱 장치와 스테레오 디스플레이기반의 가상 인터페이스를 통해서 자연스러운 메이크업 시뮬레이션을 수행하는데 사용된다. 본 연구에서 개발한 방법은 사용자에게 전처리 과정에서의 어떠한 개입 없이 자동적으로 메이크업 대상이 되는 마스크 영역을 결정하여 정교하고 손쉬운 메이크업 페인팅 인터페이스를 제공한다.

  • PDF

360 비디오의 SSP 를 위한 기하학적 패딩 (Geometry Padding for Segmented Sphere Projection (SSP) in 360 Video)

  • 명상진;김현호;윤용욱;김재곤
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2018년도 추계학술대회
    • /
    • pp.143-144
    • /
    • 2018
  • 360 비디오는 VR 응용의 확산과 함께 몰입형 미디어로 주목 받고 있으며, JVET(Joint Video Experts Team)에서 post-HEVC 로 진행중인 VVC(Versatile Video Coding)에 360 비디오 부호화도 함께 고려하고 있다. 360 비디오 부호화를 위하여 변환된 2D 영상은 투영 면(face) 간의 불연속성과 비활성 영역이 존재할 수 있으며 이는 부호화 효율을 저하시키는 원인이 된다. 본 논문에서는 SSP(Segmented Projection)에서의 이러한 불연속성과 비활성 영역을 줄이는 효율적인 기하학적 패딩(padding) 기법을 제시한다. 실험결과 제안 기법은 복사에 의한 패딩을 사용하는 기존 SSP 대비 주관적 화질이 향상된 것을 확인 할 수 있었다.

  • PDF

$PRESAGE^{REU}$ 겔 선량계의 분석 및 정도 관리 도구 개발 (Development of Quality Assurance Software for $PRESAGE^{REU}$ Gel Dosimetry)

  • 조웅;이재기;김현석;우홍균
    • 한국의학물리학회지:의학물리
    • /
    • 제25권4호
    • /
    • pp.233-241
    • /
    • 2014
  • 본 연구에서는 $PRESAGE^{REU}$ 겔을 이용하여 방사선 치료계획 시 3차원 흡수선량 분포 검증을 위한 정도 관리 소프트웨어를 개발하여 겔을 이용한 3차원 선량분석 방법을 제시하고자 한다. 우선 치료계획상의 3차원 흡수선량 데이터와 측정한 겔 광학밀도 데이터의 입출력 기능을 구현하였고, 변환 테이블을 이용하여 광학밀도를 흡수선량으로 변환하는 기능을 구현하였다. 겔에서 측정된 흡수선량과 치료계획상의 흡수선량 분포간의 기하학적 매칭을 위하여 3D 볼륨 데이터의 x, y, z 방향 및 회전 변환을 구현하였다. 매칭이 완료된 두 선량 분포간에 일치도를 검증하기 위하여 3차원 감마 인덱스알고리듬을 구현하였고, 감마 통과 지도(gamma passing map) 기반의 일치도 확인 기능을 구현하였다. 광학밀도와 흡수선량간의 관계를 분석하기 위하여 원기둥 형태의 $PRESAGE^{REU}$ 겔을 대상으로 X-선 전산화 단층촬영기를 이용하여 CT 영상을 획득하였고, 방사선 치료계획 시스템(Eclipse, Varian, Palo Alto)을 이용하여 원반 형태의 6개의 가상 표적을 생성하여, 각각에 1 Gy에서 6 Gy까지 선량이 전달되도록 입체조형 방사선 치료계획을 수립하였다. 다음으로 광학 CT 스캐너($Vista^{TM}$, Modus Medical Devices Inc, Canada)를 이용하여 기준 투영 영상들을 획득하였고, 치료계획과 동일하게 겔에 방사선을 조사하였다. 조사2시간 후 매 2시간 간격으로 광학 CT 스캐너로 투영 영상 셋을 획득 후 3차원 광학밀도 데이터로 재구성하였다. 실린더 중심축을 따라 치료계획상의 흡수선량 프로파일과 광학밀도 프로파일을 추출하여 광학선량 대비 흡수선량 대응 테이블을 정의하였다. 이후 본 연구에서 개발한 소프트웨어를 이용하여 3차원상의 선량 분포의 일치도를 평가하였다. 광학밀도와 흡수선량간에는 supra-linear 관계가 나타났으며, 광학밀도는 그 크기에 따라 24시간당 60% 전후로 감쇄하였다. 측정된 흡수선량은 중심축 부근에서는 치료계획 선량과 잘 일치하였으나, 주변부로 갈수록 크게 낮아짐을 확인할 수 있었으며, 이로 인하여 3D 감마 통과율은 선량 차이율과 DtoA 각각 3%/3 mm의 조건하에 70.36%로 낮게 나타났다. 이러한 결과는 광학 CT 스캐너 내부의 오일과 $PRESAGE^{REU}$ 겔간의 굴절률이 정확하게 매칭되지 않아서 광학 스캔 시 빔이 굴절되어 부정확한 데이터를 만들어 내는 것으로 분석되었다. 본 연구에서 개발한 정도 관리소프트웨어는 3차원 겔 선량을 비교 분석하기에 유효한 것으로 평가되었으나, $PRESAGE^{REU}$ 겔로부터 정확한 흡수선량데이터를 획득하기 위해 겔 선량측정 과정의 많은 개선이 요구된다.

Kinect(RGB-Depth Camera)를 활용한 실내 공간 정보 모델(BIM) 획득 (Microsoft Kinect-based Indoor Building Information Model Acquisition)

  • 김준희;유세웅;민경원
    • 한국전산구조공학회논문집
    • /
    • 제31권4호
    • /
    • pp.207-213
    • /
    • 2018
  • 본 연구에서는 건물 실내 공간 정보 획득을 위해 Microsoft사의 $Kinect^{(R)}$ v2를 활용한 point cloud 기법을 도입하였다. 카메라로 취득한 2차원의 투영 공간 이미지 픽셀 좌표를 각 카메라의 보정을 거쳐 3차원 이미지 변환하며 이를 토대로 공간 정보를 구현하였다. 기준점을 중심으로 $360^{\circ}$ 회전하여 취득한 3차원 이미지를 통해 거리 측정이 불가한 기존의 2차원 이미지의 한계를 개선하였으며, 이 과정을 통해 얻은 point cloud를 통해 3차원 map을 형성하였다. 형성된 3차원 map은 기존의 공간정보 융 복합을 위한 센서와 비슷한 수준의 측정 효율을 가지면서 동시에 렌즈 왜곡 현상에 대한 후처리 과정을 통해 공간 정보를 정확하게 측정할 수 있도록 하였다. 측정한 결과를 2D 도면과 실제 공간 및 구조부재의 길이 및 위치 등과 비교하여 검증하였다.