• 제목/요약/키워드: 자동정합

검색결과 266건 처리시간 0.033초

BIM 모델 내 공간의 시멘틱 무결성 검증을 위한 그래프 기반 딥러닝 모델 구축에 관한 연구 (Development of Graph based Deep Learning methods for Enhancing the Semantic Integrity of Spaces in BIM Models)

  • 이원복;김시현;유영수;구본상
    • 한국건설관리학회논문집
    • /
    • 제23권3호
    • /
    • pp.45-55
    • /
    • 2022
  • BIM의 도입에 따라 공간이 개별 객체로 인식되면서 객체화된 공간의 속성정보는 법규검토, 에너지 분석, 피난 경로 분석 등을 위한 기반 데이터로 사용 가능하기에 BIM의 활용성을 넓힐 수 있는 발판을 마련하였다. 그러나 BIM 모델 내 개별 공간 속성의 오기입이나 누락이 없는 시멘틱 무결성(semantic integrity)이 보장되어야 하는데, 다수의 참여자에 의한 수작업으로 진행되는 BIM 모델링 과정 특성 상 설계 오류가 빈번히 발생한다는 문제점이 존재한다. 이를 해결하기 위해 BIM 모델의 공간 정합성 검증을 위한 연구가 다수 진행되었으나, 적용 범위가 한정적이거나 분류 정확도가 낮은 한계점이 존재하였다. 본 연구에서는 공간의 기하정보 뿐 아니라 BIM 모델 내 공간과 부재 간 연결 관계를 Graph Convolutional Networks (GCN) 학습과정에 활용하여 향상된 성능의 공간 자동 분류모델을 구축하고자 하였다. 구축된 GCN 기반 모델의 성능을 공간의 기하정보만으로 학습된 기계학습 모델인 Multi-Layer Perceptron (MLP)과 비교하여 공간 분류 시 연결 관계 적용의 효용성을 검증하고자 하였다. 이를 통해 관계정보 활용 시 약 8% 내외 수준으로 공간 분류 성능이 향상되는 것으로 확인되었다.

단층치료용 비디오 영상기반 셋업 장치의 개발: 예비연구 (Development of Video Image-Guided Setup (VIGS) System for Tomotherapy: Preliminary Study)

  • 김진성;주상규;홍채선;정재원;손기홍;신정석;신은혁;안성환;한영이;최두호
    • 한국의학물리학회지:의학물리
    • /
    • 제24권2호
    • /
    • pp.85-91
    • /
    • 2013
  • 초고압 전산화단층촬영(megavoltage computed tomography, MVCT)이 단층치료(Tomotherapy) 환자의 치료 자세 교정 방법으로 사용되고 있다. MVCT는 부가적인 방사선 피폭뿐만 아니라 전체 치료 시간이 길어지는 단점을 가지고 있다. 이러한 문제점 해결을 위해 비디오 영상기반 환자 치료 자세 교정 시스템(video image-guided setup system, VIGS)을 개발했다. 단층치료 장치내 갠트리에 직각으로 2대의 비디오 카메라를 장착하고 이로부터 얻은 영상을 이용하여 환자의 자세 오차를 측정하는 프로그램을 자체 개발했다. 개발된 시스템은 사용자에 의해 정의된 관심 영역에서의 에지 검출(edge detection) 결과를 기반으로 자동 정합을 통해 자세 오차를 찾도록 고안되었다. 두경부 환자를 묘사하기 위해 휴먼 팬톰을 이용하여 컴퓨터 단층 치료계획 영상을 획득한 후 전산화 치료계획을 수행했다. 실제 치료 상태를 재현하기 위해 고정 용구를 이용하여 팬톰을 고정했으며 전산화치료계획 결과로 부터 팬톰 자세 검증을 위한 기준 MVCT 영상을 획득했다. 팬톰을 치료 위치에 위치시킨 후 MVCT 영상을 얻고 이를 기준 MVCT영상과 비교하여 치료계획시와 동일환 자세가 되도록 위치를 교정했다. 교정된 자세에서 VGIS를 이용하여 기준 비디오 영상을 획득했다. 10회 걸쳐 MVCT 영상을 이용한 자세 교정과 VIGS를 이용한 비디오 영상기반 자세 교정을 각각 수행하여 두 방법간의 교정 값 차이(상관 분석)와 분석 시간을 비교했다. 팬톰 위치 교정 시간은 VIGS 시스템($41.7{\pm}11.2$ seconds)이 MVCT 방법($420{\pm}6$ seconds)에 비해 현저히 적게 조사됐다(p<0.05). 하지만 두 방법간의 위치 오차 분석 결과 통계적으로 유의한 차이는 보이지 않았다(x=0.11 mm, y=0.27 mm, z=0.58 mm, p>0.05). VIGS시스템이 짧은 시간에 정확한 위치 오차 감지 능력을 보여 이의 개발이 단층치료의 절차를 효율적으로 개선하는데 효과적일 것으로 생각된다.

L-밴드 대역 레이더 후방 산란 측정용 소형 직교 모드 변환기 (Compact Orthomode Transducer for Field Experiments of Radar Backscatter at L-band)

  • 황지환;권순구;주정명;오이석
    • 한국전자파학회논문지
    • /
    • 제22권7호
    • /
    • pp.711-719
    • /
    • 2011
  • 본 논문에서는 L-밴드 대역 레이더 후방 산란 측정용 도파관 직교 모드 변환기(orthomode transducer)의 소형화에 대한 설계 및 성능 분석 결과를 제시한다. 도파관 직교 모드 변환기는 테이퍼(taper) 구조를 기본으로 새롭게 설계된 접합 구조를 이용하여 별도의 테이퍼 구조 없이 표준 어댑터와 연결이 가능하도록 설계/제작되었다. 소형화된 L-밴드 직교 모드 변환기의 최대 길이는 약 1.2 ${\lambda}_o$(310 mm)이며, 이는 기존의 동급 직교 모드 변환기 크기의 약 60 % 수준이 된다. 또한, 직교 모드 변환기의 포트 정합 특성과 편파 격리도 특성을 높이기 위해서 두 개의 금속봉을 구조 내부에 삽입하여 운용 주파수 대역 내 420 MHz의 대역폭(반사 손실<-15 dB 이하)과 약 40 dB의 높은 편파 격리도 성능을 얻을 수 있었다. 제작된 직교 모드 변환기, 혼 안테나, 네트워크 분석기(Agilent사(社)8753E)로 구성된 L-밴드 scatterometer를 이용한 레이더 후방 산란 측정의 정확도 분석을 위해 STCT(Single Target Calibration Technique) 보정 기법과 2DTST(2D Target Scanning Technique) 자동 측정 기법을 이용하였다. 보정된 scatterometer를 이용하여 측정된 시험용 목표물(55 cm 삼각 수동 전파 반사기)의 RCS(Radar Cross Section)의 측정 오차는 수직/수평 편파 각각 -0.2 dB와 0.25 dB이며, 유효 편파 격리도는 대역 내 평균 약 35.8 dB이다. 이때, 성능 측정을 위해 직교 모드 변환기와 함께 사용된 혼 안테나는 길이 300 mm, 개구면 크기 $450{\times}450\;mm^2$이며, E-평면 $29.5^{\circ}$와 H-평면 $36.5^{\circ}$의 반전력 빔 폭(HPBW)을 갖는다.

토모다이렉트 3D-CRT을 이용한 유방암 환자의 회전 오차 (Rotation Errors of Breast Cancer on 3D-CRT in TomoDirect)

  • 정재홍;조광환;문성권;배선현;민철기;김은석;여승구;최진호;정주영;최보영;서태석
    • 한국의학물리학회지:의학물리
    • /
    • 제26권1호
    • /
    • pp.6-11
    • /
    • 2015
  • 본 연구의 목적은 토모다이렉트 3D-CRT (TD 3D-CRT)을 이용한 유방암 방사선치료에서 회전축(roll, pitch, and yaw) 오차를 분석하고 자 하였다. TD-3DCRT로 치료가 종료된 유방암 환자 총 20명을 선정하였고, 총 80회의 MVCT 영상을 바탕으로 시스템(systematic), 임의(random) 오류를 포함한 환자위치잡이 오차(patient setup errors)와 치료 여백(treatment margin, mm)을 후향적으로 분석하였다. 또한, 각 환자에 대한 회전축 오차 분석은 자동영상정합(automatic image registration)을 이용하였다. X, Y, Z 방향에 대한 치료여백은 각각 4.2 mm, 6.2 mm, 6.4 mm였다. 회전축 오차에 대한 평균 각도(degree)는 roll, pitch, yaw가 각각 0.3도, 0.5도, 0.1도였고, 시스템과 임의 오류는 모두 1도 이내였다. 전반적으로 환자 위치잡이 오차는 Y와 Z방향에서 X에 비하여 높게 나타났다. 본 연구에서 회전축 오차 각도가 2도 이내는 roll, pitch, yaw에서 각각 95.1%, 98.8%, 97.5% 분포였다. 그러나, 치료영역의 길이가 길어짐에 따라 치료 중심지점을 기준으로 상부와 하부의 가장자리(Edge)가 틀어지게(Twisted)될 가능성이 높아질 수 있다. 따라서 치료의 정확성과 재현성을 위하여 각 환자의 특성을 고려하고, 회전축 오차를 주기적으로 확인할 필요가 있다.

UAV를 이용한 경관분석 및 활용방안에 관한 기초연구 (Study of the UAV for Application Plans and Landscape Analysis)

  • 김승민
    • 한국전통조경학회지
    • /
    • 제32권3호
    • /
    • pp.213-220
    • /
    • 2014
  • 본 연구는 최근 급속한 기술발전이 이루어지고 있는 (UAV)를 활용하여 지형분석에 적용하기 위한 실험적 연구로 드론과 자동 경로비행에 필요한 시스템을 구축하였다. 구축된 시스템을 이용하여 경로비행의 안정성을 검토하였으며, Waypoint를 이용한 경로비행 촬영을 실시하여 유용성을 검증한 결과는 다음과 같다. 첫째, 9.3ha에 달하는 면적에 대해 경로비행을 실시한 결과 준비시간을 포함하여 실측시간이 총40여분 소요되었으며, 지상부에서 인가한 고도와 속도를 일정하게 유지하는 것을 알 수 있었다. 또한 경로비행 시 지상부에서 설정한 Waypoint 지점에서 정확하게 촬영임무를 수행하여, multicopter를 이용한 사진실측의 효율성을 확인하였다. 둘째, 일반 실측용 무인항공기에 비해 가볍고 저렴한 multicopter와 디지털카메라를 이용하여 촬영의 기동성과 경제성을 확인하였으며, 촬영된 사진데이터의 정합과 DEM, DXF파일의 추출을 통해 수치지형도 보다 정밀한 지형분석이 가능하여 multicopter를 이용한 지형실측의 가능성을 확인하였다. 셋째, 하천내부에 대한 고해상 정사영상사진(20Cm급)을 제작함으로써 하천변일대에 대한 식생과 지형의 변화 등에 대한 분석이 가능한 것을 확인하였다. 또한 촬영지점의 GPS좌표에 대한 데이터베이스를 통해 미세지형의 변화 등과 같은 경관변화와 하천변 일대 또는 수림지 등에 대한 식생변화 등을 지속적으로 모니터링 할 수 있는 기반이 마련 될 수 있을 것으로 판단된다. 넷째, 정사영상분석을 통해 만들어진 DEM은 지형분석 및 가시권 분석 등과 같은 경관분석에서 보다 심도 있는 연구에 활용될 수 있을 것이다. 특히 현재 정부에서 추진 중인 '3차원 국토공간 정보 구축사업'과 연계하여 역사문화자원에 대한 3차원 지형정보 제공 등에도 널리 활용 될 수 있을 것으로 판단된다. 본 연구는 UAV를 이용한 지형분석 및 활용방안에 대한 연구로 도시 및 하천 등 다양한 지형에 대한 분석이 가능할 뿐만 아니라 사적 및 명승 등의 경관관리에 대한 연구와 DSM구축에 따른 가시권 분석 등의 역사문화자원에 대한 관리에도 폭넓게 활용 될 수 있을 것으로 판단된다.

얼굴 모션 추정과 표정 복제에 의한 3차원 얼굴 애니메이션 (3D Facial Animation with Head Motion Estimation and Facial Expression Cloning)

  • 권오륜;전준철
    • 정보처리학회논문지B
    • /
    • 제14B권4호
    • /
    • pp.311-320
    • /
    • 2007
  • 본 논문에서는 강건한 얼굴 포즈 추정과 실시간 표정제어가 가능한 비전 기반 3차원 얼굴 모델의 자동 표정 생성 방법 및 시스템을 제안한다. 기존의 비전 기반 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 반영하지 못하고 얼굴 표정 생성에 초점을 맞추고 있다. 그러나, 얼굴 포즈를 정확히 추정하여 반영하는 작업은 현실감 있는 얼굴 애니메이션을 위해서 중요한 이슈로 인식되고 있다. 본 연구 에서는 얼굴 포즈추정과 얼굴 표정제어가 동시에 가능한 통합 애니메이션 시스템을 제안 하였다. 제안된 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출은 비모수적 HT 컬러 모델과 템플릿 매칭을 통해 수행된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 얼굴 모션 추정을 위하여 3차원 실린더 모델을 검출된 얼굴 영역에 투영하고 광류(optical flow) 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 주요 얼굴 특징점을 검출하며 광류 알고리즘에 의하여 특징점을 추적한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수(parameters)를 계산한다. 결국 얼굴 표정 복제는 두 개의 정합과정을 통해 수행된다. 애니메이션 매개변수 3차원 얼굴 모델의 주요 특징점(제어점)의 이동은 획득된 애니메이션 매개변수를 적용하여 수행하며, 정점 주위의 부가적 정점의 위치는 RBF(Radial Basis Function) 보간법을 통해 변형한다. 실험결과 본 논문에서 제안된 비전기반 애니메이션 시스템은 비디오 영상으로부터 강건한 얼굴 포즈 추정과 얼굴의 표정변화를 잘 반영하여 현실감 있는 애니메이션을 생성함을 입증할 수 있었다.