• 제목/요약/키워드: Spatial information visualization

검색결과 268건 처리시간 0.023초

GIS 기법을 이용한 연약 지반 시공 관리 시스템의 개발 (Development of Integrated Management System Based on GIS on Soft Ground)

  • 천성호;우상인;정충기;최인걸
    • 한국지반공학회논문집
    • /
    • 제23권7호
    • /
    • pp.37-46
    • /
    • 2007
  • 연약 지반 개량을 위한 선행 재하 공법 시행 시, 시공 관리를 위해서는 현장 자료가 체계적으로 활용될 필요가 있다. 현장 자료의 체계적 활용을 위해서는 자료를 표준화하고 정보화하여 데이터베이스를 구축하고, 이를 활용하는 시스템을 구축하여야 한다. 본 연구에서는 선행 재하 공법이 적용된 연약지반 개량 현장에 대한 통합 시공관리시스템을 개발하였다. 개발 시스템은 데이터베이스와 사용자 프로그램으로 구성된다. 데이터베이스는 현장에서 수집된 모든 정보 및 시스템에서 처리된 정보를 보관, 관리하며, 이러한 정보들은 위치 정보와 연계되어 있다. 또한 데이터베이스 내 모든 정보는 각각의 특성에 따라 표준화된 형태로 관리된다. 사용자 프로그램은 데이터베이스에 있는 정보를 관리 및 활용하기 위한 데이터베이스 내 정보의 입-출력 기능, 공간 보간 기능, 현장 계측 정보를 이용한 침하 예측기능을 수행한다. 개발 시스템의 현장 적용 결과, 본 시스템은 데이터베이스 내 정보를 전체 현장에 대해 종합적으로 제공하였으며, 이로부터 시스템의 현장 적용성 및 효율성을 확인하였다.

상호텍스트성을 활용한 디지털 자화상 창작 (A Study on the Creation of Digital Self-portrait with Intertextuality)

  • 임수연
    • 문화기술의 융합
    • /
    • 제8권1호
    • /
    • pp.427-434
    • /
    • 2022
  • 본 연구의 목적은 관람자에게 자아 인식의 문제에 천착하게 하는 몰입의 경험을 제공하는 자화상을 창작하는 것이다. 우리는 관람자로부터 획득한 음성과 이미지 정보를 활용하여 인터랙티브 자화상을 구현하는 방안을 제시한다. 관람자의 음성 정보는 텍스트로 변환되어 시각화되는데, 텍스트 시각화를 위한 픽셀 정보로 관람자의 얼굴 이미지가 활용된다. 텍스트는 개인의 경험과 기억을 바탕으로 자신만의 감성, 상상, 의도 등이 다양하게 혼합되어 있는 결과물이다. 사람들은 각자 다른 방식으로 특정 텍스트에 대한 상이한 해석력을 발휘한다. 제안한 디지털 자화상은 텍스트가 가진 상호텍스트성을 활용하여 내적인 면에서 관람자의 자의식을 재현할 뿐 아니라 텍스트에 내재된 의미들을 확장한다. 넓은 의미에서의 상호텍스트성은 텍스트와 텍스트, 주체와 주체 사이에서 일어나는 모든 지식의 총체를 가리킨다. 따라서 텍스트로 표현된 자화상은 관객과 텍스트, 관객과 관객, 텍스트와 텍스트 사이에서 다양한 관계를 파생시키며 확장해간다. 또한 본 연구는 제안한 자화상이 외적인 면에서도 텍스트가 가진 조형성을 확인하고 시공간성을 재창조할 수 있다는 것을 보여준다. 이 동적 자화상은 실시간으로 관람자들의 관심사를 반영하고 갱신되며 창작되는 특성을 지닌다.

딥러닝 기반 달 표면 모사 환경 실시간 객체 인식 및 매칭 시스템 개발 (Development of System for Real-Time Object Recognition and Matching using Deep Learning at Simulated Lunar Surface Environment)

  • 나종호;공준호;이수득;신휴성
    • 터널과지하공간
    • /
    • 제33권4호
    • /
    • pp.281-298
    • /
    • 2023
  • 달 현지 탐사를 위해 무인 이동체에 대한 연구가 지속적으로 이루어져 있으며 달 지상 관심 지역의 정확한 위치 및 맵핑을 위한 실시간 정보화 작업이 요구되고 있다. 딥러닝 영상 처리 분석 기술을 실제 로버에 적용하기 위해 소프트웨어의 통합과 최적화에 대한 연구가 필요하며 본 연구에서는 가상의 달 기지 건설현장의 영상을 실시간 분석하여 핵심 객체의 공간 정보를 자동으로 수치화하는 방안에 대한 기초 연구가 진행되었다. 본 연구를 통해 이미 구축된 영역 분할 기반 객체 인식 알고리즘을 경계 상자 기반 객체 인식알고리즘으로 변경하여 객체 인식 정확도 및 추론 속도를 개선하는 작업이 이루어졌으며, 대용량 데이터 기반 객체 매칭 학습을 위해 Batch Hard Triplet Mining 기법을 도입하고, 학습 및 추론에 대한 최적화 연구가 수행되었다. 또한 개선된 객체 인식 및 동일 객체 매칭 소프트웨어를 통합하고, 입력 이미지 내 동일 객체 자동 매칭을 시각화하는 소프트웨어를 개발하였으며, 위성 모사 촬영 영상 내 객체를 학습 데이터로, 이동체 촬영 영상 내 객체를 추론 데이터로 사용하여 동일 객체 매칭의 학습 및 추론이 이루어졌다. 본 연구의 결과는 이동체의 연속 촬영 영상을 기반 3차원 공간 정보를 구현 및 관심 공간 내 객체 위치 설정에 활용할 수 있을 것으로 사료되며, 향후 달 기지 건설 현장에서의 영상 기반 시공 모니터링 및 제어를 위한 자동 현장 및 주요 대상물 공간 정보 구축 시스템과의 연계에 기여할 것으로 기대된다.

현실감 있는 재난재해 예방 교육을 위한 VR 기반 앱 개발 (The Development of VR based Application for Realistic Disaster Prevention Training)

  • 김태훈;윤준희
    • 한국산학기술학회논문지
    • /
    • 제19권12호
    • /
    • pp.287-293
    • /
    • 2018
  • 한반도는 화산 재해로부터 안전한 지역으로 알려져 왔다. 그러나 최근 백두산 및 일본 화산들을 포함한 극동아시아의 화산 관측동향 및 연구결과들은 더 이상 한반도가 화산 재해로부터 안전한 지역이 아님을 나타내고 있다. 대한민국 정부는 2012년부터 효율적인 화산재해 대응체계 구축을 위해 IT 기반의 화산재해대응시스템(VDRS: Volcanic Disaster Response System)구축기술을 개발해 왔다. VDRS의 주요 사용자는 대한민국 중앙 및 지방정부 공무원들이나 이들 대부분은 화산재해를 경험해 보지 못하였으며, 기본적 지식도 부족하다. 따라서 실제 재난 시, 효과적인 VDRS의 사용 및 재난대응을 위해서는 재해 대응과 관련된 교육 콘텐츠의 개발과 교육의 실시가 매우 중요하다. 본 논문에서는 현실감 있는 화산재해 대응 교육을 위한 가상현실(VR; Virtual Reality) 기반의 모바일 앱 개발을 다루고 있다. 교육의 목적은 화산재해 관련 지식의 전달과 체험이다. 첫째, 공간정보 기반의 VR 콘텐츠를 제작한다. VR 콘텐츠를 제작을 위해서는 수치표고모형 기반 3D 모델이 구축되고, 기상효과 및 다양한 화산재해 확산 가시화 모델이 개발된다. 둘째, 화산재해 대응을 위한 교육앱이 개발된다. 이 단계에서 우리는 12단계의 화산재해 체험 스토리 보드를 제안한다. 앱은 스토리 보드를 기반으로 Unity3D 엔진을 이용하여 개발되며 다양한 화산재해(화산재, 화쇄류, 화산이류 등)를 체험하고 이들에 대한 지식을 전달할 수 있도록 구성된다. 본 연구의 결과는 화산재해 대응 및 예방을 위한 교육에 활용될 수 있을 것이며 향후, 증강현실 기술과 연계한다면 보다 현실감 있는 교육에 활용될 수 있을 것이다.

D4AR - A 4-DIMENSIONAL AUGMENTED REALITY - MODEL FOR AUTOMATION AND VISUALIZATION OF CONSTRUCTION PROGRESS MONITORING

  • Mani Golparvar-Fard;Feniosky Pena-Mora
    • 국제학술발표논문집
    • /
    • The 3th International Conference on Construction Engineering and Project Management
    • /
    • pp.30-31
    • /
    • 2009
  • Early detection of schedule delay in field construction activities is vital to project management. It provides the opportunity to initiate remedial actions and increases the chance of controlling such overruns or minimizing their impacts. This entails project managers to design, implement, and maintain a systematic approach for progress monitoring to promptly identify, process and communicate discrepancies between actual and as-planned performances as early as possible. Despite importance, systematic implementation of progress monitoring is challenging: (1) Current progress monitoring is time-consuming as it needs extensive as-planned and as-built data collection; (2) The excessive amount of work required to be performed may cause human-errors and reduce the quality of manually collected data and since only an approximate visual inspection is usually performed, makes the collected data subjective; (3) Existing methods of progress monitoring are also non-systematic and may also create a time-lag between the time progress is reported and the time progress is actually accomplished; (4) Progress reports are visually complex, and do not reflect spatial aspects of construction; and (5) Current reporting methods increase the time required to describe and explain progress in coordination meetings and in turn could delay the decision making process. In summary, with current methods, it may be not be easy to understand the progress situation clearly and quickly. To overcome such inefficiencies, this research focuses on exploring application of unsorted daily progress photograph logs - available on any construction site - as well as IFC-based 4D models for progress monitoring. Our approach is based on computing, from the images themselves, the photographer's locations and orientations, along with a sparse 3D geometric representation of the as-built scene using daily progress photographs and superimposition of the reconstructed scene over the as-planned 4D model. Within such an environment, progress photographs are registered in the virtual as-planned environment, allowing a large unstructured collection of daily construction images to be interactively explored. In addition, sparse reconstructed scenes superimposed over 4D models allow site images to be geo-registered with the as-planned components and consequently, a location-based image processing technique to be implemented and progress data to be extracted automatically. The result of progress comparison study between as-planned and as-built performances can subsequently be visualized in the D4AR - 4D Augmented Reality - environment using a traffic light metaphor. In such an environment, project participants would be able to: 1) use the 4D as-planned model as a baseline for progress monitoring, compare it to daily construction photographs and study workspace logistics; 2) interactively and remotely explore registered construction photographs in a 3D environment; 3) analyze registered images and quantify as-built progress; 4) measure discrepancies between as-planned and as-built performances; and 5) visually represent progress discrepancies through superimposition of 4D as-planned models over progress photographs, make control decisions and effectively communicate those with project participants. We present our preliminary results on two ongoing construction projects and discuss implementation, perceived benefits and future potential enhancement of this new technology in construction, in all fronts of automatic data collection, processing and communication.

  • PDF

다중 플랫폼(위성, 무인기, AIS, HF 레이더)에 기반한 시나리오별 선박탐지 모니터링 (Operational Ship Monitoring Based on Multi-platforms (Satellite, UAV, HF Radar, AIS))

  • 김상완;김동한;이윤경;이임평;이상호;김정훈;김근용;유주형
    • 대한원격탐사학회지
    • /
    • 제36권2_2호
    • /
    • pp.379-399
    • /
    • 2020
  • 불법 선박 탐지는 해양 감시 체계 구축에서 중요한 요소 중 하나이다. 효과적인 해양 감시를 위해서는 광역적이고 지속적인 해상 감시 수단이 요구된다. 본 연구에서는 인공위성 SAR, HF 레이더, 무인기 그리고 AIS 통합 기반의 선박탐지 모니터링을 가능성을 검토하였다. 각 플랫폼별 시·공간 관측 특성을 고려하여 선박감시 시나리오는 HF 레이더 자료와 AIS 자료를 이용한 상시감시 시스템과 인공위성과 무인기를 활용한 이벤트 감시 시스템으로 구성되었다. 상시감시 시스템은 아직까지 HF 레이더 자료의 낮은 공간해상도로 인한 탐지 가능 선박크기 제한 및 정확도의 한계가 있다. 그러나, 인공위성 SAR 자료를 사용한 이벤트 감시 시스템은 추출된 선박 위치와 AIS 자료를 이용한 불법 선박 탐지, 그리고 SAR 영상에서 추출된 선박속도, 이동방향에 대한 정보 또는 HF 레이더 자료를 이용한 선박 트래킹 정보는 무인기 감시체계로의 전환에 주요한 정보로 활용될 수 있다. 시나리오 구성을 위한 실험을 위해 2019년 6월 25일부터 6월 26일까지 2일간 충청남도 서천군 홍원항 서측에 위치한 연도를 중심으로 통합 현장 실험을 수행하였다. 이로부터 KOMPSAT-5 SAR 영상, 무인기 영상, HF 레이더 자료 및 AIS 자료가 성공적으로 수집되었고 각각 개발된 알고리즘을 적용하여 분석되었다. 개발된 선박감시 모니터링 시스템은 다중 플랫폼으로부터 수집된 자료 및 분석 결과의 가시화 뿐만 아니라 추후 상시 및 이벤트 선박감시 시나리오를 구현에 기반이 될 것이다.

뇌 PET과 MR 영상의 자동화된 3차원적 합성기법 개발 (Development of an Automatic 3D Coregistration Technique of Brain PET and MR Images)

  • 이재성;곽철은;이동수;정준기;이명철;박광석
    • 대한핵의학회지
    • /
    • 제32권5호
    • /
    • pp.414-424
    • /
    • 1998
  • 목적: PET과 MR 영상을 체계적으로 합성i분석하여 각각의 영상기법이 갖는 단점을 보완하고 기능을 향상시킴으로써 보다 정확하고 유용한 임상정보를 얻을 수 있다. 두 영상을 공간적으로 합성하기 위해서 머리 표피 경계점들 간의 거리를 최소화하는 알고리즘을 이용할 경우 경계점 추출의 정확성 및 견실성과 거리 계산 속도가 합성 알고리즘의 성능을 결정하는 중요한 요소가 된다. 본 연구에서는 PET 영상의 경계 추출과 거리 계산 방법을 개선하고 이를 이용하여 PET과 MR 영상을 3차원적으로 합성하였다. 대상 및 방법: 공간적인 합성을 위한 영상처리기법의 핵심인 경계점 추출을 위해 PET영상에서는 방출스캔 sinogram의 경계를 강조한 후 재구성한 횡단면으로부터 2 mm 간격으로 머리 표피 경계점들을 추출하였으며 MR 영상에서는 각 횡단면마다 약 2도 간격으로 경계점들을 추출하였다. 두 영상의 모든 경계점들 간의 평균 유클리디안 거리를 최소화하는 3차원 가상공간 상에서의 위치 이동과 회전 각도를 최소자승법을 이용하여 구한 후 PET영상을 역 전환하여 위치 정합을 하였다. 평균 거리의 계산 속도를 향상시키기 위하여 고정된 대상의 각 경계점을 중심으로 하여 주변 공간 정들에서의 거리를 순차적으로 계산하고 이들의 최소값을 취하는 방법으로 거리지도를 구성하였으며 최소자승법에서 경계점들 간의 위치가 변할 때마다 매번 평균거리를 다시 계산하지 않고 거리지도를 참조하여 평균 거리를 산출하는 방법을 사용하였다. 위치 정합된 두 영상의 동시 표현을 위하여 PET 영상의 화소값에 $0.4{\sim}0.7$부터 1사이의 범위로 정규화된 MR 영상의 화소 값으로 가중치를 주는 가중정규화 방법을 사용하였다. 결과: 방출스캔의 sinogram을 이용함으로써 PET영상의 경계를 견실하게 추출할 수 있었으며, 거리지도를 이용하여 거리 계산을 한 결과 계산 속도를 향상시킬 수 있었다. 정상인의 뇌영상에 대해 위치 정합을 실시한 결과 평균 거리 오차는 2mm 이하였다. 가중정규화 방법을 사용하였을 때 합성된 영상의 정성적인 식별 명확도가 향상하였다. 결론: 견실한 PET 영상 경계점 추출과 거리지도를 이용한 계산 속도의 향상을 통해 뇌 PET과 MR 영상 합성기법의 성능을 개선할 수 있었으며 이를 이용하며 개발한 영상정합 프로그램은 임상 환경에서 유용하게 사용될 수 있을 것이다.

  • PDF

의사결정나무와 시공간 시각화를 통한 서울시 교통사고 심각도 요인 분석 (Analysis of Traffic Accidents Injury Severity in Seoul using Decision Trees and Spatiotemporal Data Visualization)

  • 강영옥;손세린;조나혜
    • 지적과 국토정보
    • /
    • 제47권2호
    • /
    • pp.233-254
    • /
    • 2017
  • 본 연구는 교통사고 가운데 인적피해를 동반한 교통사고에 대해 교통사고의 시공간적 특성과 교통사고 심각도에 영향을 미치는 주요인을 분석하고자 하였다. 이를 위해 2012년부터 2015년 까지 4년간 서울시에서 발생한 교통사고 데이터 가운데 인적사고가 있는 데이터를 교통사고 심각도에 따라 경상, 중상, 사망 교통사고로 분류하고, 교통사고의 시공간특성분석은 커널분석, 핫스팟분석, 스페이스타임큐브분석, EHSA(Emerging HotSpot Analysis)를 수행하였으며, 교통사고 심각도에 영향을 미치는 요인 분석은 데이터마이닝 기법중의 하나인 의사결정나무 모형을 활용하였다. 분석결과 서울시 교통사고는 도심부 보다는 외곽지역에서 많이 발생하며 특히 한강 이남의 상업 활동이 많은 곳에서 교통사고가 많음을 확인할 수 있었다. 특히 서초와 강남의 일부 상업 및 유흥지역을 중심으로 교통사고 집중지역이 나타나며 교통사고 다발지역은 시간이 흐름에 따라 그 현상이 더욱 심화되는 경향을 보이고 있었다. 사망교통사고의 경우 지역적으로는 영등포구, 구로구, 종로구, 중구, 성북구 일부지역에 통계적으로 유의미한 핫스팟지역이 나타나지만 시간대별로 구분해보면 오후 퇴근시간 부터 새벽까지 일부 구간에서 핫스팟이 나타나며 시간 고려 없이 분석된 결과와는 상이한 패턴이 나타남을 알 수 있었다. 서울시 교통사고 심각도에 영향을 미치는 주요 요인으로는 사고유형이 가장 중요한 역할을 하며 도로의 종류, 차량의 종류, 교통사고 발생 시간, 법규위반 종류 등의 순으로 중요도가 나타났다. 교통사고 가운데 심각한 교통사고로 이어지는 경우는 차대 사람이나 차량단독으로 사고가 나는 경우 고속도로나 특별광역시도와 같이 폭원이 넓고 차량속도가 높은 곳에서 승합차나 화물차에서 중상의 교통사고가 일어날 가능성이 높으며, 동일한 상황에서 승합차나 화물차가 아닌 승용차, 자전거, 이륜차 등의 경우에는 새벽시간에 심각한 교통사고로 이어질 가능성이 높은 것으로 나타났다.