• Title/Summary/Keyword: automate

Search Result 568, Processing Time 0.025 seconds

뿜칠내화피복 작업 자동화시스템을 위한 RTLS 기술 적용에 관한 연구 (A Study on the Application of RTLS Technology for the Automation of Spray-Applied Fire Resistive Covering Work)

  • 김균태
    • 한국건축시공학회지
    • /
    • 제9권5호
    • /
    • pp.79-86
    • /
    • 2009
  • 철골구조에서 뿜칠내화피복재는 화재발생시 철골구조물의 내력이 저하되는 것을 방지하는 중요한 자재이다. 그러나 인력에 의한 작업 등으로 인하여 품질관리가 어렵고, 기능인력의 수급도 용이하지 않으며, 기능인력이 유해한 환경에 노출될 가능성도 높은 실정이다. 일반적으로 이와 같이 품질관리가 어렵고 인체에 유해한 건설작업들은 자동화 장비를 도입함으로써 문제를 어느 정도 완화할 수 있다. 그러나 기존의 건설현장은 환경이 비구조화되어 있기 때문에 장비의 주행이나 작업위치선정 등까지 자동화하기는 매우 어려웠다. 본 연구에서는 뿜칠내화피복 작업을 자동화하기 위한 기초연구로써, 자동화시스템과 첨단기술인 RTLS와의 연계성을 검토하고 내화피복 뿜칠 자동화작업의 시나리오, 시스템 구성요소 등을 제안하였다. 제안된 시스템은 아직 개념단계이므로 많은 제약조건들이 해결되지는 않았으나, 제안된 시스템으로 작업하면 내화피복의 균일한 피복두께를 유지할 수 있으며, 철골 구조물과의 일체성을 확보하며, 내화성능을 향상시킬 수 있을 것으로 기대된다. 또한 내화피복의 품질이 확보됨에 따라, 대형 철골 구조물에 화재가 발생하더라도 일정한 강도를 유지할 수 있어서, 화재의 전이를 방지하는 데에 효과가 있을 것으로 예상된다. 향후에는 첨단 IT인 USN등 첨단 모니터링 기술, BIM기술, 자재의 위치정보 인식기술 등과 연계하여 본 연구를 진행할 예정이다. 이와같은 기술과 본 연구가 연계되면, 국내 건설자동화 수준을 제고시키고, 건설 자원의 효율적 체계적 관리를 통한 비용절감, 공기단축, 정밀시공 등을 구현하는 데에 더욱 기여할 수 있을 것이다.

선형가속기 방사선 중심점의 크기 측정 방법 개발과 Clinac 21EX 선형가속기의 방사선 중심점 크기 분석 (Development of a Method to Measure the Radiation Isocenter Size of Linear Accelerators and Quantitative Analysis of the Radiation Isocenter Size for Clinac 21EX Linear Accelerator)

  • 전호상;남지호;박달;김용호;김원택;김동원;기용간;김동현
    • 한국의학물리학회지:의학물리
    • /
    • 제22권3호
    • /
    • pp.131-139
    • /
    • 2011
  • Star-shot 영상을 이용한 선형가속기의 방사선중심점(radiation isocenter)에 대한 정도관리를 정량적으로 할 수 있는 방법을 개발하고 이를 컴퓨터 프로그램으로 구현하였다. 구현한 프로그램의 정확도를 검증하고 프로그램을 사용하여 2008년 6월부터 2010년 12월 사이에 수행한 선형가속기 Clinac 21EX (Varian, USA)의 방사선중심점의 정도관리 정보로부터 방사선중심점의 크기를 측정하여 어떤 변화가 있는지 분석하였다. 개발한 방법은 먼저 star-shot 영상의 빔(ray)들 각각의 중심선 위에 있는 두 개의 점들을 찾아서 모든 중심선들의 방정식을 구하고 구한 방정식을 이용하여 중심선들을 모두 가로지르는 원의 최소의 직경을 찾아 방사선중심점의 크기를 구하는 것이다. 프로그램은 중심선의 x-절편과 y-절편을 0.084 mm 이하의 정확도로 찾아냈고 방사선중심점의 크기는 0.053 mm의 정확도로 구하여 검증에 사용한 영상의 해상도 0.085 mm보다 작았다. Clinac 21EX의 radiation isocenter의 크기는 콜리메이터, 갠트리, 테이블 각각 $0.33{\pm}0.27mm$, $0.71{\pm}0.36mm$, $0.50{\pm}0.16mm$였고 측정 기간 동안 2.0 mm보다 작게 나와 모두 허용한도를 만족하였다. 개발한 프로그램은 충분한 정확도로 방사선중심점의 크기를 계산해주어 정기적인 정도관리에 많은 도움이 될 것으로 생각된다.

딥러닝에 의한 라이다 반사강도로부터 엄밀정사영상 생성 (True Orthoimage Generation from LiDAR Intensity Using Deep Learning)

  • 신영하;형성웅;이동천
    • 한국측량학회지
    • /
    • 제38권4호
    • /
    • pp.363-373
    • /
    • 2020
  • 정사영상 생성을 위한 많은 연구들이 진행되어 왔다. 기존의 방법은 정사영상을 제작할 경우, 폐색지역을 탐지하고 복원하기 위해 항공영상의 외부표정요소와 정밀 3D 객체 모델링 데이터가 필요하며, 일련의 복잡한 과정을 자동화하는 것은 어렵다. 본 논문에서는 기존의 방법에서 탈피하여 딥러닝(DL)을 이용하여 엄밀정사영상을 제작하는 새로운 방법을 제안하였다. 딥러닝은 여러 분야에서 더욱 급속하게 활용되고 있으며, 최근 생성적 적대 신경망(GAN)은 영상처리 및 컴퓨터비전 분야에서 많은 관심의 대상이다. GAN을 구성하는 생성망은 실제 영상과 유사한 결과가 생성되도록 학습을 수행하고, 판별망은 생성망의 결과가 실제 영상으로 판단될 때까지 반복적으로 수행한다. 본 논문에서 독일 사진측량, 원격탐사 및 공간정보학회(DGPF)가 구축하고 국제 사진측량 및 원격탐사학회(ISPRS)가 제공하는 데이터 셋 중에서 라이다 반사강도 데이터와 적외선 정사영상을 GAN기반의 Pix2Pix 모델 학습에 사용하여 엄밀정사영상을 생성하는 두 가지 방법을 제안하였다. 첫 번째 방법은 라이다 반사강도영상을 입력하고 고해상도의 정사영상을 목적영상으로 사용하여 학습하는 방식이고, 두 번째 방법에서도 입력영상은 첫 번째 방법과 같이 라이다 반사강도영상이지만 목적영상은 라이다 점군집 데이터에 칼라를 지정한 저해상도의 영상을 이용하여 재귀적으로 학습하여 점진적으로 화질을 개선하는 방법이다. 두 가지 방법으로 생성된 정사영상을 FID(Fréchet Inception Distance)를 이용하여 정량적 수치로 비교하면 큰 차이는 없었지만, 입력영상과 목적영상의 품질이 유사할수록, 학습 수행 시 epoch를 증가시키면 우수한 결과를 얻을 수 있었다. 본 논문은 딥러닝으로 엄밀정사영상 생성 가능성을 확인하기 위한 초기단계의 실험적 연구로서 향후 보완 및 개선할 사항을 파악할 수 있었다.

무인항공기 영상 활용 자동 정합점 추출을 통한 KOMPSAT-3A 위성영상의 RPC 보정 (RPC Correction of KOMPSAT-3A Satellite Image through Automatic Matching Point Extraction Using Unmanned AerialVehicle Imagery)

  • 박주언;김태헌;이창희;한유경
    • 대한원격탐사학회지
    • /
    • 제37권5_1호
    • /
    • pp.1135-1147
    • /
    • 2021
  • 고해상도 위성영상의 기하보정을 위해 촬영 당시의 위성 센서와 지표면과의 기하학적 관계를 복원하는 센서모델링 과정이 필요하다. 이를 위해 일반적으로 고해상도 위성은 RPC (Rational Polynomial Coefficient) 정보를 제공하고 있지만, 제공 RPC는 위성 센서의 위치와 자세 등에 의해 발생하는 기하왜곡을 포함하고 있다. 이러한 RPC 오차를 보정하기 위해 일반적으로 지상기준점(Ground Control Points)을 활용한다. 지상기준점을 수집하는 대표적인 방법으로 현장 측량을 통해 지상좌표를 취득하지만, 이는 위성영상의 품질이나 촬영 시기에 따른 토지피복의 변화, 기복변위 등으로 위성영상 내에서 지상기준점을 판독하기에 어려운 문제가 있다. 이에 최근에는 다양한 센서로부터 취득된 영상지도를 참조자료로 이용하여, 영상정합 기법을 통해 지상기준점 수집을 자동화할 수 있다. 본 연구에서는 무인항공기 영상을 활용하여 추출된 정합점을 통해 KOMPSAT-3A 위성영상의 RPC를 보정하고자 한다. 무인항공기 영상과 KOMPSAT-3A 위성영상의 정합점 추출을 위한 전처리 방법을 제안하고, 대표적인 특징기반 정합기법(Feature-based matching method)과 영역기반 정합기법(Area-based matching method)인 SURF (Speeded-Up Robust Features)와 위상상관(Phase Correlation) 기법을 각각 적용하여 추출된 정합점의 특성을 비교하였다. 각 기법을 통해 추출된 정합점을 활용하여 RPC 보정계수를 산출한 후, GNSS (Global Navigation Satellite System) 측량을 통해 직접 취득한 검사점에 적용하여 KOMPSAT-3A의 기하품질을 향상하였다. 제안기법의 성능 및 활용성 검증을 위해 GCP를 이용하여 보정한 결과와 비교하여 분석하였다. GCP 기반 보정 방법은 제공 RPC보다 Sample은 2.14 pixel, Line은 5.43 pixel 만큼 개선된 보정 정확도를 보였다. 그리고 SURF와 위상상관 기법을 활용한 제안기법은 제공 RPC보다 각각 Sample은 0.83 pixel, 1.49 pixel만큼 보정되었으며, Line은 4.81 pixel, 5.19 pixel만큼 개선되었다. 이를 통해 GCP 기반 위성영상 RPC 보정 방법의 대안으로 무인항공기 영상이 활용될 수 있음을 확인하였다.

하천정비기본계획 CAD 형식 단면 측량자료 자동 추출 및 하천공간 데이터베이스 업로딩과 HEC-RAS 지원을 위한 RAUT 툴 개발 (RAUT: An end-to-end tool for automated parsing and uploading river cross-sectional survey in AutoCAD format to river information system for supporting HEC-RAS operation)

  • 김경동;김동수;유호준
    • 한국수자원학회논문집
    • /
    • 제54권12호
    • /
    • pp.1339-1348
    • /
    • 2021
  • 하천법에 의거하여 국내 하천들에는 상당한 국가예산으로 하천정비기본계획이 5-10년 주기로 수립되고 있으며, 홍수위 계산을 위한 HEC-RAS 모의에 필요한 하천단면 등 다양한 하천측량이 실시되고 있다. 그러나, 하천측량자료들은 하천관리지리정보시스템(RIMGIS)에 pdf 보고서 형태로만 제공되고, 원자료는 CAD 형식으로 하천정비계획을 수행한 설계사 등이 분산 소유하고 있어 관리 부재로 망실의 우려도 있어, 다른 용도로의 활용성이 상당히 저하되어 있는 실정이다. 그리고, 측량된 CAD 형식의 단면자료 등을 HEC-RAS에 활용할 때, 'Dream'과 같은 툴을 활용하나 거의 수작업에 가까운 시간과 비용이 소요되는 현실에 있다. 본 연구에서는 이러한 문제들을 해결할 수 있는 툴인 RAUT(River information Auto Upload Tool)를 개발하였다. RAUT 툴은 첫째, 실무에서 하천기본계획 수립 시 활용되는 HEC-RAS 1차원 모형의 입력자료를 CAD 측량자료를 직접 수기로 입력 및 모의를 실시하는 복잡한 단계를 자동화시키고자 하였다. 둘째, 하천공간정보인 CAD측량 자료를 직접 읽어 표준 데이터 모델 (ArcRiver)기반 하천공간정보 DB에 자동 업로드하여 전국단위의 하천정비계획의 하천측량자료 관리가 가능하게 할 수 있다. 즉, 만약 RIMGIS가 RAUT와 같은 툴을 사용하면 하천단면과 같은 전국단위 하천측량 자료를 체계적으로 관리할 수 있게 된다는 의미이다. 개발한 RAUT는 제주도 한천유역을 대상으로 하천정비기본계획의 하천공간정보 CAD자료를 읽어들여 mySQL기반 공간 DB로 구축하고, 구축된 DB로부터 HEC-RAS 1차원 모의 실시하기 위한 지형자료를 자동으로 생성시키는 과정을 시범적으로 구현하였다.

Deep Convolution Neural Networks 이용하여 결함 검출을 위한 결함이 있는 철도선로표면 디지털영상 재 생성 (Regeneration of a defective Railroad Surface for defect detection with Deep Convolution Neural Networks)

  • 김현호;한석민
    • 인터넷정보학회논문지
    • /
    • 제21권6호
    • /
    • pp.23-31
    • /
    • 2020
  • 본 연구는 철도표면상에 발생하는 노후 현상 중 하나인 결함 검출을 위해 학습데이터를 생성함으로써 결함 검출 모델에서 더 높은 점수를 얻기 위해 진행되었다. 철도표면에서 결함은 선로결속장치 및 선로와 차량의 마찰 등 다양한 원인에 의해 발생하고 선로 파손 등의 사고를 유발할 수 있기 때문에 결함에 대한 철도 유지관리가 필요 하다. 그래서 철도 유지관리의 자동화 및 비용절감을 위해 철도 표면 영상에 영상처리 또는 기계학습을 활용한 결함 검출 및 검사에 대한 다양한 연구가 진행되고 있다. 일반적으로 영상 처리 분석기법 및 기계학습 기술의 성능은 데이터의 수량과 품질에 의존한다. 그렇기 때문에 일부 연구는 일반적이고 다양한 철도표면영상의 데이터베이스를 확보하기위해 등간격으로 선로표면을 촬영하는 장치 또는 탑재된 차량이 필요로 하였다. 본연구는 이러한 기계적인 영상획득 장치의 운용비용을 감소시키고 보완하기 위해 대표적인 영상생성관련 딥러닝 모델인 생성적 적대적 네트워크의 기본 구성에서 여러 관련연구에서 제시된 방법을 응용, 결함이 있는 철도 표면 재생성모델을 구성하여, 전용 데이터베이스가 구축되지 않은 철도 표면 영상에 대해서도 결함 검출을 진행할 수 있도록 하였다. 구성한 모델은 상이한 철도 표면 텍스처들을 반영한 철도 표면 생성을 학습하고 여러 임의의 결함의 위치에 대한 Ground-Truth들을 만족하는 다양한 결함을 재 생성하도록 설계하였다. 재생성된 철도 표면의 영상들을 결함 검출 딥러닝 모델에 학습데이터로 사용한다. 재생성모델의 유효성을 검증하기 위해 철도표면데이터를 3가지의 하위집합으로 군집화 하여 하나의 집합세트를 원본 영상으로 정의하고, 다른 두개의 나머지 하위집합들의 몇가지의 선로표면영상을 텍스처 영상으로 사용하여 새로운 철도 표면 영상을 생성한다. 그리고 결함 검출 모델에서 학습데이터로 생성된 새로운 철도 표면 영상을 사용하였을 때와, 생성된 철도 표면 영상이 없는 원본 영상을 사용하였을 때를 나누어 검증한다. 앞서 분류했던 하위집합들 중에서 원본영상으로 사용된 집합세트를 제외한 두 개의 하위집합들은 각각의 환경에서 학습된 결함 검출 모델에서 검증하여 출력인 픽셀단위 분류지도 영상을 얻는다. 이 픽셀단위 분류지도영상들과 실제 결함의 위치에 대한 원본결함 지도(Ground-Truth)들의 IoU(Intersection over Union) 및 F1-score로 평가하여 성능을 계산하였다. 결과적으로 두개의 하위집합의 텍스처 영상을 이용한 재생성된 학습데이터를 학습한 결함 검출모델의 점수는 원본 영상만을 학습하였을 때의 점수보다 약 IoU 및 F1-score가 10~15% 증가하였다. 이는 전용 학습 데이터가 구축되지 않은 철도표면 영상에 대해서도 기존 데이터를 이용하여 결함 검출이 상당히 가능함을 증명하는 것이다.

머신러닝을 이용한 터널발파설계 자동화를 위한 기초연구 (A fundamental study on the automation of tunnel blasting design using a machine learning model)

  • 김양균;이제겸;이승원
    • 한국터널지하공간학회 논문집
    • /
    • 제24권5호
    • /
    • pp.431-449
    • /
    • 2022
  • 지금까지 국내에서는 수 많은 터널들이 완공되어 오면서 시공에서뿐 아니라 설계에서도 다양한 경험과 기술이 지속적으로 축적되어 왔다. 따라서 이제는 매우 복잡한 지질조건 또는 특수한 터널구조가 아니라면 일반적인 터널설계작업은 설계 항목에 따라 기존 유사 설계사례를 수정 또는 보완하는 것만으로도 충분한 경우도 적지 않다. 특히 터널발파설계의 경우, 실제 터널시공시 현장에서 시험발파를 통해 시공을 위한 발파설계를 추가로 수행하는 것이 일반적이라는 것을 감안할때, 설계단계에서 수행하는 발파설계는 예비설계 성격을 지니고 있어 기존의 유사 설계사례를 참고하는 것도 타당하다고 사료된다. 한편 최근 4차산업혁명시대에 들어서면서 전 산업분야에 걸쳐 그 활용도가 급증하고 있는 인공지능은 터널 및 발파분야에서도 다양하게 활용되고 있지만, 발파터널의 경우 발파진동 및 암반분류 등의 예측 분야에서 주로 활용되고 있을 뿐 터널발파패턴 설계에 활용된 사례는 많지 않다. 따라서 본 연구에서는 터널발파설계를 인공지능의 한 분야인 머신러닝 모델을 이용하여 자동화하기 위한 시도를 하였다. 이를 위하여 25개 학습용 터널설계 자료 및 2개의 시험용 설계자료에서 4가지의 입력데이터(지보패턴, 도로유형, 상반 및 하반 단면적) 및 16개의 출력데이터(심발공 종류, 비장약량, 천공수, 각 발파공 그룹별 공간격과 저항선 등)를 발췌하였다. 이를 기반으로 3가지 머신러닝 모델, 즉, XGBoost, ANN, SVM 모델을 시험한 결과 XGBoost모델이 상대적으로 최상의 결과를 나타내었다. 또한 이를 이용하여 실제 발파설계 상황을 가정하여 발파패턴을 제안하도록 한 결과 일부 항목에서 보완이 필요하긴 하지만 일반적 설계와 유사한 결과를 나타내었다. 본 연구가 기초연구 성격이어서 전체 발파설계를 완벽하게 수행하기는 아직 부족하지만, 향후 충분한 발파설계데이터를 확보하고 세부적인 처리과정을 보완하여 실용적인 활용이 가능하도록 추가 연구를 수행할 계획이다.

키워드 자동 생성에 대한 새로운 접근법: 역 벡터공간모델을 이용한 키워드 할당 방법 (A New Approach to Automatic Keyword Generation Using Inverse Vector Space Model)

  • 조원진;노상규;윤지영;박진수
    • Asia pacific journal of information systems
    • /
    • 제21권1호
    • /
    • pp.103-122
    • /
    • 2011
  • Recently, numerous documents have been made available electronically. Internet search engines and digital libraries commonly return query results containing hundreds or even thousands of documents. In this situation, it is virtually impossible for users to examine complete documents to determine whether they might be useful for them. For this reason, some on-line documents are accompanied by a list of keywords specified by the authors in an effort to guide the users by facilitating the filtering process. In this way, a set of keywords is often considered a condensed version of the whole document and therefore plays an important role for document retrieval, Web page retrieval, document clustering, summarization, text mining, and so on. Since many academic journals ask the authors to provide a list of five or six keywords on the first page of an article, keywords are most familiar in the context of journal articles. However, many other types of documents could not benefit from the use of keywords, including Web pages, email messages, news reports, magazine articles, and business papers. Although the potential benefit is large, the implementation itself is the obstacle; manually assigning keywords to all documents is a daunting task, or even impractical in that it is extremely tedious and time-consuming requiring a certain level of domain knowledge. Therefore, it is highly desirable to automate the keyword generation process. There are mainly two approaches to achieving this aim: keyword assignment approach and keyword extraction approach. Both approaches use machine learning methods and require, for training purposes, a set of documents with keywords already attached. In the former approach, there is a given set of vocabulary, and the aim is to match them to the texts. In other words, the keywords assignment approach seeks to select the words from a controlled vocabulary that best describes a document. Although this approach is domain dependent and is not easy to transfer and expand, it can generate implicit keywords that do not appear in a document. On the other hand, in the latter approach, the aim is to extract keywords with respect to their relevance in the text without prior vocabulary. In this approach, automatic keyword generation is treated as a classification task, and keywords are commonly extracted based on supervised learning techniques. Thus, keyword extraction algorithms classify candidate keywords in a document into positive or negative examples. Several systems such as Extractor and Kea were developed using keyword extraction approach. Most indicative words in a document are selected as keywords for that document and as a result, keywords extraction is limited to terms that appear in the document. Therefore, keywords extraction cannot generate implicit keywords that are not included in a document. According to the experiment results of Turney, about 64% to 90% of keywords assigned by the authors can be found in the full text of an article. Inversely, it also means that 10% to 36% of the keywords assigned by the authors do not appear in the article, which cannot be generated through keyword extraction algorithms. Our preliminary experiment result also shows that 37% of keywords assigned by the authors are not included in the full text. This is the reason why we have decided to adopt the keyword assignment approach. In this paper, we propose a new approach for automatic keyword assignment namely IVSM(Inverse Vector Space Model). The model is based on a vector space model. which is a conventional information retrieval model that represents documents and queries by vectors in a multidimensional space. IVSM generates an appropriate keyword set for a specific document by measuring the distance between the document and the keyword sets. The keyword assignment process of IVSM is as follows: (1) calculating the vector length of each keyword set based on each keyword weight; (2) preprocessing and parsing a target document that does not have keywords; (3) calculating the vector length of the target document based on the term frequency; (4) measuring the cosine similarity between each keyword set and the target document; and (5) generating keywords that have high similarity scores. Two keyword generation systems were implemented applying IVSM: IVSM system for Web-based community service and stand-alone IVSM system. Firstly, the IVSM system is implemented in a community service for sharing knowledge and opinions on current trends such as fashion, movies, social problems, and health information. The stand-alone IVSM system is dedicated to generating keywords for academic papers, and, indeed, it has been tested through a number of academic papers including those published by the Korean Association of Shipping and Logistics, the Korea Research Academy of Distribution Information, the Korea Logistics Society, the Korea Logistics Research Association, and the Korea Port Economic Association. We measured the performance of IVSM by the number of matches between the IVSM-generated keywords and the author-assigned keywords. According to our experiment, the precisions of IVSM applied to Web-based community service and academic journals were 0.75 and 0.71, respectively. The performance of both systems is much better than that of baseline systems that generate keywords based on simple probability. Also, IVSM shows comparable performance to Extractor that is a representative system of keyword extraction approach developed by Turney. As electronic documents increase, we expect that IVSM proposed in this paper can be applied to many electronic documents in Web-based community and digital library.