• 제목/요약/키워드: Semantic maps

검색결과 79건 처리시간 0.023초

텍스트 내용 지식 기반의 철학 온톨로지 구축 (Implementation a Philosophy Ontology based on Knowledge of Text Contents)

  • 김정민;최병일;김형주
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제11권3호
    • /
    • pp.275-283
    • /
    • 2005
  • 시맨틱 웹이나 지식기반 시스템에서 지식 검색의 핵심 컴포넌트는 온톨로지이다. 하지만 현재 실용적인 온톨로지가 구축된 경우를 찾아보기는 어렴다. 실용적인 온톨로지 구축을 위해서는 특정 도메인의 지식 전문가에 의한 지식의 개념화와 온톨로지 설계자에 의한 지식의 명세화가 필요하며 이를 바탕으로 개발 팀원들 사이에 공유할 수 있는 자세한 온톨로지 생성 가이드라인이 필요하다. 그러나 기존의 온톨로지 생성 방법론은 은톨로지 구축 프로세스의 단계들을 상위 수준에서 나열하는 절차 중심의 방법론이다 본 논문에서는 철학 학문의 지식을 구조화하는 실용적인 온톨로지를 구축하는 방법으로서 텍스트 내용에 들어있는 지식을 온톨로지로 생성하는 토픽맵 기반의 덱스트 온톨로지 방법론을 제시하였다. 이 방법론은 지식 자원으로부터 지식을 분석하고 추출하는 온톨로지 모델링 단계와 형식 언어와 데이타 모델을 이용하여 온톨로지를 생성하는 온톨로지 구현 단계로 구성된다. 방법론과 함께 본 논문에서는 철학 온톨로지에 기반한 철학 지식 검색의 효율성을 보이기 위해 철학 지식 포털을 구현하였다.

위성영상을 활용한 토지피복 분류 항목별 딥러닝 최적화 연구 (A Study on Deep Learning Optimization by Land Cover Classification Item Using Satellite Imagery)

  • 이성혁;이명진
    • 대한원격탐사학회지
    • /
    • 제36권6_2호
    • /
    • pp.1591-1604
    • /
    • 2020
  • 본 연구는 고해상도 위성영상을 딥러닝 알고리즘에 적용하여 토지피복을 분류하고 공간객체별 알고리즘의 성능 검증에 대한 연구이다. 이를 Fully Convolutional Network계열의 알고리즘을 선정하였으며, Kompasat-3 위성영상, 토지피복지도 및 임상도를 활용하여 데이터셋을 구축하였다. 구축된 데이터셋을 알고리즘에 적용하여 각각 최적 하이퍼파라미터를 산출하였다. 하이퍼파라미터 최적화 이후 최종 분류를 시행하였으며, 전체 정확도는 DeeplabV3+가 81.7%로 가장 높게 산정되었다. 그러나 분류 항목별로 정확도를 살펴보면, 도로 및 건물에서 SegNet이 가장 우수한 성능을 나타내었으며, 활엽수, 논의 항목에서 U-Net이 가장 높은 정확도를 보였다. DeeplabV3+의 경우 밭과 시설재배지, 초지 등에서 다른 두 모델보다 우수한 성능을 나타내었다. 결과를 통해 토지피복 분류를 위해 하나의 알고리즘 적용에 대한 한계점을 확인하였으며, 향후 공간객체별로 적합한 알고리즘을 적용한다면, 높은 품질의 토지피복분류 결과를 산출할 수 있을 것으로 기대된다.

Deep learning-based post-disaster building inspection with channel-wise attention and semi-supervised learning

  • Wen Tang;Tarutal Ghosh Mondal;Rih-Teng Wu;Abhishek Subedi;Mohammad R. Jahanshahi
    • Smart Structures and Systems
    • /
    • 제31권4호
    • /
    • pp.365-381
    • /
    • 2023
  • The existing vision-based techniques for inspection and condition assessment of civil infrastructure are mostly manual and consequently time-consuming, expensive, subjective, and risky. As a viable alternative, researchers in the past resorted to deep learning-based autonomous damage detection algorithms for expedited post-disaster reconnaissance of structures. Although a number of automatic damage detection algorithms have been proposed, the scarcity of labeled training data remains a major concern. To address this issue, this study proposed a semi-supervised learning (SSL) framework based on consistency regularization and cross-supervision. Image data from post-earthquake reconnaissance, that contains cracks, spalling, and exposed rebars are used to evaluate the proposed solution. Experiments are carried out under different data partition protocols, and it is shown that the proposed SSL method can make use of unlabeled images to enhance the segmentation performance when limited amount of ground truth labels are provided. This study also proposes DeepLab-AASPP and modified versions of U-Net++ based on channel-wise attention mechanism to better segment the components and damage areas from images of reinforced concrete buildings. The channel-wise attention mechanism can effectively improve the performance of the network by dynamically scaling the feature maps so that the networks can focus on more informative feature maps in the concatenation layer. The proposed DeepLab-AASPP achieves the best performance on component segmentation and damage state segmentation tasks with mIoU scores of 0.9850 and 0.7032, respectively. For crack, spalling, and rebar segmentation tasks, modified U-Net++ obtains the best performance with Igou scores (excluding the background pixels) of 0.5449, 0.9375, and 0.5018, respectively. The proposed architectures win the second place in IC-SHM2021 competition in all five tasks of Project 2.

머신러닝 기반 MMS Point Cloud 의미론적 분할 (Machine Learning Based MMS Point Cloud Semantic Segmentation)

  • 배재구;서동주;김진수
    • 대한원격탐사학회지
    • /
    • 제38권5_3호
    • /
    • pp.939-951
    • /
    • 2022
  • 자율주행차에 있어 가장 중요한 요소는 차량 주변 환경과 정확한 위치를 인식하는 것이며, 이를 위해 다양한 센서와 항법 시스템 등이 활용된다. 하지만 센서와 항법 시스템의 한계와 오차로 인해 차량 주변 환경과 위치 인식에 어려움이 있다. 이러한 한계를 극복하고 안전하고 편리한 자율주행을 위해서 고정밀의 인프라 정보를 제공하는 정밀도로지도(high definition map, HD map)의 필요성은 증대되고 있다. 정밀도로지도는 모바일 매핑 시스템(mobile mapping system, MMS)을 통해 획득된 3차원 point cloud 데이터를 이용하여 작성된다. 하지만 정밀도로지도 작성에 많은 양의 점을 필요로 하고 작성 항목이 많아 수작업이 요구되어 많은 비용과 시간이 소요된다. 본 연구는 정밀도로지도의 필수 요소인 차선을 포함한 도로, 연석, 보도, 중앙분리대, 기타 6개의 클래스로 MMS point cloud 데이터를 유의미한정보로 분할하여 정밀도로지도의 효율적인 작성에 목적을 둔다. 분할에는 머신러닝 모델인 random forest (RF), support vector machine (SVM), k-nearest neighbor (KNN) 그리고 gradient boosting machine (GBM)을 사용하였고 MMS point cloud 데이터의 기하학적, 색상, 강도 특성과 차선 분할을 위해 추가한 도로 설계적 특성을 고려하여 11개의 변수를 선정하였다. 부산광역시 미남역 일대 5차선도로 130 m 구간의 MMS point cloud 데이터를 사용하였으며, 분할 결과 각 모델의 평균 F1 score는 RF 95.43%, SVM 92.1%, GBM 91.05%, KNN 82.63%로 나타났다. 가장 좋은 분할 성능을 보인 모델은 RF이며 클래스 별 F1 score는 도로, 보도, 연석, 중앙분리대, 차선에서 F1 score가 각각 99.3%, 95.5%, 94.5%, 93.5%, 90.1% 로 나타났다. RF 모델의 변수 중요도 결과는 본 연구에서 추가한 도로 설계적 특성의 변수 XY dist., Z dist. 모두 mean decrease accuracy (MDA), mean decrease gini (MDG)가 높게 나타났다. 이는 도로 설계적 특성을 고려한 변수가 차선을 포함한 여러 클래스 분할에 중요하게 작용하였음을 뜻한다. 본 연구를 통해 MMS point cloud를 머신러닝 기반으로 차선을 포함한 여러 클래스로 분할 가능성을 확인하고 정밀도로지도 작성 시 수작업으로 인한 비용과 시간 소모를 줄이는데 도움이 될 것으로 기대한다.

철학 디지털 지식 자원의 효과적인 구축 방향에 대한 연구 (A Study of Effective Creating Methods of Philosophy Digital Knowledge Resources)

  • 최병일;정현숙
    • 한국콘텐츠학회논문지
    • /
    • 제5권2호
    • /
    • pp.39-51
    • /
    • 2005
  • 철학의 연구는 과거의 연구 성과에 대한 지식을 축적하고 이를 재구성한 다음 새롭게 해석하는 과정이다. 철학 디지털 지식 자원은 연구 성과의 축적 및 검색을 지원함으로써 철학 연구에 있어서 필수 불가결한 요소가 되었다. 본 논문에서는 국내외 철학 디지털 지식 자원의 구축 현황에 대한 조사 결과를 소개하고 이들 철학 디지털 지식 자원이 가지는 문제점과 개선 방안에 대해 서술한다. 또한 온톨로지 데이터 모델인 토픽맵을 기반으로 철학 온톨로지를 구축함으로써 철학 지식의 계층적 및 연관적 관계 정의와 의미 기반 지식 검색이 가능함을 보인다.

  • PDF

AUTOMATIC GENERATION OF BUILDING FOOTPRINTS FROM AIRBORNE LIDAR DATA

  • Lee, Dong-Cheon;Jung, Hyung-Sup;Yom, Jae-Hong;Lim, Sae-Bom;Kim, Jung-Hyun
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2007년도 Proceedings of ISRS 2007
    • /
    • pp.637-641
    • /
    • 2007
  • Airborne LIDAR (Light Detection and Ranging) technology has reached a degree of the required accuracy in mapping professions, and advanced LIDAR systems are becoming increasingly common in the various fields of application. LiDAR data constitute an excellent source of information for reconstructing the Earth's surface due to capability of rapid and dense 3D spatial data acquisition with high accuracy. However, organizing the LIDAR data and extracting information from the data are difficult tasks because LIDAR data are composed of randomly distributed point clouds and do not provide sufficient semantic information. The main reason for this difficulty in processing LIDAR data is that the data provide only irregularly spaced point coordinates without topological and relational information among the points. This study introduces an efficient and robust method for automatic extraction of building footprints using airborne LIDAR data. The proposed method separates ground and non-ground data based on the histogram analysis and then rearranges the building boundary points using convex hull algorithm to extract building footprints. The method was implemented to LIDAR data of the heavily built-up area. Experimental results showed the feasibility and efficiency of the proposed method for automatic producing building layers of the large scale digital maps and 3D building reconstruction.

  • PDF

Three-stream network with context convolution module for human-object interaction detection

  • Siadari, Thomhert S.;Han, Mikyong;Yoon, Hyunjin
    • ETRI Journal
    • /
    • 제42권2호
    • /
    • pp.230-238
    • /
    • 2020
  • Human-object interaction (HOI) detection is a popular computer vision task that detects interactions between humans and objects. This task can be useful in many applications that require a deeper understanding of semantic scenes. Current HOI detection networks typically consist of a feature extractor followed by detection layers comprising small filters (eg, 1 × 1 or 3 × 3). Although small filters can capture local spatial features with a few parameters, they fail to capture larger context information relevant for recognizing interactions between humans and distant objects owing to their small receptive regions. Hence, we herein propose a three-stream HOI detection network that employs a context convolution module (CCM) in each stream branch. The CCM can capture larger contexts from input feature maps by adopting combinations of large separable convolution layers and residual-based convolution layers without increasing the number of parameters by using fewer large separable filters. We evaluate our HOI detection method using two benchmark datasets, V-COCO and HICO-DET, and demonstrate its state-of-the-art performance.

심층학습 기법을 활용한 효과적인 타이어 마모도 분류 및 손상 부위 검출 알고리즘 (Efficient Tire Wear and Defect Detection Algorithm Based on Deep Learning)

  • 박혜진;이영운;김병규
    • 한국멀티미디어학회논문지
    • /
    • 제24권8호
    • /
    • pp.1026-1034
    • /
    • 2021
  • Tire wear and defect are important factors for safe driving condition. These defects are generally inspected by some specialized experts or very expensive equipments such as stereo depth camera and depth gauge. In this paper, we propose tire safety vision inspector based on deep neural network (DNN). The status of tire wear is categorized into three: 'safety', 'warning', and 'danger' based on depth of tire tread. We propose an attention mechanism for emphasizing the feature of tread area. The attention-based feature is concatenated to output feature maps of the last convolution layer of ResNet-101 to extract more robust feature. Through experiments, the proposed tire wear classification model improves 1.8% of accuracy compared to the existing ResNet-101 model. For detecting the tire defections, the developed tire defect detection model shows up-to 91% of accuracy using the Mask R-CNN model. From these results, we can see that the suggested models are useful for checking on the safety condition of working tire in real environment.

Crack segmentation in high-resolution images using cascaded deep convolutional neural networks and Bayesian data fusion

  • Tang, Wen;Wu, Rih-Teng;Jahanshahi, Mohammad R.
    • Smart Structures and Systems
    • /
    • 제29권1호
    • /
    • pp.221-235
    • /
    • 2022
  • Manual inspection of steel box girders on long span bridges is time-consuming and labor-intensive. The quality of inspection relies on the subjective judgements of the inspectors. This study proposes an automated approach to detect and segment cracks in high-resolution images. An end-to-end cascaded framework is proposed to first detect the existence of cracks using a deep convolutional neural network (CNN) and then segment the crack using a modified U-Net encoder-decoder architecture. A Naïve Bayes data fusion scheme is proposed to reduce the false positives and false negatives effectively. To generate the binary crack mask, first, the original images are divided into 448 × 448 overlapping image patches where these image patches are classified as cracks versus non-cracks using a deep CNN. Next, a modified U-Net is trained from scratch using only the crack patches for segmentation. A customized loss function that consists of binary cross entropy loss and the Dice loss is introduced to enhance the segmentation performance. Additionally, a Naïve Bayes fusion strategy is employed to integrate the crack score maps from different overlapping crack patches and to decide whether a pixel is crack or not. Comprehensive experiments have demonstrated that the proposed approach achieves an 81.71% mean intersection over union (mIoU) score across 5 different training/test splits, which is 7.29% higher than the baseline reference implemented with the original U-Net.

RDNN: Rumor Detection Neural Network for Veracity Analysis in Social Media Text

  • SuthanthiraDevi, P;Karthika, S
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권12호
    • /
    • pp.3868-3888
    • /
    • 2022
  • A widely used social networking service like Twitter has the ability to disseminate information to large groups of people even during a pandemic. At the same time, it is a convenient medium to share irrelevant and unverified information online and poses a potential threat to society. In this research, conventional machine learning algorithms are analyzed to classify the data as either non-rumor data or rumor data. Machine learning techniques have limited tuning capability and make decisions based on their learning. To tackle this problem the authors propose a deep learning-based Rumor Detection Neural Network model to predict the rumor tweet in real-world events. This model comprises three layers, AttCNN layer is used to extract local and position invariant features from the data, AttBi-LSTM layer to extract important semantic or contextual information and HPOOL to combine the down sampling patches of the input feature maps from the average and maximum pooling layers. A dataset from Kaggle and ground dataset #gaja are used to train the proposed Rumor Detection Neural Network to determine the veracity of the rumor. The experimental results of the RDNN Classifier demonstrate an accuracy of 93.24% and 95.41% in identifying rumor tweets in real-time events.