• 제목/요약/키워드: IoU

검색결과 192건 처리시간 0.025초

IoT와 적외선 신호 제어를 융합한 스마트 홈 플랫폼

  • 우인구
    • 정보와 통신
    • /
    • 제32권4호
    • /
    • pp.57-62
    • /
    • 2015
  • 사물인터넷의 발전과 함께 홈 IoT(사물인터넷 기반 스마트 홈)로 주거 문화가 바뀌고 있다. 과거 고급형 대단위 아파트 중심의 홈 오토메이션 시스템이 스마트폰으로 촉발된 모바일 혁명을 바탕으로 쉽고 편하게 사용할 수 있는 생활 밀착형 스마트 홈으로 전환되고 있으며, 제품 판매 중심이었던 수익모델도 다양한 서비스를 기반으로 하는 플랫폼 사업으로 변화하고 있다. 본고에서는 최근 발전을 거듭하고 있는 홈 IoT 플랫폼과 함께 적외선 제어 방식을 추가한 디지엔스의 홈 IoT 플랫폼을 소개한다.

자동 균열 조사기법의 정확도 평가를 위한 조사선 기반의 지표 제안 (Scanline Based Metric for Evaluating the Accuracy of Automatic Fracture Survey Methods)

  • 김진언;송재준
    • 터널과지하공간
    • /
    • 제29권4호
    • /
    • pp.230-242
    • /
    • 2019
  • 신속한 암반 및 암석 균열 조사를 위해서는 자동화된 조사기법이 필요하다. 그러나 자동 조사기법의 균열 지도가 수동으로 조사한 것과 얼마나 일치하는지 표기하는 단일 지표가 없어서 그 정확도를 평가하는데 어려움이 있다. 따라서 본 연구에서는 균열 지도 간의 일치도를 단일 값으로 표현하는 조사선 교차 일치도 (Scanline Intersection Similarity, SIS)라는 지표를 새롭게 제안하였다. 제안된 지표는 두 균열 지도의 균열 빈도를 다수의 조사선 상에서 비교하여 이들 간의 기하학적 일치도를 도출한다. 해당 지표의 적용성을 검토하기 위해 컴퓨터 비전 (Computer Vision) 분야에서 널리 사용하는 일치도 지표인 Intersection Over Union (IoU)과 비교분석하였다. IoU는 균열의 미시적 형태 차이를 과대평가하는 반면에, 제안된 지표의 경우 미시적 형태 차이보다 경사와 같은 거시적 형태 차이를 더 민감하게 반영하였다. 따라서 균열의 거시적 형태가 중요한 암반 공학적 관점에서, 제안된 지표가 IoU 보다 균열 지도의 일치도 지표로써 적합하였다. 더 나아가 제안된 지표를 딥러닝(Deep Learning)을 이용한 균열 조사기법에 적용해본 결과, 해당 기법의 정확도가 조사선 교차 일치도로 0.674 임을 확인하였다.

M2M/IoT 서비스를 위한 무선 통신망 기술 : 지속적 WSN망과 Cellular 접근망

  • 김종헌;김재우;유석;이재용
    • 정보와 통신
    • /
    • 제30권8호
    • /
    • pp.11-19
    • /
    • 2013
  • 본고에서는 M2M/IoT 통신의 실현을 위한 무선 통신망 기술을 알아보고 IoT 통신을 위한 요구사항과 이를 해결하기 위한 연구 동향을 살펴본다. 특히, 많은 수의 IoT 디바이스가 싱크 노드를 이용하여 IP 망에 접속하는 Wireless Sensor network(WSN)에서의 문제와, LTE-A와 같은 cellular 망을 이용하여 접속하는 IoT 서비스로 나누어 논의한다. WSN관점에서는 에너지에 대한 제약이 심한 환경을 고려하여 발생할 수 문제점들을 분류하고 이에 대한 다양한 해결책을 제시하며, Cellular 망에서는 현재의 LTE-A 망에 많은 수의 IoT 디바이스가 연결될 경우 발생할 수 있는 문제점들을 논하고 기존의 통신에 영향을 최소화 하며 IoT 서비스를 공존할 수 있는 연구 동향을 논한다.

Comparison of Multi-Label U-Net and Mask R-CNN for panoramic radiograph segmentation to detect periodontitis

  • Rini, Widyaningrum;Ika, Candradewi;Nur Rahman Ahmad Seno, Aji;Rona, Aulianisa
    • Imaging Science in Dentistry
    • /
    • 제52권4호
    • /
    • pp.383-391
    • /
    • 2022
  • Purpose: Periodontitis, the most prevalent chronic inflammatory condition affecting teeth-supporting tissues, is diagnosed and classified through clinical and radiographic examinations. The staging of periodontitis using panoramic radiographs provides information for designing computer-assisted diagnostic systems. Performing image segmentation in periodontitis is required for image processing in diagnostic applications. This study evaluated image segmentation for periodontitis staging based on deep learning approaches. Materials and Methods: Multi-Label U-Net and Mask R-CNN models were compared for image segmentation to detect periodontitis using 100 digital panoramic radiographs. Normal conditions and 4 stages of periodontitis were annotated on these panoramic radiographs. A total of 1100 original and augmented images were then randomly divided into a training (75%) dataset to produce segmentation models and a testing (25%) dataset to determine the evaluation metrics of the segmentation models. Results: The performance of the segmentation models against the radiographic diagnosis of periodontitis conducted by a dentist was described by evaluation metrics(i.e., dice coefficient and intersection-over-union [IoU] score). MultiLabel U-Net achieved a dice coefficient of 0.96 and an IoU score of 0.97. Meanwhile, Mask R-CNN attained a dice coefficient of 0.87 and an IoU score of 0.74. U-Net showed the characteristic of semantic segmentation, and Mask R-CNN performed instance segmentation with accuracy, precision, recall, and F1-score values of 95%, 85.6%, 88.2%, and 86.6%, respectively. Conclusion: Multi-Label U-Net produced superior image segmentation to that of Mask R-CNN. The authors recommend integrating it with other techniques to develop hybrid models for automatic periodontitis detection.

SSResUnet 모델을 이용한 위성 영상 토지피복분류 (Land Cover Classification of Satellite Image using SSResUnet Model)

  • 강주형;김민성;김성진;곽수영
    • 전기전자학회논문지
    • /
    • 제27권4호
    • /
    • pp.456-463
    • /
    • 2023
  • 본 논문에서는 사용자의 개입없이 고해상도 위성 영상을 활용하여 정밀한 토지피복분류를 위해 U-Net 네트워크 모델에 SPADE 구조를 결합한 SSResUNet 모델을 제안한다. 제안하는 네트워크는 위성 영상의 공간적 특성을 보존하여 복잡도가 높은 환경에서도 강인한 분류모델이라는 장점이 있다. 다목적실용위성 3A 영상을 통해 학습한 결과 기존 U-Net, U-Net++ 대비 뛰어난 결과를 보였으며 평균 IoU 76.10, Dice 86.22의 성능을 도출하였다.

카메라와 라이다의 객체 검출 성능 향상을 위한 Sensor Fusion (Camera and LiDAR Sensor Fusion for Improving Object Detection)

  • 이종서;김만규;김학일
    • 방송공학회논문지
    • /
    • 제24권4호
    • /
    • pp.580-591
    • /
    • 2019
  • 본 논문의 목적은 자율주행을 위하여 카메라와 라이다를 이용하여 객체를 검출하고 각 센서에서 검출된 객체를 late fusion 방식으로 융합을 하여 성능을 향상하는 것을 목적으로 한다. 카메라를 이용한 객체 검출은 one-stage 검출인 YOLOv3을, 검출된 객체의 거리 추정은 perspective matrix를, 라이다의 객체 검출은 K-means 군집화 기반 객체 검출을 각각 이용하였다. 카메라와 라이다 calibration은 PnP-RANSAC을 이용하여 회전, 변환 행렬을 구하였다. 센서 융합은 라이다에서 검출된 객체를 이미지 평면에 옮겨 Intersection over union(IoU)을 계산하고, 카메라에서 검출된 객체를 월드 좌표에 옮겨 거리, 각도를 계산하여 IoU, 거리 그리고 각도 세 가지 속성을 로지스틱 회귀를 이용하여 융합을 하였다. 융합을 통하여 각 센서에서 검출되지 않은 객체를 보완해주어 성능이 약 5% 증가하였다.

홈 정보가전 연동 서비스를 위한 IoT 기술

  • 금승우;육근웅;문재원;임태범;윤명현
    • 정보와 통신
    • /
    • 제32권4호
    • /
    • pp.36-43
    • /
    • 2015
  • 최근 정보가전 및 네트워크 기술의 발전으로 인하여 IoT 기술에 대한 관심이 증가되고 있다. 기존의 단일 네트워크 상에서 제한적으로 구현되던 홈 네트워크는 네트워크 기술의 발전에 힘입어 언제, 어디서든 사용자가 원하는 기기에 접근하고 제어할 수 있도록 발전하고 있다. 주요 정보가전 제조사 및 서비스 업체에서는 IoT 기술을 적용한 제품과 서비스들을 경쟁적으로 출시하고 있으며, 관련 표준 기구들도 적극적인 표준화 활동을 통한 IoT 표준의 도출에 나서고 있다. 다만, 아직까지는 관련 국제 표준에 대한 표준화가 완성되지 않아 각 제조사 혹은 서비스 사업자별로 상이한 기술을 적용하여 제공하고 있으며 이로 인한 상호 연동에는 제약이 존재한다. 본 고에서는 이러한 정보가전 서비스의 제어를 위한 IoT 기술의 개발 동향과 각 기기간 연동을 위한 IoT 기술의 동향을 확인한다.

IoT 통신 환경을 위한 경량 암호 기술 동향

  • 문시훈;김민우;권태경
    • 정보와 통신
    • /
    • 제33권3호
    • /
    • pp.80-86
    • /
    • 2016
  • IoT 통신 환경이 구축되면서 고사양 기기뿐만 아니라 저사양 기기를 사용하는 통신도 함께 증가하고 있다. 안전한 통신을 위해서는 메시지 암호화와 인증을 함께 제공하는 블록 암호 기술이 요구된다. 하지만, 기존 블록 암호 기술을 통신, 계산 기능이 제약된 저사양 기기에 그대로 사용하기에는 어려움이 따른다. 따라서 다양한 경량 암호 기술이 등장하게 되었다. 본 논문에서는 경량 암호 기술의 동향에 대해서 살펴보고 직접 IoT 실험 기기인 8비트 아두이노, 16비트 티모트, 32비트 라즈베리 파이2를 이용하여 구현 실험한 성능 측정 결과에 대해서 논한다.

복부 CT 영상에서 밝기값 정규화 및 Faster R-CNN을 이용한 자동 췌장 검출 (Automatic Pancreas Detection on Abdominal CT Images using Intensity Normalization and Faster R-CNN)

  • 최시은;이성은;홍헬렌
    • 한국멀티미디어학회논문지
    • /
    • 제24권3호
    • /
    • pp.396-405
    • /
    • 2021
  • In surgery to remove pancreatic cancer, it is important to figure out the shape of a patient's pancreas. However, previous studies have a limit to detect a pancreas automatically in abdominal CT images, because the pancreas varies in shape, size and location by patient. Therefore, in this paper, we propose a method of learning various shapes of pancreas according to the patients and adjacent slices using Faster R-CNN based on Inception V2, and automatically detecting the pancreas from abdominal CT images. Model training and testing were performed using the NIH Pancreas-CT Dataset, and intensity normalization was applied to all data to improve pancreatic detection accuracy. Additionally, according to the shape of the pancreas, the test dataset was classified into top, middle, and bottom slices to evaluate the model's performance on each data. The results show that the top data's mAP@.50IoU achieved 91.7% and the bottom data's mAP@.50IoU achieved 95.4%, and the highest performance was the middle data's mAP@.50IoU, 98.5%. Thus, we have confirmed that the model can accurately detect the pancreas in CT images.

Pixel-based crack image segmentation in steel structures using atrous separable convolution neural network

  • Ta, Quoc-Bao;Pham, Quang-Quang;Kim, Yoon-Chul;Kam, Hyeon-Dong;Kim, Jeong-Tae
    • Structural Monitoring and Maintenance
    • /
    • 제9권3호
    • /
    • pp.289-303
    • /
    • 2022
  • In this study, the impact of assigned pixel labels on the accuracy of crack image identification of steel structures is examined by using an atrous separable convolution neural network (ASCNN). Firstly, images containing fatigue cracks collected from steel structures are classified into four datasets by assigning different pixel labels based on image features. Secondly, the DeepLab v3+ algorithm is used to determine optimal parameters of the ASCNN model by maximizing the average mean-intersection-over-union (mIoU) metric of the datasets. Thirdly, the ASCNN model is trained for various image sizes and hyper-parameters, such as the learning rule, learning rate, and epoch. The optimal parameters of the ASCNN model are determined based on the average mIoU metric. Finally, the trained ASCNN model is evaluated by using 10% untrained images. The result shows that the ASCNN model can segment cracks and other objects in the captured images with an average mIoU of 0.716.