• 제목/요약/키워드: Convolutional Network (CNN)

검색결과 1,002건 처리시간 0.026초

입경 분류된 토양의 RGB 영상 분석 및 딥러닝 기법을 활용한 AI 모델 개발 (Development of Deep Learning AI Model and RGB Imagery Analysis Using Pre-sieved Soil)

  • 김동석;송지수;정은지;황현정;박재성
    • 한국농공학회논문집
    • /
    • 제66권4호
    • /
    • pp.27-39
    • /
    • 2024
  • Soil texture is determined by the proportions of sand, silt, and clay within the soil, which influence characteristics such as porosity, water retention capacity, electrical conductivity (EC), and pH. Traditional classification of soil texture requires significant sample preparation including oven drying to remove organic matter and moisture, a process that is both time-consuming and costly. This study aims to explore an alternative method by developing an AI model capable of predicting soil texture from images of pre-sorted soil samples using computer vision and deep learning technologies. Soil samples collected from agricultural fields were pre-processed using sieve analysis and the images of each sample were acquired in a controlled studio environment using a smartphone camera. Color distribution ratios based on RGB values of the images were analyzed using the OpenCV library in Python. A convolutional neural network (CNN) model, built on PyTorch, was enhanced using Digital Image Processing (DIP) techniques and then trained across nine distinct conditions to evaluate its robustness and accuracy. The model has achieved an accuracy of over 80% in classifying the images of pre-sorted soil samples, as validated by the components of the confusion matrix and measurements of the F1 score, demonstrating its potential to replace traditional experimental methods for soil texture classification. By utilizing an easily accessible tool, significant time and cost savings can be expected compared to traditional methods.

딥러닝 기반 실내 디자인 인식 (Deep Learning-based Interior Design Recognition)

  • 이원규;박지훈;이종혁;정희철
    • 대한임베디드공학회논문지
    • /
    • 제19권1호
    • /
    • pp.47-55
    • /
    • 2024
  • We spend a lot of time in indoor space, and the space has a huge impact on our lives. Interior design plays a significant role to make an indoor space attractive and functional. However, it should consider a lot of complex elements such as color, pattern, and material etc. With the increasing demand for interior design, there is a growing need for technologies that analyze these design elements accurately and efficiently. To address this need, this study suggests a deep learning-based design analysis system. The proposed system consists of a semantic segmentation model that classifies spatial components and an image classification model that classifies attributes such as color, pattern, and material from the segmented components. Semantic segmentation model was trained using a dataset of 30000 personal indoor interior images collected for research, and during inference, the model separate the input image pixel into 34 categories. And experiments were conducted with various backbones in order to obtain the optimal performance of the deep learning model for the collected interior dataset. Finally, the model achieved good performance of 89.05% and 0.5768 in terms of accuracy and mean intersection over union (mIoU). In classification part convolutional neural network (CNN) model which has recorded high performance in other image recognition tasks was used. To improve the performance of the classification model we suggests an approach that how to handle data that has data imbalance and vulnerable to light intensity. Using our methods, we achieve satisfactory results in classifying interior design component attributes. In this paper, we propose indoor space design analysis system that automatically analyzes and classifies the attributes of indoor images using a deep learning-based model. This analysis system, used as a core module in the A.I interior recommendation service, can help users pursuing self-interior design to complete their designs more easily and efficiently.

Predictive modeling algorithms for liver metastasis in colorectal cancer: A systematic review of the current literature

  • Isaac Seow-En;Ye Xin Koh;Yun Zhao;Boon Hwee Ang;Ivan En-Howe Tan;Aik Yong Chok;Emile John Kwong Wei Tan;Marianne Kit Har Au
    • 한국간담췌외과학회지
    • /
    • 제28권1호
    • /
    • pp.14-24
    • /
    • 2024
  • This study aims to assess the quality and performance of predictive models for colorectal cancer liver metastasis (CRCLM). A systematic review was performed to identify relevant studies from various databases. Studies that described or validated predictive models for CRCLM were included. The methodological quality of the predictive models was assessed. Model performance was evaluated by the reported area under the receiver operating characteristic curve (AUC). Of the 117 articles screened, seven studies comprising 14 predictive models were included. The distribution of included predictive models was as follows: radiomics (n = 3), logistic regression (n = 3), Cox regression (n = 2), nomogram (n = 3), support vector machine (SVM, n = 2), random forest (n = 2), and convolutional neural network (CNN, n = 2). Age, sex, carcinoembryonic antigen, and tumor staging (T and N stage) were the most frequently used clinicopathological predictors for CRCLM. The mean AUCs ranged from 0.697 to 0.870, with 86% of the models demonstrating clear discriminative ability (AUC > 0.70). A hybrid approach combining clinical and radiomic features with SVM provided the best performance, achieving an AUC of 0.870. The overall risk of bias was identified as high in 71% of the included studies. This review highlights the potential of predictive modeling to accurately predict the occurrence of CRCLM. Integrating clinicopathological and radiomic features with machine learning algorithms demonstrates superior predictive capabilities.

Speech Emotion Recognition in People at High Risk of Dementia

  • Dongseon Kim;Bongwon Yi;Yugwon Won
    • 대한치매학회지
    • /
    • 제23권3호
    • /
    • pp.146-160
    • /
    • 2024
  • Background and Purpose: The emotions of people at various stages of dementia need to be effectively utilized for prevention, early intervention, and care planning. With technology available for understanding and addressing the emotional needs of people, this study aims to develop speech emotion recognition (SER) technology to classify emotions for people at high risk of dementia. Methods: Speech samples from people at high risk of dementia were categorized into distinct emotions via human auditory assessment, the outcomes of which were annotated for guided deep-learning method. The architecture incorporated convolutional neural network, long short-term memory, attention layers, and Wav2Vec2, a novel feature extractor to develop automated speech-emotion recognition. Results: Twenty-seven kinds of Emotions were found in the speech of the participants. These emotions were grouped into 6 detailed emotions: happiness, interest, sadness, frustration, anger, and neutrality, and further into 3 basic emotions: positive, negative, and neutral. To improve algorithmic performance, multiple learning approaches were applied using different data sources-voice and text-and varying the number of emotions. Ultimately, a 2-stage algorithm-initial text-based classification followed by voice-based analysis-achieved the highest accuracy, reaching 70%. Conclusions: The diverse emotions identified in this study were attributed to the characteristics of the participants and the method of data collection. The speech of people at high risk of dementia to companion robots also explains the relatively low performance of the SER algorithm. Accordingly, this study suggests the systematic and comprehensive construction of a dataset from people with dementia.

딥러닝과 Landsat 8 영상을 이용한 캘리포니아 산불 피해지 탐지 (Detection of Wildfire Burned Areas in California Using Deep Learning and Landsat 8 Images)

  • 서영민;윤유정;김서연;강종구;정예민;최소연;임윤교;이양원
    • 대한원격탐사학회지
    • /
    • 제39권6_1호
    • /
    • pp.1413-1425
    • /
    • 2023
  • 기후변화로 인한 대형 산불의 빈도가 증가함에 따라 극심한 인명 및 재산상의 피해를 초래하고 있다. 이로 인해 많은 식생이 소실되며, 그 강도와 발생 형태에 따라 생태계 변화에 영향을 끼친다. 생태계 변화는 다시 산불 발생을 유발하여 2차 피해를 야기한다. 따라서 산불 피해지에 대한 정확한 탐지 및 면적 산정의 중요성이 지속적으로 제기되고 있다. 효율적인 산불 피해지 모니터링을 위해 산불 발생 후 실시간 지형 및 기상정보는 물론 피해지역의 영상을 대규모로 취득할 수 있는 위성영상이 주로 활용되고 있다. 최근, 합성곱 신경망(convolution neural network, CNN) 기반 모델부터 고성능 트랜스포머(Transformer) 기반 모델에 이르기까지 딥러닝 알고리즘이 빠르게 발전하면서 산림원격탐사에서 이를 적용한 연구가 활발히 이루어지고 있다. 하지만 현재까지 적용된 딥러닝 모델은 제한적이며 현업에서의 합리적인 활용을 위한 정량적 성능평가에 대한 보고가 부족한 상황이다. 따라서 본 연구에서는 모델에 따른 성능향상과 데이터 설계에 따른 성능향상을 중점적으로 비교 분석하였다. 미국 캘리포니아 지역을 대상으로 CNN 기반 모델의 U-Net, High Resolution Network-Object Contextual Representation (HRNet-OCR)을 활용하여 산불 피해지 모델을 구축하였다. 또한, 기본 파장대역과 함께 식생활력도 및 지표의 수분함량 정도를 고려하고자 normalized difference vegetation index (NDVI), normalized burn ratio (NBR)와 같은 산불 관련 분광지수를 산출하여 입력 이미지로 사용하였다. U-Net의 mean intersection over union (mIoU)이 0.831, HRNet-OCR이 0.848을 기록하여 두 모델 모두 우수한 영상분할 성능을 보였다. 또한, 밴드 반사도뿐 아니라 분광지수를 추가한 결과 모든 조합에서 평가지표 값이 상승하여 분광지수를 활용한 입력 데이터 확장이 픽셀 세분화에 기여함을 확인하였다. 이와 같은 딥러닝 방법론을 발전시킨다면 우리나라의 산불 피해지에 대한 신속한 파악 및 복구 계획 수립의 기초자료로 활용될 수 있을 것으로 기대된다.

딥러닝을 활용한 위성영상 기반의 강원도 지역의 배추와 무 수확량 예측 (Satellite-Based Cabbage and Radish Yield Prediction Using Deep Learning in Kangwon-do)

  • 박혜빈;이예진;박선영
    • 대한원격탐사학회지
    • /
    • 제39권5_3호
    • /
    • pp.1031-1042
    • /
    • 2023
  • 인공위성은 시공간적으로 연속적인 지구환경 데이터를 제공하므로 위성영상을 이용하여 효율인 작물 수확량 예측이 가능하며, 딥러닝(deep learning)을 활용함으로써 더 높은 수준의 특징과 추상적인 개념 파악을 기대할 수 있다. 본 연구에서는 Landsat 8 위성 영상을 활용하여 다시기 영상 데이터를 이용하여 5대 수급 관리 채소인 배추와 무의 수확량을 예측하기 위한 딥러닝 모델을 개발하였다. 2015년부터 2020년까지 배추와 무의 생장시기인 6~9월 위성영상을 이용하여 강원도를 대상으로 배추와 무의 수확량 예측을 수행하였다. 본 연구에서는 수확량 모델의 입력자료로 Landsat 8 지표면 반사도 자료와 normalized difference vegetation index, enhanced vegetation index, lead area index, land surface temperature를 입력자료로 사용하였다. 본 연구에서는 기존 연구에서 개발된 모델을 기반으로 우리나라 작물과 입력데이터에 맞게 튜닝한 모델을 제안하였다. 위성영상 시계열 데이터를 이용하여 딥러닝 모델인 convolutional neural network (CNN)을 학습하여 수확량 예측을 진행하였다. Landsat 8은 16일 주기로 영상이 제공되지만 구름 등 기상의 영향으로 인해 특히 여름철에는 영상 취득에 어려움이 많다. 따라서 본 연구에서는 6~7월을 1구간, 8~9월을 2구간으로 나누어 수확량 예측을 수행하였다. 기존 머신러닝 모델과 참조 모델을 이용하여 수확량 예측을 수행하였으며, 모델링 성능을 비교했다. 제안한 모델의 경우 다른 모델과 비교했을 때, 높은 수확량 예측 성능을 나타내었다. Random forest (RF)의 경우 배추에서는 제안한 모델보다 좋은 예측 성능을 나타내었다. 이는 기존 연구 결과처럼 RF가 입력데이터의 물리적인 특성을 잘 반영하여 모델링 되었기 때문인 것으로 사료된다. 연도별 교차 검증 및 조기 예측을 통해 모델의 성능과 조기 예측 가능성을 평가하였다. Leave-one-out cross validation을 통해 분석한 결과 참고 모델을 제외하고는 두 모델에서는 유사한 예측 성능을 보여주었다. 2018년 데이터의 경우 모든 모델에서 가장 낮은 성능이 나타났는데, 2018년의 경우 폭염으로 인해 이는 다른 년도 데이터에서 학습되지 못해 수확량 예측에 영향을 준 것으로 생각되었다. 또한, 조기 예측 가능성을 확인한 결과, 무 수확량은 어느 정도 경향성을 나타냈지만 배추의 경우 조기 예측 가능성을 확인하지 못했다. 향후 연구에서는 데이터 형태에 따라 CNN의 구조를 조정해서 조기 예측 모델을 개발한다면 더 개선된 성능을 보일 것으로 생각된다. 본 연구 결과는 우리나라 밭 작물 수확량 예측을 위한 기초 연구로 활용될 수 있을 것으로 기대된다.

CNN 보조 손실을 이용한 차원 기반 감성 분석 (Target-Aspect-Sentiment Joint Detection with CNN Auxiliary Loss for Aspect-Based Sentiment Analysis)

  • 전민진;황지원;김종우
    • 지능정보연구
    • /
    • 제27권4호
    • /
    • pp.1-22
    • /
    • 2021
  • 텍스트를 바탕으로 한 차원 기반 감성 분석(Aspect-Based Sentiment Analysis)은 다양한 산업에서 유용성을 주목을 받고 있다. 기존의 차원 기반 감성 분석에서는 타깃(Target) 혹은 차원(Aspect)만을 고려하여 감성을 분석하는 연구가 대다수였다. 그러나 동일한 타깃 혹은 차원이더라도 감성이 나뉘는 경우, 또는 타깃이 없지만 감성은 존재하는 경우 분석 결과가 정확하지 않다는 한계가 존재한다. 이러한 문제를 해결하기 위한 방법으로 차원과 타깃을 모두 고려한 감성 분석(Target-Aspect-Sentiment Detection, 이하 TASD) 모델이 제안되었다. 그럼에도 불구하고, TASD 기존 모델의 경우 구(Phrase) 간의 관계인 지역적인 문맥을 잘 포착하지 못하고 초기 학습 속도가 느리다는 문제가 있었다. 본 연구는 TASD 분야 내 기존 모델의 한계를 보완하여 분석 성능을 높이고자 하였다. 이러한 연구 목적을 달성하기 위해 기존 모델에 합성곱(Convolution Neural Network) 계층을 더하여 차원-감성 분류 시 보조 손실(Auxiliary loss)을 추가로 사용하였다. 즉, 학습 시에는 합성곱 계층을 통해 지역적인 문맥을 좀 더 잘 포착하도록 하였으며, 학습 후에는 기존 방식대로 차원-감성 분석을 하도록 모델을 설계하였다. 본 모델의 성능을 평가하기 위해 공개 데이터 집합인 SemEval-2015, SemEval-2016을 사용하였으며, 기존 모델 대비 F1 점수가 최대 55% 증가했다. 특히 기존 모델보다 배치(Batch), 에폭(Epoch)이 적을 때 효과적으로 학습한다는 것을 확인할 수 있었다. 본 연구에서 제시된 모델로 더욱 더 세밀한 차원 기반 감성 분석이 가능하다는 점에서, 기업에서 상품 개발 및 마케팅 전략 수립 등에 다양하게 활용할 수 있으며 소비자의 효율적인 구매 의사결정을 도와줄 수 있을 것으로 보인다.

저노출 카메라와 웨이블릿 기반 랜덤 포레스트를 이용한 야간 자동차 전조등 및 후미등 인식 (Vehicle Headlight and Taillight Recognition in Nighttime using Low-Exposure Camera and Wavelet-based Random Forest)

  • 허두영;김상준;곽충섭;남재열;고병철
    • 방송공학회논문지
    • /
    • 제22권3호
    • /
    • pp.282-294
    • /
    • 2017
  • 본 논문에서는 차량이 움직일 때 발생하는 카메라의 움직임, 도로상의 광원에 강건한 지능형 전조등 제어 시스템을 제안한다. 후보광원을 검출할 때 카메라의 원근 범위 추정 모델을 기반으로 한 ROI (Region of Interest)를 사용하며 이는 FROI (Front ROI)와 BROI (Back ROI)로 나뉘어 사용된다. ROI내에서 차량의 전조등과 후미등, 반사광 및 주변 도로의 조명들은 2개의 적응적 임계값에 의해 세그먼트화 된다. 세그먼트화 된 광원 후보군들로부터 후미등은 적색도(redness)와 Haar-like특징에 기반한 랜덤포레스트 분류기에 의해 검출된다. 전조등과 후미등 분류 과정에서 빠른 학습과 실시간 처리를 위해 SVM(Support Vector Machine) 또는 CNN(Convolutional Neural Network)을 사용하지 않고 랜덤포레스트 분류기를 사용했다. 마지막으로 페어링(Pairing) 단계에서는 수직좌표 유사성, 광원들간의 연관성 검사와 같은 사전 정의된 규칙을 적용한다. 제안된 알고리즘은 다양한 야간 운전환경을 포함하는 데이터에 적용한 결과, 최근의 관련연구 보다 향상된 검출 성능을 보여주었다.

합성곱 신경망을 이용한 컨포멀 코팅 PCB에 발생한 문제성 기포 검출 알고리즘 (A Problematic Bubble Detection Algorithm for Conformal Coated PCB Using Convolutional Neural Networks)

  • 이동희;조성령;정경훈;강동욱
    • 방송공학회논문지
    • /
    • 제26권4호
    • /
    • pp.409-418
    • /
    • 2021
  • 컨포멀 코팅은 PCB(Printed Circuit Board)를 보호하는 기술로 PCB의 고장을 최소화한다. 코팅의 결함은 PCB의 고장과 연결되기 때문에 성공적인 컨포멀 코팅 조건을 만족하기 위해서 코팅면에 기포가 발생했는지 검사한다. 본 논문에서는 영상 신호 처리를 적용하여 고위험군의 문제성 기포를 검출하는 알고리즘을 제안한다. 알고리즘은 문제성 기포의 후보를 구하는 단계와 후보를 검증하는 단계로 구성된다. 기포는 가시광 영상에서 나타나지 않지만, UV(Ultra Violet) 광원에서는 육안으로 구별이 가능하다. 특히, 문제성 기포의 중심은 밝기가 어둡고 테두리는 높은 밝기를 가진다. 이러한 밝기 특성을 논문에서는 협곡과 산맥 특징이라 부르고 두 가지 특징이 동시에 나타나는 영역을 문제성 기포의 후보라 하였다. 그러나 후보 중에는 기포가 아닌 후보가 존재할 수 있기 때문에 후보를 검증하는 단계가 필요하다. 후보 검증 단계에서는 합성곱 신경망 모델을 이용하였고, ResNet이 다른 모델과 비교하였을 때 성능이 가장 우수하였다. 본 논문에서 제시한 알고리즘은 정확률(Precision) 0.805, 재현율(Recall) 0.763, F1-점수(F1-score) 0.767의 성능을 보였고, 이러한 결과는 기포 검사 자동화에 대한 충분한 가능성을 보여준다.

딥러닝을 이용한 판류형 간판의 인식 (Recognition of Flat Type Signboard using Deep Learning)

  • 권상일;김의명
    • 한국측량학회지
    • /
    • 제37권4호
    • /
    • pp.219-231
    • /
    • 2019
  • 간판은 유형마다 간판의 규격이 정해져 있으나 실제 설치된 간판은 형태와 크기가 일정하지 않다. 또한, 간판은 간판 내부의 색상에 대한 규정이 정해져 있지 않기 때문에 다양한 색상을 갖고 있다. 간판을 인식하기 위한 방법은 도로표지판과 차량번호판을 인식하는 유사한 방법으로 생각할 수 있으나 간판의 특성으로 인해 도로표지판과 차량번호판과 유사한 방법으로 간판을 인식할 수 없는 한계점이 있다. 이에 본 연구에서는 딥러닝 기반의 Faster R-CNN 알고리즘을 이용하여 불법 및 노후 간판의 주요 대상이 되는 판류형 간판을 인식하고 간판의 영역을 자동으로 추출하는 방법론을 제안하였다. 스마트폰 카메라를 이용하여 촬영한 간판 영상을 통해 판류형 간판을 인식하는 과정은 2가지의 순서로 나뉜다. 먼저, 다양한 유형의 간판 영상에서 판류형 간판을 인식하기 위해 딥러닝을 이용하여 간판의 유형을 인식하였으며 그 결과는 약 71%의 정확도로 나타났다. 다음으로 판류형 간판의 경계영역을 인식하기 위해 간판 영역 인식 알고리즘을 적용하였을 때 85%의 정확도로 판류형 간판의 경계영역을 인식하였다.