• 제목/요약/키워드: AI algorithm

검색결과 523건 처리시간 0.037초

엣지 시스템을 위한 LSTM 기반 화재 및 악취 예측 모델 (LSTM-based Fire and Odor Prediction Model for Edge System)

  • 윤주상;이태진
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제11권2호
    • /
    • pp.67-72
    • /
    • 2022
  • 최근 인공지능을 활용한 다양한 지능형 응용서비스 개발이 활발히 진행 중이다. 특히, 제조 산업 현장에서는 인공지능 기반 실시간 예측서비스 연구가 활발히 진행 중이며 이중 화재 및 악취를 감지·예측할 수 있는 인공지능 서비스에 대한 요구가 매우 높다. 하지만 기존 감지·예측시스템은 화재 및 악취 발생 예측이 아닌 발생 후 감지 서비스가 대부분이다. 이는 인공지능 기반 예측서비스 기술이 적용되어 있지 않기 때문이다. 또한, 화재 예측 및 악취 감지·예측서비스는 초저지연 특징을 가진 서비스이다. 따라서 초저지연 예측서비스를 제공하기 위해 엣지 컴퓨팅 기술이 인공지능 모델과 결합되어 클라우드에 비해 빠른 추론 결과를 현장에 빠르게 적용할 수 있도록 개발 중이다. 따라서 본 논문에서는 제조 산업 현장에서 가장 많이 요구되는 화재 예측 및 악취 감지·예측에 사용할 수 있는 LSTM 알고리즘 기반 학습모델을 제안한다. 또한, 제안하는 학습모델은 엣지 다바이스에 구현이 가능하도록 설계하였으며 사물인터넷 단말로부터 실시간 센서데이터를 수신하고 이 데이터를 추론 모델에 적용하여 화재 및 악취 상태를 실시간으로 예측할 수 있도록 제안한다. 제안된 모델은 3가지 성능 지표를 통해 학습모델의 예측 정확도를 평가하였으며 평가 결과는 평균 90% 이상 성능을 보였다.

딥러닝을 이용한 의류 이미지의 텍스타일 소재 분류 (Textile material classification in clothing images using deep learning)

  • 이소영;정혜선;최윤성;이충권
    • 스마트미디어저널
    • /
    • 제12권7호
    • /
    • pp.43-51
    • /
    • 2023
  • 온라인 거래가 증가하면서 의류 이미지는 소비자의 구매 결정에 큰 영향을 미치게 되었다. 의류 소재에 대한 이미지 정보의 중요성이 강조되고 있으며, 의류 이미지를 분석하여 사용된 소재를 파악하는 것은 패션 산업에 있어서 중요하다. 의류에 사용된 텍스타일의 소재는 육안으로 식별하기 어렵고, 분류 작업에도 많은 시간과 비용이 소모된다. 본 연구는 딥러닝 알고리즘을 기반으로 의류 이미지로부터 텍스타일의 소재를 분류하고자 하였다. 소재를 분류함으로써 의류 생산 비용을 절감하고, 제조공정의 효율성을 증대하는데 도움이 되며 소비자에게 특정 소재의 제품을 추천하는 AI 서비스에 기여할 수 있다. 의류 이미지를 분류하기 위해 머신비전 기반의 딥러닝 알고리즘 ResNet과 Vision Transformer를 이용하였다. 760,949장의 이미지를 수집하였고, 비정상 이미지를 검출하는 전처리 과정을 거쳤다. 최종적으로 총 167,299장의 의류 이미지와 섬유라벨 19개, 직물라벨 20개를 사용하였다. ResNet과 Vision Transformer를 사용해서 의류 텍스타일의 소재를 분류하였으며 알고리즘 성능을 Top-k Accuracy Score 지표를 통해 비교하였다. 성능을 비교한 결과, ResNet 보다 Vision Transformer 알고리즘이 더 우수하였다.

머신러닝 기반 아파트 주동형상 자동 판별 모형 개발 및 적용 - 주동형상에 따른 아파트 개발 특성분석을 중심으로 - (Application and development of a machine learning based model for identification of apartment building types - Analysis of apartment site characteristics based on main building shape -)

  • 한상욱;서정석;;;김정섭
    • 한국지리정보학회지
    • /
    • 제26권2호
    • /
    • pp.55-67
    • /
    • 2023
  • 본 연구의 목적은 GIS와 머신러닝 알고리즘을 활용하여 아파트 단지의 주동형상을 자동으로 판별해주는 모형을 개발하고, 이를 주동형상과 단지특성 관의 관계 분석에 적용하는 것이다. 지리정보데이터를 사용하여 아파트단지별 주동 데이터베이스를 구축하고 랜덤포레스트 알고리즘을 활용하여 단지 내 개별동을 형태에 따라 판상형, 탑상협, 혼합형으로 분류하였다. 또한, 아파트단지별 주동형상별 비중과 개발밀도, 층수 등 단지특성 정보간의 관계를 분석하여 부동산 분야 지리정보응용 가능성을 제안하였다. 본 연구는 인공지능 기반 건축물 유형 분류와 관련한 기초연구로서 다양한 공간분석 및 부동산 분석에 활용될 것으로 예상한다.

대화형 에이전트 인식오류 및 신조어 탐지를 위한 알고리즘 개발: 한글 음절 분리 기반의 단어 유사도 활용 (Developing a New Algorithm for Conversational Agent to Detect Recognition Error and Neologism Meaning: Utilizing Korean Syllable-based Word Similarity)

  • 이정원;임일
    • 지능정보연구
    • /
    • 제29권3호
    • /
    • pp.267-286
    • /
    • 2023
  • 인공지능 스피커로 대표되는 대화형 에이전트는 사람-컴퓨터 간 대화형이기 때문에 대화 상황에서 오류가 발생하는 경우가 잦다. 에이전트 사용자의 발화 기록에서 인식오류는 사용자의 발화를 제대로 인식하지 못하는 미인식오류 유형과 발화를 인식하여 서비스를 제공하였으나 사용자가 의도한 바와 다르게 인식된 오인식오류 유형으로 나뉜다. 이 중 오인식오류의 경우, 서비스가 제공된 것으로 기록되기 때문에 이에 대한 오류 탐지가 별도로 필요하다. 본 연구에서는 텍스트 마이닝 기법 중에서도 단어와 문서를 벡터로 바꿔주는 단어 임베딩과 문서 임베딩을 이용하여 단순 사용된 단어 기반의 유사도 산출이 아닌 단어의 분리 방식을 다양하게 적용함으로써 연속 발화 쌍의 유사도를 기반으로 새로운 오인식오류 및 신조어 탐지 방법을 탐구하였다. 연구 방법으로는 실제 사용자 발화 기록을 활용하여 오인식오류의 패턴을 모델 학습 및 생성 시 적용하여 탐지 모델을 구현하였다. 그 결과, 오인식오류의 가장 큰 원인인 등록되지 않은 신조어 사용을 탐지할 수 있는 패턴 방식으로 다양한 단어 분리 방식 중 초성 추출 방식이 가장 좋은 결과를 보임을 확인하였다. 본 연구는 크게 두 개의 함의를 가진다. 첫째, 인식오류로 기록되지 않아 탐지가 어려운 오인식오류에 대하여 다양한 방식 별 비교를 통해 최적의 방식을 찾았다. 둘째, 이를 실제 신조어 탐지 적용이 필요한 대화형 에이전트나 음성 인식 서비스에 적용한다면 음성 인식 단계에서부터 발생하는 오류의 패턴도 구체화할 수 있으며, 오류로 분류되지 않더라도 사용자가 원하는 결과에 맞는 서비스가 제공될 수 있음을 보였다.

Computer Vision-based Continuous Large-scale Site Monitoring System through Edge Computing and Small-Object Detection

  • Kim, Yeonjoo;Kim, Siyeon;Hwang, Sungjoo;Hong, Seok Hwan
    • 국제학술발표논문집
    • /
    • The 9th International Conference on Construction Engineering and Project Management
    • /
    • pp.1243-1244
    • /
    • 2022
  • In recent years, the growing interest in off-site construction has led to factories scaling up their manufacturing and production processes in the construction sector. Consequently, continuous large-scale site monitoring in low-variability environments, such as prefabricated components production plants (precast concrete production), has gained increasing importance. Although many studies on computer vision-based site monitoring have been conducted, challenges for deploying this technology for large-scale field applications still remain. One of the issues is collecting and transmitting vast amounts of video data. Continuous site monitoring systems are based on real-time video data collection and analysis, which requires excessive computational resources and network traffic. In addition, it is difficult to integrate various object information with different sizes and scales into a single scene. Various sizes and types of objects (e.g., workers, heavy equipment, and materials) exist in a plant production environment, and these objects should be detected simultaneously for effective site monitoring. However, with the existing object detection algorithms, it is difficult to simultaneously detect objects with significant differences in size because collecting and training massive amounts of object image data with various scales is necessary. This study thus developed a large-scale site monitoring system using edge computing and a small-object detection system to solve these problems. Edge computing is a distributed information technology architecture wherein the image or video data is processed near the originating source, not on a centralized server or cloud. By inferring information from the AI computing module equipped with CCTVs and communicating only the processed information with the server, it is possible to reduce excessive network traffic. Small-object detection is an innovative method to detect different-sized objects by cropping the raw image and setting the appropriate number of rows and columns for image splitting based on the target object size. This enables the detection of small objects from cropped and magnified images. The detected small objects can then be expressed in the original image. In the inference process, this study used the YOLO-v5 algorithm, known for its fast processing speed and widely used for real-time object detection. This method could effectively detect large and even small objects that were difficult to detect with the existing object detection algorithms. When the large-scale site monitoring system was tested, it performed well in detecting small objects, such as workers in a large-scale view of construction sites, which were inaccurately detected by the existing algorithms. Our next goal is to incorporate various safety monitoring and risk analysis algorithms into this system, such as collision risk estimation, based on the time-to-collision concept, enabling the optimization of safety routes by accumulating workers' paths and inferring the risky areas based on workers' trajectory patterns. Through such developments, this continuous large-scale site monitoring system can guide a construction plant's safety management system more effectively.

  • PDF

초-고해상도 영상 스타일 전이 (Super High-Resolution Image Style Transfer)

  • 김용구
    • 방송공학회논문지
    • /
    • 제27권1호
    • /
    • pp.104-123
    • /
    • 2022
  • 신경망 기반 스타일 전이 기법은 영상의 고차원적 구조적 특징을 반영하여 높은 품질의 스타일 전이 결과를 제공함으로써 최근 크게 주목받고 있다. 본 논문은 이러한 신경망 기반 스타일 전이의 GPU 메모리 제한에 따른 해상도 한계에 대한 문제를 다룬다. 신경망 출력이 가진 제한적 수용장 특징을 바탕으로, 부분 영상 기반의 스타일 전이 손실함수 경사도 연산이 전체 영상을 대상으로 구한 경사도 연산과 동일한 결과를 생성할 수 있을 것으로 기대할 수 있다. 이러한 아이디어를 기반으로, 본 논문에서는, 스타일 전이 손실함수의 각 구성 요소에 대한 경사도 연산 구조를 분석하고, 이를 통해 부분 영상의 생성 및 패딩에 대한 필요조건을 구하고, 전체 영상의 신경망 출력에 좌우되는 경사도 연산 요구 데이터를 확인하여 구조화함으로써 재귀적 초고해상도 스타일 전이 알고리즘을 개발하였다. 제안된 기법은, 사용하는 GPU 메모리가 처리할 수 있는 크기로 초고해상도 입력을 분할하여 스타일 전이를 수행함으로써, GPU 메모리 한계에 따른 해상도 제한을 받지 않으며, 초고해상도 스타일 전이에서만 감상할 수 있는 독특한 세부 영역의 전이 스타일 특징을 제공할 수 있다.

인공지능 기반의 말더듬 자동분류 방법: 합성곱신경망(CNN) 활용 (AI-based stuttering automatic classification method: Using a convolutional neural network)

  • 박진;이창균
    • 말소리와 음성과학
    • /
    • 제15권4호
    • /
    • pp.71-80
    • /
    • 2023
  • 본 연구는 말더듬 화자들의 음성 데이터를 기반으로 하여, 인공지능 기술을 활용한 말더듬 자동 식별 방법을 개발하는 것을 주목적으로 진행되었다. 특히, 한국어를 모국어로 하는 말더듬 화자들을 대상으로 CNN(convolutional neural network) 알고리즘을 활용한 식별기 모델을 개발하고자 하였다. 이를 위해 말더듬 성인 9명과 정상화자 9명을 대상으로 음성 데이터를 수집하고, Google Cloud STT(Speech-To-Text)를 활용하여 어절 단위로 자동 분할한 후 유창, 막힘, 연장, 반복 등의 라벨을 부여하였다. 또한 MFCCs(mel frequency cepstral coefficients)를 추출하여 CNN 알고리즘을 기반한 말더듬 자동 식별기 모델을 수립하고자 하였다. 연장의 경우 수집결과가 5건으로 나타나 식별기 모델에서 제외하였다. 검증 결과, 정확도는 0.96으로 나타났고, 분류성능인 F1-score는 '유창'은 1.00, '막힘'은 0.67, '반복'은 0.74로 나타났다. CNN 알고리즘을 기반한 말더듬 자동분류 식별기의 효과를 확인하였으나, 막힘 및 반복유형에서는 성능이 미흡한 것으로 나타났다. 향후 말더듬의 유형별 충분한 데이터 수집을 통해 추가적인 성능 검증이 필요함을 확인하였다. 향후 말더듬 화자의 발화 빅데이터 확보를 통해 보다 신뢰성 있는 말더듬 자동 식별 기술의 개발과 함께 이를 통한 좀 더 고도화된 평가 및 중재 관련 서비스가 창출되기를 기대해 본다.

차량 내 영상 센서 기반 고속도로 돌발상황 검지 정밀도 평가 (Precision Evaluation of Expressway Incident Detection Based on Dash Cam)

  • 남상기;정연식
    • 한국ITS학회 논문지
    • /
    • 제22권6호
    • /
    • pp.114-123
    • /
    • 2023
  • 컴퓨터 비전(Computer Vision: CV) 기술 발전으로 폐쇄회로 TV(Closed-Circuit television: CCTV)와 같은 영상 센서로 돌발상황을 검지하고 있다. 그러나 현재 이러한 기술은 대부분 고정식 영상 센서를 기반으로 한다. 따라서 고정식 장비의 영상 범위가 닿지 않는 음영지역의 돌발상황 검지에는 한계가 존재해왔다. 최근 엣지 컴퓨팅(Edge-computing) 기술의 발전으로 이동식 영상정보의 실시간 분석이 가능해졌다. 본 연구는 차량 내 설치된 이동식 영상 센서(dashboard camera 혹은 dash cam)에 컴퓨터 비전 기술을 도입하여 고속도로에서 실시간으로 돌발상황 검지 가능성에 대해 평가하는 것이 목적이다. 이를 위해 한국도로공사 순찰차량에 장착된 dash cam에서 수집된 4,388건의 스틸 프레임 데이터 기반으로 학습데이터를 구축하였으며, YOLO(You Only Look Once) 알고리즘을 활용하여 분석하였다. 분석 결과 객체 모두 예측 정밀도가 70% 이상으로 나타났고, 교통사고는 약 85%의 정밀도를 보였다. 또한 mAP(mean Average Precision)의 경우 0.769로 나타났고, 객체별 AP(Average Precision)를 보면 교통사고가 0.904로 가장 높게 나타났고, 낙하물이 0.629로 가장 낮게 나타났다.

Feasibility of Three-Dimensional Balanced Steady-State Free Precession Cine Magnetic Resonance Imaging Combined with an Image Denoising Technique to Evaluate Cardiac Function in Children with Repaired Tetralogy of Fallot

  • YaFeng Peng;XinYu Su;LiWei Hu;Qian Wang;RongZhen Ouyang;AiMin Sun;Chen Guo;XiaoFen Yao;Yong Zhang;LiJia Wang;YuMin Zhong
    • Korean Journal of Radiology
    • /
    • 제22권9호
    • /
    • pp.1525-1536
    • /
    • 2021
  • Objective: To investigate the feasibility of cine three-dimensional (3D) balanced steady-state free precession (b-SSFP) imaging combined with a non-local means (NLM) algorithm for image denoising in evaluating cardiac function in children with repaired tetralogy of Fallot (rTOF). Materials and Methods: Thirty-five patients with rTOF (mean age, 12 years; range, 7-18 years) were enrolled to undergo cardiac cine image acquisition, including two-dimensional (2D) b-SSFP, 3D b-SSFP, and 3D b-SSFP combined with NLM. End-diastolic volume (EDV), end-systolic volume (ESV), stroke volume (SV), and ejection fraction (EF) of the two ventricles were measured and indexed by body surface index. Acquisition time and image quality were recorded and compared among the three imaging sequences. Results: 3D b-SSFP with denoising vs. 2D b-SSFP had high correlation coefficients for EDV, ESV, SV, and EF of the left (0.959-0.991; p < 0.001) as well as right (0.755-0.965; p < 0.001) ventricular metrics. The image acquisition time ± standard deviation (SD) was 25.1 ± 2.4 seconds for 3D b-SSFP compared with 277.6 ± 0.7 seconds for 2D b-SSFP, indicating a significantly shorter time with the 3D than the 2D sequence (p < 0.001). Image quality score was better with 3D b-SSFP combined with denoising than with 3D b-SSFP (mean ± SD, 3.8 ± 0.6 vs. 3.5 ± 0.6; p = 0.005). Signal-to-noise ratios for blood and myocardium as well as contrast between blood and myocardium were higher for 3D b-SSFP combined with denoising than for 3D b-SSFP (p < 0.05 for all but septal myocardium). Conclusion: The 3D b-SSFP sequence can significantly reduce acquisition time compared to the 2D b-SSFP sequence for cine imaging in the evaluation of ventricular function in children with rTOF, and its quality can be further improved by combining it with an NLM denoising method.

딥러닝 기반 터널 영상유고감지 시스템 개발 연구 (Development of a deep-learning based tunnel incident detection system on CCTVs)

  • 신휴성;이규범;임민진;김동규
    • 한국터널지하공간학회 논문집
    • /
    • 제19권6호
    • /
    • pp.915-936
    • /
    • 2017
  • 본 논문에서는 2016년을 기준으로 강화된 터널 방재시설 설치 및 관리지침과, 점차 강화되고 있는 터널 CCTV설치 터널등급 기준과 터널 영상유고감지 시스템의 설치 운용에 대한 요구의 증가 상황을 정리해 보고하였다. 그럼에도, 가동중인 알고리즘 기반의 터널 영상유고감시 시스템의 정상 인지율은 50%가 채 되지 않는 것으로 파악되었으며, 그에 대한 주원인은 터널 내 낮은 조도, 심한 먼지로 인한 영상 선명도 저하, 낮은 CCTV 설치위치로 인한 이동객체의 겹침현상 등으로 파악되었다. 따라서, 본 연구에서는 이러한 열악한 조건에서도 영상유고 정상 인지율을 확보할 수 있는 딥러닝 기반 영상유고감지 시스템을 개발하였으며, 이에 대한 이론적 배경 제시와 시스템의 타당성 검토 연구가 진행되었다. 개발 시스템의 타당성 검토 연구는 터널 방재시설 및 관리지침 내 영상유고감지 항목중 정지 및 역주행 차량을 감지하는 주요 정보인 차량 객체 인식과 보행자 감지를 중심으로 진행되었다. 또한, (1) 동일 터널 내에서 학습과 추론이 이루어 지는 경우와 (2) 다양한 터널의 영상 정보를 통합 학습하고, 각 터널의 영상유고감지에 투입되는 경우, 두개의 시나리오를 설정하여 타당성 검토를 진행하였다. 두 시나리오 모두 일정 시간의 학습 자료와 유사한 상황에 대해서는 열악한 터널환경과 무관하게 그 감지성능이 80% 이상으로 우수하나, 추가 학습 없이 학습된 시간 구간과 멀어질수록 그 추론 성능은 상대적으로 낮은 40% 수준으로 떨어짐을 알 수 있었다. 그러나, 시간이 지남에 따라 자동으로 누적되어 확장되는 영상유고 빅데이터를 반복적으로 학습함으로써, 설치된 영상유고감지 시스템의 보완이나 보정절차 없이도 자동으로 그 영상유고감지 성능이 향상될 수 있음을 보였다.