• 제목/요약/키워드: Deep Learning AI

검색결과 622건 처리시간 0.024초

보행자 및 차량 검지를 위한 레이더 영상 융복합 시스템 연구 (A Study on Radar Video Fusion Systems for Pedestrian and Vehicle Detection)

  • 조성윤;윤여환
    • 한국인터넷방송통신학회논문지
    • /
    • 제24권1호
    • /
    • pp.197-205
    • /
    • 2024
  • 자율주행 자동차 개발 및 상용화에 있어서 주행안전도 확보가 가장 중요한 시점에서 이를 위해 전방 및 주행차량 주변에 존재하는 다양한 정적/동적 차량의 인식과 검출 성능을 고도화 및 최적화하기 위한 AI, 빅데이터 기반 알고리즘개발 등이 연구되고 있다. 하지만 레이더와 카메라의 고유한 장점을 활용하여 동일한 차량으로 인식하기 위한 연구 사례들이 많이 있지만, 딥러닝 영상 처리 기술을 이용하지 않거나, 레이더의 성능상의 문제로 짧은 거리만 동일한 표적으로 감지하고 있다. 따라서 레이더 장비와 카메라 장비에서 수집할 수 있는 데이터셋을 구성하고, 데이터셋의 오차를 계산하여 동일한 표적으로 인식하는 융합 기반 차량 인식 방법이 필요하다. 본 논문에서는 레이더와 CCTV(영상) 설치 위치에 따라 동일한 객체로 판단하기에 데이터 오차가 발생하기 때문에 설치한 위치에 따라 위치 정보를 연동할 수 있는 기술 개발을 목표로 한다.

LH-FAS v2: 머리 자세 추정 기반 경량 얼굴 위조 방지 기술 (LH-FAS v2: Head Pose Estimation-Based Lightweight Face Anti-Spoofing)

  • 허현범;양혜리;정성욱;이경재
    • 한국전자통신학회논문지
    • /
    • 제19권1호
    • /
    • pp.309-316
    • /
    • 2024
  • 얼굴 인식 기술은 다양한 분야에서 활용되고 있지만, 이는 사진 스푸핑과 같은 위조 공격에 취약하다는 문제를 가지고 있다. 이를 극복하기 위한 여러 연구가 진행되고 있지만, 대부분은 멀티모달 카메라와 같은 특별한 장비를 장착하거나 고성능 환경에서 동작하는 것을 전제로 하고 있다. 본 연구는 얼굴 인식 위조 공격 문제를 해결하기 위해, 특별한 장비 없이 일반적인 웹캠에서 동작할 수 있는 LH-FAS v2를 제안한다. 제안된 방법에서는, 머리 자세 추정에는 FSA-Net을, 얼굴 식별에는 ArcFace를 활용하여 사진 스푸핑 여부를 판별한다. 실험을 위해, 사진 스푸핑 공격 비디오로 구성된 VD4PS 데이터셋을 제시하였으며, 이를 통해 LH-FAS v2의 균형 잡힌 정확도와 속도를 확인하였다. 본 방법은 향후 사진 스푸핑 방어에 효과적일 것으로 기대한다.

임베디드 보드에서의 CNN 모델 압축 및 성능 검증 (Compression and Performance Evaluation of CNN Models on Embedded Board)

  • 문현철;이호영;김재곤
    • 방송공학회논문지
    • /
    • 제25권2호
    • /
    • pp.200-207
    • /
    • 2020
  • CNN 기반 인공신경망은 영상 분류, 객체 인식, 화질 개선 등 다양한 분야에서 뛰어난 성능을 보이고 있다. 그러나, 많은 응용에서 딥러닝(Deep Learning) 모델의 복잡도 및 연산량이 방대해짐에 따라 IoT 기기 및 모바일 환경에 적용하기에는 제한이 따른다. 따라서 기존 딥러닝 모델의 성능을 유지하면서 모델 크기를 줄이는 인공신경망 압축 기법이 연구되고 있다. 본 논문에서는 인공신경망 압축기법을 통하여 원본 CNN 모델을 압축하고, 압축된 모델을 임베디드 시스템 환경에서 그 성능을 검증한다. 성능 검증을 위해 인공지능 지원 맞춤형 칩인 QCS605를 내장한 임베디드 보드에서 카메라로 입력한 영상에 대해서 원 CNN 모델과 압축 CNN 모델의 분류성능과 추론시간을 비교 분석한다. 본 논문에서는 이미지 분류 CNN 모델인 MobileNetV2, ResNet50 및 VGG-16에 가지치기(pruning) 및 행렬분해의 인공신경망 압축 기법을 적용하였고, 실험결과에서 압축된 모델이 원본 모델 분류 성능 대비 2% 미만의 손실에서 모델의 크기를 1.3 ~ 11.2배로 압축했을 뿐만 아니라 보드에서 추론시간과 메모리 소모량을 각각 1.2 ~ 2.1배, 1.2 ~ 3.8배 감소함을 확인했다.

코로나 이전과 이후의 4차 산업혁명과 광고의 뉴스기사 분석 : LDA와 Word2vec을 중심으로 (News Article Analysis of the 4th Industrial Revolution and Advertising before and after COVID-19: Focusing on LDA and Word2vec)

  • 차영란
    • 한국콘텐츠학회논문지
    • /
    • 제21권9호
    • /
    • pp.149-163
    • /
    • 2021
  • 4차 산업혁명이란 인공지능(AI), 사물인터넷(IoT), 로봇기술, 드론, 자율주행과 가상현실(VR) 등 정보통신 기술이 주도하는 차세대 산업혁명을 말하는 것으로, 광고 산업 발전에도 큰 영향을 미쳤다. 그러나 지금 전세계는 코로나 확산 방지를 위하여, 비접촉, 비대면 생활환경으로 급속도로 빠르게 변화하고 있다. 이에 따라 4차 산업혁명과 광고의 역할도 변화하고 있다. 따라서 본 연구에서는 코로나 19 이전과 이후의 4차산업 혁명과 광고의 변화를 살펴보기 위해 빅카인즈를 활용해서 텍스트 분석을 하였다. 코로나 19 이전인 2019년과 코로나 19 이후인 2020년을 비교하였다. LDA토픽 모형 분석과 딥러닝 기법인 Word2vec을 통해 주요 토픽과 문서분류를 하였다. 연구결과 코로나19 이전에는 정책, 콘텐츠, AI 등이 나타났으나, 코로나 이후에는 데이터를 활용한 금융, 광고, 배달 등으로 점차 영역이 확장되며, 더불어 인재양성 교육이 중요한 이슈로 나타난 것을 알 수 있었다. 또한, 코로나 19 이전에는 4차 산업혁명 기술과 관련된 광고를 활용하는 것이 주류를 이루었다면, 코로나 19 이후에는 참여, 협력, 일상 필요 등 좀 더 적극적으로 첨단기술 자체에 대한 교육과 인재양성 등에 대한 키워드가 두드러지게 나타나고 있다. 따라서 이러한 연구결과는 코로나 19 이후에 4차 산업혁명에서 광고의 나아갈 방향을 제시하면서, 이에 필요한 이론적, 실무적으로 적용할 수 있는 다각적인 전략을 제시하는 데 의의가 있다.

인공지능 스피커의 세대별 온라인 리뷰 분석을 통한 사용자 경험 요인 탐색 (Exploring user experience factors through generational online review analysis of AI speakers)

  • 박정은;양동욱;김하영
    • 한국융합학회논문지
    • /
    • 제12권7호
    • /
    • pp.193-205
    • /
    • 2021
  • 인공지능 스피커 시장은 꾸준히 성장하고 있지만, 실제 스피커 사용자들의 만족도는 42%에 그치고 있다. 따라서, 본 연구에서는 인공지능 스피커의 세대별 토픽 변화와 감성 변화를 통해 사용자 경험을 저해하는 요소는 무엇인지 분석해 보고자 한다. 이를 위해 아마존 에코 닷 3세대와 4세대 모델에 대한 리뷰를 수집하였다. 토픽모델링 분석 기법을 사용하여 세대별로 리뷰를 이루는 주제 및 주제의 변화를 찾아내고, 딥러닝 기반 감성 분석을 통해 토픽에 대한 사용자 감성이 세대에 따라 어떻게 변화되었는지 살펴보았다. 토픽모델링 결과, 세대별로 5개의 토픽이 도출되었다. 3세대의 경우 스피커의 일반적 속성을 나타내는 토픽은 제품에 긍정적 반응 요인으로 작용했고, 사용자 편의 기능은 부정적 반응 요인으로 작용했다. 반대로 4세대에서는 일반적 속성은 부정적으로, 사용자 편의 기능은 긍정적으로 도출되었다. 이와 같은 분석은 방법론 측면에서 어휘적 특징뿐 아니라 문장 전체의 문맥적 특징이 고려된 분석결과를 제시할 수 있다는 것에 그 의의가 있다.

인공지능을 활용한 흉부 엑스선 영상의 코로나19 검출 및 분류에 대한 분석 연구 (Analysis Study on the Detection and Classification of COVID-19 in Chest X-ray Images using Artificial Intelligence)

  • 윤명성;권채림;김성민;김수인;조성준;최유찬;김상현
    • 한국방사선학회논문지
    • /
    • 제16권5호
    • /
    • pp.661-672
    • /
    • 2022
  • COVID-19를 발생시키는 SARS-CoV2 바이러스가 발생한 후 전염병은 전 세계로 확산되며, 감염 사례와 사망자의 수가 빠르게 증가함에 따라 의료자원의 부족 문제가 야기되었다. 이것을 해결하려는 방법으로 인공지능을 활용한 흉부 X-ray 검사가 일차적인 진단 방법으로 관심을 받게 되었다. 본 연구에서는 인공지능을 통한 COVID-19 판독 방식들에 대해 종합적으로 분석하는 것에 목적을 두고 있다. 이 목적을 달성하기 위해 292개의 논문을 일련의 분류 방법을 거처 수집했다. 이러한 자료들을 토대로 Accuracy, Precision, Area Under Curve(AUC), Sensitivity, Specificity, F1-score, Recall, K-fold, Architecture, Class를 포함한 성능 측정정보를 분석했다. 그 결과로 평균 Accuracy, Precision, AUC, Sensitivity, Specificity 값은 각각 95.2%, 94.81%, 94.01%, 93.5%, 93.92%로 도출되었다. 연도별 성능 측정정보는 점차 증가하는 값을 나타냈고 이 외에도 Class 수, 이미지 데이터 수에 따른 변화율, Architecture 사용 비율, K-fold에 관한 연구를 진행했다. 현재 인공지능을 활용한 COVID-19의 진단은 독자적으로 사용되기에는 여러 문제가 존재하지만, 의사의 보조수단으로써 사용됨에는 부족함이 없을 것으로 예상된다.

무인항공기 및 인공지능을 활용한 도시지역 토지피복 분류 기법의 공간적 재현성 평가 (Spatial Replicability Assessment of Land Cover Classification Using Unmanned Aerial Vehicle and Artificial Intelligence in Urban Area)

  • 박건웅;송봉근;박경훈;이흥규
    • 한국지리정보학회지
    • /
    • 제25권4호
    • /
    • pp.63-80
    • /
    • 2022
  • 현실의 공간을 가상의 공간으로 구현하여 문제를 분석하고 예측하는 기술이 개발되면서, 복잡한 도시 내의 정밀한 공간정보를 취득하는 것이 중요해지고 있다. 본 연구는 복잡한 경관을 가진 도시지역을 대상으로 무인항공기를 통해 영상을 취득하고 고해상도 영상에 적합한 영상분류 기법인 객체기반 영상분석 기법과 의미론적 분할 기법을 적용하여 토지피복 분류를 수행하였다. 또한, 동일시기에 수집된 영상을 바탕으로 인공지능이 학습하지 않은 지역에 대해 각 인공지능 모형의 토지피복 분류 재현성을 확인하고자 하였다. 학습 지역을 대상으로 인공지능 모형을 학습하였을 때, 토지피복 분류 정확도가 OBIA-RF는 89.3%, OBIA-DNN은 85.0%, U-Net의 경우 95.3%로 분석되었다. 재현성을 평가하기 위해 검증 지역에 인공지능 모형을 적용하였을 때, OBIA-RF는 7%, OBIA-DNN은 2.1%, U-Net은 2.3%의 정확도가 감소하였다. 형태학적인 특성과 분광학적인 특성을 모두 고려한 U-Net이 토지피복 분류 정확도 및 재현성 평가에서 우수한 성능을 보이는 것으로 나타났다. 본 연구의 결과는 정밀한 공간정보가 중요해짐에 따라 기초자료 생성 방법으로써 도시환경 연구분야에 기여할 수 있을 것으로 판단된다.

감정 분류를 이용한 표정 연습 보조 인공지능 (Artificial Intelligence for Assistance of Facial Expression Practice Using Emotion Classification)

  • 김동규;이소화;봉재환
    • 한국전자통신학회논문지
    • /
    • 제17권6호
    • /
    • pp.1137-1144
    • /
    • 2022
  • 본 연구에서는 감정을 표현하기 위한 표정 연습을 보조하는 인공지능을 개발하였다. 개발한 인공지능은 서술형 문장과 표정 이미지로 구성된 멀티모달 입력을 심층신경망에 사용하고 서술형 문장에서 예측되는 감정과 표정 이미지에서 예측되는 감정 사이의 유사도를 계산하여 출력하였다. 사용자는 서술형 문장으로 주어진 상황에 맞게 표정을 연습하고 인공지능은 서술형 문장과 사용자의 표정 사이의 유사도를 수치로 출력하여 피드백한다. 표정 이미지에서 감정을 예측하기 위해 ResNet34 구조를 사용하였으며 FER2013 공공데이터를 이용해 훈련하였다. 자연어인 서술형 문장에서 감정을 예측하기 위해 KoBERT 모델을 전이학습 하였으며 AIHub의 감정 분류를 위한 대화 음성 데이터 세트를 사용해 훈련하였다. 표정 이미지에서 감정을 예측하는 심층신경망은 65% 정확도를 달성하여 사람 수준의 감정 분류 능력을 보여주었다. 서술형 문장에서 감정을 예측하는 심층신경망은 90% 정확도를 달성하였다. 감정표현에 문제가 없는 일반인이 개발한 인공지능을 이용해 표정 연습 실험을 수행하여 개발한 인공지능의 성능을 검증하였다.

Understanding recurrent neural network for texts using English-Korean corpora

  • Lee, Hagyeong;Song, Jongwoo
    • Communications for Statistical Applications and Methods
    • /
    • 제27권3호
    • /
    • pp.313-326
    • /
    • 2020
  • Deep Learning is the most important key to the development of Artificial Intelligence (AI). There are several distinguishable architectures of neural networks such as MLP, CNN, and RNN. Among them, we try to understand one of the main architectures called Recurrent Neural Network (RNN) that differs from other networks in handling sequential data, including time series and texts. As one of the main tasks recently in Natural Language Processing (NLP), we consider Neural Machine Translation (NMT) using RNNs. We also summarize fundamental structures of the recurrent networks, and some topics of representing natural words to reasonable numeric vectors. We organize topics to understand estimation procedures from representing input source sequences to predict target translated sequences. In addition, we apply multiple translation models with Gated Recurrent Unites (GRUs) in Keras on English-Korean sentences that contain about 26,000 pairwise sequences in total from two different corpora, colloquialism and news. We verified some crucial factors that influence the quality of training. We found that loss decreases with more recurrent dimensions and using bidirectional RNN in the encoder when dealing with short sequences. We also computed BLEU scores which are the main measures of the translation performance, and compared them with the score from Google Translate using the same test sentences. We sum up some difficulties when training a proper translation model as well as dealing with Korean language. The use of Keras in Python for overall tasks from processing raw texts to evaluating the translation model also allows us to include some useful functions and vocabulary libraries as well.

Magnetic and kinematic characteristics of very fast CMEs

  • Jang, Soojeong;Moon, Yong-Jae;Lim, Daye;Lee, Jae-Ok;Lee, Harim;Park, Eunsu
    • 천문학회보
    • /
    • 제43권1호
    • /
    • pp.54.2-54.2
    • /
    • 2018
  • It is important to understand very fast CMEs which are the main cause of geomagnetic storms and solar particle events (SPEs). During this solar cycle 24, there are 10 very fast CMEs whose speeds are over 2000 km/s. Among these, there were only two fronside events (2012 January 23 and 2012 March 7) and they are associated with two major flares (M8.7 and X5.4) and the most strong SPEs (6310 pfu and 6530 pfu). They have a similar characteristics: there were successive CMEs within 2 hours in the same active region. We analyze their magnetic properties using SDO HMI magnetograms and kinematic ones from STEREO EUVI/COR1/COR2 observations. We can measure their speeds and initial accelerations without projection effects because their source locations are almost the limb. Additionally, we are investigating magnetic and kinematic characteristics of 8 backside events using AI-generated magnetograms constructed by deep learning methods.

  • PDF