• 제목/요약/키워드: learning through the image

검색결과 925건 처리시간 0.031초

FisheyeNet: 딥러닝을 활용한 어안렌즈 왜곡 보정 (FisheyeNet: Fisheye Image Distortion Correction through Deep Learning)

  • 이홍재;원재성;이다은;이성배;김규헌
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 하계학술대회
    • /
    • pp.271-274
    • /
    • 2021
  • Fisheye 카메라로 촬영된 영상은 일반 영상보다 넓은 시야각을 갖는 장점으로 여러 분야에서 활용되고 있다. 그러나 fisheye 카메라로 촬영된 영상은 어안렌즈의 곡률로 인하여 영상의 중앙 부분은 팽창되고 외곽 부분은 축소되는 방사 왜곡이 발생하기 때문에 영상을 활용함에 있어서 어려움이 있다. 이러한 방사 왜곡을 보정하기 위하여 기존 영상처리 분야에서는 렌즈의 곡률을 수학적으로 계산하여 보정하기도 하지만 이는 각각의 렌즈마다 왜곡 파라미터를 추정해야 하기 때문에, 개별적인 GT (Ground Truth) 영상이 필요하다는 제한 사항이 있다. 이에 본 논문에서는 렌즈의 종류마다 GT 영상을 필요로 하는 기존 기술의 제한 사항을 극복하기 위하여, fisheye 영상만을 입력으로 하여 왜곡계수를 계산하는 딥러닝 네트워크를 제안하고자 한다. 또한, 단일 왜곡계수를 왜곡모델로 활용함으로써 layer 수를 크게 줄일 수 있는 경량화 네트워크를 제안한다.

  • PDF

다중 스케일 얼굴 영역 딕셔너리의 적대적 증류를 이용한 얼굴 초해상화 (Face Super-Resolution using Adversarial Distillation of Multi-Scale Facial Region Dictionary)

  • 조병호;박인규;홍성은
    • 방송공학회논문지
    • /
    • 제26권5호
    • /
    • pp.608-620
    • /
    • 2021
  • 최근 딥러닝 기반의 얼굴 초해상화 연구는 일반적인 영상에 대한 초해상화 연구와 달리 인간의 얼굴이 가지는 구조적 혹은 의미론적인 특성을 반영한 안면 랜드마크 정보, 주요 영역 딕셔너리와 같은 사전 및 참조 정보를 사용하여 우수한 초해상화 결과를 보였다. 그러나 얼굴에 특화된 사전 정보를 사용할 시 추가적인 처리 소요 시간과 메모리를 요구하는 단점이 존재한다. 본 논문은 앞서 언급한 한계점을 극복하고자 지식 증류 기법을 활용한 효율적인 초해상화 모델을 제안한다. 주요 얼굴 영역 기반의 딕셔너리 정보를 사용하는 선생 모델에 지식 증류 기법을 적용하여 추론 시 랜드마크 정보와 부가적인 딕셔너리 사용이 필요 없는 학생 모델을 구축하였다. 제안하는 학생 모델은 특징맵 기반의 적대적 지식 증류를 통해 얼굴 주요 영역 딕셔너리를 가지고 있는 선생 모델로부터 학습을 진행하였다. 본 논문은 제안하는 학생 모델의 실험 결과를 통해 정량 및 정성적으로 우수함을 보이며 선생 모델의 연산량에 비해 90% 이상 절감되는 효율성을 증명한다.

딥러닝을 통한 의미·주제 연관성 기반의 소셜 토픽 추출 시스템 개발 (Development of Extracting System for Meaning·Subject Related Social Topic using Deep Learning)

  • 조은숙;민소연;김세훈;김봉길
    • 디지털산업정보학회논문지
    • /
    • 제14권4호
    • /
    • pp.35-45
    • /
    • 2018
  • Users are sharing many of contents such as text, image, video, and so on in SNS. There are various information as like as personal interesting, opinion, and relationship in social media contents. Therefore, many of recommendation systems or search systems are being developed through analysis of social media contents. In order to extract subject-related topics of social context being collected from social media channels in developing those system, it is necessary to develop ontologies for semantic analysis. However, it is difficult to develop formal ontology because social media contents have the characteristics of non-formal data. Therefore, we develop a social topic system based on semantic and subject correlation. First of all, an extracting system of social topic based on semantic relationship analyzes semantic correlation and then extracts topics expressing semantic information of corresponding social context. Because the possibility of developing formal ontology expressing fully semantic information of various areas is limited, we develop a self-extensible architecture of ontology for semantic correlation. And then, a classifier of social contents and feed back classifies equivalent subject's social contents and feedbacks for extracting social topics according semantic correlation. The result of analyzing social contents and feedbacks extracts subject keyword, and index by measuring the degree of association based on social topic's semantic correlation. Deep Learning is applied into the process of indexing for improving accuracy and performance of mapping analysis of subject's extracting and semantic correlation. We expect that proposed system provides customized contents for users as well as optimized searching results because of analyzing semantic and subject correlation.

두피 이미지 학습을 통한 두피 상태 진단 (Diagnosis of scalp condition through scalp image learning)

  • 이건;홍윤정;차민수;우지영
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2022년도 제65차 동계학술대회논문집 30권1호
    • /
    • pp.327-329
    • /
    • 2022
  • 본 논문에서는 AI Hub의 개방 데이터인 '유형별 두피 이미지'를 사용하여 두피 상태에 대한 신경망을 학습한다. 이 두피 상태에는 6가지 상태가 있는데, 각각의 상태들에 대한 평가를 양호(0)부터 심각(3)까지 분류하여 학습한 신경망 모델로 실제 어플리케이션으로 구현하여 사람들의 두피 사진을 찍어서 두피 상태를 진단한다. 이 과정에서 기존 개방 데이터에서 사용했던 값 비싼 두피 진단기를 사용하는 것이 아닌 값싸게 구할 수 있는 스마트폰용 현미경을 사용하여 좀 더 효율적으로 두피 상태를 진단 할 수 있는 어플리케이션을 만들었다. 몇백만 원 상당의 비싼 두피 진단기로 촬영한 사진과 비교하였을 시 평균적으로 65%의 정확도를 보여주고 있으며 데이터가 많은 유형은 77%의 정확도까지도 보여주었다.

  • PDF

좌표 정보를 이용한 손동작 직선 8 방향 인식 알고리즘 (8-Straight Line Directions Recognition Algorithm for Hand Gestures Using Coordinate Information)

  • 섯드게럴;김용기;김미혜
    • 디지털융복합연구
    • /
    • 제13권9호
    • /
    • pp.259-267
    • /
    • 2015
  • 본 논문에서는 직선을 판별하는 판별방법과 또한 직선으로 판정되는 경우 직선의 8가지 방향에 대한 판정을 위하여 좌표정보와 삼각함수 성질을 이용하여 직선 8반향 알고리즘을 제안하였다. 본 실험은 각 동작 별로 100회씩 총 800회를 실험 하였으며, 본 논문에서 제안한 알고리즘을 통한 정확도는 왼쪽 위로의 대각선 방향이 92%로 가장 높았으며 왼쪽 방향, 오른쪽 위로의 대각선 방향과 오른쪽 아래로의 대각선 방향이 모두 82%로 가장 낮은 인식률을 나타내었다. 이 방법은 기존 방법과는 다르게 학습과정 없이 이미지 처리를 통해 얻은 좌표 정보만으로 손 제스처 인식이 가능하다는 것을 보여준다.

YOLO알고리즘을 활용한 시각장애인용 식사보조 시스템 개발 (Development a Meal Support System for the Visually Impaired Using YOLO Algorithm)

  • 이군호;문미경
    • 한국전자통신학회논문지
    • /
    • 제16권5호
    • /
    • pp.1001-1010
    • /
    • 2021
  • 시각이 온전한 사람들은 식사를 할 때 시각에 대한 의존도를 깊게 인지하지 못한다. 그러나 시각장애인은 식단에 어떤 음식이 있는지 알지 못하기 때문에 옆에 있는 보조인이 시각장애인 수저로 음식의 위치를 시계방향 또는 전후좌우 등 일정한 방향으로 설명하여 그릇 위치를 확인한다. 본 논문에서는 시각장애인이 스마트폰의 카메라를 이용하여 자신의 식단을 비추면 각각의 음식 이미지를 인식하여 음성으로 음식의 이름을 알려주는 식사보조 시스템의 개발 내용에 대해 기술한다. 이 시스템은 음식과 식기도구(숟가락)의 이미지를 학습한 YOLO모델을 통해 숟가락이 놓인 음식을 추출해 내고, 이 음식이 무엇인지를 인식하여 이를 음성으로 알려준다. 본 시스템을 통해 시각장애인은 식사보조인의 도움없이 식사를 할 수 있음으로써 자립의지와 만족도를 높일 수 있을 것으로 기대한다.

드론 영상 분석과 자료 증가 방법을 통한 건설 자재 수량 측정 (Measurement of Construction Material Quantity through Analyzing Images Acquired by Drone And Data Augmentation)

  • 문지환;송누리;최재갑;박진호;김계영
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제9권1호
    • /
    • pp.33-38
    • /
    • 2020
  • 본 논문에서는 드론에 의하여 획득된 영상을 분석하여 건축자재의 수량을 측정하는 기술을 제안한다. 제안하는 기술은 드론 및 카메라 정보가 담겨있는 드론 로그와 영상 내 건축자재더미 종류와 영역을 예측하는 RCNN, 실제적인 수량 계산을 위한 사진측량법을 사용한다. 기존 연구에선 학습 데이터의 부족으로, 자재 종류 및 건축자재더미 영역 예측 정확도의 오류 범위가 컸다. 논문에서는 이러한 오류 범위를 줄이고 예측 안정성을 높이기 위해 자료 증가 방법으로 학습 데이터를 증가시킨다. 자료 증가는 학습 모델의 과적합을 막기 위해 회전에 의한 증가 방법만 사용한다. 수량 계산 방법으로는 Yaw, FOV 등의 드론 및 카메라 정보가 담겨있는 드론 로그와 영상 내 건축자재더미 영역을 찾고, 종류를 예측해 줄 RCNN 모델을 사용하고, 이 모든 정보를 종합해 논문에서 제안하는 수식에 적용하여 자재더미의 실제적인 수량을 계산한다. 제안하는 방법의 우수성은 실험을 통하여 확인한다.

드론 탐지 및 분류를 위한 레이다 영상 기계학습 활용 (Machine learning based radar imaging algorithm for drone detection and classification)

  • 문민정;이우경
    • 한국정보통신학회논문지
    • /
    • 제25권5호
    • /
    • pp.619-627
    • /
    • 2021
  • 최근 드론은 가격 하락, 소형화와 함께 높은 기술 발전에 힘입어 드론 보급이 민군에 걸쳐 증가하면서 보안안전사고, 치안·안보 위협 등의 문제를 유발할 가능성도 커지고 있다. 드론으로 인해 발생하는 사건 및 사고를 예방하기 위해서는 드론의 출현에 대응할 수 있는 탐지 기술이 우선적으로 선행되어야 한다. 드론은 크기가 작고 전파 반사도가 낮은 재질로 구성되어 있어 음향, 적외선, 레이다의 운용만으로는 탐지가 어렵다. 최근 영상 식별 성능을 강화하기 위해 레이다 신호에 인공지능을 접목한 연구사례가 증가하는 추세이다. 본 논문에서는 레이다 영상을 이용한 드론 탐지 기술을 소개하며, 드론의 모의실험 데이터와 실제 실험 데이터를 기반으로 인공지능 기술에 적용하여 드론의 분류 정확도를 효과적으로 입증하였다.

Convolutional Neural Network Model Using Data Augmentation for Emotion AI-based Recommendation Systems

  • Ho-yeon Park;Kyoung-jae Kim
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권12호
    • /
    • pp.57-66
    • /
    • 2023
  • 본 연구에서는 딥러닝 기법과 정서적 AI를 적용하여 사용자의 감정 상태를 추정하고 이를 추천 과정에 반영할 수 있는 추천 시스템에 대한 새로운 연구 프레임워크를 제안한다. 이를 위해 분노, 혐오, 공포, 행복, 슬픔, 놀람, 중립의 7가지 감정을 각각 분류하는 감정분류모델을 구축하고, 이 결과를 추천 과정에 반영할 수 있는 모형을 제안한다. 그러나 일반적인 감정 분류 데이터에서는 각 레이블 간 분포 비율의 차이가 크기 때문에 일반화된 분류 결과를 기대하기 어려울 수 있다. 본 연구에서는 감정 이미지 데이터에서 혐오감 등의 감정 개수가 부족한 경우가 많으므로 데이터 증강을 이용한다. 마지막으로, 이미지 증강을 통해 데이터 기반의 감정 예측 모델을 추천시스템에 반영하는 방법을 제안한다.

딥러닝 알고리즘을 이용한 인쇄된 별색 잉크의 색상 예측 연구 (A Study on A Deep Learning Algorithm to Predict Printed Spot Colors)

  • 전수현;박재상;태현철
    • 산업경영시스템학회지
    • /
    • 제45권2호
    • /
    • pp.48-55
    • /
    • 2022
  • The color image of the brand comes first and is an important visual element that leads consumers to the consumption of the product. To express more effectively what the brand wants to convey through design, the printing market is striving to print accurate colors that match the intention. In 'offset printing' mainly used in printing, colors are often printed in CMYK (Cyan, Magenta, Yellow, Key) colors. However, it is possible to print more accurate colors by making ink of the desired color instead of dotting CMYK colors. The resulting ink is called 'spot color' ink. Spot color ink is manufactured by repeating the process of mixing the existing inks. In this repetition of trial and error, the manufacturing cost of ink increases, resulting in economic loss, and environmental pollution is caused by wasted inks. In this study, a deep learning algorithm to predict printed spot colors was designed to solve this problem. The algorithm uses a single DNN (Deep Neural Network) model to predict printed spot colors based on the information of the paper and the proportions of inks to mix. More than 8,000 spot color ink data were used for learning, and all color was quantified by dividing the visible light wavelength range into 31 sections and the reflectance for each section. The proposed algorithm predicted more than 80% of spot color inks as very similar colors. The average value of the calculated difference between the actual color and the predicted color through 'Delta E' provided by CIE is 5.29. It is known that when Delta E is less than 10, it is difficult to distinguish the difference in printed color with the naked eye. The algorithm of this study has a more accurate prediction ability than previous studies, and it can be added flexibly even when new inks are added. This can be usefully used in real industrial sites, and it will reduce the attempts of the operator by checking the color of ink in a virtual environment. This will reduce the manufacturing cost of spot color inks and lead to improved working conditions for workers. In addition, it is expected to contribute to solving the environmental pollution problem by reducing unnecessarily wasted ink.