• 제목/요약/키워드: learning through the image

검색결과 925건 처리시간 0.027초

딥러닝을 이용한 달 크레이터 탐지 (Lunar Crater Detection using Deep-Learning)

  • 서행자;김동영;박상민;최명진
    • 우주기술과 응용
    • /
    • 제1권1호
    • /
    • pp.49-63
    • /
    • 2021
  • 태양계 천체 탐사는 다양한 탑재체를 통해 이루어지고 있고, 그에 따라 많은 연구 결과들이 나오고 있다. 우리는 태양계 천체 연구의 한 방법으로 딥러닝 적용을 시도해 보았다. 지구 관측 위성 자료와 다르게 태양계 천체 자료들은 천체들에 따라 탐사선에 따라 각 탐사선의 탑재체에 따라 그 자료의 형태가 매우 다르다. 그래서 학습시킨 모델로 다양한 자료에 적용이 어려울 수 있지만 사람에 의한 오류를 줄이거나, 놓치는 부분들을 보완해 줄 수 있을 것이라고 기대한다. 우리는 달 표면의 크레이터를 탐지하는 모델을 구현해 보았다. Lunar Reconnaissance Orbiter Camera (LROC) 영상과 제공하는 shapefile을 입력값으로 하여 모델을 만들었고, 이를 달 표면 영상에 적용하여 보았다. 결과가 만족스럽지는 못했지만 이후 이미지 전처리와 모델 수정 작업을 통해 최종적으로는 ShadowCam에 의해 획득되는 달의 영구음영지역 영상에 적용할 예정이다. 이 외에도 달 표면과 비슷한 형태를 가진 세레스와 수성에 적용을 시도하여 딥러닝이 태양계 천체 연구에 또 다른 방법임을 시사하고자 한다.

Real-Time Earlobe Detection System on the Web

  • Kim, Jaeseung;Choi, Seyun;Lee, Seunghyun;Kwon, Soonchul
    • International journal of advanced smart convergence
    • /
    • 제10권4호
    • /
    • pp.110-116
    • /
    • 2021
  • This paper proposed a real-time earlobe detection system using deep learning on the web. Existing deep learning-based detection methods often find independent objects such as cars, mugs, cats, and people. We proposed a way to receive an image through the camera of the user device in a web environment and detect the earlobe on the server. First, we took a picture of the user's face with the user's device camera on the web so that the user's ears were visible. After that, we sent the photographed user's face to the server to find the earlobe. Based on the detected results, we printed an earring model on the user's earlobe on the web. We trained an existing YOLO v5 model using a dataset of about 200 that created a bounding box on the earlobe. We estimated the position of the earlobe through a trained deep learning model. Through this process, we proposed a real-time earlobe detection system on the web. The proposed method showed the performance of detecting earlobes in real-time and loading 3D models from the web in real-time.

로봇 및 드론 센서로 수집한 이미지 정합을 위한 Deblur 딥러닝 모델 평가 (Evaluation of a Deblur Deep Learning Model for Image Registration Collected from Robots and Drones)

  • 이혜민;권혜민;문한솔;이창교;서정욱
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.153-155
    • /
    • 2022
  • 최근 로봇과 드론을 이용하여 이미지 데이터를 수집하는 경우가 많아졌다. 로봇이나 드론이 주행할 때 외부 영향으로 흔들리게 된다. 이렇게 수집된 이미지를 사용하기 위해서는 이미지를 정합하는 전처리 기술이 필요하다. 따라서 본 논문에서는 자율주행 로봇 데이터셋과 직접 촬영한 드론 데이터셋을 사용하여 Deblur 딥러닝 모델을 통해 흔들린 이미지 데이터의 품질을 높인다. 실험 결과를 통해 흔들린 이미지가 선명하게 정합되는 것을 확인하였으며 모델의 성능을 평가하였다.

  • PDF

High-Capacity Robust Image Steganography via Adversarial Network

  • Chen, Beijing;Wang, Jiaxin;Chen, Yingyue;Jin, Zilong;Shim, Hiuk Jae;Shi, Yun-Qing
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권1호
    • /
    • pp.366-381
    • /
    • 2020
  • Steganography has been successfully employed in various applications, e.g., copyright control of materials, smart identity cards, video error correction during transmission, etc. Deep learning-based steganography models can hide information adaptively through network learning, and they draw much more attention. However, the capacity, security, and robustness of the existing deep learning-based steganography models are still not fully satisfactory. In this paper, three models for different cases, i.e., a basic model, a secure model, a secure and robust model, have been proposed for different cases. In the basic model, the functions of high-capacity secret information hiding and extraction have been realized through an encoding network and a decoding network respectively. The high-capacity steganography is implemented by hiding a secret image into a carrier image having the same resolution with the help of concat operations, InceptionBlock and convolutional layers. Moreover, the secret image is hidden into the channel B of carrier image only to resolve the problem of color distortion. In the secure model, to enhance the security of the basic model, a steganalysis network has been added into the basic model to form an adversarial network. In the secure and robust model, an attack network has been inserted into the secure model to improve its robustness further. The experimental results have demonstrated that the proposed secure model and the secure and robust model have an overall better performance than some existing high-capacity deep learning-based steganography models. The secure model performs best in invisibility and security. The secure and robust model is the most robust against some attacks.

인공지능 기반 구글넷 딥러닝과 IoT를 이용한 의류 분류 (Classification of Clothing Using Googlenet Deep Learning and IoT based on Artificial Intelligence)

  • 노순국
    • 스마트미디어저널
    • /
    • 제9권3호
    • /
    • pp.41-45
    • /
    • 2020
  • 최근 4차 산업혁명 관련 IT기술 중에서 머신러닝과 딥러닝으로 대표되는 인공지능과 사물인터넷은 다양한 연구를 통해 여러 분야에서 우리 실생활에 적용되고 있다. 본 논문에서는 사물인터넷과 객체인식 기술을 활용한 인공지능을 적용하여 의류를 분류하고자 한다. 이를 위해 이미지 데이터셋은 웹캠과 라즈베리파이를 이용하여 의류를 촬영하고, 촬영된 이미지 데이터를 전이학습된 컨벌루션 뉴럴 네트워크 인공지능망인 구글넷에 적용하였다. 의류 이미지 데이터셋은 온전한 이미지 900개와 손상이 있는 이미지 900 그리고 총 1800개를 가지고 상하의 2개의 카테고리로 분류하였다. 분류 측정 결과는 온전한 의류 이미지에서는 약 97.78%의 정확도를 보였다. 결론적으로 이러한 측정결과와 향후 더 많은 이미지 데이터의 보완을 통해 사물인터넷 기반 플랫폼상에서 인공지능망을 활용한 여타 사물들의 객체 인식에 대한 적용 가능성을 확인하였다.

SoC 환경에서 TIDL NPU를 활용한 딥러닝 기반 도로 영상 인식 기술 (Road Image Recognition Technology based on Deep Learning Using TIDL NPU in SoC Enviroment)

  • 신윤선;서주현;이민영;김인중
    • 스마트미디어저널
    • /
    • 제11권11호
    • /
    • pp.25-31
    • /
    • 2022
  • 자율주행 자동차에서 딥러닝 기반 영상처리는 매우 중요하다. 자동차를 비롯한 SoC(System on Chip) 환경에서 실시간으로 도로 영상을 처리하기 위해서는 영상처리 모델을 딥러닝 연산에 특화된 NPU(Neural Processing Unit) 상에서 실행해야 한다. 본 연구에서는 GPU 서버 환경에서 개발된 7종의 오픈소스 딥러닝 영상처리 모델들을 TIDL (Texas Instrument Deep Learning) NPU 환경에 이식하였다. 성능 평가와 시각화를 통해 본 연구에서 이식한 모델들이 SoC 가상환경에서 정상 작동함을 확인하였다. 본 논문은 NPU 환경의 제약으로 인해 이식 과정에 발생한 문제들과 그 해결 방법을 소개함으로써 딥러닝 모델을 SoC 환경에 이식하려는 개발자 및 연구자가 참고할 만한 사례를 제시한다.

회전 영상 기반 다면 영상 데이터셋 구축 방법 (Multi-faceted Image Dataset Construction Method Based on Rotational Images.)

  • 김지성;허경용;장시웅
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 추계학술대회
    • /
    • pp.75-77
    • /
    • 2021
  • 딥러닝 기술을 통해 영상 내의 객체를 찾아내기 위해서는 학습을 위한 영상 데이터셋이 필요하다. 객체의 인식률을 높이기 위해서는 많은 양의 영상 학습 데이터가 필요하다. 많은 양의 데이터셋을 구축하는 데에는 많은 비용이 들기 때문에 개인이 구축하기에 어려움이 있다. 본 논문에서는 회전 영상을 촬영하여 객체의 여러 면을 포함하는 영상 데이터셋을 보다 손쉽게 구축하는 방법을 소개한다. 회전판 위에 객체를 올려둔 뒤 촬영하고 촬영된 영상을 필요에 맞게 분할, 합성하여 데이터셋을 구축하는 방법을 제안한다.

  • PDF

Implementation of Low-cost Autonomous Car for Lane Recognition and Keeping based on Deep Neural Network model

  • Song, Mi-Hwa
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제13권1호
    • /
    • pp.210-218
    • /
    • 2021
  • CNN (Convolutional Neural Network), a type of deep learning algorithm, is a type of artificial neural network used to analyze visual images. In deep learning, it is classified as a deep neural network and is most commonly used for visual image analysis. Accordingly, an AI autonomous driving model was constructed through real-time image processing, and a crosswalk image of a road was used as an obstacle. In this paper, we proposed a low-cost model that can actually implement autonomous driving based on the CNN model. The most well-known deep neural network technique for autonomous driving is investigated and an end-to-end model is applied. In particular, it was shown that training and self-driving on a simulated road is possible through a practical approach to realizing lane detection and keeping.

강화학습 기반 비활성 영역 패딩 기술 (Reinforcement Learning based Inactive Region Padding Method)

  • 김동신;우딘 쿠툽;오병태
    • 방송공학회논문지
    • /
    • 제26권5호
    • /
    • pp.599-607
    • /
    • 2021
  • 비활성 영역이란 특정 영상을 표현하기 위해 유효하지 않은 화소 값으로 채워지는 영역을 의미한다. 일반적으로 원본 영상의 형태가 사각형 형태가 아닌 경우 이를 사각형 형태로 변환하는 과정에서 주로 발생하며, 특히 3D 영상을 2D로 표현할 때 자주 발생한다. 이러한 비활성 영역은 압축 효율을 크게 저하시키기 때문에, 활성 영역과 비활성 영역의 경계 부분에 필터링 기술 등을 적용해 해결해 왔다. 하지만 일반적인 필터링 적용 기술은 영상의 특성을 적절하게 반영하지 못할 가능성이 크다. 제안하는 기법에서는 영상의 특성과 압축 과정을 고려한 강화학습을 통한 패딩을 진행하였다. 실험결과 제안한 기법이 기존 기법보다 평균 3.4% 성능이 향상됨을 확인할 수 있다.

콘볼루션 신경망(CNN)과 다양한 이미지 증강기법을 이용한 혀 영역 분할 (Tongue Image Segmentation Using CNN and Various Image Augmentation Techniques)

  • 안일구;배광호;이시우
    • 대한의용생체공학회:의공학회지
    • /
    • 제42권5호
    • /
    • pp.201-210
    • /
    • 2021
  • In Korean medicine, tongue diagnosis is one of the important diagnostic methods for diagnosing abnormalities in the body. Representative features that are used in the tongue diagnosis include color, shape, texture, cracks, and tooth marks. When diagnosing a patient through these features, the diagnosis criteria may be different for each oriental medical doctor, and even the same person may have different diagnosis results depending on time and work environment. In order to overcome this problem, recent studies to automate and standardize tongue diagnosis using machine learning are continuing and the basic process of such a machine learning-based tongue diagnosis system is tongue segmentation. In this paper, image data is augmented based on the main tongue features, and backbones of various famous deep learning architecture models are used for automatic tongue segmentation. The experimental results show that the proposed augmentation technique improves the accuracy of tongue segmentation, and that automatic tongue segmentation can be performed with a high accuracy of 99.12%.