• 제목/요약/키워드: 3D-CNN

검색결과 158건 처리시간 0.024초

CNN 및 SVM 기반의 개인 맞춤형 피복추천 시스템: 군(軍) 장병 중심으로 (CNN and SVM-Based Personalized Clothing Recommendation System: Focused on Military Personnel)

  • 박건우
    • 문화기술의 융합
    • /
    • 제9권1호
    • /
    • pp.347-353
    • /
    • 2023
  • 현재 軍(육군) 입대 장병은 신병훈련소에서 신체에 대한 치수 측정(자동, 수동) 및 샘플 피복을 착용해 본 후, 희망하는 치수로 피복을 지급받고 있다. 하지만, 민간 평상복보다 상대적으로 매우 세분화된 치수 체계를 적용하고 있는 軍에서는 이와 같은 치수 측정 과정에서 발생하는 측정된 치수의 낮은 정확도로 인해 지급받은 피복이 제대로 맞지 않아 피복을 교체하는 빈도가 매우 빈번히 발생하고 있다. 뿐만 아니라 서구적으로 변화된 MZ 세대의 체형변화를 반영하지 않고, 10여 년 전(前)에 수집된 구세대 체형 데이터 기반의 치수 체계를 적용함으로써 재고량이 비효율적으로 관리되는 문제점이 있다. 즉, 필요한 규격의 피복은 부족하고 불필요한 규격의 피복재고는 다수 발생하고 있다. 따라서, 피복 교체빈도를 감소시키고 재고관리의 효율성을 향상하기 위해 딥러닝 기반의 신체 치수 자동측정과 빅데이터 분석 및 머신러닝 기반의 "입대 장병 개인 맞춤형 피복 자동 추천 시스템"을 제안한다.

뇌 종양 등급 분류를 위한 심층 멀티모달 MRI 통합 모델 (Deep Multimodal MRI Fusion Model for Brain Tumor Grading)

  • 나인예;박현진
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.416-418
    • /
    • 2022
  • 신경교종(glioma)은 신경교세포에서 발생하는 뇌 종양으로 low grade glioma와 예후가 나쁜 high grade glioma로 분류된다. 자기공명영상(magnetic Resonance Imaging, MRI)은 비침습적 수단으로 이를 이용한 신경교종 진단에 대한 연구가 활발히 진행되고 있다. 또한, 단일 modality의 정보 한계를 극복하기 위해 다중 modality를 조합하여 상호 보완적인 정보를 얻는 연구도 진행되고 있다. 본 논문은 네가지 modality(T1, T1Gd, T2, T2-FLAIR)의 MRI 영상에 입력단 fusion을 적용한 3D CNN 기반의 모델을 제안한다. 학습된 모델은 검증 데이터에 대해 정확도 0.8926, 민감도 0.9688, 특이도 0.6400, AUC 0.9467의 분류 성능을 보였다. 이를 통해 여러 modality 간의 상호관계를 학습하여 신경교종의 등급을 효과적으로 분류함을 확인하였다.

  • PDF

CNN based data anomaly detection using multi-channel imagery for structural health monitoring

  • Shajihan, Shaik Althaf V.;Wang, Shuo;Zhai, Guanghao;Spencer, Billie F. Jr.
    • Smart Structures and Systems
    • /
    • 제29권1호
    • /
    • pp.181-193
    • /
    • 2022
  • Data-driven structural health monitoring (SHM) of civil infrastructure can be used to continuously assess the state of a structure, allowing preemptive safety measures to be carried out. Long-term monitoring of large-scale civil infrastructure often involves data-collection using a network of numerous sensors of various types. Malfunctioning sensors in the network are common, which can disrupt the condition assessment and even lead to false-negative indications of damage. The overwhelming size of the data collected renders manual approaches to ensure data quality intractable. The task of detecting and classifying an anomaly in the raw data is non-trivial. We propose an approach to automate this task, improving upon the previously developed technique of image-based pre-processing on one-dimensional (1D) data by enriching the features of the neural network input data with multiple channels. In particular, feature engineering is employed to convert the measured time histories into a 3-channel image comprised of (i) the time history, (ii) the spectrogram, and (iii) the probability density function representation of the signal. To demonstrate this approach, a CNN model is designed and trained on a dataset consisting of acceleration records of sensors installed on a long-span bridge, with the goal of fault detection and classification. The effect of imbalance in anomaly patterns observed is studied to better account for unseen test cases. The proposed framework achieves high overall accuracy and recall even when tested on an unseen dataset that is much larger than the samples used for training, offering a viable solution for implementation on full-scale structures where limited labeled-training data is available.

Improvement of Vocal Detection Accuracy Using Convolutional Neural Networks

  • You, Shingchern D.;Liu, Chien-Hung;Lin, Jia-Wei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권2호
    • /
    • pp.729-748
    • /
    • 2021
  • Vocal detection is one of the fundamental steps in musical information retrieval. Typically, the detection process consists of feature extraction and classification steps. Recently, neural networks are shown to outperform traditional classifiers. In this paper, we report our study on how to improve detection accuracy further by carefully choosing the parameters of the deep network model. Through experiments, we conclude that a feature-classifier model is still better than an end-to-end model. The recommended model uses a spectrogram as the input plane and the classifier is an 18-layer convolutional neural network (CNN). With this arrangement, when compared with existing literature, the proposed model improves the accuracy from 91.8% to 94.1% in Jamendo dataset. As the dataset has an accuracy of more than 90%, the improvement of 2.3% is difficult and valuable. If even higher accuracy is required, the ensemble learning may be used. The recommend setting is a majority vote with seven proposed models. Doing so, the accuracy increases by about 1.1% in Jamendo dataset.

Image Processing-based Object Recognition Approach for Automatic Operation of Cranes

  • Zhou, Ying;Guo, Hongling;Ma, Ling;Zhang, Zhitian
    • 국제학술발표논문집
    • /
    • The 8th International Conference on Construction Engineering and Project Management
    • /
    • pp.399-408
    • /
    • 2020
  • The construction industry is suffering from aging workers, frequent accidents, as well as low productivity. With the rapid development of information technologies in recent years, automatic construction, especially automatic cranes, is regarded as a promising solution for the above problems and attracting more and more attention. However, in practice, limited by the complexity and dynamics of construction environment, manual inspection which is time-consuming and error-prone is still the only way to recognize the search object for the operation of crane. To solve this problem, an image-processing-based automated object recognition approach is proposed in this paper, which is a fusion of Convolutional-Neutral-Network (CNN)-based and traditional object detections. The search object is firstly extracted from the background by the trained Faster R-CNN. And then through a series of image processing including Canny, Hough and Endpoints clustering analysis, the vertices of the search object can be determined to locate it in 3D space uniquely. Finally, the features (e.g., centroid coordinate, size, and color) of the search object are extracted for further recognition. The approach presented in this paper was implemented in OpenCV, and the prototype was written in Microsoft Visual C++. This proposed approach shows great potential for the automatic operation of crane. Further researches and more extensive field experiments will follow in the future.

  • PDF

fMRI 데이터를 이용한 알츠하이머 진행상태 분류 (Alzheimer progression classification using fMRI data)

  • 노주현;양희덕
    • 스마트미디어저널
    • /
    • 제13권4호
    • /
    • pp.86-93
    • /
    • 2024
  • 기능적 자기 공명영상(functional magnetic resonance imaging;fMRI)의 발전은 뇌 기능의 매핑, 휴식 상태에서 뇌 네트워크의 이해에 상당한 기여를 하였다. 본 논문은 알츠하이머의 진행상태를 분류하기 위해 CNN-LSTM 기반의 분류 모델을 제안한다. 첫 번째로 특징 추출 이전 fMRI 데이터에서 잡음을 제거하기 위해 4단계의 전처리를 수행한다. 두 번째, 전처리가 끝나면 U-Net 구조를 활용하여 공간적 특징을 추출한다. 세 번째, 추출된 공간적 특징은 LSTM을 활용하여 시간적 특징을 추출하여 최종적으로 분류하는 과정을 거친다. 실험은 데이터의 시간차원을 조절하여 진행하였다. 5-fold 교차 검증을 사용하여 평균 96.4%의 정확도를 달성하였고 이러한 결과는 제안된 방법이 fMRI 데이터를 분석하여 알츠하이머의 진행을 식별하는데 높은 잠재력을 가지고 있음을 보여준다.

FCM을 이용한 3차원 영상 정보의 패턴 분할 (The Pattern Segmentation of 3D Image Information Using FCM)

  • 김은석;주기세
    • 한국정보통신학회논문지
    • /
    • 제10권5호
    • /
    • pp.871-876
    • /
    • 2006
  • 본 논문은 공간 부호화 패턴들을 이용하여 3차원 얼굴 정보를 정확하게 측정하기 위하여 초기 얼굴 패턴 영상으로부터 이미지 패턴을 검출하기 위한 새로운 알고리즘을 제안한다. 획득된 영상이 불균일하거나 패턴의 경계가 명확하지 않으면 패턴을 분할하기가 어렵다. 그리고 누적된 오류로 인하여 코드화가 되지 않는 영역이 발생한다. 본 논문에서는 이러한 요인에 강하고 코드화가 잘 될 수 있도록 FCM 클러스터링 방법을 이용하였다. 패턴 분할을 위하여 클러스터는 2개, 최대 반복횟수는 100, 임계값은 0.00001로 설정하여 실험하였다. 제안된 패턴 분할 방법은 기존 방법들(Otsu, uniform error, standard deviation, Rioter and Calvard, minimum error, Lloyd)에 비해 8-20%의 분할 효율을 향상시켰다.

2.5D human pose estimation for shadow puppet animation

  • Liu, Shiguang;Hua, Guoguang;Li, Yang
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권4호
    • /
    • pp.2042-2059
    • /
    • 2019
  • Digital shadow puppet has traditionally relied on expensive motion capture equipments and complex design. In this paper, a low-cost driven technique is presented, that captures human pose estimation data with simple camera from real scenarios, and use them to drive virtual Chinese shadow play in a 2.5D scene. We propose a special method for extracting human pose data for driving virtual Chinese shadow play, which is called 2.5D human pose estimation. Firstly, we use the 3D human pose estimation method to obtain the initial data. In the process of the following transformation, we treat the depth feature as an implicit feature, and map body joints to the range of constraints. We call the obtain pose data as 2.5D pose data. However, the 2.5D pose data can not better control the shadow puppet directly, due to the difference in motion pattern and composition structure between real pose and shadow puppet. To this end, the 2.5D pose data transformation is carried out in the implicit pose mapping space based on self-network and the final 2.5D pose expression data is produced for animating shadow puppets. Experimental results have demonstrated the effectiveness of our new method.

밀리미터파의 손동작 인식 알고리즘에 관한 연구 (Study on Hand Gestures Recognition Algorithm of Millimeter Wave)

  • 남명우;홍순관
    • 한국산학기술학회논문지
    • /
    • 제21권7호
    • /
    • pp.685-691
    • /
    • 2020
  • 본 논문에서는 77GHz를 사용하는 밀리미터파 레이더 센서의 반향 신호를 이용하여 손동작의 움직임을 추적한 후 얻어진 데이터로 0부터 9까지의 숫자들을 인식하는 알고리즘을 개발하였다. 손동작을 감지하여 레이더 센서로부터 얻어진 반향 신호들은 산란 단면적의 차이 등에 의해 불규칙한 점들의 군집형태를 보인다. 이들로부터 유효한 중심점을 얻기 위해 3차원 좌푯값들을 이용해 K-Means 알고리즘을 적용하였다. 그리고 얻어진 중심점들을 연결하여 숫자 형태의 이미지를 생성하였다. 얻어진 이미지와 스무딩 기법을 적용해 사람의 손글씨 형태와 유사하게 만든 이미지를 MNIST(Modified National Institute of Standards and Technology database)로 훈련된 CNN(Convolutional Neural Network) 모델에 입력하여 인식률을 비교하였다. 실험은 두 가지 방법으로 진행되었다. 먼저 스무딩 기법을 적용한 이미지와 적용하지 않은 이미지를 사용한 인식 실험에서는 각각 평균 77.0%와 81.0%의 인식률을 얻었다. 그리고 학습데이터를 확장(augmentation)한 CNN 모델의 실험에서는 스무딩 기법을 적용한 이미지와 적용하지 않은 이미지를 사용한 인식 실험에서 각각 평균 97.5%와 평균 99.0%의 인식률을 얻었다. 본 연구는 레이더 센서를 이용한 다양한 비접촉 인식기술에 응용이 가능할 것으로 판단된다.

합성곱 신경망 기반 맨하탄 좌표계 추정 (Estimation of Manhattan Coordinate System using Convolutional Neural Network)

  • 이진우;이현준;김준호
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제23권3호
    • /
    • pp.31-38
    • /
    • 2017
  • 본 논문에서는 도심 영상에 대해 맨하탄 좌표계를 추정하는 합성곱 신경망(Convolutional Neural Network) 기반의 시스템을 제안한다. 도심 영상에서 맨하탄 좌표계를 추정하는 것은 영상 조정, 3차원 장면 복원 등 컴퓨터 그래픽스 및 비전 문제 해결의 기본이 된다. 제안하는 합성곱 신경망은 GoogLeNet[1]을 기반으로 구성한다. 합성곱 신경망을 훈련하기 위해 구글 스트리트 뷰 API로 영상을 수집하고 기존 캘리브레이션 방법으로 맨하탄 좌표계를 계산하여 데이터셋을 생성한다. 장면마다 새롭게 합성곱 신경망을 학습해야하는 PoseNet[2]과 달리, 본 논문에서 제안하는 시스템은 장면의 구조를 학습하여 맨하탄 좌표계를 추정하기 때문에 학습되지 않은 새로운 장면에 대해서도 맨하탄 좌표계를 추정한다. 제안하는 방법은 학습에 참여하지 않은 구글 스트리트 뷰 영상을 검증 데이터로 테스트하였을 때 $3.157^{\circ}$의 중간 오차로 맨하탄 좌표계를 추정하였다. 또한, 동일 검증 데이터에 대해 제안하는 방법이 기존 맨하탄 좌표계 추정 알고리즘[3]보다 더 낮은 중간 오차를 보이는 것을 확인하였다.