• Title/Summary/Keyword: 데이터 정규화

Search Result 472, Processing Time 0.03 seconds

Application and Analysis of Machine Learning for Discriminating Image Copyright (이미지 저작권 판별을 위한 기계학습 적용과 분석)

  • Kim, Sooin;Lee, Sangwoo;Kim, Hakhee;Kim, Wongyum;Hwang, Doosung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2021.11a
    • /
    • pp.899-902
    • /
    • 2021
  • 본 논문은 이미지 저작권 유무 판별을 분류 문제로 정의하고 기계학습과 합성곱 신경망 모델을 적용하여 해결한다. 학습을 위해 입력 데이터를 고정된 크기로 변환하고 정규화 과정을 수행하여 학습 데이터셋을 준비한다. 저작권 유무 판별 실험에서 SVM, k-NN, 랜덤포레스트, VGG-Net 모델의 분류 성능을 비교 분석한다. VGG-Net C 모델의 결과가 다른 알고리즘과 비교 시 10.65% 높은 성능을 나타냈으며 배치 정규화 층을 이용하여 과적합 현상을 개선했다.

An Improved Image Classification Using Batch Normalization and CNN (배치 정규화와 CNN을 이용한 개선된 영상분류 방법)

  • Ji, Myunggeun;Chun, Junchul;Kim, Namgi
    • Journal of Internet Computing and Services
    • /
    • v.19 no.3
    • /
    • pp.35-42
    • /
    • 2018
  • Deep learning is known as a method of high accuracy among several methods for image classification. In this paper, we propose a method of enhancing the accuracy of image classification using CNN with a batch normalization method for classification of images using deep CNN (Convolutional Neural Network). In this paper, we propose a method to add a batch normalization layer to existing neural networks to enhance the accuracy of image classification. Batch normalization is a method to calculate and move the average and variance of each batch for reducing the deflection in each layer. In order to prove the superiority of the proposed method, Accuracy and mAP are measured by image classification experiments using five image data sets SHREC13, MNIST, SVHN, CIFAR-10, and CIFAR-100. Experimental results showed that the CNN with batch normalization is better classification accuracy and mAP rather than using the conventional CNN.

cDNA Microarray data Analysis and Management System: cMAMS (cDNA 마이크로어레이 데이터의 분석과 관리 시스템: cMAMS)

  • 김상배;김효미;이은정;김영진;박정선;박윤주;정호열;고인송
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.247-249
    • /
    • 2004
  • 마이크로어레이 기술은 근래에 개발된 신기술로써 동시에 수천-수만 개의 유전자 발현을 측정할 수 있어 다양한 생물학적 연구에 이용되고 있다. 여러 단계의 실험 과정과 이를 통해 얻은 다량의 데이터를 처리하기 위해서는 이를 효율적으로 관리. 저장, 분석할 수 있는 통할 정보 관리 시스템을 필요로 한다. 현재 외국에서는 몇몇 관리시스템이 개발되어 있고. 국내에서도 WEMA 등이 있지만 아직 데이터 관리부분에 기능이 치우쳐 있다. 따라서 우리는 복잡한 자료구조를 가지는 마이크로어레이의 실험 정보와 각 단계별 처리 정보 등을 사용자의 관점에서 효과적이고 체계적으로 관리할 수 있고, 데이터 정규화 및 다양한 통계적 분석 기능을 갖춰 불필요한 시간과 비용을 줄임으로써 마이크로어레이 연구에 도움을 주고자 통합 분석관리 시스템 cMAMS (cDNA Microarray Analysis and Management System)를 개발하였다. 웹 기반으로 구현된 cMAMS는 데이터를 저장, 관리하는 부분과 데이터를 분석하는 부분, 그리고 모든 관련 점보가 저장되는 데이터베이스 부분으로 구성되어 있다 데이터관리부분에서는 WEMA의 계층적 데이터구조론 도입해 관리의 효율성을 높이고 시스템의 이용자를 시스템운영자, 프로젝트관리자, 일반사용자로 구분하여 데이터 접근을 제한함으로써 보안성을 높였다. 통계처리 언어 R로 구현된 데이터분석 부분은 7 단계의 다양한 분석(전처리 정규화, 가시화, 군집분석. 판별분석, 특이적 발현 유전자 선뿐, 마이크로어레이 간의 상판분석)이 가능하도록 구현하였고, 분석결과는 데이터베이스에 저장되어 추후에 검토 및 연구자간의 공유가 가능하도록 하였다. 데이터베이스는 실험정보가 저장된 데이터베이스, 분석결과가 저장된 데이터베이스, 그리고 유전자 정보 탐색을 위한 데이터베이스로 분류해 데이터를 효율적으로 관리할 수 있게 하였다. 본 시스템은 LiNUX를 운영체계로 하고 데이터베이스는 MYSQL로 하여 JSP, Perl. 통계처리 언어인 R로 구현되었다.

  • PDF

Theoretical Investigation of Metal Artifact Reduction Based on Sinogram Normalization in Computed Tomography (컴퓨터 단층영상에서 사이노그램 정규화를 이용한 금속 영상왜곡 저감 방법의 이론적 고찰)

  • Jeon, Hosang;Youn, Hanbean;Nam, Jiho;Kim, Ho Kyung
    • Progress in Medical Physics
    • /
    • v.24 no.4
    • /
    • pp.303-314
    • /
    • 2013
  • Image quality of computed tomography (CT) is very vulnerable to metal artifacts. Recently, the thickness and background normalization techniques have been introduced. Since they provide flat sinograms, it is easy to determine metal traces and a simple linear interpolation would be enough to describe the missing data in sinograms. In this study, we have developed a theory describing two normalization methods and compared two methods with respect to various sizes and numbers of metal inserts by using simple numerical simulations. The developed theory showed that the background normalization provide flatter sinograms than the thickness normalization, which was validated with the simulation results. Numerical simulation results with respect to various sizes and numbers of metal inserts showed that the background normalization was better than the thickness normalization for metal artifact corrections. Although the residual artifacts still existed, we have showed that the background normalization without the segmentation procedure was better than the thickness normalization for metal artifact corrections. Since the background normalization without the segmentation procedure is simple and it does not require any users' intervention, it can be readily installed in conventional CT systems.

A Study on the Analysis Method to API Wrapping that Difficult to Normalize in the Latest Version of Themida (최신 버전의 Themida가 보이는 정규화가 어려운 API 난독화 분석방안 연구)

  • Lee, Jae-hwi;Lee, Byung-hee;Cho, Sang-hyun
    • Journal of the Korea Institute of Information Security & Cryptology
    • /
    • v.29 no.6
    • /
    • pp.1375-1382
    • /
    • 2019
  • The latest version of commercial protector, Themida, has been updated, it is impossible to apply a normalized unpacking mechanism from previous studies by disable the use of a virtual memory allocation that provides initial data to be tracked. In addition, compared to the previous version, which had many values that determined during execution and easy to track dynamically, it is difficult to track dynamically due to values determined at the time of applying the protector. We will look at how the latest version of Themida make it difficult to normalize the API wrapping process by adopted techniques and examine the possibilities of applying the unpacking techniques to further develop an automated unpacking system.

Artificial Neural Network-based Thermal Environment Prediction Model for Energy Saving of Data Center Cooling Systems (데이터센터 냉각 시스템의 에너지 절약을 위한 인공신경망 기반 열환경 예측 모델)

  • Chae-Young Lim;Chae-Eun Yeo;Seong-Yool Ahn;Sang-Hyun Lee
    • The Journal of the Convergence on Culture Technology
    • /
    • v.9 no.6
    • /
    • pp.883-888
    • /
    • 2023
  • Since data centers are places that provide IT services 24 hours a day, 365 days a year, data center power consumption is expected to increase to approximately 10% by 2030, and the introduction of high-density IT equipment will gradually increase. In order to ensure the stable operation of IT equipment, various types of research are required to conserve energy in cooling and improve energy management. This study proposes the following process for energy saving in data centers. We conducted CFD modeling of the data center, proposed an artificial intelligence-based thermal environment prediction model, compared actual measured data, the predicted model, and the CFD results, and finally evaluated the data center's thermal management performance. It can be seen that the predicted values of RCI, RTI, and PUE are also similar according to the normalization used in the normalization method. Therefore, it is judged that the algorithm proposed in this study can be applied and provided as a thermal environment prediction model applied to data centers.

A Study on 3D Data Model Development by Normalizing and Method of its Effective Use - Focused on Building Interior Construction - (정규화를 통한 3차원 데이터 모델 구축 및 활용성 향상 방안 연구 -건축 마감 공사 중심으로 -)

  • Lee, Myoung-Hoon;Ham, Nam-Hyuk;Kim, Ju-Hyung;Kim, Jae-Jun
    • Journal of The Korean Digital Architecture Interior Association
    • /
    • v.10 no.3
    • /
    • pp.11-18
    • /
    • 2010
  • Cost estimation through fast and correct quantity take offs are crucial in the process of construction project. The existing methods for cost estimation are mainly based on 2D-based drawings and the estimation result tends to be different according to the estimator's experience, the quality and quantity of used information and estimation time. To solve these problems, the domestic construction industry have recently tried to use the data extracted from 3D data modeling based on BIM(Building Information Modeling) in order to achieve more accurate and objective cost estimation. However it tends to increase dramatically the quantity of information that can be used in cost estimation by estimators. Therefore in order to achieve quality information data from 3D data modeling, the characteristics of the project should be reflected on the 3D model and it is most important to extract information only for cost estimation from the whole 3D model fast and accurately. Thus this study aims to propose the 3D modeling method through Data Normalization which maximizes the usability of 3D Data modeling in cost estimation process.

The combined system of consciousness and unconsciousness using Fuzzy Petri net and Neural Network (퍼지페트리네트와 신경망을 이용한 의식.무의식 통합 시스템)

  • 박경숙;박민용
    • Proceedings of the Korean Society for Cognitive Science Conference
    • /
    • 2000.05a
    • /
    • pp.311-321
    • /
    • 2000
  • 본 논문에서는 정신분석과 두 종류의 정서이론, 인공지능과 신경회로망 그리고 퍼지 페트리 네트 등을 사용하여 사람의 인지과정을 모방한 인지모형시스템을 개발하였다. 먼저 프로이트의 정신분석을 사용하여 정신의 구조를 그래프로 표현한 후 이것을 '마음의 지도'라 명명하였다. 인지모형시스템을 구현하기 위한 첫 번째 작업으로 동적인 추론을 할 수 있는 지능 모델인 KNBN(Kohonen Network based Belief Network)을 제안하였다. KNBN으로 표현한 마음의 약도 내에서 연결강도 값으로 사용할 상대적 데이터를 만들기 위한 근거로서는 '정서'를 사용하였는데, 플라칙의 진화론에 근거한 정서이론과 오토니의 인지적 정서이론을 결합하여 데이터로 만든후 이 수치를 연결강도로 사용하였다. 이 두 개의 정서이론을 결합하는 알고리즘을 만들기 위해 페트리네트를 변형한 퍼지 페트리네트를 제안하였다. 또한 오토니가 주장하는 정서의 인지구조를 사람들이 그대로 이해하는지 여부를 알기 위해 대학생 100명을 대상으로 설문지를 사용해 정서의 인지구조에 대해 조사하였고 그 결과 값에 근거하여 두 개의 정서이론 결합 알고리즘을 만들었다. 이것으로 정서 발화에 대한 상대적인 수치가 산출되었고, 이것을 KNBN으로 표현한 마음의 약도에 결합하기 위해 0과 1사이의 수치로 정규화 하였다. 이렇게 정규화된 데이터를 이용해 인지 모형 시스템을 개발하였다.

  • PDF

Improvement of Catastrophic Forgetting using variable Lambda value in EWC (가변 람다값을 이용한 EWC에서의 치명적 망각현상 개선)

  • Park, Seong-Hyeon;Kang, Seok-Hoon
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.25 no.1
    • /
    • pp.27-35
    • /
    • 2021
  • This paper proposes a method to mitigate the Catastrophic Forgetting phenomenon in which artificial neural networks forget information on previous data. This method adjusts the Regularization strength by measuring the relationship between previous data and present data. MNIST and EMNIST data were used for performance evaluation and experimented in three scenarios. The experiment results showed a 0.1~3% improvement in the accuracy of the previous task for the same domain data and a 10~13% improvement in the accuracy of the previous task for different domain data. When continuously learning data with various domains, the accuracy of all previous tasks achieved more than 50% and the average accuracy improved by about 7%. This result shows that neural network learning can be properly performed in a CL environment in which data of different domains are successively entered by the method of this paper.

A Contents-Based Image Classification Using Neural Network (신경망을 이용한 내용 기반 이미지 분류)

  • 이재원;김상균
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2001.06a
    • /
    • pp.177-180
    • /
    • 2001
  • 본 논문에서는 신경망을 이용한 내용 기반 이미지 분류 방법을 제안한다. 분류 대상이미지는 인터넷상의 다양한 이미지들 중 오브젝트 이미지이대 웹 에이전트를 통하여 획득하고 정규화 과정을 거친다. 획득한 이미지를 분류하기 위한 특징은 웨이블릿 변란 후 추출된 질감 특징이다. 추출된 질감 특징을 이용하여 학습패턴을 생성하고 신경망을 학습한다. 그리고 구성된 신경망 분류기로 이미지를 분류한다. 본 연구에서는 다양한 질감 특징들 중에서 대비(contrast), 에너지(energy), 엔트로피(entropy)를 이용하여 특징을 추출한다. 실험에 사용한 데이터는 30종류에 대하여 각각 10개씩, 300개의 이미지들을 학습 데이터, 테스트 데이터로 사용하여 구성된 분류기의 인식률을 실험하였다.

  • PDF