• 제목/요약/키워드: Data Structuring

검색결과 143건 처리시간 0.024초

정보시스템 재구축 수행 방안과 적용 사례 (The Guideline for Re-Structuring of Information System and Case Study)

  • 최용락;이은상;이현정;정기원
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2001년도 추계학술발표논문집 (상)
    • /
    • pp.473-476
    • /
    • 2001
  • 최근 기존 정보시스템에 고객이나 사용자의 다양한 요구사항이나 기업의 환경 변화를 반영하여 새로운 정보시스템으로 재구축하는 경향을 보이고 있다. 이를 통해 기업들에서 경쟁 우위를 선점함으로써 보다 우세한 경쟁력을 갖출 수 있다. 본 논문에서는 정보시스템 재구축을 위한 프로세스 모델링(Process Modeling)과 데이터 모델링(Data Modeling)을 체계적으로 수행하는 방안을 제시하고, 이를 실제로 적용한 사례를 보여준다. 정보시스템의 전체적인 관점에서의 요구사항 및 기존 정보시스템의 미비사항을 분석하여 정보화 대상을 추출하는 프로세스 모델 분석(Process Model Analysis) 단계와 정보화 대상을 개념 모델로 전환하는 논리 데이터 모델링(Logical Data Modeling) 단계, 실제 컴퓨터에 저장하여 사용하는 물리 데이터 모델링(Physical Data Modeling) 단계로 구성된다.

  • PDF

A Secure Healthcare System Using Holochain in a Distributed Environment

  • Jong-Sub Lee;Seok-Jae Moon
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제15권4호
    • /
    • pp.261-269
    • /
    • 2023
  • We propose to design a Holochain-based security and privacy protection system for resource-constrained IoT healthcare systems. Through analysis and performance evaluation, the proposed system confirmed that these characteristics operate effectively in the IoT healthcare environment. The system proposed in this paper consists of four main layers aimed at secure collection, transmission, storage, and processing of important medical data in IoT healthcare environments. The first PERCEPTION layer consists of various IoT devices, such as wearable devices, sensors, and other medical devices. These devices collect patient health data and pass it on to the network layer. The second network connectivity layer assigns an IP address to the collected data and ensures that the data is transmitted reliably over the network. Transmission takes place via standardized protocols, which ensures data reliability and availability. The third distributed cloud layer is a distributed data storage based on Holochain that stores important medical information collected from resource-limited IoT devices. This layer manages data integrity and access control, and allows users to share data securely. Finally, the fourth application layer provides useful information and services to end users, patients and healthcare professionals. The structuring and presentation of data and interaction between applications are managed at this layer. This structure aims to provide security, privacy, and resource efficiency suitable for IoT healthcare systems, in contrast to traditional centralized or blockchain-based systems. We design and propose a Holochain-based security and privacy protection system through a better IoT healthcare system.

머신러닝 기법을 활용한 대용량 시계열 데이터 이상 시점탐지 방법론 : 발전기 부품신호 사례 중심 (Anomaly Detection of Big Time Series Data Using Machine Learning)

  • 권세혁
    • 산업경영시스템학회지
    • /
    • 제43권2호
    • /
    • pp.33-38
    • /
    • 2020
  • Anomaly detection of Machine Learning such as PCA anomaly detection and CNN image classification has been focused on cross-sectional data. In this paper, two approaches has been suggested to apply ML techniques for identifying the failure time of big time series data. PCA anomaly detection to identify time rows as normal or abnormal was suggested by converting subjects identification problem to time domain. CNN image classification was suggested to identify the failure time by re-structuring of time series data, which computed the correlation matrix of one minute data and converted to tiff image format. Also, LASSO, one of feature selection methods, was applied to select the most affecting variables which could identify the failure status. For the empirical study, time series data was collected in seconds from a power generator of 214 components for 25 minutes including 20 minutes before the failure time. The failure time was predicted and detected 9 minutes 17 seconds before the failure time by PCA anomaly detection, but was not detected by the combination of LASSO and PCA because the target variable was binary variable which was assigned on the base of the failure time. CNN image classification with the train data of 10 normal status image and 5 failure status images detected just one minute before.

토론 : 통계학 학부전공 프로그램의 비전과 전략에 비추어 (Discussion : Vision and Strategy for Undergraduate Statistics Major Program)

  • 손건태;허명회
    • 응용통계연구
    • /
    • 제12권2호
    • /
    • pp.705-709
    • /
    • 1999
  • We discuss the paper by Cho, Shin, Lee, and Han on the "information-relate" undergraduate statistics major program from the following perspectives: Recently, Korean universities are under re-structuring turmoil. To effectively confront the situation, we need both the vision and the strategy for statistics and statistics departments. For undergraduate statistics major program, our visions are 1) it should not be preliminary education program targeted for the graduate degrees, 2) it should be responsive to future social demand, and 3) it should incorporate the progressive identity of statistics as information and data science. As strategies, we propose 1) the effective integration and due balance among data collection, management and analysis, 2) the harmony and role development of computers and mathematics as statistical tools, 3) the statistics education through task-oriented problem solving, and 4) the emphasis of team work and communication skills.on skills.

  • PDF

Watershed Segmentation of High-Resolution Remotely Sensed Imagery

  • WANG Ziyu;ZHAO Shuhe;CHEN Xiuwan
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2004년도 Proceedings of ISRS 2004
    • /
    • pp.107-109
    • /
    • 2004
  • High-resolution remotely sensed data such as SPOT-5 imagery are employed to study the effectiveness of the watershed segmentation algorithm. Existing problems in this approach are identified and appropriate solutions are proposed. As a case study, the panchromatic SPOT-5 image of part of Beijing urban areas has been segmented by using the MATLAB software. In segmentation, the structuring element has been firstly created, then the gaps between objects have been exaggerated and the objects of interest are converted. After that, the intensity valleys have been detected and the watershed segmentation have been conducted. Through this process, the objects in an image are divided into separate objects. Finally, the effectiveness of the watershed segmentation approach for high-resolution imagery has been summarized. The approach to solve the problems such as over-segmentation has been proposed.

  • PDF

구성 관리자를 이용한 설계지식 관리 (Design Knowledge Management using Configuration Manager)

  • 강무진;정승환
    • 대한기계학회:학술대회논문집
    • /
    • 대한기계학회 2000년도 춘계학술대회논문집A
    • /
    • pp.890-893
    • /
    • 2000
  • It is known that about 15 to 40 percent of total design time is spent on retrieving information such as standard parts handbook data, engineering equations, previous designs. This paper describes a knowledge management system for machine tool design. Product structuring, change management, and complex design knowledge management are possible through the developed system. The system can speed up the design process by making necessary data instantly available as it is needed and keeping track of all the relevant design information and knowledge including individual decisions, design intentions, documents, and drawings.

  • PDF

어휘정보구축을 위한 사전텍스트의 구조분석 및 변환 (A Structural Analysis of Dictionary Text for the Construction of Lexical Data Base)

  • 최병진
    • 한국언어정보학회지:언어와정보
    • /
    • 제6권2호
    • /
    • pp.33-55
    • /
    • 2002
  • This research aims at transforming the definition tort of an English-English-Korean Dictionary (EEKD) which is encoded in EST files for the purpose of publishing into a structured format for Lexical Data Base (LDB). The construction of LDB is very time-consuming and expensive work. In order to save time and efforts in building new lexical information, the present study tries to extract useful linguistic information from an existing printed dictionary. In this paper, the process of extraction and structuring of lexical information from a printed dictionary (EEKD) as a lexical resource is described. The extracted information is represented in XML format, which can be transformed into another representation for different application requirements.

  • PDF

경계분석을 통한 정책문제 정의에 관한 연구 - 언론보도에 나타난 IT 정책문제 탐색을 중심으로 - (Problem Structuring in IT Policy: Boundary Analysis of IT Policy Problems)

  • 박치성;남기범
    • 한국정책학회보
    • /
    • 제21권4호
    • /
    • pp.199-228
    • /
    • 2012
  • 정책문제는 정책과정에 참여하는 이해관계자들의 다양성 때문에 복잡성을 띄게 된다. 그러나 문제해결의 첫 단추로서 정책문제의 정확한 정의에 대한 중요성에도 불구하고, 실증주의적 접근에 따라 크게 부각되지 못한 것이 사실이다. 이에 따라 본 연구는 다양한 정책이해관계자들이 존재하며, 최근 정책문제로서 다양한 해석이 나오고 있는 IT 정책분야를 대상으로 문제구조화를 통한 정책문제 경계분석을 실시하였다. 이를 위하여 이명박 정부 출범이후부터 올해 7월까지 IT 전문 신문과 두 개의 일간지를 자료수집 대상으로 IT 산업정책 관련 모든 기사를 검색하여, 이 중 특정 인물이 IT 산업관련 정책문제를 언급한 것을 분석함으로서 IT 정책문제의 경계를 분석하였다. 분석결과 총 1908명의 이해 관계자로부터 총 2614개의 문제가 도출되었고, 이중 겹치지 않는 문제의 수(정책문제의 경계)는 369개로 나타났고, 이는 323명 정도의 이해관계자로부터 문제를 도출하면 정책 문제가 포화함을 의미한다. 세분화된 IT 산업관련 정책문제 중 가장 높은 비중을 차지하였던 것은 정부정책관련이었으며, 특히 현 정부의 IT 산업정책의 실패 및 제도적인 측면(컨트롤 타워의 부재) 등이 가장 핵심적인 정책문제로 부각되었다. 한편 이러한 IT 산업 정책문제구조화를 통한 정책문제 경계분석 결과를 기존의 논의들과 비교분석한 결과 현정부 이전부터 지속되어왔던 정책문제들이 아직까지 해결되지 못하고 지속되고 있음을 알 수 있었다. 그러나 도출된 정책문제를 세부적으로 살펴보았을 때, 정부의 문제만은 아니고, 시장에서의 기업들에 의한 정책문제의 심각성 역시 매우 큰 것으로 나타났다. 따라서 정책문제 경계에 따른 정책문제를 분석할 때, 전반적인 차원에서 문제의 경중에 따라 정책문제를 단순화시켜버리면 또 다른 제3종 오류가 범해질 수 있음을 명심해야 할 것이다.

3차원 형상 복원을 위한 수학적 모폴로지 기반의 초점 측도 기법 (A New Focus Measure Method Based on Mathematical Morphology for 3D Shape Recovery)

  • ;최영규
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제6권1호
    • /
    • pp.23-28
    • /
    • 2017
  • Shape from focus (SFF) 기법은 카메라 렌즈를 다양한 초점 거리로 놓고 촬영한 영상을 이용해 물체의 3차원 정보를 추출하는 방법이다. 이 논문에서는 미소 객체(microscopic object)의 3차원 깊이 정보를 추출하기 위해 수학적 모폴로지의 기울기 연산자를 이용하는 새로운 SFF방법을 제안한다. 전통적으로 SFF 기법에서는 초점의 품질을 측정하기 위해 하나의 초점 측도(focus measure)를 사용한다. 그러나 미소 객체의 복잡한 형태와 텍스쳐 특성에 따라 하나의 초점 측도만을 사용하는 것은 충분하지가 않은데, 본 논문에서는 향상된 초점 측도를 위해 다수의 형태소(multi-structuring elements)를 사용하는 모폴로지 연산자를 사용하는 방법을 제안한다. 최종적으로 모든 초점 측도 결과를 통합하여 최적의 깊이 맵을 계산하게 된다. 실험을 통해 제안된 알고리즘이 기존의 방법들에 비해 3차원 형상 복원 측면에서 더 정밀한 깊이 맵을 제공하는 것을 알 수 있었다.

뉴스 정보의 단위 구조화를 위한 효율적인 앵커구간 추출 알고리즘 (An Efficient Anchor Range Extracting Algorithm for The Unit Structuring of News Data)

  • 전승철;박성한
    • 방송공학회논문지
    • /
    • 제6권3호
    • /
    • pp.260-269
    • /
    • 2001
  • 본 논문은 뉴스의 단위 구조화를 위해서 뉴스 동영상에 존재하는 앵커구간을 구분해내는 효율적인 알고리즘을 제안한다. 이를 위하여 본 논문은 단순히 장면 전환 지점을 이용하기 보다는 화면에 존재하는 앵커의 얼굴을 이용한다. 앵커구간에서는 앵커 얼 굴 위치의 프레임 변화량을 계산하는 FRFD(Face Region Frame difference)를 이용하여 앵커구간의 마지막을 찾는다. 한편 비앵 커구간에서는 앵커 얼굴 추출을 이용하여 앵커구간의 시작점을 찾는다. 앵커 얼굴 추출은 처리 속도를 빠르게 하기 위해서 MPEG .동영상 부분 복호화를 통한 대략적 분석과 전체 복호화를 통해 얻어진 앵커 얼굴 후보를 검증하는 두 단계로 이루어져 있다. 이렇게 얻어진 앵커구간은 뉴스 분석의 기본 단계에서 이용이 가능하다. 특히 빠른 속도와 높은 recall 비율은 실제 뉴스 서비스 활용에 적당하다.

  • PDF