• Title/Summary/Keyword: 유효 데이터

Search Result 1,413, Processing Time 0.036 seconds

Design of Real-Time Mobile Transaction Manager considering Value of Transactions and Validity of Data (트랜잭션의 중요도와 데이터의 유효성을 고려한 실시간 이동 트랜잭션 관리자의 설계)

  • Cho, Sook-Kyoung;Ahn, Jun-Soon;Kim, Gyoung-Bae;Lee, Soon-Jo;Bae, Hae-Young
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.04a
    • /
    • pp.35-38
    • /
    • 2001
  • 본 논문에서는 이동 컴퓨팅 환경에서 발생하는 실시간 이동 트랜잭션을 효율적으로 처리하기 위한 트랜잭션 관리자를 제안한다. 제안된 트랜잭션 관리자는 기존의 종료시한만 고려하던 방법과는 달리 이동 호스트 때문에 발생하는 실시간 데이터의 유효성도 함께 고려하여 트랜잭션의 실행여부를 판단한다. 그 후, 트랜잭션의 중요도와 종료시한을 고려한 우선순위 큐에 최적의 실행 윈도우를 생성하여 스케줄링하고, 실행될 트랜잭션을 선택할 때는 이동 호스트와의 접속 단절을 고려한다. 따라서, 제안된 기법은 실시간 데이터의 유효성 제약조건 위반에 따른 트랜잭션의 철회 후 재시작을 감소시키며, 종료시한을 만족시키는 실시간 이동 트랜잭션의 중요도의 합을 최대로 하는 장점을 가진다. 이 기법은 이동 통신, 응급 재난 구조 시스템 등에서 발생하는 실시간 이동 트랜잭션의 관리자로 적합하다.

  • PDF

Representing Object-Orented Databases in XML (객체지향 데이터베이스의 XML 로의 표현)

  • 윤정희;박창원;정진완
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04b
    • /
    • pp.143-145
    • /
    • 2000
  • 데이터 변환은 데이터 재사용, 데이터 교환 및 통합 등에 사용되는 중요한 기술이다. 본 논문에서는 이러한 데이터 변환 기술 중 객체지향 데이터베이스에 저장된 데이터를 XML 문서로 변환시키는 기술을 제시한다. 먼저 객체지향 데이터베이스의 스키마와 데이터, DTD와 XML 문서를 정의한 뒤 이 정의를 기반으로 스키마를 DTD로 변환하는 알고리즘과 데이터를 XML 문서로 변환하는 알고리즘을 제시한다. 그리고 변환에 의한 결과 XML 문서가 잘 구성된 문서이고 결과 DTD에 대해서 유효한 XML 문서임을 보임으로써 제시한 변환 기술의 유용성을 보인다.

  • PDF

The Validity Verification of Encrypted XML Document using the XML Schema (XML 스키마를 이용한 암호화된 XML 문서 유효성 검증)

  • Hong, Seong-Pyo;Lee, Joon
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.7 no.5
    • /
    • pp.972-977
    • /
    • 2003
  • XML has weakness problems on document modulation and elimination of data Because of the XML gives priority to present data format, XML signature, XML encryption, or XML access control is provided to overcome those weakness problems. However, structured XML efficiency contravention problem occurred from XML encryption and absence of protection from DID attack are still remains unsolved. In this paper, we suggests the XML schema that satisfies both validity and encryption. The DTD is unnecessary because XML schema supports Well-Formed XML documents and include meta information. Also XML schema has possibility to generate each XML document dynamically and because of self efficiency investigator rule, it has an advantage on extendability of DID based encryption of XML documents.

영광1,2,3,4호기 비상디젤발전기 종합신뢰도 분석

  • 김영호;최광희;정현종
    • Proceedings of the Korean Reliability Society Conference
    • /
    • 2000.04a
    • /
    • pp.115-121
    • /
    • 2000
  • 영광1,2,3,4호기 비상디젤발전기(EDG)의 신뢰도 수준을 파악하기 위하여 시험관리대장과 운전불능관리대장, 그리고 발전과장일지를 조사하여 신뢰도 및 이용불능도를 분석하였다. 신뢰도는 EDG의 유효시험 데이터를 이용하여 계산하는 유효 신뢰도와 무효시험까지 포함하여 계산하는 전체 신뢰도로 구분하였으며, 이용불능도는 EDG를 정비모드로 전환시키고 작업함으로서 이용불능을 유발하였던 정비 이용불능도, 그리고 유효시험 실패로 인하여 정비모드를 유발하는 경우에 잠재적 고장 시간까지 포함한 종합 이용불능도로 구분하였다. 분석 결과로서 영광1호기 EDG의 유효 신뢰도는 0.995, 2호기는 1.0으로 매우 높은 수준을 유지하고 있었으며, 이용불능도의 역인 이용가능도는 1호기 A계열 EDG는 0.978, B계열은 0.979, 2호기 A는 0.991, B는 0.976으로 높은 수준이었다. 3,4호기 EDG의 유효 신뢰도는 1,2호기와 마찬가지로 높은 수준이었으나, 전체 신뢰도는 텐덤형 디젤엔진이 갖는 근본적 부하불균형 문제 때문에 낮은 수준이었다. 따라서, 영광3,4호기 EDG의 신뢰도를 높이기 위해 많은 노력을 기울였으며, 이를 통해 EDG 신뢰도 개선에 도움이 된 것으로 분석되었다.

  • PDF

Implementation of a Data Processing Method to Enhance the Quality and Support the What-If Analysis for Traffic History Data (교통이력 데이터의 품질 개선과 What-If 분석을 위한 자료처리 기법의 구현)

  • Lee, Min-Soo;Cheong, Su-Jeong;Choi, Ok-Ju;Meang, Bo-Yeon
    • The KIPS Transactions:PartD
    • /
    • v.17D no.2
    • /
    • pp.87-102
    • /
    • 2010
  • A vast amount of traffic data is produced every day from detection devices but this data includes a considerable amount of errors and missing values. Moreover, this information is periodically deleted before it could be used as important analysis information. Therefore, this paper discusses the implementation of an integrated traffic history database system that continuously stores the traffic data as a multidimensional model and increases the validity and completeness of the data via a flow of processing steps, and provides a what-if analysis function. The implemented system provides various techniques to correct errors and missing data patterns, and a what-if analysis function that enables the analysis of results under various conditions by allowing the flexible definition of various process related environment variables and combinations of the processing flows. Such what-if analysis functions dramatically increase the usability of traffic data but are not provided by other traffic data systems. Experimantal results for cleaning the traffic history data showed that it provides superior performance in terms of validity and completeness.

AI Model-Based Automated Data Cleaning for Reliable Autonomous Driving Image Datasets (자율주행 영상데이터의 신뢰도 향상을 위한 AI모델 기반 데이터 자동 정제)

  • Kana Kim;Hakil Kim
    • Journal of Broadcast Engineering
    • /
    • v.28 no.3
    • /
    • pp.302-313
    • /
    • 2023
  • This paper aims to develop a framework that can fully automate the quality management of training data used in large-scale Artificial Intelligence (AI) models built by the Ministry of Science and ICT (MSIT) in the 'AI Hub Data Dam' project, which has invested more than 1 trillion won since 2017. Autonomous driving technology using AI has achieved excellent performance through many studies, but it requires a large amount of high-quality data to train the model. Moreover, it is still difficult for humans to directly inspect the processed data and prove it is valid, and a model trained with erroneous data can cause fatal problems in real life. This paper presents a dataset reconstruction framework that removes abnormal data from the constructed dataset and introduces strategies to improve the performance of AI models by reconstructing them into a reliable dataset to increase the efficiency of model training. The framework's validity was verified through an experiment on the autonomous driving dataset published through the AI Hub of the National Information Society Agency (NIA). As a result, it was confirmed that it could be rebuilt as a reliable dataset from which abnormal data has been removed.

Design and Implementation of Cleaning Policy for Flash Memory (플래쉬 메모리를 위한 클리닝 정책 설계 및 구현)

  • 임대영;윤기철;김길용
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.04a
    • /
    • pp.217-219
    • /
    • 2001
  • 플래쉬 메모리는 데이터 저장 및 변경이 가능한 비휘발성 메모리로 가벼운 무게, 낮은 전력 소모, 충격에 대한 저항성과 빠른 데이터 처리 능력 때문에 이동형 컴퓨터 시스템에서 사용하기에 적당하다. 그러나 플래쉬 메모리는 덮어쓰기(update-in-place)가 불가능하고 각 메모리 셀에 대해 초기화 작업(erasing operation)의 수가 제한되어 있다. 이러한 단점들을 고려하여 세그먼트의 데이터 중 유효 데이터의 비율과 hot 데이터(가까운 시간 안에 update가 될 것이라는 예상되는 data)의 수, 세그멘트가 초기화되었던(easing) 횟수 등을 고려한 새로운 초기화 기법(cleaning policy)을 제안하고자 한다.

Determination of the Effective Elastic Constants of a Superlattice Film by Measuring SAW Velocities (표면탄성파 전파속도 측정에 의한 초격자 다층박막의 유효탄성계수 결정)

  • 김진오
    • The Journal of the Acoustical Society of Korea
    • /
    • v.19 no.5
    • /
    • pp.41-45
    • /
    • 2000
  • The effective elastic constants of a single-crystal superlattice film have been determined by two methods based on the velocities of surface acoustic waves (SAW). One method uses formulas to calculate the effective elastic constants of a superlattice from the known elastic constants of the constituent layers. The calculated effective elastic constants are tested by comparing the corresponding SAW velocities calculated for thin-film/substrate systems with the corresponding SAW velocities measured by line-focus acoustic microscopy (LFAM). The other method determines the effective elastic constants of the superlattices by inverting the SAW velocity dispersion data measured by LFAM. The results of both methods applied to a TiN/NbN superlattice film are in good agreement.

  • PDF

False Data Reduction Strategy for P2P Environment (P2P 환경을 위한 허위 데이터 감축 정책)

  • Kim, Seung-Yun;Lee, Won-Joo;Jeon, Chang-Ho
    • Journal of the Korea Society of Computer and Information
    • /
    • v.16 no.5
    • /
    • pp.93-100
    • /
    • 2011
  • In this paper, we propose a FDR(False Data Reduction) strategy for P2P environment that reduces false data. The key idea of our strategy is that we use FDR algorithm to stop transmitting of false data and to delete that. If a user recognizes false data in downloaded-data and the user's peer requests the others to stop the transmission of the false data immediately. Also, the FDR algorithm notifies the other peers to prohibit spreading of the false data in the environment. All this procedure is possible to be executed in each peer without any lookup server. The FDR algorithm needs only a little data exchange among peers. Through simulation, we show that it is more effective to reduce the network traffic than the previous P2P strategy. We also show that the proposed strategy improves the performance of network compared to previous P2P strategy. As a result, The FDR strategy is decreased 9.78 ~ 16.84% of mean true data transmission time.

Analysis of the Effectiveness of Big Data-Based Six Sigma Methodology: Focus on DX SS (빅데이터 기반 6시그마 방법론의 유효성 분석: DX SS를 중심으로)

  • Kim Jung Hyuk;Kim Yoon Ki
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.13 no.1
    • /
    • pp.1-16
    • /
    • 2024
  • Over recent years, 6 Sigma has become a key methodology in manufacturing for quality improvement and cost reduction. However, challenges have arisen due to the difficulty in analyzing large-scale data generated by smart factories and its traditional, formal application. To address these limitations, a big data-based 6 Sigma approach has been developed, integrating the strengths of 6 Sigma and big data analysis, including statistical verification, mathematical optimization, interpretability, and machine learning. Despite its potential, the practical impact of this big data-based 6 Sigma on manufacturing processes and management performance has not been adequately verified, leading to its limited reliability and underutilization in practice. This study investigates the efficiency impact of DX SS, a big data-based 6 Sigma, on manufacturing processes, and identifies key success policies for its effective introduction and implementation in enterprises. The study highlights the importance of involving all executives and employees and researching key success policies, as demonstrated by cases where methodology implementation failed due to incorrect policies. This research aims to assist manufacturing companies in achieving successful outcomes by actively adopting and utilizing the methodologies presented.