• Title/Summary/Keyword: 오류데이타

Search Result 85, Processing Time 0.025 seconds

An Effective Error-Concealment Approach for Video Data Transmission over Internet (인터넷상의 비디오 데이타 전송에 효과적인 오류 은닉 기법)

  • 김진옥
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.8 no.6
    • /
    • pp.736-745
    • /
    • 2002
  • In network delivery of compressed video, packets may be lost if the channel is unreliable like Internet. Such losses tend to of cur in burst like continuous bit-stream error. In this paper, we propose an effective error-concealment approach to which an error resilient video encoding approach is applied against burst errors and which reduces a complexity of error concealment at the decoder using data hiding. To improve the performance of error concealment, a temporal and spatial error resilient video encoding approach at encoder is developed to be robust against burst errors. For spatial area of error concealment, block shuffling scheme is introduced to isolate erroneous blocks caused by packet losses. For temporal area of error concealment, we embed parity bits in content data for motion vectors between intra frames or continuous inter frames and recovery loss packet with it at decoder after transmission While error concealment is performed on error blocks of video data at decoder, it is computationally costly to interpolate error video block using neighboring information. So, in this paper, a set of feature are extracted at the encoder and embedded imperceptibly into the original media. If some part of the media data is damaged during transmission, the embedded features can be extracted and used for recovery of lost data with bi-direction interpolation. The use of data hiding leads to reduced complexity at the decoder. Experimental results suggest that our approach can achieve a reasonable quality for packet loss up to 30% over a wide range of video materials.

Optimal Database Audit Timing for Data Quality Enhancement (자료의 질 향상을 위한 데이타베이스의 최적감사시점)

  • 김기수
    • The Journal of Information Technology and Database
    • /
    • v.3 no.1
    • /
    • pp.25-43
    • /
    • 1996
  • 정보시스템이 효과적이기 위해서는 정보가 도출되는 자료의 무결성이 우선 전제되어야 한다. 특히 오늘날과 같이 사회가 다양한 활동들을 지원하기 위해 컴퓨터를 이용한 정보시스템에 점점 더 의존해감에 따라 정보시스템에서 사용되는 자료의 질을 적절한 수준으로 유지 및 관리해야 할 필요성이 더욱 절실히 대두되게 되었다. 그럼에도 불구하고 여전히 관리자들은 효과적인 의사결정 및 활동을 위해 필요한 최신의 정확한 자료들을 제공 받지 못하고 있으며 [Nesbit 1985], 정보시스템이 기대 이하의 성능을 나타내는 가장 단순하고 일반적인 원인은 정보시스템에 입력된 자료가 부정확하거나 불완전하기 때문인 것으로 나타나고 있다 [Ballou and Pazer 1989]. 낮은 질의 자료는 즉각적인 경제적 손실뿐만 아니라 보다 많은 간접적이고 경제적으로 측정하기 어려운 손실들을 초래한다. 그리고 아무리 잘 관리되는 시스템에도 시간이 흐름에 따라 여러가지 원인에 의해 저장된 자료에 오류가 발생하게 된다. 자료의 질을 적절한 수준으로 유지하기 위해서는 이와 같은 오류는 주기적으로 발견 및 수정되어야 한다. 이와 같은 작업을 데이타베이스 감사라고 한다. 본 논문에서는 데이타베이스에 저장된 자료의 질을 주기적으로 향상시키기 위한 최적 데이타베이스 감사시점을 일반적인 비용모형을 통해 결정하는 과정을 제시하고, 그와 관련된 사항들에 대해 논의하였다. 데이타베이스는 오류 발생률도 다르고 오류의 결과도 상당히 다른 여러개의 자료군들로 구성되어 있다고 가정하였다. 그리고 각 자료군에서의 오류 누적과정은 확정적이 아닌 확률적인 과정으로 모형화하고, 단순한 오류의 발생뿐만 아니라 오류의 크기도 확률적으로 변하는 상황을 모형에 반영하여 보다 현실성있게 모형화하였다.

  • PDF

A Data Quality Measuring Tool (데이타 품질 측정 도구)

  • 양자영;최병주
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.9 no.3
    • /
    • pp.278-288
    • /
    • 2003
  • Quality of the software is affected by quality of data required for operating the actual software. Especially, it is important that assure the quality of data in a knowledge-engineering system that extracts the meaningful knowledge from stored data. In this paper, we developed DAQUM tool that can measure quality of data. This paper shows: 1) main contents for implement of DAQUM tool; 2) detection of dirty data via DAQUM tool through case study and measurement of data quality which is quantifiable from end-user's point of view. DAQUM tool will greatly contribute to improving quality of software product that processes mainly the data through control and measurement of data quality.

Explanation-based Data Mining in Data Warehouse (데이타 웨어하우스 환경에서의 설명기반 데이타 마이닝)

  • 김현수;이창호
    • Proceedings of the Korea Database Society Conference
    • /
    • 1999.06a
    • /
    • pp.115-123
    • /
    • 1999
  • 산업계 전반에 걸친 오랜 정보시스템 운용의 결과로 대용량의 데이타들이 축적되고 있다. 이러한 데이타로부터 유용한 지식을 추출하기 위해 여러 가지 데이타 마이닝 기법들이 연구되어왔다. 특히 데이타 웨어하우스의 등장은 이러한 데이타 마이닝에 있어 필요한 데이타 제공 환경을 제공해 주고 있다. 그러나 전문가의 적절한 판단과 해석을 거치지 않은 데이타 마이닝의 결과는 당연한 사실이거나, 사실과 다른 가짜이거나 또는 관련성이 없는(trivial, spurious and irrelevant) 내용만 무수히 쏟아낼 수 있다. 그러므로 데이타 마이닝의 결과가 비록 통계적 유의성을 가진다 하더라고 그 정당성과 유용성에 대한 검증과정과 방법론의 정립이 필요하다. 데이타 마이닝의 가장 어려운 점은 귀납적 오류를 없애기 위해 사람이 직접 그 결과를 해석하고 판단하며 아울러 새로운 탐색 방향을 제시해야 한다는 것이다. 본 논문의 목적은 이러한 데이타 마이닝에서 추출된 결과를 검증하고 아울러 새로운 지식 탐색 방향을 제시하는 방법론을 정립하는데 있다. 본 논문에서는 데이타 마이닝 기법 중 연관규칙탐사로 얻어진 결과를 설명가능성 여부의 판단을 통해 검증하는 기법을 제안하며, 이를 통해 얻어진 검증된 지식을 토대로 일반화를 통한 새로운 가설을 생성하여 데이타 웨어하우스로부터 연관규칙을 검증하는 일련의 아키텍쳐(architecture)를 제시하고자 한다. 먼저 데이타 마이닝 결과에 대한 설명의 필요성을 제시하고, 데이타 웨어하우스와 데이타 마이닝 기법들에 대한 간략한 설명과 연관규칙탐사에 대한 정의 및 방법을 보이고, 대상 영역에 대한 데이타 웨어하우스의 스키마를 보였다. 다음으로 도메인 지식(domain knowledge)과 연관규칙탐사를 통해 얻어진 결과를 표현하기 위한 지식표현 방법으로 Relational predicate Logic을 제안하였다. 연관규칙탐사로 얻어진 결과를 설명하기 위한 방법으로는 연관규칙탐사로 얻어진 연관규칙에 대해 Relational Predicate Logic으로 표현된 도메인 지식으로서 설명됨을 보이게 한다. 또한 이러한 설명(explanation)을 토대로 검증된 지식을 일반화하여 새로운 가설을 연역적으로 생성하고 이를 연관규칙탐사론 통해 검증한 후 새로운 지식을 얻는 반복적인 Explanation-based Data Mining Architecture를 제시하였다. 본 연구의 의의로는 데이타 마이닝을 통한 귀납적 지식생성에 있어 귀납적 오류의 발생을 고메인 지식을 통해 설명가능 함을 보임으로 검증하고 아울러 이러한 설명을 통해 연역적으로 새로운 가설지식을 생성시켜 이를 가설검증방식으로 검증함으로써 귀납적 접근과 연역적 접근의 통합 데이타 마이닝 접근을 제시하였다는데 있다.

  • PDF

Automatic Verification and Tuning of Transaction-based Database Applications (트랜잭션 기반 데이타베이스 응용프로그램의 안전성 자동 검증 및 자동 튜닝)

  • Kang Hyun-Goo;Yi Kwangkeun
    • Journal of KIISE:Databases
    • /
    • v.32 no.1
    • /
    • pp.86-99
    • /
    • 2005
  • In this paper, we suggest a system which automatically verifies and tunes transaction processing database applications based on program analysis technology. This system automatically verifies two kinds of transaction processing errors. The first case is the un-closed transaction. In this case, data is not updated as expected or performance of overall system can decrease seriously by locking some database tables until the process terminates. The second case is the miss-use of transaction isolation(inking) level. This causes runtime exception or abnormal termination of the program depending on runtime environment. This system automatically tunes two kinds of inefficient definition of transaction processing which decrease the performance of overall system. The first case happens when opened transaction is closed too late. And the second case happens when transaction isolation level is set too high.

A Study on Visual Defect Detection Algorithm using Fourier Transform (푸리에 변환을 이용한 시각적 결함검사 알고리즘에 관한 연구)

  • 이준석;김수현;곽윤근
    • Proceedings of the Korean Society of Precision Engineering Conference
    • /
    • 1994.10a
    • /
    • pp.796-800
    • /
    • 1994
  • 결함검사에 영상처리기술을 적용할때, 데이타량 때문에 많은 처리시간과 판정의 오류들이 발생할수 있다. 본 연구에서는 검사를 해야할 화상을 푸리에 변환과 특징 값 추출을 통해서 판정의 오류를 줄이고 처리해야할 데이타량을 줄일 수 있음을 보여준다. 검사 알고리즘은 두단계의 비교과정을 거치면서 설정된 기준치를 넘는 경우가 생기면 결함으로 판단을 하는 단순한 튿정값의 비교에 의해서 수행이 될 수 있음을 보여준다.

  • PDF

Test Data Selection Technique to Detect Interaction Faults in Embedded System (내장형 시스템의 상호작용 오류 감지를 위한 테스트 데이타 선정 기법)

  • 성아영;최병주
    • Journal of KIISE:Software and Applications
    • /
    • v.30 no.12
    • /
    • pp.1149-1157
    • /
    • 2003
  • As an Embedded system combining hardware and software gets more complicated, the importance of the embedded software test increases. Especially, it is mandatory to test the embedded software in the system which has high safety level. In embedded system, it is necessary to develop a test technique to detect faults in interaction between hardware and software. In this paper, we propose a test data selection technique using a fault injection technique for the faults in interaction between hardware and software in embedded system and we apply our technique to the Digital Plant Protection System and analyze effectiveness of the proposed technique through experiments.

A Mechanism of Secure Data In Prepaid IC Card using a Digital Signature (디지탈 서명을 사용한 선지불 IC 카드 데이타 보호 메카니즘)

  • 김종룡;신현삼;염기환;탁재영
    • Proceedings of the Korea Institutes of Information Security and Cryptology Conference
    • /
    • 1996.11a
    • /
    • pp.366-373
    • /
    • 1996
  • 본 논문에서는 IC 카드를 선지불카드로 사용하기 위하여, 카드 내의 데이타를 안전하게 보호할 수 있는 새로운 메카니즘이 제안되었다. 이 메카니즘에서는, 데이타 메모리가 OTPROM 영역과 EEPROM 영역으로 구분되고, 각 영역의 데이타는 논리적으로 서로 연동되게 설계되었다. 그리고 OTPROM영역으로 되어 있는 특정영역에 대해서는 접근제어와 물리적 안전성이 제공되어 재사용 하는 것과 오류를 자동정정하는 것이 가능하다. 이 카드는 디지탈 서명 알고리듬을 사용하여 인증을 받은 사람에 의해서만 발급될 수 있다. 그리고 일반 사용자는 인증과정을 수행하지 않으므로 사용이 간편하다.

  • PDF

고속 공중 데이타망 기술

  • 이영옥;김현수
    • 전기의세계
    • /
    • v.43 no.12
    • /
    • pp.67-72
    • /
    • 1994
  • ITU-T(구 CCITT)의 X.25에 기초한 패킷교환 방식은 회선교환에 비하여 대역폭을 효과적으로 사용할 수 있는 장점을 갖고 있으나 흐름제어와 오류제어 처리에 따른 지연으로 속도가 64Kbps로 제한된다는 것이 단점이다. 특히 90년대에 들어서부터는 문자 정보만 전송하던 80년대와는 달리 데이타량이 큰 그래픽 및 화상데이타의 전송수요가 늘어나고 있으며 LAN 및 클라이언트 서버 환경의 도입으로 대표되는 기업의 컴퓨팅 환경의 변화가 급속히 이루어지고 있어서 기업의 통신환경이 기존의 패킷교환 방식만을 갖고는 도저히 감당할 수 없게 되었다. 이에 따라 고속 패킷교환기술들이 80년대 후반부터 등장하기 시작하였으며, 공중 데이타망 기술로 대표적인 것은 프레임릴레이(FR), SMDA(Switched Multimegabit Data Service), ATM(Asynchronous Transfer Mode) 등이다.

  • PDF

A robust error resilient approach for video data transmission over Internet (인터넷에 비디오 데이터 전송시 강건한 오류 내성 기법)

  • 김진옥;황대준
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10e
    • /
    • pp.481-483
    • /
    • 2002
  • 압축한 비디오데이타를 네트워크으로 전송 시 채널이 불안정한 경우 패킷이 분실될 우려가 있다. 패킷 분실은 대부분 버스트오류로 나타난다. 본 연구에서는 디코더에서 버스트오류를 효과적으로 은닉, 처리하는 방법으로 오류 내성 비디오 인코딩 방법을 제안한다. 이를 위해 공간적 오류은닉법으로 오류 패킷 분실을 야기시키는 손실 블록을 분리하는데 효과적인 블록 인터리빙을 적용한다. 시간적 오류 은닉에 대해서는 연속적인 내부프레임 또는 프레임간에 움직임벡터의 프레임간 패리티 비트를 삽입하는 구조를 적용한다. 비디오 인코딩 단계를 거쳐 디코더에서 수신한 블록들에 대해서는 쌍선형 보간법을 적용하여 전송시 발생한 국지적 오류를 적절하게 은닉 처리한다. 본 논문에서 제안한 인코딩 방법을 전송 블록에 부가 데이터로 포함하는 것은 표준 엔코더의 복잡도에 거의 영향을 미치지 않는다.

  • PDF