• 제목/요약/키워드: Finding rules

검색결과 178건 처리시간 0.033초

시간 속성을 갖는 이벤트 집합에서 인터벌 연관 규칙 마이닝 기법 (A Method for Mining Interval Event Association Rules from a Set of Events Having Time Property)

  • 한대영;김대인;김재인;나철수;황부현
    • 정보처리학회논문지D
    • /
    • 제16D권2호
    • /
    • pp.185-190
    • /
    • 2009
  • 시간 속성을 갖는 이벤트 집합에서 동일한 이벤트 타입에 대한 이벤트 시퀀스는 하나의 이벤트로 요약될 수 있다. 그러나 정의된 시간 간격이 경과된 후 발생된 이벤트 타입은 하나 이상의 독립된 서브 이벤트 시퀀스로 요약하는 것이 바람직하다. 본 논문은 Allen의 시간 관계 대수에 기반하여 인터벌 이벤트를 요약하고, 요약된 인터벌 이벤트들로부터 인터벌 연관 규칙을 찾아내는 새로운 시간 데이터 마이닝 기법을 제안한다. 제안하는 기법은 독립적인 서브 시퀀스 개념을 도입하고 인터벌 이벤트 사이의 연관 규칙을 탐사함으로써 질적으로 우수한 정보를 제공한다.

기록물 기술의 표준화 (Standardization of the Archival Description)

  • 서혜란
    • 기록학연구
    • /
    • 제1호
    • /
    • pp.7-22
    • /
    • 2000
  • It is almost impossible to fulfill the users' information needs efficiently without any finding aids. The idiosyncrasy of archival materials had led the archivists to develop their own descriptive rules until the mid of 1980s. It was the arrival of computers and information networks that stimulated the archival community to standardize its variant descriptive practices. The primary purpose of the national and international archival description standards is to facilitate the cooperative archival data exchange. The Ad Hoc Commission on Descriptive Standards of the International Council on Archives adopted ISAD(G) and ISAAR(CPF) in 1993 and in 1995 respectively. ISAD(G) guides the formulation of information in each of 26 elements that may be combined to constitute the description of an archival entity. ISAAR(CPF) is to give general rules for the establishment of archival authority records in descriptions of archival documents. Histories, structures and fundamental principles of those two international archival standards have been studies in this article. Most of the present archival description standards are based on the principle of provenance and the authority model. The instability of modern organizations and the digitalization of record keeping systems have been making the archivists to review these basic archival principles. It is suggested that Korean archival community should attempt to draft a national archival descriptive standard suitable to the Korean archival practice and Korean language in the framework of the international standards.

제 1상 임상시험에서 다양한 멈춤 규칙을 이용한 최대허용용량 추정법 (Maximum tolerated dose estimations using various stopping rules in phase I clinical trial)

  • 전소영;김동재
    • 응용통계연구
    • /
    • 제35권2호
    • /
    • pp.251-263
    • /
    • 2022
  • 제1상 임상시험은 '투약 용량 발견 시험(dose finding study)'라고도 불리는데 동물 실험 또는 시험관 실험을 통하여 개발된 신약 물질을 사람에게 시험하는 첫 단계이다. 제 1상 임상시험의 목적 중 하나는 환자에게 허용할 수 있으면서 최대의 효능을 가진 복용량인 최대허용용량(maximum tolerated dose, MTD)을 결정하는 것이다. 본 논문에서는 다양한 멈춤 규칙을 이용한 MTD 추정법들을 소개한다. 또한 모의실험을 통해 SM3, NM, Rim, J3, BSM 방법을 비교하고 효율적인 MTD 추정법에 대해 고찰한다. 모의실험 결과 BSM방법이 목표독성확률에 가장 가깝게 MTD를 추정하는 것으로 나타났다. 또한 J3방법의 피험자 수가 가장 적었다. 이러한 결과는 두 방법의 멈춤 규칙의 특성 때문이라고 판단되는데 BSM방법은 독성 반응이 있을 때 같은 용량에 피험자를 2명 또는 1명을 추가한다. 또한 J3방법은 동일한 용량에 할당되는 최대 피험자 수가 다른 방법에 비해 적다. 이러한 특성들을 결합하여 추정법을 개선한다면 더 효율적으로 MTD를 추정할 수 있을 것이다. 특히 BSM방법의 멈춤 규칙을 이용하면서 총 피험자 수를 줄일 수 있다면 적은 수의 피험자로 정확한 추정이 가능할 것이다.

지연 함수형 프로그래밍 언어의 항 개서 의미 (Term Rewriting Semantics of Lazy Functional Programming Languages)

  • 변석우
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제35권3호
    • /
    • pp.141-149
    • /
    • 2008
  • 대부분의 함수형 프로그래밍 언어에서는 '위에서 아래쪽, 왼쪽에서 오른쪽 방향으로' 패턴 매칭(pattern matching)을 한다는 전략에 따라, 모호한(ambiguous) 특성을 갖는 룰의 정의를 허용하고 있다. 이 방법은 함수형 프로그래머에게 디폴트 룰을 정의할 수 있게 하는 직관적인 편리함을 제공하지만, 한편으로 모호한 룰 때문에 함수형 언어의 의미는 불명확해 질 수 있다. 좀 더 구체적으로, 함수형 언어가 갖는 대표적인 특성인 등식 추론(equational reasoning) 원리의 적용을 불가능하게 할 수 있으며, 함수형 언어를 람다 계산법으로 변환하는 데 있어서도 정형적인 방법이 아닌 임시방편적인(ad hoc) 방법에 의존할 수밖에 없게 한다. 본 연구에서는 지연(lazy) 함수형 언어의 패턴 매칭의 의미를 순수 선언적 특성을 갖는 항 개서 시스템(Term Rewriting Systems)의 분리성(separability) 이론과 연관시키고, 분리성 이론에 따라 지연 함수형 언어가 람다 계산법으로 변환될 수 있음을 보인다.

The diagnosis of Plasma Through RGB Data Using Rough Set Theory

  • Lim, Woo-Yup;Park, Soo-Kyong;Hong, Sang-Jeen
    • 한국진공학회:학술대회논문집
    • /
    • 한국진공학회 2009년도 제38회 동계학술대회 초록집
    • /
    • pp.413-413
    • /
    • 2010
  • In semiconductor manufacturing field, all equipments have various sensors to diagnosis the situations of processes. For increasing the accuracy of diagnosis, hundreds of sensors are emplyed. As sensors provide millions of data, the process diagnosis from them are unrealistic. Besides, in some cases, the results from some data which have same conditions are different. We want to find some information, such as data and knowledge, from the data. Nowadays, fault detection and classification (FDC) has been concerned to increasing the yield. Certain faults and no-faults can be classified by various FDC tools. The uncertainty in semiconductor manufacturing, no-faulty in faulty and faulty in no-faulty, has been caused the productivity to decreased. From the uncertainty, the rough set theory is a viable approach for extraction of meaningful knowledge and making predictions. Reduction of data sets, finding hidden data patterns, and generation of decision rules contrasts other approaches such as regression analysis and neural networks. In this research, a RGB sensor was used for diagnosis plasma instead of optical emission spectroscopy (OES). RGB data has just three variables (red, green and blue), while OES data has thousands of variables. RGB data, however, is difficult to analyze by human's eyes. Same outputs in a variable show different outcomes. In other words, RGB data includes the uncertainty. In this research, by rough set theory, decision rules were generated. In decision rules, we could find the hidden data patterns from the uncertainty. RGB sensor can diagnosis the change of plasma condition as over 90% accuracy by the rough set theory. Although we only present a preliminary research result, in this paper, we will continuously develop uncertainty problem solving data mining algorithm for the application of semiconductor process diagnosis.

  • PDF

산재사고를 유발한 안전수칙 위반행위의 확장분석 (Extended Analysis of Unsafe Acts violating Safety Rules caused Industrial Accidents)

  • 임현교;함승언;박건영;이용희
    • 한국안전학회지
    • /
    • 제37권3호
    • /
    • pp.52-59
    • /
    • 2022
  • Conventionally, all the unsafe acts by human beings in relation to industrial accidents have been regarded as unintentional human errors. Exceptionally, however, in the cases with fatalities, seriously injured workers, and/or losses that evoked social issues, attention was paid to violating related laws and regulations for finding out some people to be prosecuted and given judicial punishments. As Heinrich stated, injury or loss in an accident is quite a random variable, so it can be unfair to utilize it as a criterion for prosecution or punishment. The present study was conducted to comprehend how categorizing intentional violations in unsafe acts might disrupt conventional conclusions about the industrial accident process. It was also intended to seek out the right direction for countermeasures by examining unsafe acts comprehensively rather than limiting the analysis to human errors only. In an analysis of 150 industrial accident cases that caused fatalities and featured relatively clear accident scenarios, the results showed that only 36.0% (54 cases) of the workers recognized the situation they confronted as risky, out of which 29.6% (16 cases) thought of the risk as trivial. In addition, even when the risks were recognized, most workers attempted to solve the hazardous situations in ways that violated rules or regulations. If analyzed with a focus on human errors, accidents can be attributed to personal deviations. However, if considered with an emphasis on safety rules or regulations, the focus will naturally move to the question of whether the workers intentionally violated them or not. As a consequence, failure of managerial efforts may be highlighted. Therefore, it was concluded that management should consider unsafe acts comprehensively, with violations included in principle, during accident investigations and the development of countermeasures to prevent future accidents.

장바구니 분석용 OLAP 큐브 구조의 설계 (Designing OLAP Cube Structures for Market Basket Analysis)

  • 유한주;최인수
    • 한국컴퓨터정보학회논문지
    • /
    • 제12권4호
    • /
    • pp.179-189
    • /
    • 2007
  • 고객이 제품을 구매할 때에는 항시 구매패턴이 생기기 마련인데, 이러한 구매패턴을 찾아 나가는 과정을 장바구니 분석이라 부른다. 장바구니 분석은 Microsoft Association Algorithm에서는 두 가지 단계로 구성되어 있는데, 첫 번째 단계는 빈발항목집합을 찾아내는 과정이고, 두 번째 단계는 첫 번째 단계에서 찾은 빈발항목집합을 근거로 하여 이들의 중요도를 비교하는 단순한 계산과정이다. 빈발항목집합을 찾아내는 첫 번째 단계는 장바구니 분석에 있어서 핵심부분임에도 불구하고, OLAP 큐브에 적용할 때에는 추적분석이 불가능해지거나 허구의 빈발항목집합이 생성되는 등 여러 문제가 발생하게 된다. 본 연구에서는 장바구니 분석에 있어서 추적분석을 가능하게 하고 실제의 빈발항목집합만을 생성시키는 새로운 OLAP 큐브 구조의 설계법을 제안하고 있다.

  • PDF

TV-필터와 최적 음표조합을 이용한 개선된 가변템포 음악채보방법 (An Improved Automatic Music Transcription Method Using TV-Filter and Optimal Note Combination)

  • 주영호;이준환
    • 한국지능시스템학회논문지
    • /
    • 제23권4호
    • /
    • pp.371-377
    • /
    • 2013
  • 본 논문에서는 가변템포를 반영한 단일음악 채보의 정확성을 증가시키기 위한 기존의 방법을 개선하는 세 가지 방안을 제시하였다. 첫째는 TV 필터를 활용한 음정 데이터의 평활화로 음정분할 결과의 파편화 현상이 줄어들게 하였다. 또한 음정과 에너지, 규칙기반 방법을 융합한 마디탐색 방법으로 마디 탐색결과의 안정성을 향상시켰다. 뿐만 아니라 마디 내에서 음표의 합이 박자수와 같으면서 양자화 오차의 합을 최소화하는 최적의 방법으로 임시 음길이 부호화 결과를 보정하였다. 그 결과 16개의 동요 음원에서 완벽한 마디위치를 탐색하였으며, 음길이 부호의 정확도 약 91.3%, 음정 부호화 정확도는 약 86.7%의 개선된 결과를 얻을 수 있었다.

"동몽선습(童蒙先習)"의 저자(著者)에 관한 연구(硏究) (The Study of Writer Who Wrote a Dongmongseonseup)

  • 류부현
    • 한국도서관정보학회지
    • /
    • 제40권3호
    • /
    • pp.389-402
    • /
    • 2009
  • 본 연구는 "동몽선습"의 저자에 대한 정론을 수립할 수 있는 하나의 단서를 마련하는데 그 목적이 있다. 따라서 본 연구에서는 종래 살펴보지 못했던 몇 가지 자료에 의거하여 "동몽선습"의 저자에 관해서 좀 더 심층적으로 살펴보았다. 그 결과 "동몽선습"은 박세무와 민제인의 공저로서 박세무는 "동몽선습" 내용 가운데 전반부인 경부에 해당되는 '(오륜)'을 집필하고, 민제인은 후반부인 사부에 해당되는 '(역대요의)'를 저술한 후 합편한 것으로 판단된다.

  • PDF

A Study of Combined Splitting Rules in Regression Trees

  • 이영섭
    • Journal of the Korean Data and Information Science Society
    • /
    • 제13권1호
    • /
    • pp.97-104
    • /
    • 2002
  • Regression trees, a technique in data mining, are constructed by splitting function-a independent variable and its threshold. Lee (2002) considered one-sided purity (OSP) and one-sided extreme (OSE) splitting criteria for finding a interesting node as early as possible. But these methods cannot be crossed each other in the same tree. They are just concentrated on OSP or OSE separately in advance. In this paper, a new splitting method, which is the combination and extension of OSP and OSE, is proposed. By these combined criteria, we can select the nodes by considering both pure and extreme in the same tree. These criteria are not the generalized one of the previous criteria but another option depending on the circumstance.

  • PDF