• 제목/요약/키워드: Knowledge extraction

검색결과 382건 처리시간 0.03초

사전 탐지와 예방을 위한 랜섬웨어 특성 추출 및 분류 (Extraction and Taxonomy of Ransomware Features for Proactive Detection and Prevention)

  • 황윤철
    • 산업융합연구
    • /
    • 제21권9호
    • /
    • pp.41-48
    • /
    • 2023
  • 최근 들어 개인, 기업, 국가 등 사회 전반에 랜섬웨어에 의한 피해가 급증하고 있으며 그 규모도 점차 커지고 있다. 랜섬웨어는 사용자 컴퓨터 시스템에 침입하여 사용자의 중요 파일들을 암호화하여 사용자가 해당 파일들을 사용하지 못하게 하고 그 댓가로 금품을 요구하는 악의적인 소프트웨어이다. 랜섬웨어는 기타 다른 악의적인 코드들에 비해 공격기법이 다양하고 정교하여 탐지가 어렵고 피해 규모가 크기 때문에 정확한 탐지와 해결 방법이 필요하다. 정확한 랜섬웨어를 탐지하기 위해서는 랜섬웨어의 특성들로 학습한 탐지 시스템의 추론엔진이 요구된다. 따라서 본 논문에서는 랜섬웨어의 정확한 탐지를 위해 랜섬웨어가 가지는 특성을 추출하여 분류하는 모델을 제안하고 추출된 특성들의 유사성을 계산하여 특성의 차원을 축소한 다음 축소된 특성들을 그룹화하여 랜섬웨어의 특성으로 공격 도구, 유입경로, 설치파일, command and control, 실행파일, 획득권한, 우회기법, 수집정보, 유출기법, 목표 시스템의 상태 변경으로 분류하였다. 분류된 특성을 기존 랜섬웨어에 적용하여 분류의 타당성을 증명하였고, 차후에 이 분류기법을 이용해 학습한 추론엔진을 탐지시스템에 장착하면 새롭게 등장하는 신종과 변종 랜섬웨어도 대부분 탐지할 수 있다.

과학교육 분야 자연어 처리 기법의 연구동향 분석 (An Analysis of Trends in Natural Language Processing Research in the Field of Science Education)

  • 전철홍;유선아
    • 한국과학교육학회지
    • /
    • 제44권1호
    • /
    • pp.39-55
    • /
    • 2024
  • 본 연구는 2011년부터 2023년 9월까지 과학교육 분야에서 자연어 처리(NLP) 기법을 적용한 37건의 국내 및 해외 문헌을 분석하여 과학교육에서의 NLP 관련 연구 동향을 파악하고자 하였다. 특히 과학교육에서 NLP 기법의 주요 응용 분야, NLP 기법을 활용할 때 교사의 역할, 국내와 해외의 비교 측면에서 그 내용을 체계적으로 분석하였다. 분석 결과는 다음과 같다. 첫째, NLP 기법이 과학교육에서 형성평가, 자동 채점, 문헌 검토 및 분류, 패턴 추출에 중요하게 활용되고 있음을 확인하였다. 형성평가에서 NLP를 활용하면 학생들의 학습과정과 이해도를 실시간으로 분석할 수 있다. 이는 교사의 수업에 대한 부담을 줄이고, 학생들에게 정확하고 효과적인 피드백을 제공할 수 있다. 자동 채점에서는 학생들의 응답을 빠르고 정확하게 평가하는 데 기여한다. 문헌 검토 및 분류에서는 과학교육 관련 연구나 학생들의 보고서를 분석하여 주제와 트렌드를 효과적으로 분석하고, 미래 연구 방향을 설정하는 데 도움을 준다. NLP 기법을 패턴 추출에 활용하면 학생들의 생각과 반응에 나타난 공통점이나 패턴을 찾아 효과적으로 분석할 수 있다. 둘째, 과학교육에서 NLP 기법의 도입은 교사의 역할을 지식 전달자에서 학생들의 학습을 지원하고 촉진하는 지도자로 확장했고, 교사들에게 지속적인 전문성 개발을 요구한다. 셋째, 국내에서는 문헌 검토 및 분류에 집중되어 있어 국내 NLP 연구의 다양성을 위해 텍스트 데이터 수집이 용이한 환경 조성이 필요하다. 이러한 분석 결과를 바탕으로 과학교육에서 NLP 기법의 활용하는 방법에 대해 논의하였다.

구문 의존 경로에 기반한 단백질의 세포 내 위치 인식 (Detection of Protein Subcellular Localization based on Syntactic Dependency Paths)

  • 김미영
    • 정보처리학회논문지B
    • /
    • 제15B권4호
    • /
    • pp.375-382
    • /
    • 2008
  • 단백질의 세포 내 위치를 인식하는 것은 생물학 현상의 기술에 있어서 필수적이다. 생물학 문서의 양이 늘어남에 따라, 단백질의 세포 내 위치 정보를 문서 내용으로부터 얻기 위한 연구들이 많이 이루어졌다. 기존의 논문들은 문장의 구문 정보를 이용하여 정보를 얻고자 하였으며, 언어학적 정보가 단백질의 세포 내 위치를 인식하는 데 유용하다고 주장하고 있다. 그러나, 이전의 시스템들은 구문 정보를 얻기 위해 부분 구문분석기만을 사용하였고 재현율이 좋지 못했다. 그러므로 단백질의 세포 내 위치 정보를 얻기 위해 전체 구문분석기를 사용할 필요가 있다. 또한, 더 많은 언어학적 정보를 위해 의미 정보 또한 사용이 가능하다. 단백질의 세포 내 위치 정보를 인식하는 성능을 향상시키기 위하여, 본 논문은 전체 구문분석기와 어휘망(WordNet)을 기반으로 한 방법을 제안한다. 첫 번째 단계에서, 각 단백질 단어로부터 그 단백질의 위치후보에까지 이르는 구문 의존 경로를 구축한다. 두 번째 단계에서, 구문의존 경로의 루트 정보를 추출한다. 마지막으로, 단백질 부분트리와 위치 부분트리의 구문-의미 패턴을 추출한다. 구문 의존 경로의 루트와 부분트리로부터 구문태그와 구문방향을 구문 정보로서 추출하고, 각 노드 단어의 의미태그를 의미 정보로서 추출한다. 의미태그로는 어휘망의 동의어 집합(synset)을 사용한다. 학습데이터에서 추출한 루트 정보와 부분트리의 구문-의미 패턴에 따라서, 실험데이터에서 (단백질, 위치) 쌍들을 추출했다. 어떤 생물학적 지식 없이, 본 논문의 방법은 메드라인(Medline) 요약 데이터를 사용한 실험 결과에서 학습데이터에 대해 74.53%의 조화평균(F-measure), 실험데이터에 대해서는 58.90%의 조화평균을 보였다. 이 실험은 기존의 방법들보다 12-25%의 성능향상을 보였다.

홍채 인식을 위한 고속 홍채 영역 추출 방법 (A Fast Iris Region Finding Algorithm for Iris Recognition)

  • 송선아;김백섭;송성호
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제30권9호
    • /
    • pp.876-884
    • /
    • 2003
  • 홍채 인식을 위해서는 먼저 홍채 영역을 추출해야 하는데 이를 위해서는 홍채의 안쪽 경계인 동공 경계와 바깥쪽 경계인 홍채 경계를 검출해야 한다. 경계를 검출하는데는 Daugman이 제안한 원형경계 검출기가 가장 일반적이고 효과적인 방법으로 알려져 있다. 이 방법은 전역적인 탐색에 의존하기 때문에 정확하지만 계산 시간이 많이 걸리는 단점이 있다. 계산 시간을 줄이기 위해 경험적 방법들이 사용되기도 하지만 정확성이 떨어지는 문제점이 있었다. 본 논문에서는 정확성을 떨어뜨리지 않으면서 계산 속도를 줄이는 홍채 영역 추출 알고리즘을 제안한다. 제안된 방법은 동공 경계와 홍채 경계가 가지는 문제에 대한 지식(problem knowledge)을 사용하여 제한조건을 부가하여 탐색한다. 경계 검출을 위한 탐색 영역은 동공을 포함하는 최대 원과 최소 원을 이용하여 제한하여 탐색 시간을 줄인다 동공 경계의 경우 이진화된 동공 영상에서 최대 원과 최소 원을 구하고, 홍채 경계의 경우 영상의 분산을 이용하여 얻은 경계점으로부터 최대 원과 최소 원을 구한다. 제안된 방법을 Daugman방법, 히스토그램 분석법, 가중치를 이용한 허프변환 방법 둥과 실험을 통해 비교하였다. 그 결과 제안된 방법은 Daugman방법과 동일한 정확도를 보이며, Daugman방법이나 가중치를 이용한 허프변환 방법보다 빠르다는 것을 알 수 있었다.

웹 페이지의 내재 규칙 습득 과정에서 규칙식별 역할에 대한 효과 분석 (Effect of Rule Identification in Acquiring Rules from Web Pages)

  • 강주영;이재규;박상언
    • 지능정보연구
    • /
    • 제11권1호
    • /
    • pp.123-151
    • /
    • 2005
  • 오늘날 자원의 보고라 할 수 있는 웹에는 자연어로 표현된 텍스트와 테이블들로 구성된 무수히 많은 문서들이 존재하고 있다. 이러한 웹 문서들로부터 규칙을 습득하고 습득된 규칙과 웹 문서간의 일관성을 유지하기 위해, 본 논문에서는 확장형 규칙 표식 언어 (extensible Rule Markup Language, XRML) 체계를 개발하였다. XRML은 웹 페이지에 내재되어 있는 규칙을 식별하여 자동으로 정형화된 규칙을 생성할 수 있도록 지원하는 규칙 식별 표식 언어 (Rule Identification Markup Language, XRML)와 구조화된 규칙 표현을 위한 규칙 구조 표식 언어 (Rule Structure Markup Language)로 구성된다. 특히, RIML은 HTML안에 내재되어 있는 규칙을 HTML 문서에 직접 명시할 수 있도록 설계되었기 때문에, RIML을 통해 웹페이지에 있는 규칙들을 식별하고 이 식별된 규칙은 RSML으로 표현된 정형화된 규칙으로 자동 변환될 수 있다. 본 논문에서는 RIML의 설계 시 웹페이지로부터 규칙을 식별하는 과정에서 발생하는 공유되는 변수 (variables) 및 값 (values),생략된 어구 ,동의어와 같은 몇 가지 중요한 현상들을 발견하고 이를 해결하고자 하였다. 제안된 XRML 접근 방법의 성능을 측정하고자, 3개의 대표적인 온라인 서점인 Amazon.com, BarnesandNoble.com, Powells.com의 실제 웹페이지들로부터 배송 및 환불과 관련된 규칙을 습득하여 XRML의 효과를 측정하는 실험을 수행하였다. 실험 결과에 따르면, 웹페이지로부터 규칙은 $97.7\%$의 매우 높은 정확성을 가지고 습득되었으며, 생성된 규칙의 완전성은 $88.5\%$로 측정되어, XRML이 특정 주제에 관한 전문가 시스템을 구축하기 위해 웹페이지로부터 규칙을 추출할 때 효율적인 도구가 될 수 있음이 예시되었다.

  • PDF

Using the METHONTOLOGY Approach to a Graduation Screen Ontology Development: An Experiential Investigation of the METHONTOLOGY Framework

  • Park, Jin-Soo;Sung, Ki-Moon;Moon, Se-Won
    • Asia pacific journal of information systems
    • /
    • 제20권2호
    • /
    • pp.125-155
    • /
    • 2010
  • Ontologies have been adopted in various business and scientific communities as a key component of the Semantic Web. Despite the increasing importance of ontologies, ontology developers still perceive construction tasks as a challenge. A clearly defined and well-structured methodology can reduce the time required to develop an ontology and increase the probability of success of a project. However, no reliable knowledge-engineering methodology for ontology development currently exists; every methodology has been tailored toward the development of a particular ontology. In this study, we developed a Graduation Screen Ontology (GSO). The graduation screen domain was chosen for the several reasons. First, the graduation screen process is a complicated task requiring a complex reasoning process. Second, GSO may be reused for other universities because the graduation screen process is similar for most universities. Finally, GSO can be built within a given period because the size of the selected domain is reasonable. No standard ontology development methodology exists; thus, one of the existing ontology development methodologies had to be chosen. The most important considerations for selecting the ontology development methodology of GSO included whether it can be applied to a new domain; whether it covers a broader set of development tasks; and whether it gives sufficient explanation of each development task. We evaluated various ontology development methodologies based on the evaluation framework proposed by G$\acute{o}$mez-P$\acute{e}$rez et al. We concluded that METHONTOLOGY was the most applicable to the building of GSO for this study. METHONTOLOGY was derived from the experience of developing Chemical Ontology at the Polytechnic University of Madrid by Fern$\acute{a}$ndez-L$\acute{o}$pez et al. and is regarded as the most mature ontology development methodology. METHONTOLOGY describes a very detailed approach for building an ontology under a centralized development environment at the conceptual level. This methodology consists of three broad processes, with each process containing specific sub-processes: management (scheduling, control, and quality assurance); development (specification, conceptualization, formalization, implementation, and maintenance); and support process (knowledge acquisition, evaluation, documentation, configuration management, and integration). An ontology development language and ontology development tool for GSO construction also had to be selected. We adopted OWL-DL as the ontology development language. OWL was selected because of its computational quality of consistency in checking and classification, which is crucial in developing coherent and useful ontological models for very complex domains. In addition, Protege-OWL was chosen for an ontology development tool because it is supported by METHONTOLOGY and is widely used because of its platform-independent characteristics. Based on the GSO development experience of the researchers, some issues relating to the METHONTOLOGY, OWL-DL, and Prot$\acute{e}$g$\acute{e}$-OWL were identified. We focused on presenting drawbacks of METHONTOLOGY and discussing how each weakness could be addressed. First, METHONTOLOGY insists that domain experts who do not have ontology construction experience can easily build ontologies. However, it is still difficult for these domain experts to develop a sophisticated ontology, especially if they have insufficient background knowledge related to the ontology. Second, METHONTOLOGY does not include a development stage called the "feasibility study." This pre-development stage helps developers ensure not only that a planned ontology is necessary and sufficiently valuable to begin an ontology building project, but also to determine whether the project will be successful. Third, METHONTOLOGY excludes an explanation on the use and integration of existing ontologies. If an additional stage for considering reuse is introduced, developers might share benefits of reuse. Fourth, METHONTOLOGY fails to address the importance of collaboration. This methodology needs to explain the allocation of specific tasks to different developer groups, and how to combine these tasks once specific given jobs are completed. Fifth, METHONTOLOGY fails to suggest the methods and techniques applied in the conceptualization stage sufficiently. Introducing methods of concept extraction from multiple informal sources or methods of identifying relations may enhance the quality of ontologies. Sixth, METHONTOLOGY does not provide an evaluation process to confirm whether WebODE perfectly transforms a conceptual ontology into a formal ontology. It also does not guarantee whether the outcomes of the conceptualization stage are completely reflected in the implementation stage. Seventh, METHONTOLOGY needs to add criteria for user evaluation of the actual use of the constructed ontology under user environments. Eighth, although METHONTOLOGY allows continual knowledge acquisition while working on the ontology development process, consistent updates can be difficult for developers. Ninth, METHONTOLOGY demands that developers complete various documents during the conceptualization stage; thus, it can be considered a heavy methodology. Adopting an agile methodology will result in reinforcing active communication among developers and reducing the burden of documentation completion. Finally, this study concludes with contributions and practical implications. No previous research has addressed issues related to METHONTOLOGY from empirical experiences; this study is an initial attempt. In addition, several lessons learned from the development experience are discussed. This study also affords some insights for ontology methodology researchers who want to design a more advanced ontology development methodology.

단어 단위의 추정 정렬을 통한 영-한 대역어의 자동 추출 (An Automatic Extraction of English-Korean Bilingual Terms by Using Word-level Presumptive Alignment)

  • 이공주
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제2권6호
    • /
    • pp.433-442
    • /
    • 2013
  • 기계번역 시스템 구축에 가장 필수적인 요소는 번역하고자 하는 언어간의 단어쌍을 담고 있는 대역어 사전이다. 대역어 사전은 기계번역뿐만 아니라 서로 다른 언어간의 정보를 교환하는 모든 응용프로그램의 필수적인 지식원(knowledge source)이다. 본 연구에서는 문서 단위로 정렬된 병렬 코퍼스와 기본적인 대역어 사전을 이용하여 영-한 대역어를 자동으로 추출하는 방법에 대해 소개한다. 이 방법은 수집된 병렬 코퍼스의 크기에 영향을 받지 않는 방법이다. 문서 단위로 정렬된 병렬 코퍼스로부터 문장 단위의 정렬을 수행하고 다시 단어 단위의 정렬을 수행한 후, 정렬이 채 되지 않은 부분에 대해 추정 정렬을 수행한다. 추정 정렬에는 문장에서의 위치, 다른 단어와의 관계, 두 언어간의 언어적 정보등 다양한 정보가 사용된다. 이렇게 추정 정렬된 단어쌍으로부터 영-한 대역어를 추출할 수 있다. 약 1,000개로 구성된 병렬 코퍼스로부터 추출한 영-한 대역어는 71.7%의 정확도를 얻을 수 있었다.

한국 한방화장품 발달 배경 및 연구 현황 (The Background and Current Research Applied to Development of Korean Cosmetics Based on Traditional Asian Medicine)

  • 조가영;박효민;최소웅;권이경;조성아;서병휘;김남일
    • 한국의사학회지
    • /
    • 제30권2호
    • /
    • pp.63-71
    • /
    • 2017
  • Traditional Asian medicine has an extensive evidence base built upon thousands of years of experience within Asia, of curing various diseases. Only recently, within the past two centuries, have modern medical scientists developed interest in traditional Asian medicine. Asian Medicine seems to be regarded only as an adjunctive medicine and viewed as alargely un-proven alternative medicine to complement western medicine, used in some cases to establish a new paradigm of "integrative medicine". This article reviews how Korean herbal cosmetics emerged by applying traditional Asian medicine to the science of cosmetics. The characteristics of Korean herbal cosmetics are examined through examples of history, concepts and traditions. With the advancements in biotechnology, studies are now being conducted on the dermatological effects and processing methods of herbal ingredients, including ginseng. The authors explain the current research on the identification on the active ingredients of herbs, extraction methods, and bio-processing of ingredients to improve the biological efficacies of herbs on the skin. A summary of studies focused on modern reinterpretations of ageing theories, such as 'Seven year aging cycle', are provided. In conclusion, the development of Korean cosmetics products are based on the accumulated knowledge of thousands of years of experience including; 1) practical heritage of traditional Asian medicines such as Donguibogam; 2) excellent medicinal plants, such as ginseng, which are native to Korea; and 3) innovative attempts to modernize materials, processes, and principles.

Bio-Oss 골이식이 치아맹출에 미치는 영향에 관한 동물실험 연구 (Effect of Bio-Oss grafts on tooth eruption: an experimental study in a canine model)

  • 김지훈;장채리;최병호
    • Journal of the Korean Association of Oral and Maxillofacial Surgeons
    • /
    • 제36권6호
    • /
    • pp.528-532
    • /
    • 2010
  • Introduction: There are few reports on tooth eruption through Bio-Oss grafts. To our knowledge, there are no reports on whether teeth can erupt normally through the grafts. The aim of this study was to examine the effect of Bio-Oss grafts on tooth eruption in a canine model. Materials and Methods: In five 10-week-old dogs, the deciduous third mandibular molars in one jaw quadrant of each animal were extracted and the fresh extraction sockets were then filled with Bio-Oss particles (experimental side). No such treatments were performed on the contralateral side (control side). A clinical and radiological evaluation was carried out every other week to evaluate the eruption level of the permanent third mandibular premolars and compare the eruption levels between the two sides. Results: At week 4 after the experiment, the permanent third premolars began to erupt on both sides. At week 12, the crown of the permanent third premolar emerged from the gingiva on both sides. At week 20, the permanent third premolars on both sides erupted enough to occlude the opposing teeth. No significant differences were found between the control and experimental sides in terms of the eruption speed of the permanent third molars. Conclusion: These findings demonstrate that the grafting of Bio-Oss particles into the alveolar bone defects does not affect tooth eruption.

The World as Seen from Venice (1205-1533) as a Case Study of Scalable Web-Based Automatic Narratives for Interactive Global Histories

  • NANETTI, Andrea;CHEONG, Siew Ann
    • Asian review of World Histories
    • /
    • 제4권1호
    • /
    • pp.3-34
    • /
    • 2016
  • This introduction is both a statement of a research problem and an account of the first research results for its solution. As more historical databases come online and overlap in coverage, we need to discuss the two main issues that prevent 'big' results from emerging so far. Firstly, historical data are seen by computer science people as unstructured, that is, historical records cannot be easily decomposed into unambiguous fields, like in population (birth and death records) and taxation data. Secondly, machine-learning tools developed for structured data cannot be applied as they are for historical research. We propose a complex network, narrative-driven approach to mining historical databases. In such a time-integrated network obtained by overlaying records from historical databases, the nodes are actors, while thelinks are actions. In the case study that we present (the world as seen from Venice, 1205-1533), the actors are governments, while the actions are limited to war, trade, and treaty to keep the case study tractable. We then identify key periods, key events, and hence key actors, key locations through a time-resolved examination of the actions. This tool allows historians to deal with historical data issues (e.g., source provenance identification, event validation, trade-conflict-diplomacy relationships, etc.). On a higher level, this automatic extraction of key narratives from a historical database allows historians to formulate hypotheses on the courses of history, and also allow them to test these hypotheses in other actions or in additional data sets. Our vision is that this narrative-driven analysis of historical data can lead to the development of multiple scale agent-based models, which can be simulated on a computer to generate ensembles of counterfactual histories that would deepen our understanding of how our actual history developed the way it did. The generation of such narratives, automatically and in a scalable way, will revolutionize the practice of history as a discipline, because historical knowledge, that is the treasure of human experiences (i.e. the heritage of the world), will become what might be inherited by machine learning algorithms and used in smart cities to highlight and explain present ties and illustrate potential future scenarios and visionarios.