• 제목/요약/키워드: Automatic Search

검색결과 380건 처리시간 0.03초

Diagnostic performance of artificial intelligence using cone-beam computed tomography imaging of the oral and maxillofacial region: A scoping review and meta-analysis

  • Farida Abesi ;Mahla Maleki ;Mohammad Zamani
    • Imaging Science in Dentistry
    • /
    • 제53권2호
    • /
    • pp.101-108
    • /
    • 2023
  • Purpose: The aim of this study was to conduct a scoping review and meta-analysis to provide overall estimates of the recall and precision of artificial intelligence for detection and segmentation using oral and maxillofacial cone-beam computed tomography (CBCT) scans. Materials and Methods: A literature search was done in Embase, PubMed, and Scopus through October 31, 2022 to identify studies that reported the recall and precision values of artificial intelligence systems using oral and maxillofacial CBCT images for the automatic detection or segmentation of anatomical landmarks or pathological lesions. Recall (sensitivity) indicates the percentage of certain structures that are correctly detected. Precision (positive predictive value) indicates the percentage of accurately identified structures out of all detected structures. The performance values were extracted and pooled, and the estimates were presented with 95% confidence intervals(CIs). Results: In total, 12 eligible studies were finally included. The overall pooled recall for artificial intelligence was 0.91 (95% CI: 0.87-0.94). In a subgroup analysis, the pooled recall was 0.88 (95% CI: 0.77-0.94) for detection and 0.92 (95% CI: 0.87-0.96) for segmentation. The overall pooled precision for artificial intelligence was 0.93 (95% CI: 0.88-0.95). A subgroup analysis showed that the pooled precision value was 0.90 (95% CI: 0.77-0.96) for detection and 0.94 (95% CI: 0.89-0.97) for segmentation. Conclusion: Excellent performance was found for artificial intelligence using oral and maxillofacial CBCT images.

학술대회 및 저널별 기술 핵심구 추출 모델 (A Keyphrase Extraction Model for Each Conference or Journal)

  • 정현지;장광선;김태현;신동구
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.81-83
    • /
    • 2022
  • 연구 동향을 파악하는 것은 연구 수행 시 필수적인 요소이다. 대부분의 연구자들은 관심분야의 학술대회 및 저널을 대표하는 기술 핵심구나 관심 분야를 검색함으로써 연구 동향을 파악한다. 하지만, 최근 인공지능과 같은 특정 분야의 경우 한 개의 학술대회에 한 해당 수백~수천 개의 논문이 출간되기 때문에 전체 분야의 경향성을 파악하는 데 어려움이 존재한다. 본 논문에서는 학술대회 또는 저널 제목을 활용하여 기술 핵심구를 자동으로 추출함으로써 연도별 학술대회 및 저널의 연구 동향 파악을 지원하고자 한다. 핵심구 추출은 문장 또는 문서를 대표하는 주요 구문을 추출하는 작업으로서 검색, 요약, 내용 파악 등을 위해 근간이 되는 기술이다. 기존 사전학습 언어모델 기반의 핵심구 추출 모델은 문서 단위의 긴 텍스트를 기준으로 모델링 하였기 때문에 제목 단위의 짧은 텍스트에서는 성능이 낮아진다는 단점이 존재한다. 본 논문에서는 짧은 텍스트에 강인하면서 단어 자체의 중요도를 고려한 학술대회 및 저널의 기술 핵심구 추출 모델을 제안하고자 한다.

  • PDF

The MapDS-Onto Framework for Matching Formula Factors of KPIs and Database Schema: A Case Study of the Prince of Songkla University

  • Kittisak Kaewninprasert;Supaporn Chai-Arayalert;Narueban Yamaqupta
    • Journal of Information Science Theory and Practice
    • /
    • 제12권3호
    • /
    • pp.49-62
    • /
    • 2024
  • Strategy monitoring is essential for business management and for administrators, including managers and executives, to build a data-driven organization. Having a tool that is able to visualize strategic data is significant for business intelligence. Unfortunately, there are gaps between business users and information technology departments or business intelligence experts that need to be filled to meet user requirements. For example, business users want to be self-reliant when using business intelligence systems, but they are too inexperienced to deal with the technical difficulties of the business intelligence systems. This research aims to create an automatic matching framework between the key performance indicators (KPI) formula and the data in database systems, based on ontology concepts, in the case study of Prince of Songkla University. The mapping data schema with ontology (MapDSOnto) framework is created through knowledge adaptation from the literature review and is evaluated using sample data from the case study. String similarity methods are compared to find the best fit for this framework. The research results reveal that the "fuzz.token_set_ratio" method is suitable for this study, with a 91.50 similarity score. The two main algorithms, database schema mapping and domain schema mapping, present the process of the MapDS-Onto framework using the "fuzz.token_set_ratio" method and database structure ontology to match the correct data of each factor in the KPI formula. The MapDS-Onto framework contributes to increasing self-reliance by reducing the amount of database knowledge that business users need to use semantic business intelligence.

MODIS 지표면 온도 자료와 지구통계기법을 이용한 지상 기온 추정 (Estimation of Near Surface Air Temperature Using MODIS Land Surface Temperature Data and Geostatistics)

  • 신휴석;장은미;홍성욱
    • Spatial Information Research
    • /
    • 제22권1호
    • /
    • pp.55-63
    • /
    • 2014
  • 수문학, 기상학 및 기후학 등에서 필수적인 자료중의 하나인 지상기온 자료는 최근 보건, 생물, 환경 등의 다양한 분야로까지 활용영역이 확대되고 있어 그 중요성이 커지고 있으나 지상관측을 통한 지상기온자료의 취득은 시공간적인 제약이 크기 때문에 실측된 기온자료는 시공간 해상도가 낮아 높은 해상도가 요구되는 연구 분야에서는 활용성에 큰 제약을 갖게 된다. 이를 극복하기 위한 하나의 대안으로 상대적으로 높은 시공간 해상도를 가지고 있는 위성영상자료에서 얻을 수 있는 지표면온도 자료를 이용하여 지상기온을 추정하는 많은 연구들이 수행되어 왔다. 본 연구는 이러한 연구의 일환으로써 기상청에서 제공하고 있는 AWS(Automatic Weather Station)에서 취득된 2010년 지상 온도 자료(AWS data)를 바탕으로 대표적인 지표면 온도자료인 MODIS Land Surface temperature(LST data:MOD11A1)와 지상기온에 영향을 미칠 수 있는 Land Cover Data, DEM(digital elevation model) 등의 보조 자료와 함께 다양한 지구통계 기법들을 이용하여 남한 지역의 지상기온을 추정하였다. 추정 전 2010년 전체(365일) LST자료와 AWS자료와의 차이에 대한 RMSE(Root Mean Square Error)값의 계절별 피복별 분석결과 계절에 따른 RMSE값의 변동계수는 0.86으로 나타났으나 피복에 따른 변동계수는 0.00746으로 나타나 계절별 차이가 피복별 차이보다 큰 것으로 분석 되었다. 계절별 RMSE 값은 겨울철이 가장 낮은 것으로 나타났으며 AWS자료와 LST자료와 보조자료를 이용한 선형 회귀분석결과에서도 겨울철의 결정 계수가 가장 높은 0.818로 나타났으며, 여름철의 경우에는 0.078로 나타나 계절별 차이가 매우 크게 나타났다. 이러한 결과를 바탕으로 지구통계 기법들의 대표적인 방법론인 크리깅 방법 중 일반적으로 많이 사용되고 있는 정규 크리깅, 일반 크리깅, 공동 크리킹, 회귀 크리깅을 이용하여 지상기온을 추정한 후 모델의 정확도를 판단할 수 있는 교차 검증을 실시한 결과 정규 크리깅과 일반 크리깅에 의한 RMSE 값은 1.71, 공동 크리깅과 회귀 크리깅에 의한 RMSE 값은 각각 1.848, 1.63으로 나타나 회귀 크리깅 방법에 의한 추정의 정확도가 가장 높은 것으로 분석되었다.

키워드 자동 생성에 대한 새로운 접근법: 역 벡터공간모델을 이용한 키워드 할당 방법 (A New Approach to Automatic Keyword Generation Using Inverse Vector Space Model)

  • 조원진;노상규;윤지영;박진수
    • Asia pacific journal of information systems
    • /
    • 제21권1호
    • /
    • pp.103-122
    • /
    • 2011
  • Recently, numerous documents have been made available electronically. Internet search engines and digital libraries commonly return query results containing hundreds or even thousands of documents. In this situation, it is virtually impossible for users to examine complete documents to determine whether they might be useful for them. For this reason, some on-line documents are accompanied by a list of keywords specified by the authors in an effort to guide the users by facilitating the filtering process. In this way, a set of keywords is often considered a condensed version of the whole document and therefore plays an important role for document retrieval, Web page retrieval, document clustering, summarization, text mining, and so on. Since many academic journals ask the authors to provide a list of five or six keywords on the first page of an article, keywords are most familiar in the context of journal articles. However, many other types of documents could not benefit from the use of keywords, including Web pages, email messages, news reports, magazine articles, and business papers. Although the potential benefit is large, the implementation itself is the obstacle; manually assigning keywords to all documents is a daunting task, or even impractical in that it is extremely tedious and time-consuming requiring a certain level of domain knowledge. Therefore, it is highly desirable to automate the keyword generation process. There are mainly two approaches to achieving this aim: keyword assignment approach and keyword extraction approach. Both approaches use machine learning methods and require, for training purposes, a set of documents with keywords already attached. In the former approach, there is a given set of vocabulary, and the aim is to match them to the texts. In other words, the keywords assignment approach seeks to select the words from a controlled vocabulary that best describes a document. Although this approach is domain dependent and is not easy to transfer and expand, it can generate implicit keywords that do not appear in a document. On the other hand, in the latter approach, the aim is to extract keywords with respect to their relevance in the text without prior vocabulary. In this approach, automatic keyword generation is treated as a classification task, and keywords are commonly extracted based on supervised learning techniques. Thus, keyword extraction algorithms classify candidate keywords in a document into positive or negative examples. Several systems such as Extractor and Kea were developed using keyword extraction approach. Most indicative words in a document are selected as keywords for that document and as a result, keywords extraction is limited to terms that appear in the document. Therefore, keywords extraction cannot generate implicit keywords that are not included in a document. According to the experiment results of Turney, about 64% to 90% of keywords assigned by the authors can be found in the full text of an article. Inversely, it also means that 10% to 36% of the keywords assigned by the authors do not appear in the article, which cannot be generated through keyword extraction algorithms. Our preliminary experiment result also shows that 37% of keywords assigned by the authors are not included in the full text. This is the reason why we have decided to adopt the keyword assignment approach. In this paper, we propose a new approach for automatic keyword assignment namely IVSM(Inverse Vector Space Model). The model is based on a vector space model. which is a conventional information retrieval model that represents documents and queries by vectors in a multidimensional space. IVSM generates an appropriate keyword set for a specific document by measuring the distance between the document and the keyword sets. The keyword assignment process of IVSM is as follows: (1) calculating the vector length of each keyword set based on each keyword weight; (2) preprocessing and parsing a target document that does not have keywords; (3) calculating the vector length of the target document based on the term frequency; (4) measuring the cosine similarity between each keyword set and the target document; and (5) generating keywords that have high similarity scores. Two keyword generation systems were implemented applying IVSM: IVSM system for Web-based community service and stand-alone IVSM system. Firstly, the IVSM system is implemented in a community service for sharing knowledge and opinions on current trends such as fashion, movies, social problems, and health information. The stand-alone IVSM system is dedicated to generating keywords for academic papers, and, indeed, it has been tested through a number of academic papers including those published by the Korean Association of Shipping and Logistics, the Korea Research Academy of Distribution Information, the Korea Logistics Society, the Korea Logistics Research Association, and the Korea Port Economic Association. We measured the performance of IVSM by the number of matches between the IVSM-generated keywords and the author-assigned keywords. According to our experiment, the precisions of IVSM applied to Web-based community service and academic journals were 0.75 and 0.71, respectively. The performance of both systems is much better than that of baseline systems that generate keywords based on simple probability. Also, IVSM shows comparable performance to Extractor that is a representative system of keyword extraction approach developed by Turney. As electronic documents increase, we expect that IVSM proposed in this paper can be applied to many electronic documents in Web-based community and digital library.

성인 정신장애의 청각자극에 따른 생리학적 반응 측정에 대한 체계적 고찰 (Automatic Nerve Activity to Physiologic Response in Adult With Psychiatric Disorder: A Systemic Review)

  • 정혜림;김경미
    • 대한감각통합치료학회지
    • /
    • 제9권1호
    • /
    • pp.45-52
    • /
    • 2011
  • 목적 : 성인 정신장애를 대상으로 청각자극에 대한 생리학적 반응을 측정한 연구에서 사용된 청각자극의 종류와 측정도구를 알아보고 대상군의 자율신경계 반응특성을 제시하고자 한다. 연구방법 : 연구방법으로는 체계적 고찰을 사용하였다. 사용한 데이터베이스는 PubMed이었다. 검색어는 "auditory stimulation, auditory startle, electromyogram, skin conductance, heart rate, psychiatric disorder, anxiety disorder, schizophrenia, depression"이었다. 최종적으로 분석에 사용된 논문은 8개이었으며, 근거의 질적 수준은 모두 수준II이었다. 분석 내용은 대상군의 특성, 청각자극의 종류, 측정도구, 정신 장애의 청각자극에 대한 생리학적 반응특성이었다. 결과 : 1. 연구 대상군은 불안장애와 정신분열장애를 대상으로 한 연구가 각각 4개이었다. 2. 생리학적 반응 유발을 위해 청각자극만 제공한 연구가 6개, 청각자극과 함께 시각자극을 포함한 연구가 2개이었다. 3. 분석대상 연구 모두에서 근전도(electromyograph)를 사용하였으며, 근전도와 함께 피부전기전도(skin conductance)를 측정한 연구가 2개, 심박수(heart rate)를 측정한 연구가 2개이었다. 4. 정신분열장애와 불안장애(외상후 스트레스장애, 강박장애)는 일반인과 다른 생리학적 반응을 보였다. 결론 : 생리학적 반응을 측정하기 위한 연구에서 사용한 자극은 청각자극으로 단순음을 제시하였고, 근전도는 안륜근에 전극을 붙여 생리학적 반응을 측정하였다. 정신장애군은 청각자극에 대해 큰 반응, 짧은 잠재기, 지연된 습관화 등의 특징을 보였다. 앞으로 정신장애군의 감각 특성에 대하여 생리학적 측정을 통한 연구가 이루어져야 하겠다.

  • PDF

고유특징과 다층 신경망을 이용한 얼굴 영상에서의 눈과 입 영역 자동 추출 (Automatic Extraction of Eye and Mouth Fields from Face Images using MultiLayer Perceptrons and Eigenfeatures)

  • 류연식;오세영
    • 전자공학회논문지CI
    • /
    • 제37권2호
    • /
    • pp.31-43
    • /
    • 2000
  • 본 논문은 얼굴영상에서 눈과 입 부위를 추출하기 위한 알고리즘을 제안하였다. 첫째로, 눈과 입의 에지 이진 화소 집합의 고유 값 (Eigenvalue) 과 고유 벡터 (Eigenvector) 로 부터 추출한 정보들은 눈과 입을 찾기 위한 좋은 특징이 된다. 눈과 입 부위의 긍정적 샘플과 부정적 샘플로부터 추출한 고유 특징들로 다층 신경망을 학습하여 특정 영역이 눈과 입 부위 포함하는 정도를 나타내도록 하였다. 둘째로, 시스템의 강건성 확보를 위해 서로 다른 구조의 단일 MLP를 묶어서 그 결과를 이용하는 Ensemble network 구조를 사용하였다. 두 눈과 입에 각각 별도의 Ensemble network을 사용하였고, 각 Ensemble network내 MLP들의 출력이 최대가 되는 영역의 중심 좌표들을 평균하여 최종 위치를 결정하였다. 셋째로, 특징 정보 추출 검색 영역을 즐기기 위해 얼굴 영상 에지 정보와 눈과 입의 위치 관계를 이용해 눈과 입의 대략적인 영역을 추출하였다. 제안된 시스템은 적은 수의 정면 얼굴에서 추출한 고유 특징들로 학습된 Ensemble network을 사용하여 학습에 사용되지 않은 다른 사람들의 정면얼굴 뿐만 아니라 일정한 범위 내 자세 변화에서도 좋은 일반화 성능을 얻고 있으며, 작은 범위 내에서의 얼굴 크기 변화나 좌우 20°이내의 자세 변화에 대해서도 신경망의 일반화 기능을 이용하여 강건한 결과를 얻고 있음을 확인하였다.

  • PDF

CompGenX: GenVoca와 XML 기반의 컴포넌트 코드 생성 시스템 (CompGenX: Component Code Generation System based on GenVoca and XML)

  • 최승훈
    • 인터넷정보학회논문지
    • /
    • 제4권3호
    • /
    • pp.57-67
    • /
    • 2003
  • 소프트웨어 생산 라인은. 소프트웨어 자산에 존재하는 일반적인 컴포넌트를 구체화하고 미리 정의된 아키텍처를 기반으로 조립함으로써, 고품질의 응용 프로그램을 빠르게 개발할 수 있도록 해 주는 것을 목적으로 한다. 본 논문에서는, 소프트웨어 생산 라인 구축을 지원하기 위하여 GenVoco 아키텍처와 XML/XSLT 기술을 이용한 컴포넌트 코드 자동 생성 기법과, 이를 기반으로 한 컴포넌트 코드 생성 시스템인 CompGenX(Component Generator using XML)를 제안한다. CompGenX은 컴포넌트 코드 생성 시에 컴포넌트의 재구성성을 지원함으로써 재사용자가 컴포넌트 재사용 시 자신의 목적에 맞는 컴포넌트의 소스 코드를 자동으로 생성할 수 있게 해 준다. 이를 위한 컴포넌트 개발 과정은 크게 컴포넌트 패밀리 구축 과정과 컴포넌트 재사용 과정으로 나누어진다. CompGenX는 컴포넌트 패밀리 구축 과정을 위하여, 도메인 분석을 위한 특성 모델 작성 도구, 도메인 설계를 위한 도메인 아키텍처 정의 도구를 제공한다. 또한 코드 자동 생성에 필요한 구성 지식 명세서와 코드 템플릿 작성 도구를 제공한다. 컴포넌트 재사용 과정을 위해서 CompGenX는, 컴포넌트 패밀리 검색 도구, 컴포넌트 커스터마이징 도구 및 컴포넌트 코드 생성기 등을 제공한다. 본 논문의 컴포넌트 코드 자동 생성 기법과 생성 시스템은 컴포넌트 기반 소프트웨어 생산 라인 구축을 위한 기반 기술로서 적용될 수 있다.

  • PDF

운송스케줄 정보수집 에이전트 기반 복합운송 경로계획 시스템 (Development of Route Planning System for Intermodal Transportation Based on an Agent Collecting Schedule Information)

  • 최형림;김현수;박병주;강무홍
    • 경영정보학연구
    • /
    • 제10권1호
    • /
    • pp.115-133
    • /
    • 2008
  • 3자 물류 업계는 주로 화주를 대신하여 화물을 출발지에서 도착지까지 전달해주는 업무를 담당하고 있으며, 이를 위해서는 출발지와 도착지간의 운송 수단, 출발/도착 스케줄, 그리고 운임 등에 대한 정보를 필요로 한다. 또한 복합운송은 다양한 수송수단을 서로 조화롭게 통제하여 마치 하나의 수송수단을 이용하는 것처럼 자연스럽게 운영되어야 하는데, 이를 위해서는 스케줄 정보 수집과 이를 통해 가능한 수송경로를 생성할 수 있는 시스템을 구축할 필요가 있다. 하지만 현재 물류업체에서는 체계적인 시스템의 부재로 인해 충분하고 객관적인 정보를 바탕으로 서비스를 제공하지 못하고 있다. 대부분 담당자의 경험을 통하여 수작업으로 수송경로를 계획하고 있어, 거래량 및 물량이 늘어날수록 수작업에 의한 작업은 한계를 보이고 있다. 복합운송에서 최적 수송경로 생성과 선정을 어렵게 하는 이유는 크게 두 가지로 볼 수 있다. 첫째는 수송경로를 선정하기 위한 운송수단 별 스케줄 데이터 확보의 어려움이다. 두 번째는 수많은 스케줄 자료를 바탕으로 가능한 수송경로를 생성하고, 이들 중 고객의 요구에 가장 적합한 경로를 찾아내는 방법 개발에 대한 어려움이다. 이에 본 연구에서는 웹을 통해 제공되고 있는 스케줄 정보를 능동적으로 탐색 및 식별하여 실시간으로 수집할 수 있는 방법과 복합수송 서비스를 제공하는 물류업체의 핵심적인 업무인 수송경로 생성과 선정을 지원하는 지능형 복합운송 경로 계획시스템을 개발하고자 한다.

시맨틱 웹 기반 상황인지 서비스를 위한 동적 서비스 제공 모델 (A Dynamic Service Supporting Model for Semantic Web-based Situation Awareness Service)

  • 최정화;박영택
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제36권9호
    • /
    • pp.732-748
    • /
    • 2009
  • 시맨틱 웹 서비스 기술은 상황 인지의 실현을 위한 기반 기술로 다양한 자원들을 동적이고 유연하게 상호 융합하여 새로운 서비스를 생성한다. 유비쿼터스 컴퓨팅 기술이 현실화됨에 따라 웹 서비스를 구현하려는 연구가 활발하지만, 대부분이 웹 서비스 설계자의 최초 명세에 국한된 획일화된 서비스 결과만을 초래한다. 본 논문에서는 사용자 요구와 감지한 상황의 월드 모델을 분석하여 계획 시스템에 목표와 초기 상태로 입력하고 초기 상태로부터 목표를 달성하기 위한 일련의 작업들을 계획하는 동적 서비스 제공을 위한 모델링 방법을 제안한다. 제안한 방법론은 실세계로부터 감지한 월드모델을 OWL 도메인 온톨로지를 이용하여 서술논리 기반 온톨로지 추론을 통해 상황정보(context)를 추론한다. 상황정보는 서비스 도메인을 결정하며, 이에 해당하는 OWL-S 서비스 온톨로지를 계획 시스템에서 탐색할 서비스 명세로 활용한다. 계획 시스템은 초기 상태에서 목표 상태를 만족하는 하나 이상의 서비스를 탐색하고 실행 순서를 계획한다. 이 시스템은 STRIPS 형의 역방향 탐색 시스템으로 OWL-S 서비스를 AI 전통 계획 방법론에 근거하여 합성하여, 방대한 웹 서비스의 탐색 범위를 축소한다. 또한 패턴 매칭에 의해 실행 가능한 서비스를 찾지 못한 경우, DL기반의 시맨틱 매칭을 통해 대안이 되는 서비스를 찾는다. 제안한 방법은 비교연구인 OWLS-XPlan과 동일한 시나리오로 실험하여 기존 연구의 문제점을 해결하고, 동적 서비스 실현을 위한 모델링 방법으로써 가능성을 검증한다.