• 제목/요약/키워드: algorithms

검색결과 16,353건 처리시간 0.051초

PET/CT 장비와 영상 재구성 차이에 따른 EQ PET을 이용한 표준섭취계수의 평가 (Evaluation of Standardized Uptake Value applying EQ PET across different PET/CT scanners and reconstruction)

  • 윤석환;김병진;문일상;이홍재
    • 핵의학기술
    • /
    • 제22권1호
    • /
    • pp.35-42
    • /
    • 2018
  • 양전자 방출 단층촬영에서 정량적 평가에 통상적으로 쓰이는 표준섭취계수(SUV : Standardized Uptake Value)는 종양의 병소와 병기의 진단 그리고 치료 성적 평가에 있어서 사용되고 있는 유용한 지표이다. 하지만 SUV는 환자의 체격, 검사까지의 시간, 부분용적 효과, 관심영역의 설정, 검사장비, 영상재구성 차이 등에 따라 변화 되므로 다양한 인자의 영향을 고려하여야만 한다. 그 중에서도 PET/CT 장비와 영상의 재구성 방법의 차이에 의한 SUV의 차이를 SIEMENS 사의 EQ PET을 이용하여 방사능의 차이를 보정 할 수 있게 되었다. 그러므로 본 연구에서는 phantom 실험과 FDG PET 임상영상의 SUVmax를 비교 하여 EQ PET을 적용함으로써, SUV의 변화를 평가 하고 EQ PET의 유용성에 대해서 검증해보고자 하였다. 본원의 3대의 PET/CT 장비인 Biograph true point 40, Biograph mCT 40, Biograph mCT 64 장비를 이용하여 $^{18}F-FDG$를 주입 한 NEMA IEC body phantom 영상을 획득 한 후 OSEM3D+PSF, OSEM3D+TOF, OSEM3D+PSF+TOF의 알고리즘을 이용하여 영상을 재구성 하였다. 각각 재구성된 영상에서 관심영역의 방사능 농도를 측정한 후, EARL에서 권고하는 NEMA IEC body phantom의 방사능 농도의 회복계수 값을 비교하여 서로 다른 PET system 간에 방사능 농도의 차이를 줄일 수 있는 EQ filter 값을 산출 하였다. 산출한 EQ Filter 값을 장비와 영상 재구성에 따라 적용하여 팬텀의 회복계수와 61명의 폐암환자의 FDG PET 영상에서 종양의 SUVmax를 비교 분석 하였다. 3대의 PET/CT 장비에서 영상의 재구성 알고리즘을 달리하여 획득한 phantom의 영상의 6개구의 평균 변동계수는 EQ PET 적용 전 후의 값은 OSEM3D 재구성 영상에서 각각 0.05, 0.04 OSEM3D+TOF 재구성 영상에서는 각각 0.04, 0.03, OSEM3D+PSF 재구성 영상에서는 각각 0.04, 0.03, OSEM3D+PSF+TOF 재구성 영상에서는 각각 0.03, 0.02 값을 보여 EQ PET 적용 후 팬텀의 6개 구의 평균 변동계수는 감소하였다. 임상 영상 비교 에서는 폐암환자 종양의 SUVmax는 OSEM3D, OSEM3D+TOF, OSEM3D+PSF, OSEM3D+PSF+TOF 순으로 증가하였으며, EQ PET 적용 후 재구성 영상에 대한 SUVmax는 통계적으로 유의한 차이가 없었다(p=1.000). PET/CT 영상에서 서로 다른 PET/CT 장비와 영상의 재구성 방법의 차이에 의해 발생하는 방사능 농도의 차이를 EQ PET을 이용하여 측정함으로서 장비와 영상 재구성별 방사능 농도의 편차가 감소되었다. PET 영상에서 정량적 평가에 이용되는 SUV의 편차를 줄일 수 있어 종양의 병소와 병기의 진단, 그리고 치료 성적평가의 정량적 평가 신뢰도가 향상 될 것으로 사료된다.

협업필터링에서 고객의 평가치를 이용한 선호도 예측의 사전평가에 관한 연구 (Pre-Evaluation for Prediction Accuracy by Using the Customer's Ratings in Collaborative Filtering)

  • 이석준;김선옥
    • Asia pacific journal of information systems
    • /
    • 제17권4호
    • /
    • pp.187-206
    • /
    • 2007
  • The development of computer and information technology has been combined with the information superhighway internet infrastructure, so information widely spreads not only in special fields but also in the daily lives of people. Information ubiquity influences the traditional way of transaction, and leads a new E-commerce which distinguishes from the existing E-commerce. Not only goods as physical but also service as non-physical come into E-commerce. As the scale of E-Commerce is being enlarged as well. It keeps people from finding information they want. Recommender systems are now becoming the main tools for E-Commerce to mitigate the information overload. Recommender systems can be defined as systems for suggesting some Items(goods or service) considering customers' interests or tastes. They are being used by E-commerce web sites to suggest products to their customers who want to find something for them and to provide them with information to help them decide which to purchase. There are several approaches of recommending goods to customer in recommender system but in this study, the main subject is focused on collaborative filtering technique. This study presents a possibility of pre-evaluation for the prediction performance of customer's preference in collaborative filtering before the process of customer's preference prediction. Pre-evaluation for the prediction performance of each customer having low performance is classified by using the statistical features of ratings rated by each customer is conducted before the prediction process. In this study, MovieLens 100K dataset is used to analyze the accuracy of classification. The classification criteria are set by using the training sets divided 80% from the 100K dataset. In the process of classification, the customers are divided into two groups, classified group and non classified group. To compare the prediction performance of classified group and non classified group, the prediction process runs the 20% test set through the Neighborhood Based Collaborative Filtering Algorithm and Correspondence Mean Algorithm. The prediction errors from those prediction algorithm are allocated to each customer and compared with each user's error. Research hypothesis : Two research hypotheses are formulated in this study to test the accuracy of the classification criterion as follows. Hypothesis 1: The estimation accuracy of groups classified according to the standard deviation of each user's ratings has significant difference. To test the Hypothesis 1, the standard deviation is calculated for each user in training set which is divided 80% from MovieLens 100K dataset. Four groups are classified according to the quartile of the each user's standard deviations. It is compared to test the estimation errors of each group which results from test set are significantly different. Hypothesis 2: The estimation accuracy of groups that are classified according to the distribution of each user's ratings have significant differences. To test the Hypothesis 2, the distributions of each user's ratings are compared with the distribution of ratings of all customers in training set which is divided 80% from MovieLens 100K dataset. It assumes that the customers whose ratings' distribution are different from that of all customers would have low performance, so six types of different distributions are set to be compared. The test groups are classified into fit group or non-fit group according to the each type of different distribution assumed. The degrees in accordance with each type of distribution and each customer's distributions are tested by the test of ${\chi}^2$ goodness-of-fit and classified two groups for testing the difference of the mean of errors. Also, the degree of goodness-of-fit with the distribution of each user's ratings and the average distribution of the ratings in the training set are closely related to the prediction errors from those prediction algorithms. Through this study, the customers who have lower performance of prediction than the rest in the system are classified by those two criteria, which are set by statistical features of customers ratings in the training set, before the prediction process.

주제목록을 위한 한국용어열색인 시스템의 기능 (Function of the Korean String Indexing System for the Subject Catalog)

  • 윤구호
    • 한국문헌정보학회지
    • /
    • 제15권
    • /
    • pp.225-266
    • /
    • 1988
  • Various theories and techniques for the subject catalog have been developed since Charles Ammi Cutter first tried to formulate rules for the construction of subject headings in 1876. However, they do not seem to be appropriate to Korean language because the syntax and semantics of Korean language are different from those of English and other European languages. This study therefore attempts to develop a new Korean subject indexing system, namely Korean String Indexing System(KOSIS), in order to increase the use of subject catalogs. For this purpose, advantages and disadvantages between the classed subject catalog nd the alphabetical subject catalog, which are typical subject ca-alogs in libraries, are investigated, and most of remarkable subject indexing systems, in particular the PRECIS developed by the British National Bibliography, are reviewed and analysed. KOSIS is a string indexing based on purely the syntax and semantics of Korean language, even though considerable principles of PRECIS are applied to it. The outlines of KOSIS are as follows: 1) KOSIS is based on the fundamentals of natural language and an ingenious conjunction of human indexing skills and computer capabilities. 2) KOSIS is. 3 string indexing based on the 'principle of context-dependency.' A string of terms organized accoding to his principle shows remarkable affinity with certain patterns of words in ordinary discourse. From that point onward, natural language rather than classificatory terms become the basic model for indexing schemes. 3) KOSIS uses 24 role operators. One or more operators should be allocated to the index string, which is organized manually by the indexer's intellectual work, in order to establish the most explicit syntactic relationship of index terms. 4) Traditionally, a single -line entry format is used in which a subject heading or index entry is presented as a single sequence of words, consisting of the entry terms, plus, in some cases, an extra qualifying term or phrase. But KOSIS employs a two-line entry format which contains three basic positions for the production of index entries. The 'lead' serves as the user's access point, the 'display' contains those terms which are themselves context dependent on the lead, 'qualifier' sets the lead term into its wider context. 5) Each of the KOSIS entries is co-extensive with the initial subject statement prepared by the indexer, since it displays all the subject specificities. Compound terms are always presented in their natural language order. Inverted headings are not produced in KOSIS. Consequently, the precision ratio of information retrieval can be increased. 6) KOSIS uses 5 relational codes for the system of references among semantically related terms. Semantically related terms are handled by a different set of routines, leading to the production of 'See' and 'See also' references. 7) KOSIS was riginally developed for a classified catalog system which requires a subject index, that is an index -which 'trans-lates' subject index, that is, an index which 'translates' subjects expressed in natural language into the appropriate classification numbers. However, KOSIS can also be us d for a dictionary catalog system. Accordingly, KOSIS strings can be manipulated to produce either appropriate subject indexes for a classified catalog system, or acceptable subject headings for a dictionary catalog system. 8) KOSIS is able to maintain a constistency of index entries and cross references by means of a routine identification of the established index strings and reference system. For this purpose, an individual Subject Indicator Number and Reference Indicator Number is allocated to each new index strings and new index terms, respectively. can produce all the index entries, cross references, and authority cards by means of either manual or mechanical methods. Thus, detailed algorithms for the machine-production of various outputs are provided for the institutions which can use computer facilities.

  • PDF

감쇠보정, 산란보정 및 해상도복원이 정량적 심근 SPECT의 관상동맥질환 진단성능에 미치는 효과 (Effect of Attenuation Correction, Scatter Correction and Resolution Recovery on Diagnostic Performance of Quantitative Myocardial SPECT for Coronary Artery Disease)

  • 황경훈;이동수;팽진철;이명묵;정준기;이명철
    • 대한핵의학회지
    • /
    • 제36권5호
    • /
    • pp.288-297
    • /
    • 2002
  • 목적: 심근 SPECT 영상의 재구성 과정에 감쇠보정, 산란보정 및 해상도복원 시스템(ASCRR)이 적용되었을 때 관상동맥질환 진단의 진단능 변화를 정량적 심근 SPECT에서 조사하였다. 대상 및 방법: 관상동맥질환이 의심되는 환자 75명과 관상동맥질환 저위험군 20명의 환자에 대하여 휴식기 Tl-201/부하기 Tc-99m-MIBI 게이트 심근 SPECT를 시행한 후, ASCRR을 적용하여 적용 전후의 예민도 및 특이도와 정상검출율의 변화를 구하였다. 결과: ASCRR 적용 후, 전반적인 진단능에는 유의한 변화가 없었다. 혈관 영역 별로는 좌전하행동맥(LAD)이나 좌회선동맥(LCX) 영역의 병변에서는 유의한 차이는 없었고, 우측관상동맥(RCA) 영역의 병변을 진단하는 데 있어서는 ASCRR의 적용 후 특이도는 유의하게 향상되었지만, 이와 더불어 예민도는 유의하게 감소되었다(모두 p<0.05). 정상검출율은 좌전하행동맥(LAD) 영역과 좌회선동맥(LCX) 영역에서는 ASCRR 적용 전후에 유의한 차이가 없었고, 우측관상동맥(RCA) 영역에서만 유의한 증가를 보여, 전반적으로는 통계적으로 유의한 차이가 없었다. 결론: 심근 SPECT에서 감쇠보정 및 산란교정, 그리고 해상도복원시스템의 적용은 관상동맥질환의 진단에 있어서 우측관상동맥(RCA) 영역의 정상검출율 및 특이도는 증가시키지만, 전반적인 진단능은 향상시키지 못한다.

다계층을 고려한 대중교통 확률적사용자균형 알고리즘 개발 (A Stochastic User Equilibrium Transit Assignment Algorithm for Multiple User Classes)

  • 유순경;임강원;이영인;임용택
    • 대한교통학회지
    • /
    • 제23권7호
    • /
    • pp.165-179
    • /
    • 2005
  • 본 논문은 기존에 제대로 다루지 못한 대중교통 통행자의 확률적 속성과 이질적 특성을 고려한 다계층 확률적 사용자균형 통행배정모형을 개발하는데 연구의 목적이 있다. 기존 대중교통 통행배정모형은 통행자의 특성이 모두 동일하다고 가정하기 때문에 현실적인 결과를 도출하는데 한계를 갖고 있다. 예를 들어 대중교통에 대한 정보를 제공받는 그룹과 그렇지 못한 그룹이 존재하는 경우, 이들 간에는 분명히 통행패턴에 차이가 있음에도 불구하고 이를 정확히 표현하는데 어려움이 있었다. 이러한 한계를 극복하기 위해 통행자의 확률적 속성과 이질적 특성을 반영한 알고리즘을 개발하였다. 통행자간 인지비용의 차이는 확률적 통행배정으로 구현되었으며, 그룹간의 이질성은 다계층 통행배정모형으로 구현하여 현실성 있는 대중교통 분석결과를 도출해 내도록 하였다. 모형구축에 있어 각 계층의 통행량에 영향을 받는 통행비용함수를 구축하였고, 기존 로짓모형의 단점으로 나타난 비관련대안의 독립성 (IIA) 문제를 해결하기위해 C-로짓모형을 적용하였다. 연구결과 계층별 / 경로별로 배정통행량 및 동등경로통행시간에 뚜렷한 차이를 보이고 있으며, 확률적 사용자균형 상태에 이르렀다. 또한 수렴속도도 빠르게 나타났으며, 반복횟수가 증가함에 따라 확률적 사용자 균형에 좀 더 가까워지고 각 계층별 / 경로별로 수렴함을 확인 할 수 있었다. 본 연구의 알고리즘은 향후 통행목적별 OD자료와 대중교통 승객의 이질적 속성 파라미터를 다양하게 적용해 봄으로써 대중교통정책의 평가도구로 활용될 수 있을 것으로 기대된다.민원을 고려한 노선대안 선정이 이루어진다면, 철도사업 뿐만 아니라 여러 공공사업을 시행함에 있어 정부와 시민 그리고 지방단체의 합의를 통한 원활하고 효율적인 사업진행이 이루어 질 수 있을 것으로 기대된다.$Gal^3Man_4$를 첨가후 측정한 결과 $Gal^3Man_4$이 첨가되지 않은 MRS broth에 비해 생육촉진 활성을 보였다. 특히 B. longum에 대해서는 $Gal^3Man_4$를 dextrose대체 탄소원으로 처리시 10배의 생육활성이 증가하였다.charide와 thiourea, phenylthiourea의 반응혼합물의 항산화력은 AsA에 미치지는 못하였다. ${\beta}-1,4-Mannobiose$와 thiourea, phenylthiourea의 반응혼합물이 강한 전자공여능을 나타내고 있고, $Gal^3Man_4$와 phenylthiourea의 반응혼합물 및 D.P 7의 galactosyl manooligosaccharide와 phenylthiourea와의 반응혼합물이 전자공여능을 나타내고 있다.가하였으므로 혈청 내 ALT 함량도 따라 증가할 것으로 추정되었으며 이에 대한 연근 추출물 경구 투여가 간 조직을 보호할 수 있는지를 확인하기 위해 분리한 혈청으로부터 ALT 함량을 측정한 결과 대조군에 비하여 유의한 감소를 나타내었다. 또한 연근 추출물이 혈청 내 지질 과산화물의 생성을 억제할 수 있다면 질병의 예방과 치료에 효과적일 것으로 추정할 수

단형질 개체모형을 이용한 한우 육종가 추정프로그램 개발 (Development of Algorithm in Analysis of Single Trait Animal Model for Genetic Evaluation of Hanwoo)

  • 구양모;김정일;송치은;이기환;신재영;장현기;최태정;김시동;박병호;조광현;이승수;최연호;김병우;이정규;송훈
    • Journal of Animal Science and Technology
    • /
    • 제55권5호
    • /
    • pp.359-365
    • /
    • 2013
  • 단형질 개체모형을 이용한 육종가 추정프로그램의 해를 구하는 컴퓨터 프로그램을 포트란 언어를 이용하여 자체개발하였고, 프로그램은 자료기반으로 반복적으로 계산을 해 나가는 간접법을 이용한 것으로 일반적인 알고리즘으로 프로그램을 개발하고 이의 효율을 개선한 개선알고리즘으로 프로그램을 개발하여, 두 프로그램 간 효율을 비교하였다. 기존의 전통적인 알고리즘은 순차적인 반복문을 이용하여 자료를 읽고 기록하는 방법이며, 새로운 알고리즘은 효과별로 LHS를 직접 작성하여 추정하는 방법을 사용하였다. 개발된 두 가지 프로그램으로 육종가를 추정하고, 그 추정 값이 정확하게 평가되었는지 알아보기 위하여 기존에 개발되어 사용되고 있는 BLUPF90 (Misztal, 2007)과 MTDFREML (Boldman 등, 1999)과 비교하여 보았다. 서로 다른 프로그램으로 추정된 육종가간의 상관은 전체 항목에서 99% 이상 고도의 상관이 나타났으며, 프로그램 추정치 간의 높은 상관으로 볼 때 Model I, Model II는 정확하게 개발되었고 평가된 것을 확인할 수 있었다. Solution이 수렴 될 때까지의 반복횟수는 Model I은 2,568 round, Model II는 1,038 round로 수렴되어 Model II가 Model I보다 작은 반복횟수에서 수렴이 된 것을 확인할 수 있었으며, 수렴속도는 Model I은 256.008초, Model II는 235.729초로 Model II가 Model I 보다 약 10% 정도 개선된 것을 확인할 수 있었다. 개발된 프로그램을 기존 D/B와 연계한다면 농가 및 지자체 등에 지속적인 개량 정보를 제공할 수 있으며, 농가 단위 암소 유전능력평가로 암소개량을 도모할 수 있을 것이라 사료된다.

T-Cache: 시계열 배관 데이타를 위한 고성능 캐시 관리자 (T-Cache: a Fast Cache Manager for Pipeline Time-Series Data)

  • 신제용;이진수;김원식;김선효;윤민아;한욱신;정순기;박세영
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제13권5호
    • /
    • pp.293-299
    • /
    • 2007
  • 지능형 배관 검사체(PIG)는 가스나 기름 배관 안을 지나가며 검사체에 장착된 여러 센서로부터 신호(센서 데이타로 불림)들을 취합하는 장치이다. PIG로부터 취합된 센서데이타들을 분석함으로써, 배관의 구멍, 뒤틀림 또는 잠재적으로 가스 폭발의 위험을 가지고 있는 결함들을 발견할 수 있다. 배관의 센서 데이타를 분석가가 분석을 할 때에는 주로 두 가지 분석 패턴을 사용한다. 첫 번째는 센서 데이터를 순차적으로 분석하는 순차적 분석 패턴이고, 두 번째는 특정한 구간을 반복해서 분석하는 반복적 분석 패턴이다. 특히, 센서 데이타를 분석할 때 반복적 분석 패턴이 많이 사용된다. 기존의 PIG 소프트웨어들은 사용자의 요청이 있을 때 마다 서버로부터 센서 데이타들을 오므로, 매 요청마다 네트워크 전송비용과 디스크 액세스 비용이 든다. 이와 같은 방법은 순차적 분석 패턴에는 효율적이지만, 분석 패턴의 대부분을 차지하는 반복적 분석 패턴에는 비효율적이다. 이와 같은 문제는 서버/클라이언트 환경에서 다수의 분석가가 동시에 분석을 할 경우에는 매우 심각해진다. 이러한 문제점을 해결하기 위해 본 논문에서는 배관 센서 데이타들을 여러 개의 시계열 데이타로 생각하고, 효율적으로 시계열 데이타를 캐싱 하는 T-Cache라 부르는 주기억장치 고성능 캐시 관리자를 제안한다. 본 연구는 클라이언트 측에서 시계열 데이타를 캐싱하는 최초의 연구이다. 먼저, 고정된 거리의 시계열 데이타들의 집합을 캐싱 단위로 생각하는 신호 캐시 라인이라는 새로운 개념을 제안하였다. 다음으로, T-Cache에서 사용되는 스마트 커서와 여러 알고리즘을 포함하는 여러 가지 자료구조를 제안한다. 실험 결과, 반복적 분석 패턴의 경우 T-Cache를 사용하는 것이 디스크 I/O측면과 수행 시간 측면에서 월등한 성능 향상을 보였다. 순차적 분석 패턴의 경우에도 T-Cache를 사용하지 않은 경우와 거의 유사한 성능을 보였다. 즉, 캐시를 사용함으로써 발생하는 추가비용은 무시할 수 있음을 보였다.

저전력 환경에서 멀티미디어 자료 재생을 위한 디스크 스케줄링 기법 (Power Conscious Disk Scheduling for Multimedia Data Retrieval)

  • 최정완;원유집;정원민
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권4호
    • /
    • pp.242-255
    • /
    • 2006
  • 최근에, 휴대용 컴퓨터와 모바일 장치(Smart Phone, PDA, MP3 Player 등)의 보급 증가로 인하여 모바일 환경에서의 전력 관리 기술의 필요성은 매우 증가하고 있다. 왜냐하면, 전력 관리 기술은 모바일 장치에서 가장 중요한 요소 중 하나이기 때문이다. 한편, 하드 디스크는 가격에 비하여 용량이 크고 속도가 빠르며 최근에는 모바일 장치에서 사용하기에 충분하게 작게 만들 수도 있으므로 모바일 기기에 사용하기 적당하나, 모바일 장치에 사용하기에는 소모 전력이 너무 크다는 단점이 있다. 이러한 이유들로 인하여 본 논문에서는 디스크에 저장된 연속적인 멀티미디어 자료를 실시간으로 재생하는데 소모되는 전력을 최소화하기 위한 방법을 제안하고 평가하였다. 모바일 장치에서 소모되는 전력을 엄격히 제한하는 것은 모바일 장치들의 하드웨어와 소프트웨어 디자인에 지대한 영향을 준다. 실시간 멀티미디어 재생이 기존의 텍스트 서비스와 다른 점은 디스크가 저장된 데이타 블록을 연속적으로 공급한다는 것이다. 이것은 디스크 드라이브가 멀티미디어 데이타 전체를 재생할 동안 활성화 상태를 유지해야 하게 하므로, 전력 관리 측면에서는 매우 큰 부담으로 작용한다. 전형적인 모바일 디스크 드라이브의 전력 관리 기능은 디스크가 대기 상태에 있을 때의 과도한 입출력 요청으로 인하여 멀티미디어 재생의 품질 측면에서는 부정적인 영향을 준다. 따라서, 본 논문에서는 디스크 드라이브의 전력 소모 형태를 세밀히 분석하고, 저장된 멀티미디어 데이타를 보다 효율적으로 전력을 덜 사용해 재생할 수 있는 알고리즘을 개발하였다. 이 알고리즘은 읽어야 할 데이타 블록의 수와 활성화/대기 상태의 길이를 계산한다. 이로써 본 논문에서 제안한 알고리즘은 모바일 디스크 드라이브에 저장된 데이타 블록의 연속적인 재생을 보장하는 최적의 스케줄링을 한다. 기존에 공개된 MPEG 재생기에 본 알고리즘을 적용한 멀티미디어 재생기를 만들었다. 이 재생기는 전체 재생동안 활성화 상태를 유지하는 경우와 비교하여 60%의 전력 소모량을 절약하였고, 전력 관리 모듈이 있는 디스크 드라이브에서 재생할 경우에 기존외 재생기와 비교하여 38%의 전력 소모량을 절약하였다.

이질성 학습을 통한 문서 분류의 정확성 향상 기법 (Improving the Accuracy of Document Classification by Learning Heterogeneity)

  • 윌리엄;현윤진;김남규
    • 지능정보연구
    • /
    • 제24권3호
    • /
    • pp.21-44
    • /
    • 2018
  • 최근 인터넷 기술의 발전과 함께 스마트 기기가 대중화됨에 따라 방대한 양의 텍스트 데이터가 쏟아져 나오고 있으며, 이러한 텍스트 데이터는 뉴스, 블로그, 소셜미디어 등 다양한 미디어 매체를 통해 생산 및 유통되고 있다. 이처럼 손쉽게 방대한 양의 정보를 획득할 수 있게 됨에 따라 보다 효율적으로 문서를 관리하기 위한 문서 분류의 필요성이 급증하였다. 문서 분류는 텍스트 문서를 둘 이상의 카테고리 혹은 클래스로 정의하여 분류하는 것을 의미하며, K-근접 이웃(K-Nearest Neighbor), 나이브 베이지안 알고리즘(Naïve Bayes Algorithm), SVM(Support Vector Machine), 의사결정나무(Decision Tree), 인공신경망(Artificial Neural Network) 등 다양한 기술들이 문서 분류에 활용되고 있다. 특히, 문서 분류는 문맥에 사용된 단어 및 문서 분류를 위해 추출된 형질에 따라 분류 모델의 성능이 달라질 뿐만 아니라, 문서 분류기 구축에 사용된 학습데이터의 질에 따라 문서 분류의 성능이 크게 좌우된다. 하지만 현실세계에서 사용되는 대부분의 데이터는 많은 노이즈(Noise)를 포함하고 있으며, 이러한 데이터의 학습을 통해 생성된 분류 모형은 노이즈의 정도에 따라 정확도 측면의 성능이 영향을 받게 된다. 이에 본 연구에서는 노이즈를 인위적으로 삽입하여 문서 분류기의 견고성을 강화하고 이를 통해 분류의 정확도를 향상시킬 수 있는 방안을 제안하고자 한다. 즉, 분류의 대상이 되는 원 문서와 전혀 다른 특징을 갖는 이질적인 데이터소스로부터 추출한 형질을 원 문서에 일종의 노이즈의 형태로 삽입하여 이질성 학습을 수행하고, 도출된 분류 규칙 중 문서 분류기의 정확도 향상에 기여하는 분류 규칙만을 추출하여 적용하는 방식의 규칙 선별 기반의 앙상블 준지도학습을 제안함으로써 문서 분류의 성능을 향상시키고자 한다.

손 동작 인식을 통한 인간 - 컴퓨터 인터페이스용 저가형 비주얼 모션 데이터 글러브 (Inexpensive Visual Motion Data Glove for Human-Computer Interface Via Hand Gesture Recognition)

  • 한영모
    • 정보처리학회논문지B
    • /
    • 제16B권5호
    • /
    • pp.341-346
    • /
    • 2009
  • 모션 데이터 글러브는 손의 움직임을 측정하여 컴퓨터에 입력하는 대표적인 인간과 컴퓨터간의 인터페이스 도구로서, 홈 오토에이션, 가상 현실, biometrics, 모션 캡쳐 등의 컴퓨터 신기술에 사용되는 필수 장비이다. 본 논문에서는 대중화를 위하여, 별도의 특수 장비 없이 사용 가능한 저가형 비주얼 모션 데이터 글러브를 개발하고자 한다. 본 방식의 특징은 기존의 모션 데이터 글러브에 사용되었던, 고가의 모션 센싱 섬유를 사용하지 않음으로써, 저가형으로 개발이 가능하다는 것이다. 따라서 제작이 용이하고 대중화에 크게 기여할 수 있다는 장점을 가진다. 본 방식에서는 모션 센싱 섬유를 사용하는 기계적인 방식대신 광학적 모션 캡쳐 기술을 개량한 비주얼 방식을 채택한다. 기존의 비주얼 방식에 비해 본 방식은 다음과 같은 장점과 독창성을 가진다. 첫째, 기존의 비주얼 방식은 가려짐 현상을 제거하고 3차원 자세 복원을 위해 많은 수의 카메라와 장비를 사용하는 데 비해, 본 방식은 모노비전 방식을 채택하여 장비가 간소하고 저가형 개발이 가능하다. 둘째, 기존의 모노비전방삭은 가려짐 현상에 취약하여 영상에서 가려진 부분은 3차원 자세 복원이 어려웠다. 하지만 본 논문은 독창적으로 설계된 막대 모양의 지시자를 사용하여, 영상에서 가려진 부분도 3차원 자세 복원이 가능하다. 셋째, 기존의 모노 비전 방식은 비선형 수치해석 형태의 영상 해석 알고리즘을 사용하는 경우가 많아서 초기화나 계산시간 면에서 불편하였다. 하지만, 본 논문에서는 독창적인 공식화 방법을 사용하여 닫힌 형태의 영상해석 알고리즘을 도출함으로써 이와 같은 불편을 개선하였다. 넷째, 기존의 닫힌 형태의 알고리즘은 공식화 과정에서 근사화 방법을 도입하는 경우가 많아서 정확도가 떨어지고 특이점에 의한 응용분야에 제한이 있었다. 하지만 본 방식은 오일러 각과 같은 국부적인 매개화나 근사화 등을 사용하는 대신 지수형태의 트위스트좌표계를 사용하는 독창적인 공식화 방법을 사용하여, 공식화 단계에서의 근사화 방법 없이 닫힌 형태의 알고리즘을 도출함으로써 이 문제들을 개선하였다.