• 제목/요약/키워드: language processing

검색결과 2,656건 처리시간 0.044초

지각된 행위동사와 현재 행위의 의미 일치성에 따른 행위 수행 변화의 신경생리학적 기전 탐색 (Exploration of Neurophysiological Mechanisms underlying Action Performance Changes caused by Semantic Congruency between Perceived Action Verbs and Current Actions)

  • 나영현;정명영;곽자랑;이동훈
    • 인지과학
    • /
    • 제27권4호
    • /
    • pp.573-597
    • /
    • 2016
  • 최근 행위 개념의 신경적 표상에 대한 fMRI나 EEG 연구들은 행위 개념의 처리가 감각-운동 정보의 모사(simulation)를 불러일으킨다고 주장한다. 이와 아울러 행위동사나 행위 문장 이해가 현재 수행해야 하는 행위를 간섭하거나 촉진시킨다는 행동연구들도 존재한다. 그러나 행위 개념 처리와 현재 행동 수행간의 실시간 상호작용이 감각-운동정보의 모사를 매개로 하는지, 또 다른 기전에 바탕을 두는지 아직까지 분명하지 않다. 본 연구에서는 행위 언어 지각이 어떻게 현재 행위 수행에 영향을 주는지 그 기저에 있는 신경 메커니즘을 시공간적으로 탐색하고자 시간해상도가 높은 뇌파 측정과 다중전류원분석이라는 뇌파분석 기법을 사용하였다. 이를 위하여 실험참가자에게 단서 자극 색상에 따라 손으로 버튼 누르기 행동과 발로 페달 밟기 행동을 해야 하는 단서-운동반응 과제를 수행하도록 하였고, 단서가 제시되기 직전에 반응 행위자체를 기술하는 행위동사(즉, 눌러라, 밟아라, 멈춰라)를 청각적으로 제시하여 행위동사와 반응 행동 간의 의미 일치성에 따른 상호작용을 관찰하였다. 반응시간 분석 결과, 손으로 버튼을 누르는 반응행위와 발을 이용하여 페달을 밟는 반응행위 모두에서 행위동사와 반응행위가 일치하는 경우 촉진효과가 관찰되었고, 불일치에 따른 간섭효과는 손 행위에서 나타났다. 전류원 파형 분석결과, 행위동사와 반응행위간의 의미일치성 효과는 행위 동사 처리 기간에는 베르니케 영역, 운동단서 제시 시점에선 전대상회와 보조운동영역, 운동수행 시점에서는 보조운동영역과 일차운동피질에서 통계적으로 유의한 차이가 관찰되었다. 현재 결과로는 행위동사가 특정 운동피질을 활성화시켜 이를 매개로 현재 행위에 영향을 준다고 하기보다, 뒤따르는 행위를 예측하고 이를 준비하는 과정에 영향을 미쳐, 촉진/간섭효과를 가져오는 것으로 보인다. 마지막으로 본 연구가 가지는 행위 개념의 신경학적 표상에 대한 함의와 연구 방법론상 한계에 대해 논의하였다.

Hardware Approach to Fuzzy Inference―ASIC and RISC―

  • Watanabe, Hiroyuki
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.975-976
    • /
    • 1993
  • This talk presents the overview of the author's research and development activities on fuzzy inference hardware. We involved it with two distinct approaches. The first approach is to use application specific integrated circuits (ASIC) technology. The fuzzy inference method is directly implemented in silicon. The second approach, which is in its preliminary stage, is to use more conventional microprocessor architecture. Here, we use a quantitative technique used by designer of reduced instruction set computer (RISC) to modify an architecture of a microprocessor. In the ASIC approach, we implemented the most widely used fuzzy inference mechanism directly on silicon. The mechanism is beaded on a max-min compositional rule of inference, and Mandami's method of fuzzy implication. The two VLSI fuzzy inference chips are designed, fabricated, and fully tested. Both used a full-custom CMOS technology. The second and more claborate chip was designed at the University of North Carolina(U C) in cooperation with MCNC. Both VLSI chips had muliple datapaths for rule digital fuzzy inference chips had multiple datapaths for rule evaluation, and they executed multiple fuzzy if-then rules in parallel. The AT & T chip is the first digital fuzzy inference chip in the world. It ran with a 20 MHz clock cycle and achieved an approximately 80.000 Fuzzy Logical inferences Per Second (FLIPS). It stored and executed 16 fuzzy if-then rules. Since it was designed as a proof of concept prototype chip, it had minimal amount of peripheral logic for system integration. UNC/MCNC chip consists of 688,131 transistors of which 476,160 are used for RAM memory. It ran with a 10 MHz clock cycle. The chip has a 3-staged pipeline and initiates a computation of new inference every 64 cycle. This chip achieved an approximately 160,000 FLIPS. The new architecture have the following important improvements from the AT & T chip: Programmable rule set memory (RAM). On-chip fuzzification operation by a table lookup method. On-chip defuzzification operation by a centroid method. Reconfigurable architecture for processing two rule formats. RAM/datapath redundancy for higher yield It can store and execute 51 if-then rule of the following format: IF A and B and C and D Then Do E, and Then Do F. With this format, the chip takes four inputs and produces two outputs. By software reconfiguration, it can store and execute 102 if-then rules of the following simpler format using the same datapath: IF A and B Then Do E. With this format the chip takes two inputs and produces one outputs. We have built two VME-bus board systems based on this chip for Oak Ridge National Laboratory (ORNL). The board is now installed in a robot at ORNL. Researchers uses this board for experiment in autonomous robot navigation. The Fuzzy Logic system board places the Fuzzy chip into a VMEbus environment. High level C language functions hide the operational details of the board from the applications programme . The programmer treats rule memories and fuzzification function memories as local structures passed as parameters to the C functions. ASIC fuzzy inference hardware is extremely fast, but they are limited in generality. Many aspects of the design are limited or fixed. We have proposed to designing a are limited or fixed. We have proposed to designing a fuzzy information processor as an application specific processor using a quantitative approach. The quantitative approach was developed by RISC designers. In effect, we are interested in evaluating the effectiveness of a specialized RISC processor for fuzzy information processing. As the first step, we measured the possible speed-up of a fuzzy inference program based on if-then rules by an introduction of specialized instructions, i.e., min and max instructions. The minimum and maximum operations are heavily used in fuzzy logic applications as fuzzy intersection and union. We performed measurements using a MIPS R3000 as a base micropro essor. The initial result is encouraging. We can achieve as high as a 2.5 increase in inference speed if the R3000 had min and max instructions. Also, they are useful for speeding up other fuzzy operations such as bounded product and bounded sum. The embedded processor's main task is to control some device or process. It usually runs a single or a embedded processer to create an embedded processor for fuzzy control is very effective. Table I shows the measured speed of the inference by a MIPS R3000 microprocessor, a fictitious MIPS R3000 microprocessor with min and max instructions, and a UNC/MCNC ASIC fuzzy inference chip. The software that used on microprocessors is a simulator of the ASIC chip. The first row is the computation time in seconds of 6000 inferences using 51 rules where each fuzzy set is represented by an array of 64 elements. The second row is the time required to perform a single inference. The last row is the fuzzy logical inferences per second (FLIPS) measured for ach device. There is a large gap in run time between the ASIC and software approaches even if we resort to a specialized fuzzy microprocessor. As for design time and cost, these two approaches represent two extremes. An ASIC approach is extremely expensive. It is, therefore, an important research topic to design a specialized computing architecture for fuzzy applications that falls between these two extremes both in run time and design time/cost. TABLEI INFERENCE TIME BY 51 RULES {{{{Time }}{{MIPS R3000 }}{{ASIC }}{{Regular }}{{With min/mix }}{{6000 inference 1 inference FLIPS }}{{125s 20.8ms 48 }}{{49s 8.2ms 122 }}{{0.0038s 6.4㎲ 156,250 }} }}

  • PDF

분산 객체 컴퓨팅 환경에서 실시간 협약 및 적응 스트림 서비스를 위한 QoS 통합 플랫폼의 구축 (The Construction of QoS Integration Platform for Real-time Negotiation and Adaptation Stream Service in Distributed Object Computing Environments)

  • 전병택;김명희;주수종
    • 한국정보처리학회논문지
    • /
    • 제7권11S호
    • /
    • pp.3651-3667
    • /
    • 2000
  • 최근 인터넷 기반의 분산 멀티미디어 환경에서 가장 성장하는 기술로는 스트림 서비스 기술과 분산 객체 기술을 꼽을 수 있다. 특히, 분산 객체 기술에 스트림 서비스 기술을 통합하려는 연구들이 진행되고 있다. 이 기술들은 다양한 스트림 서비스 관리 모델과 프로토콜의 연구에서 적용되고 있다. 그러나, 기존에 제시된 관리 모델들은 스트림 전송의 서비스 질(QoS)에 대한 지원이 미흡하다. 또한, 서비스 질에 관련된 기능들이 특정 응용 서비스의 부속 모듈로 개발됨에 따라, 확장이나 재사용을 지원할 수 없는 문제점을 나타내고 있다. 이를 해결하기 위해 본 논문에서는 분산 객체 기술을 적용하여 확장 및 재사용이 용이하고 스티림의 서비스의 질을 보장하는 QoS 통합 플랫폼을 제안했다. 제안된 플랫폼의 구조는 사용자 제어 모듈, QoS 관리 모듈 및 스트림 객체의 세가지 컴포넌트로 구성된다. 스트림 객체는 TCP/IP 상에서 RTP 패킷을 송·수신 기능을 한다. 사용자 제어 모듈은 CORBA 객체를 이용하여 스트림 객체들을 제어한다. QoS 관리 모듈은 사용자 제어 모듈간에 서비스 질을 유지하는 관리 기능을 한다. QoS xd합 플랫폼의 구축을 위해 관련 모듈들을 독립적으로 구현하고, 이들이 CORBA 환경에서 플랫폼 독립성, 상호운용성, 이식성을 갖도록 그들간에 인터페이스들을 IDL로 정의하였다. 제안된 플랫폼의 구현을 위해 Solaris 2.5/2.7에 호환되는 OrbixWeb 3.1c, 자바언어와 Java Media Framework API 2.0, Mini-SQL1.0.16 및 관련 이미지 캡쳐보드 및 영상카메라를 사용하였다. 본 플랫폼의 기능검증을 위한 결과로서, 플랫폼 상에서 스트림 서비스가 진행되는 동안, 클라이언트와 서버의 GUI를 통해 위에서 기술한 모듈들의 수행결과와 QoS 제어 과정으로부터 얻어지는 수치적 데이터를 보였다.

  • PDF

지식베이스 구축을 위한 한국어 위키피디아의 학습 기반 지식추출 방법론 및 플랫폼 연구 (Knowledge Extraction Methodology and Framework from Wikipedia Articles for Construction of Knowledge-Base)

  • 김재헌;이명진
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.43-61
    • /
    • 2019
  • 최근 4차 산업혁명과 함께 인공지능 기술에 대한 연구가 활발히 진행되고 있으며, 이전의 그 어느 때보다도 기술의 발전이 빠르게 진행되고 있는 추세이다. 이러한 인공지능 환경에서 양질의 지식베이스는 인공지능 기술의 향상 및 사용자 경험을 높이기 위한 기반 기술로써 중요한 역할을 하고 있다. 특히 최근에는 인공지능 스피커를 통한 질의응답과 같은 서비스의 기반 지식으로 활용되고 있다. 하지만 지식베이스를 구축하는 것은 사람의 많은 노력을 요하며, 이로 인해 지식을 구축하는데 많은 시간과 비용이 소모된다. 이러한 문제를 해결하기 위해 본 연구에서는 기계학습을 이용하여 지식베이스의 구조에 따라 학습을 수행하고, 이를 통해 자연어 문서로부터 지식을 추출하여 지식화하는 방법에 대해 제안하고자 한다. 이러한 방법의 적절성을 보이기 위해 DBpedia 온톨로지의 구조를 기반으로 학습을 수행하여 지식을 구축할 것이다. 즉, DBpedia의 온톨로지 구조에 따라 위키피디아 문서에 기술되어 있는 인포박스를 이용하여 학습을 수행하고 이를 바탕으로 자연어 텍스트로부터 지식을 추출하여 온톨로지화하기 위한 방법론을 제안하고자 한다. 학습을 바탕으로 지식을 추출하기 위한 과정은 문서 분류, 적합 문장 분류, 그리고 지식 추출 및 지식베이스 변환의 과정으로 이루어진다. 이와 같은 방법론에 따라 실제 지식 추출을 위한 플랫폼을 구축하였으며, 실험을 통해 본 연구에서 제안하고자 하는 방법론이 지식을 확장하는데 있어 유용하게 활용될 수 있음을 증명하였다. 이러한 방법을 통해 구축된 지식은 향후 지식베이스를 기반으로 한 인공지능을 위해 활용될 수 있을 것으로 판단된다.

제작방법에 따른 임시 수복용 레진의 마모저항성에 관한 연구 (In vitro evaluation of the wear resistance of provisional resin materials fabricated by different methods)

  • 안종주;허중보;최재원
    • 대한치과보철학회지
    • /
    • 제57권2호
    • /
    • pp.110-117
    • /
    • 2019
  • 목적: 본 연구의 목적은 적층 가공(additive manufacturing)법, 절삭 가공(subtractive manufacturing)법, 전통적인 방법에 따른 임시 수복용 레진의 마모 저항성을 조사하는 것이다. 재료 및 방법: 제작방법에 따라 4개의 군으로 나누었으며, 각 군은 전용의 임시 수복용 레진을 사용하였다: S3P군, Stereolithography apparatus (SLA) 3D 프린터 및 전용의 광경화성 수지로 제작한 군; D3P군, Digital Light Processing (DLP) 3D 프린터 및 전용의 광경화성 수지로 제작한 군; MIL군, Milling machine 및 밀링용 레진 블록으로 제작한 군; CON군, 전통적인 방법 및 자가중합형 레진으로 제작한 군. 한편, 3D 프린팅된 레진 시편을 제작함에 있어 적층 각도와 층 두께를 각각 $0^{\circ}$$100{\mu}m$로 설정하였다. 구강내 환경을 재현하기 위하여 열순환 처리와 수평, 수직운동이 가능한 2축 chewing simulator를 사용하였으며, 하부에는 한쪽면이 편평하게 제작된 임시 수복용 레진을, 상부에는 끝이 3 mm 직경을 가지는 원뿔형의 steatite를 고정하여 마모시험 진행하였다(5 kg, 30,000회, 0.8 Hz, $5^{\circ}C/55^{\circ}C$). 임시 수복용 레진의 마모량은 마모 전후의 Standard Triangulated Language (STL) 파일과 전용의 CAD software를 이용하여 부피를 계산하였고, 주사전자현미경으로 마모 양상을 비교하였다. 결과: S3P군, D3P군, MIL군의 마모량은 CON군보다 유의하게 작았으며 (P < .05), S3P군, D3P군, MIL군 사이에는 통계학적으로 유의한 차이가 없었다 (P > .05). 주사전자현미경으로 마모면을 관찰한 결과, S3P군과 D3P군에서는 대합치의 운동 방향에 대해 수직적으로 갈라진 흔적이 발견되었다. MIL군에서는 전반적으로 균일한 마모면이 보인 반면, CON군에서는 대합치 운동 방향으로의 뚜렷한 마모 흔적과 다수의 기포가 관찰되었다. 결론: 본 연구의 한계 내에서, 3D 프린팅된 임시 수복용 레진은 치과용으로서 적절한 마모저항성을 보였다.

심근 관류 SPECT에서 핵종에 따른 Uniformity correction map 설정을 통한 영상의 질 비교 (The difference of image quality using other radioactive isotope in uniformity correction map of myocardial perfusion SPECT)

  • 송재혁;김경식;이동훈;김성환;박장원
    • 핵의학기술
    • /
    • 제19권2호
    • /
    • pp.87-92
    • /
    • 2015
  • SPECT에서 Uniformity는 균일한 방사능을 갖는 선원에 대하여 균일한 영상을 제공하는 능력이다. 영상에서 다양한 이유로 불균일이 발생하게 되고, 불균일은 artifacts를 발생시켜 임상적으로 진단하는데 영향을 줄 수 있다. Uniformity correction map은 검사에 사용되는 방사성 동위원소를 이용하여 영상에서 Uniformity의 변동폭을 최소화 시켜주는 역할을 한다. 본원에서 시행되고 있는 $^{201}Tl$을 이용한 심근 SPECT에서는 $^{99m}Tc$으로 기본 설정되어 있는 Uniformity correction map을 사용하고 있으며, 이에 따라 본 연구에서는 $^{201}Tl$$^{99m}Tc$ 두 가지 핵종으로 Uniformity correction map을 각각 설정하였을 때 영상의 질에 차이가 있는지 비교 분석하고, 영상의 질을 최적화 할 수 있는 방법에 대하여 모색해 보고자 한다. 장비는 GE Ventri Gamma camera, Flood phantom, Jaszczak ECT phantom을 이용하였다. 실험에 앞서 Collimator를 제거한 상태에서 Detector 표면 중심으로부터 2.5 m 떨어진 지점에 1 cc 주사기에 $^{99m}Tc$ 25.9 Mbq, $^{201}Tl$ 14.8 Mbq의 방사성 동위원소를 주입한 point source를 이용하여 장비사에서 권고하는 $6{\times}10^7count$$^{99m}Tc$$^{201}Tl$ 각각의 방사성 동위원소로 Uniformity Mapping을 실시하였다. Flood phantom에는 $^{201}Tl$ 21.3 kBq/mL, Jaszczak ECT phantom에는 $^{201}Tl$ 33.4 kBq/mL를 주입하여 phantom을 제작하였다. Flood Phantom으로 획득된 데이터는 Xeleris ver 2.05 프로그램을 이용하여 Integral uniformity, Differential uniformity을 두 가지 항목에 대하여 분석하였다. Jaszczak ECT Phantom으로 획득된 데이터를 본원에서 자체 개발한 Interactive Data Language 프로그램에 입력하여 Integral uniformity, Contrast, Coefficient of variation, Spatial Resolution을 4가지 항목에 대하여 분석하였다. Flood phantom test 에서는 $^{99m}Tc$에서의 Flood I.U값은 3.6%, Flood D.U값은 3.0%으로 나타났고, $^{201}Tl$ Flood I.U값은 3.8%, Flood D.U값은 2.1%으로 나타났다. 이를 통해 $^{201}Tl$으로 Uniformity correction map을 설정하였을 때, Flood I.U값은 감소하였으나 Flood D.U은 향상되어 Flood 영상에서는 크게 영상의 질이 개선되었는지는 알 수 없었다. 반면 Jaszczak ECT Phantom test에서는 $^{99m}Tc$에서의 SPECT I.U값은 13.99%, Coefficient of variation값은 4.89%, contrast값은 0.69, $^{201}Tl$에서의 SPECT I.U값은 11.37%, Coefficient of variation값은 4.79%, contrast값은 0.78로 나타났으며, 육안 분석을 실시한 Spatial Resolution 항목에서는 육안으로 큰 차이를 보이지 않았다. 이를 통해 $^{201}Tl$으로 Uniformity correction map을 설정하였을 때, Spatial Resolution 을 제외한 SPECT I.U, Coefficient of variation, Contrast 세 항목에서 각각 18%, 2%, 13%의 향상된 수치를 보였다는 점에서 영상의 질이 개선되었음을 알 수 있었다. Uniformity correction map이 영상의 질을 크게 좌우할 수 없으나, 개선의 효과를 가져다 준다는 점에서 임상적으로 진단에 영향을 주는지 또한 다른 검사에서 또 다른 방사성 동위원소로 Uniformity correction map을 설정했을 경우 영상의 질을 개선시킬 수 있는지에 관하여 추가적인 연구가 필요할 것으로 사료된다.

  • PDF

텍스트 마이닝 기법을 활용한 인공지능 기술개발 동향 분석 연구: 깃허브 상의 오픈 소스 소프트웨어 프로젝트를 대상으로 (A Study on the Development Trend of Artificial Intelligence Using Text Mining Technique: Focused on Open Source Software Projects on Github)

  • 정지선;김동성;이홍주;김종우
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.1-19
    • /
    • 2019
  • 제4차 산업혁명을 이끄는 주요 원동력 중 하나인 인공지능 기술은 이미지와 음성 인식 등 여러 분야에서 사람과 유사하거나 더 뛰어난 능력을 보이며, 사회 전반에 미치게 될 다양한 영향력으로 인하여 높은 주목을 받고 있다. 특히, 인공지능 기술은 의료, 금융, 제조, 서비스, 교육 등 광범위한 분야에서 활용이 가능하기 때문에, 현재의 기술 동향을 파악하고 발전 방향을 분석하기 위한 노력들 또한 활발히 이루어지고 있다. 한편, 이러한 인공지능 기술의 급속한 발전 배경에는 학습, 추론, 인식 등의 복잡한 인공지능 알고리즘을 개발할 수 있는 주요 플랫폼들이 오픈 소스로 공개되면서, 이를 활용한 기술과 서비스들의 개발이 비약적으로 증가하고 있는 것이 주요 요인 중 하나로 확인된다. 또한, 주요 글로벌 기업들이 개발한 자연어 인식, 음성 인식, 이미지 인식 기능 등의 인공지능 소프트웨어들이 오픈 소스 소프트웨어(OSS: Open Sources Software)로 무료로 공개되면서 기술확산에 크게 기여하고 있다. 이에 따라, 본 연구에서는 온라인상에서 다수의 협업을 통하여 개발이 이루어지고 있는 인공지능과 관련된 주요 오픈 소스 소프트웨어 프로젝트들을 분석하여, 인공지능 기술 개발 현황에 대한 보다 실질적인 동향을 파악하고자 한다. 이를 위하여 깃허브(Github) 상에서 2000년부터 2018년 7월까지 생성된 인공지능과 관련된 주요 프로젝트들의 목록을 검색 및 수집하였으며, 수집 된 프로젝트들의 특징과 기술 분야를 의미하는 토픽 정보들을 대상으로 텍스트 마이닝 기법을 적용하여 주요 기술들의 개발 동향을 연도별로 상세하게 확인하였다. 분석 결과, 인공지능과 관련된 오픈 소스 소프트웨어들은 2016년을 기준으로 급격하게 증가하는 추세이며, 토픽들의 관계 분석을 통하여 주요 기술 동향이 '알고리즘', '프로그래밍 언어', '응용분야', '개발 도구'의 범주로 구분하는 것이 가능함을 확인하였다. 이러한 분석 결과를 바탕으로, 향후 다양한 분야에서의 활용을 위해 개발되고 있는 인공지능 관련 기술들을 보다 상세하게 구분하여 확인하는 것이 가능할 것이며, 효과적인 발전 방향 모색과 변화 추이 분석에 활용이 가능할 것이다.

뉴럴 텐서 네트워크 기반 주식 개별종목 지식개체명 추출 방법에 관한 연구 (A Study on Knowledge Entity Extraction Method for Individual Stocks Based on Neural Tensor Network)

  • 양윤석;이현준;오경주
    • 지능정보연구
    • /
    • 제25권2호
    • /
    • pp.25-38
    • /
    • 2019
  • 정보화 시대의 넘쳐나는 콘텐츠들 속에서 사용자의 관심과 요구에 맞는 양질의 정보를 선별해내는 과정은 세대를 거듭할수록 더욱 중요해지고 있다. 정보의 홍수 속에서 사용자의 정보 요구를 단순한 문자열로 인식하지 않고, 의미적으로 파악하여 검색결과에 사용자 의도를 더 정확하게 반영하고자 하는 노력이 이루어지고 있다. 구글이나 마이크로소프트와 같은 대형 IT 기업들도 시멘틱 기술을 기반으로 사용자에게 만족도와 편의성을 제공하는 검색엔진 및 지식기반기술의 개발에 집중하고 있다. 특히 금융 분야는 끊임없이 방대한 새로운 정보가 발생하며 초기의 정보일수록 큰 가치를 지녀 텍스트 데이터 분석과 관련된 연구의 효용성과 발전 가능성이 기대되는 분야 중 하나이다. 따라서, 본 연구는 주식 관련 정보검색의 시멘틱 성능을 향상시키기 위해 주식 개별종목을 대상으로 뉴럴 텐서 네트워크를 활용한 지식 개체명 추출과 이에 대한 성능평가를 시도하고자 한다. 뉴럴 텐서 네트워크 관련 기존 주요 연구들이 추론을 통해 지식 개체명들 사이의 관계 탐색을 주로 목표로 하였다면, 본 연구는 주식 개별종목과 관련이 있는 지식 개체명 자체의 추출을 주목적으로 한다. 기존 관련 연구의 문제점들을 해결하고 모형의 실효성과 현실성을 높이기 위한 다양한 데이터 처리 방법이 모형설계 과정에서 적용되며, 객관적인 성능 평가를 위한 실증 분석 결과와 분석 내용을 제시한다. 2017년 5월 30일부터 2018년 5월 21일 사이에 발생한 전문가 리포트를 대상으로 실증 분석을 진행한 결과, 제시된 모형을 통해 추출된 개체명들은 개별종목이 이름을 약 69% 정확도로 예측하였다. 이러한 결과는 본 연구에서 제시하는 모형의 활용 가능성을 보여주고 있으며, 후속 연구와 모형 개선을 통한 성과의 제고가 가능하다는 것을 의미한다. 마지막으로 종목명 예측 테스트를 통해 본 연구에서 제시한 학습 방법이 새로운 텍스트 정보를 의미적으로 접근하여 관련주식 종목과 매칭시키는 목적으로 사용될 수 있는 가능성을 확인하였다.

Structural SVM을 이용한 백과사전 문서 내 생략 문장성분 복원 (Restoring Omitted Sentence Constituents in Encyclopedia Documents Using Structural SVM)

  • 황민국;김영태;나동열;임수종;김현기
    • 지능정보연구
    • /
    • 제21권2호
    • /
    • pp.131-150
    • /
    • 2015
  • 영어와 달리 한국어나 일본어 문장의 경우 용언의 필수격을 채우는 명사구가 생략되는 무형대용어 현상이 빈번하다. 특히 백과사전이나 위키피디아의 문서에서 표제어로 채울 수 있는 격의 경우 그 격이 문장에서 더 쉽게 생략된다. 정보검색, 질의응답 시스템 등 주요 지능형 응용시스템들은 백과사전류의 문서에서 주요한 정보를 추출하여 수집하여야 한다. 그러나 이러한 명사구 생략 현상으로 인해 양질의 정보추출이 어렵다. 본 논문에서는 백과사전 종류 문서에서 생략된 명사구 즉 무형대용어를 복원하는 시스템의 개발을 다루었다. 우리 시스템이 다루는 문제는 자연어처리의 무형대용어 해결 문제와 거의 유사하나, 우리 문제의 경우 문서의 일부가 아닌 표제어도 복원에 이용할 수 있다는 점이 다르다. 무형대용어 복원을 위해서는 먼저 무형대용어의 탐지 즉 문서 내에서 명사구 생략이 일어난 곳을 찾는 작업을 수행한다. 그 다음 무형대용어의 선행어 탐색 즉 무형대용어의 복원에 사용될 명사구를 문서 내에서 찾는 작업을 수행한다. 문서 내에서 선행어를 발견하지 못하면 표제어를 이용한 복원을 시도해 본다. 우리 방법의 특징은 복원에 사용된 문장성분을 찾기 위해 Structural SVM을 사용하는 것이다. 문서 내에서 생략이 일어난 위치보다 앞에 나온 명사구들에 대해 Structural SVM에 의한 시퀀스 레이블링(sequence labeling) 작업을 시행하여 복원에 이용 가능한 명사구인 선행어를 찾아내어 이를 이용하여 복원 작업을 수행한다. 우리 시스템의 성능은 F1 = 68.58로 측정되었으며 이는 의미정보의 이용 없이 달성한 점을 감안하면 높은 수준으로 평가된다.

한국표준산업분류를 기준으로 한 문서의 자동 분류 모델에 관한 연구 (A Study on Automatic Classification Model of Documents Based on Korean Standard Industrial Classification)

  • 이재성;전승표;유형선
    • 지능정보연구
    • /
    • 제24권3호
    • /
    • pp.221-241
    • /
    • 2018
  • 지식사회에 들어서며 새로운 형태의 자본으로서 정보의 중요성이 강조되고 있다. 그리고 기하급수적으로 생산되는 디지털 정보의 효율적 관리를 위해 정보 분류의 중요성도 증가하고 있다. 본 연구에서는 기업의 기술사업화 의사결정에 도움이 될 수 있는 맞춤형 정보를 자동으로 분류하여 제공하기 위하여, 기업의 사업 성격을 나타내는 한국표준산업분류(이하 'KSIC')를 기준으로 정보를 분류하는 방법을 제안하였다. 정보 혹은 문서의 분류 방법은 대체로 기계학습을 기반으로 연구되어 왔으나 KSIC를 기준으로 분류된 충분한 학습데이터가 없어, 본 연구에서는 문서간 유사도를 계산하는 방식을 적용하였다. 구체적으로 KSIC 각 코드별 설명문을 수집하고 벡터 공간 모델을 이용하여 분류 대상 문서와의 유사도를 계산하여 가장 적합한 KSIC 코드를 제시하는 방법과 모델을 제시하였다. 그리고 IPC 데이터를 수집한 후 KSIC를 기준으로 분류하고, 이를 특허청에서 제공하는 KSIC-IPC 연계표와 비교함으로써 본 방법론을 검증하였다. 검증 결과 TF-IDF 계산식의 일종인 LT 방식을 적용하였을 때 가장 높은 일치도를 보였는데, IPC 설명문에 대해 1순위 매칭 KSIC의 일치도는 53%, 5순위까지의 누적 일치도는 76%를 보였다. 이를 통해 보다 정량적이고 객관적으로 중소기업이 필요로 할 기술, 산업, 시장정보에 대한 KSIC 분류 작업이 가능하다는 점을 확인할 수 있었다. 또한 이종 분류체계 간 연계표를 작성함에 있어서도 본 연구에서 제공하는 방법과 결과물이 전문가의 정성적 판단에 도움이 될 기초 자료로 활용될 수 있을 것으로 판단된다.