• 제목/요약/키워드: language processing

검색결과 2,669건 처리시간 0.035초

NATM 터널 공정리스크 데이터베이스 구축 및 리스크 분류체계 개발 (Establishment of Risk Database and Development of Risk Classification System for NATM Tunnel)

  • 김현비;바타갈래 위누리 키만디가 가루나라내;김병수
    • 한국건설관리학회논문집
    • /
    • 제25권1호
    • /
    • pp.32-41
    • /
    • 2024
  • 건설산업은 안전사고뿐 아니라 공기지연, 원가상승, 환경오염 등의 여러 복합적인 리스크가 발생하며 이를 해결하기 위한 관리기술이 필요하다. 그 중에서 프로젝트에 직접적인 영향을 미치는 공정리스크의 관리는 그 중요성에 비해 관련정보가 부족한 실정이다. 본 연구는 각 프로젝트마다 상이한 분류체계 사용으로 인한 리스크 정보검색의 어려움을 해소하기 위하여 MATM 터널 공정리스크분류체계를 개발하고자 하였다. 리스크수집은 기존 문헌검토와 Experience Mining 기법을 사용하였고 DB구축은 자연어처리 개념을 활용하였다. 분류체계의 구조는 자료의 호환성을 고려하여 기존 WBS 구조를 채택하였고, WBS의 공종과 연결된 RBS를 구축하였다. 연구결과 공종별 리스크를 쉽게 파악하고 리스크에 연결된 리스크특성과 리스크요인이 직관적으로 드러나는 리스크분류체계가 완성되었다. 구축된 분류체계의 활용성 검증결과 사용자의 키워드 입력으로 공종별 리스크와 리스크요인이 쉽게 식별되어 분류체계는 유효한 것으로 나타났다. 본 연구를 통해 NATM터널 계획 및 설계 시 작업공종에 따르는 리스크를 미리 식별하고 그 요인에 맞는 대응방안을 수립하여 비용과 공사기간의 증가를 방지하는데 기여할 수 있을 것으로 기대된다.

뇌파, 시선추적 및 인공지능 기술에 기반한 디지털 도서관 인터페이스 연구: 암묵적 적합성 피드백 활용을 중심으로 (Digital Library Interface Research Based on EEG, Eye-Tracking, and Artificial Intelligence Technologies: Focusing on the Utilization of Implicit Relevance Feedback)

  • 김현희;김용호
    • 정보관리학회지
    • /
    • 제41권1호
    • /
    • pp.261-282
    • /
    • 2024
  • 본 연구는 디지털 도서관의 콘텐츠를 탐색하는 동안 이용자의 암묵적 적합성 피드백을 활용하여 적합성을 판단하기 위해 뇌파 기반 및 시선추적 기반 방법들을 제안하고 평가해 보았다. 이를 위해서 32명을 대상으로 하여 동영상, 이미지, 텍스트 데이터를 활용하여 뇌파/시선추적 실험들을 수행하였다. 제안된 방법들의 유용성을 평가하기 위해서, 딥러닝 기반의 인공지능 방법들을 경쟁 기준으로 사용하였다. 평가 결과, 주제에 적합한 동영상과 이미지(얼굴/감정)를 선택하는 데에는 뇌파 컴포넌트 기반 방법들(av_P600, f_P3b)이 높은 분류 정확도를 나타냈고, 이미지(객체)와 텍스트(신문 기사)를 선택하는 데에는 인공지능 기반 방법 즉, 객체 인식 기반 방법과 자연언어 처리 방법이 각각 높은 분류 정확도를 나타냈다. 끝으로, 뇌파, 시선추적 및 인공지능 기술에 기반한 디지털 도서관 인터페이스를 구현하기 위한 지침 즉, 암묵적 적합성 피드백에 기반한 시스템 모형을 제안하고, 분류 정확도를 향상시키기 위해서 미디어별로 적합한 뇌파 기반, 시선추적 기반 및 인공지능 기반 방법들을 제시하였다.

AI면접 대상자에 대한 다면적 평가방법론 -얼굴인식, 음성분석, 자연어처리 영역의 융합 (Multifaceted Evaluation Methodology for AI Interview Candidates - Integration of Facial Recognition, Voice Analysis, and Natural Language Processing)

  • 지현욱;이상진;문성민;이재열;이동은;임규상
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2024년도 제69차 동계학술대회논문집 32권1호
    • /
    • pp.55-58
    • /
    • 2024
  • 최근 각 기업의 AI 면접시스템 도입이 증가하고 있으며, AI 면접에 대한 실효성 논란 또한 많은 상황이다. 본 논문에서는 AI 면접 과정에서 지원자를 평가하는 방식을 시각, 음성, 자연어처리 3영역에서 구현함으로써, 면접 지원자를 다방면으로 분석 방법론의 적절성에 대해 평가하고자 한다. 첫째, 시각적 측면에서, 면접 지원자의 감정을 인식하기 위해, 합성곱 신경망(CNN) 기법을 활용해, 지원자 얼굴에서 6가지 감정을 인식했으며, 지원자가 카메라를 응시하고 있는지를 시계열로 도출하였다. 이를 통해 지원자가 면접에 임하는 태도와 특히 얼굴에서 드러나는 감정을 분석하는 데 주력했다. 둘째, 시각적 효과만으로 면접자의 태도를 파악하는 데 한계가 있기 때문에, 지원자 음성을 주파수로 환산해 특성을 추출하고, Bidirectional LSTM을 활용해 훈련해 지원자 음성에 따른 6가지 감정을 추출했다. 셋째, 지원자의 발언 내용과 관련해 맥락적 의미를 파악해 지원자의 상태를 파악하기 위해, 음성을 STT(Speech-to-Text) 기법을 이용하여 텍스트로 변환하고, 사용 단어의 빈도를 분석하여 지원자의 언어 습관을 파악했다. 이와 함께, 지원자의 발언 내용에 대한 감정 분석을 위해 KoBERT 모델을 적용했으며, 지원자의 성격, 태도, 직무에 대한 이해도를 파악하기 위해 객관적인 평가지표를 제작하여 적용했다. 논문의 분석 결과 AI 면접의 다면적 평가시스템의 적절성과 관련해, 시각화 부분에서는 상당 부분 정확도가 객관적으로 입증되었다고 판단된다. 음성에서 감정분석 분야는 면접자가 제한된 시간에 모든 유형의 감정을 드러내지 않고, 또 유사한 톤의 말이 진행되다 보니 특정 감정을 나타내는 주파수가 다소 집중되는 현상이 나타났다. 마지막으로 자연어처리 영역은 면접자의 발언에서 나오는 말투, 특정 단어의 빈도수를 넘어, 전체적인 맥락과 느낌을 이해할 수 있는 자연어처리 분석모델의 필요성이 더욱 커졌음을 판단했다.

  • PDF

지각된 행위동사와 현재 행위의 의미 일치성에 따른 행위 수행 변화의 신경생리학적 기전 탐색 (Exploration of Neurophysiological Mechanisms underlying Action Performance Changes caused by Semantic Congruency between Perceived Action Verbs and Current Actions)

  • 나영현;정명영;곽자랑;이동훈
    • 인지과학
    • /
    • 제27권4호
    • /
    • pp.573-597
    • /
    • 2016
  • 최근 행위 개념의 신경적 표상에 대한 fMRI나 EEG 연구들은 행위 개념의 처리가 감각-운동 정보의 모사(simulation)를 불러일으킨다고 주장한다. 이와 아울러 행위동사나 행위 문장 이해가 현재 수행해야 하는 행위를 간섭하거나 촉진시킨다는 행동연구들도 존재한다. 그러나 행위 개념 처리와 현재 행동 수행간의 실시간 상호작용이 감각-운동정보의 모사를 매개로 하는지, 또 다른 기전에 바탕을 두는지 아직까지 분명하지 않다. 본 연구에서는 행위 언어 지각이 어떻게 현재 행위 수행에 영향을 주는지 그 기저에 있는 신경 메커니즘을 시공간적으로 탐색하고자 시간해상도가 높은 뇌파 측정과 다중전류원분석이라는 뇌파분석 기법을 사용하였다. 이를 위하여 실험참가자에게 단서 자극 색상에 따라 손으로 버튼 누르기 행동과 발로 페달 밟기 행동을 해야 하는 단서-운동반응 과제를 수행하도록 하였고, 단서가 제시되기 직전에 반응 행위자체를 기술하는 행위동사(즉, 눌러라, 밟아라, 멈춰라)를 청각적으로 제시하여 행위동사와 반응 행동 간의 의미 일치성에 따른 상호작용을 관찰하였다. 반응시간 분석 결과, 손으로 버튼을 누르는 반응행위와 발을 이용하여 페달을 밟는 반응행위 모두에서 행위동사와 반응행위가 일치하는 경우 촉진효과가 관찰되었고, 불일치에 따른 간섭효과는 손 행위에서 나타났다. 전류원 파형 분석결과, 행위동사와 반응행위간의 의미일치성 효과는 행위 동사 처리 기간에는 베르니케 영역, 운동단서 제시 시점에선 전대상회와 보조운동영역, 운동수행 시점에서는 보조운동영역과 일차운동피질에서 통계적으로 유의한 차이가 관찰되었다. 현재 결과로는 행위동사가 특정 운동피질을 활성화시켜 이를 매개로 현재 행위에 영향을 준다고 하기보다, 뒤따르는 행위를 예측하고 이를 준비하는 과정에 영향을 미쳐, 촉진/간섭효과를 가져오는 것으로 보인다. 마지막으로 본 연구가 가지는 행위 개념의 신경학적 표상에 대한 함의와 연구 방법론상 한계에 대해 논의하였다.

Hardware Approach to Fuzzy Inference―ASIC and RISC―

  • Watanabe, Hiroyuki
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.975-976
    • /
    • 1993
  • This talk presents the overview of the author's research and development activities on fuzzy inference hardware. We involved it with two distinct approaches. The first approach is to use application specific integrated circuits (ASIC) technology. The fuzzy inference method is directly implemented in silicon. The second approach, which is in its preliminary stage, is to use more conventional microprocessor architecture. Here, we use a quantitative technique used by designer of reduced instruction set computer (RISC) to modify an architecture of a microprocessor. In the ASIC approach, we implemented the most widely used fuzzy inference mechanism directly on silicon. The mechanism is beaded on a max-min compositional rule of inference, and Mandami's method of fuzzy implication. The two VLSI fuzzy inference chips are designed, fabricated, and fully tested. Both used a full-custom CMOS technology. The second and more claborate chip was designed at the University of North Carolina(U C) in cooperation with MCNC. Both VLSI chips had muliple datapaths for rule digital fuzzy inference chips had multiple datapaths for rule evaluation, and they executed multiple fuzzy if-then rules in parallel. The AT & T chip is the first digital fuzzy inference chip in the world. It ran with a 20 MHz clock cycle and achieved an approximately 80.000 Fuzzy Logical inferences Per Second (FLIPS). It stored and executed 16 fuzzy if-then rules. Since it was designed as a proof of concept prototype chip, it had minimal amount of peripheral logic for system integration. UNC/MCNC chip consists of 688,131 transistors of which 476,160 are used for RAM memory. It ran with a 10 MHz clock cycle. The chip has a 3-staged pipeline and initiates a computation of new inference every 64 cycle. This chip achieved an approximately 160,000 FLIPS. The new architecture have the following important improvements from the AT & T chip: Programmable rule set memory (RAM). On-chip fuzzification operation by a table lookup method. On-chip defuzzification operation by a centroid method. Reconfigurable architecture for processing two rule formats. RAM/datapath redundancy for higher yield It can store and execute 51 if-then rule of the following format: IF A and B and C and D Then Do E, and Then Do F. With this format, the chip takes four inputs and produces two outputs. By software reconfiguration, it can store and execute 102 if-then rules of the following simpler format using the same datapath: IF A and B Then Do E. With this format the chip takes two inputs and produces one outputs. We have built two VME-bus board systems based on this chip for Oak Ridge National Laboratory (ORNL). The board is now installed in a robot at ORNL. Researchers uses this board for experiment in autonomous robot navigation. The Fuzzy Logic system board places the Fuzzy chip into a VMEbus environment. High level C language functions hide the operational details of the board from the applications programme . The programmer treats rule memories and fuzzification function memories as local structures passed as parameters to the C functions. ASIC fuzzy inference hardware is extremely fast, but they are limited in generality. Many aspects of the design are limited or fixed. We have proposed to designing a are limited or fixed. We have proposed to designing a fuzzy information processor as an application specific processor using a quantitative approach. The quantitative approach was developed by RISC designers. In effect, we are interested in evaluating the effectiveness of a specialized RISC processor for fuzzy information processing. As the first step, we measured the possible speed-up of a fuzzy inference program based on if-then rules by an introduction of specialized instructions, i.e., min and max instructions. The minimum and maximum operations are heavily used in fuzzy logic applications as fuzzy intersection and union. We performed measurements using a MIPS R3000 as a base micropro essor. The initial result is encouraging. We can achieve as high as a 2.5 increase in inference speed if the R3000 had min and max instructions. Also, they are useful for speeding up other fuzzy operations such as bounded product and bounded sum. The embedded processor's main task is to control some device or process. It usually runs a single or a embedded processer to create an embedded processor for fuzzy control is very effective. Table I shows the measured speed of the inference by a MIPS R3000 microprocessor, a fictitious MIPS R3000 microprocessor with min and max instructions, and a UNC/MCNC ASIC fuzzy inference chip. The software that used on microprocessors is a simulator of the ASIC chip. The first row is the computation time in seconds of 6000 inferences using 51 rules where each fuzzy set is represented by an array of 64 elements. The second row is the time required to perform a single inference. The last row is the fuzzy logical inferences per second (FLIPS) measured for ach device. There is a large gap in run time between the ASIC and software approaches even if we resort to a specialized fuzzy microprocessor. As for design time and cost, these two approaches represent two extremes. An ASIC approach is extremely expensive. It is, therefore, an important research topic to design a specialized computing architecture for fuzzy applications that falls between these two extremes both in run time and design time/cost. TABLEI INFERENCE TIME BY 51 RULES {{{{Time }}{{MIPS R3000 }}{{ASIC }}{{Regular }}{{With min/mix }}{{6000 inference 1 inference FLIPS }}{{125s 20.8ms 48 }}{{49s 8.2ms 122 }}{{0.0038s 6.4㎲ 156,250 }} }}

  • PDF

분산 객체 컴퓨팅 환경에서 실시간 협약 및 적응 스트림 서비스를 위한 QoS 통합 플랫폼의 구축 (The Construction of QoS Integration Platform for Real-time Negotiation and Adaptation Stream Service in Distributed Object Computing Environments)

  • 전병택;김명희;주수종
    • 한국정보처리학회논문지
    • /
    • 제7권11S호
    • /
    • pp.3651-3667
    • /
    • 2000
  • 최근 인터넷 기반의 분산 멀티미디어 환경에서 가장 성장하는 기술로는 스트림 서비스 기술과 분산 객체 기술을 꼽을 수 있다. 특히, 분산 객체 기술에 스트림 서비스 기술을 통합하려는 연구들이 진행되고 있다. 이 기술들은 다양한 스트림 서비스 관리 모델과 프로토콜의 연구에서 적용되고 있다. 그러나, 기존에 제시된 관리 모델들은 스트림 전송의 서비스 질(QoS)에 대한 지원이 미흡하다. 또한, 서비스 질에 관련된 기능들이 특정 응용 서비스의 부속 모듈로 개발됨에 따라, 확장이나 재사용을 지원할 수 없는 문제점을 나타내고 있다. 이를 해결하기 위해 본 논문에서는 분산 객체 기술을 적용하여 확장 및 재사용이 용이하고 스티림의 서비스의 질을 보장하는 QoS 통합 플랫폼을 제안했다. 제안된 플랫폼의 구조는 사용자 제어 모듈, QoS 관리 모듈 및 스트림 객체의 세가지 컴포넌트로 구성된다. 스트림 객체는 TCP/IP 상에서 RTP 패킷을 송·수신 기능을 한다. 사용자 제어 모듈은 CORBA 객체를 이용하여 스트림 객체들을 제어한다. QoS 관리 모듈은 사용자 제어 모듈간에 서비스 질을 유지하는 관리 기능을 한다. QoS xd합 플랫폼의 구축을 위해 관련 모듈들을 독립적으로 구현하고, 이들이 CORBA 환경에서 플랫폼 독립성, 상호운용성, 이식성을 갖도록 그들간에 인터페이스들을 IDL로 정의하였다. 제안된 플랫폼의 구현을 위해 Solaris 2.5/2.7에 호환되는 OrbixWeb 3.1c, 자바언어와 Java Media Framework API 2.0, Mini-SQL1.0.16 및 관련 이미지 캡쳐보드 및 영상카메라를 사용하였다. 본 플랫폼의 기능검증을 위한 결과로서, 플랫폼 상에서 스트림 서비스가 진행되는 동안, 클라이언트와 서버의 GUI를 통해 위에서 기술한 모듈들의 수행결과와 QoS 제어 과정으로부터 얻어지는 수치적 데이터를 보였다.

  • PDF

지식베이스 구축을 위한 한국어 위키피디아의 학습 기반 지식추출 방법론 및 플랫폼 연구 (Knowledge Extraction Methodology and Framework from Wikipedia Articles for Construction of Knowledge-Base)

  • 김재헌;이명진
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.43-61
    • /
    • 2019
  • 최근 4차 산업혁명과 함께 인공지능 기술에 대한 연구가 활발히 진행되고 있으며, 이전의 그 어느 때보다도 기술의 발전이 빠르게 진행되고 있는 추세이다. 이러한 인공지능 환경에서 양질의 지식베이스는 인공지능 기술의 향상 및 사용자 경험을 높이기 위한 기반 기술로써 중요한 역할을 하고 있다. 특히 최근에는 인공지능 스피커를 통한 질의응답과 같은 서비스의 기반 지식으로 활용되고 있다. 하지만 지식베이스를 구축하는 것은 사람의 많은 노력을 요하며, 이로 인해 지식을 구축하는데 많은 시간과 비용이 소모된다. 이러한 문제를 해결하기 위해 본 연구에서는 기계학습을 이용하여 지식베이스의 구조에 따라 학습을 수행하고, 이를 통해 자연어 문서로부터 지식을 추출하여 지식화하는 방법에 대해 제안하고자 한다. 이러한 방법의 적절성을 보이기 위해 DBpedia 온톨로지의 구조를 기반으로 학습을 수행하여 지식을 구축할 것이다. 즉, DBpedia의 온톨로지 구조에 따라 위키피디아 문서에 기술되어 있는 인포박스를 이용하여 학습을 수행하고 이를 바탕으로 자연어 텍스트로부터 지식을 추출하여 온톨로지화하기 위한 방법론을 제안하고자 한다. 학습을 바탕으로 지식을 추출하기 위한 과정은 문서 분류, 적합 문장 분류, 그리고 지식 추출 및 지식베이스 변환의 과정으로 이루어진다. 이와 같은 방법론에 따라 실제 지식 추출을 위한 플랫폼을 구축하였으며, 실험을 통해 본 연구에서 제안하고자 하는 방법론이 지식을 확장하는데 있어 유용하게 활용될 수 있음을 증명하였다. 이러한 방법을 통해 구축된 지식은 향후 지식베이스를 기반으로 한 인공지능을 위해 활용될 수 있을 것으로 판단된다.

제작방법에 따른 임시 수복용 레진의 마모저항성에 관한 연구 (In vitro evaluation of the wear resistance of provisional resin materials fabricated by different methods)

  • 안종주;허중보;최재원
    • 대한치과보철학회지
    • /
    • 제57권2호
    • /
    • pp.110-117
    • /
    • 2019
  • 목적: 본 연구의 목적은 적층 가공(additive manufacturing)법, 절삭 가공(subtractive manufacturing)법, 전통적인 방법에 따른 임시 수복용 레진의 마모 저항성을 조사하는 것이다. 재료 및 방법: 제작방법에 따라 4개의 군으로 나누었으며, 각 군은 전용의 임시 수복용 레진을 사용하였다: S3P군, Stereolithography apparatus (SLA) 3D 프린터 및 전용의 광경화성 수지로 제작한 군; D3P군, Digital Light Processing (DLP) 3D 프린터 및 전용의 광경화성 수지로 제작한 군; MIL군, Milling machine 및 밀링용 레진 블록으로 제작한 군; CON군, 전통적인 방법 및 자가중합형 레진으로 제작한 군. 한편, 3D 프린팅된 레진 시편을 제작함에 있어 적층 각도와 층 두께를 각각 $0^{\circ}$$100{\mu}m$로 설정하였다. 구강내 환경을 재현하기 위하여 열순환 처리와 수평, 수직운동이 가능한 2축 chewing simulator를 사용하였으며, 하부에는 한쪽면이 편평하게 제작된 임시 수복용 레진을, 상부에는 끝이 3 mm 직경을 가지는 원뿔형의 steatite를 고정하여 마모시험 진행하였다(5 kg, 30,000회, 0.8 Hz, $5^{\circ}C/55^{\circ}C$). 임시 수복용 레진의 마모량은 마모 전후의 Standard Triangulated Language (STL) 파일과 전용의 CAD software를 이용하여 부피를 계산하였고, 주사전자현미경으로 마모 양상을 비교하였다. 결과: S3P군, D3P군, MIL군의 마모량은 CON군보다 유의하게 작았으며 (P < .05), S3P군, D3P군, MIL군 사이에는 통계학적으로 유의한 차이가 없었다 (P > .05). 주사전자현미경으로 마모면을 관찰한 결과, S3P군과 D3P군에서는 대합치의 운동 방향에 대해 수직적으로 갈라진 흔적이 발견되었다. MIL군에서는 전반적으로 균일한 마모면이 보인 반면, CON군에서는 대합치 운동 방향으로의 뚜렷한 마모 흔적과 다수의 기포가 관찰되었다. 결론: 본 연구의 한계 내에서, 3D 프린팅된 임시 수복용 레진은 치과용으로서 적절한 마모저항성을 보였다.

심근 관류 SPECT에서 핵종에 따른 Uniformity correction map 설정을 통한 영상의 질 비교 (The difference of image quality using other radioactive isotope in uniformity correction map of myocardial perfusion SPECT)

  • 송재혁;김경식;이동훈;김성환;박장원
    • 핵의학기술
    • /
    • 제19권2호
    • /
    • pp.87-92
    • /
    • 2015
  • SPECT에서 Uniformity는 균일한 방사능을 갖는 선원에 대하여 균일한 영상을 제공하는 능력이다. 영상에서 다양한 이유로 불균일이 발생하게 되고, 불균일은 artifacts를 발생시켜 임상적으로 진단하는데 영향을 줄 수 있다. Uniformity correction map은 검사에 사용되는 방사성 동위원소를 이용하여 영상에서 Uniformity의 변동폭을 최소화 시켜주는 역할을 한다. 본원에서 시행되고 있는 $^{201}Tl$을 이용한 심근 SPECT에서는 $^{99m}Tc$으로 기본 설정되어 있는 Uniformity correction map을 사용하고 있으며, 이에 따라 본 연구에서는 $^{201}Tl$$^{99m}Tc$ 두 가지 핵종으로 Uniformity correction map을 각각 설정하였을 때 영상의 질에 차이가 있는지 비교 분석하고, 영상의 질을 최적화 할 수 있는 방법에 대하여 모색해 보고자 한다. 장비는 GE Ventri Gamma camera, Flood phantom, Jaszczak ECT phantom을 이용하였다. 실험에 앞서 Collimator를 제거한 상태에서 Detector 표면 중심으로부터 2.5 m 떨어진 지점에 1 cc 주사기에 $^{99m}Tc$ 25.9 Mbq, $^{201}Tl$ 14.8 Mbq의 방사성 동위원소를 주입한 point source를 이용하여 장비사에서 권고하는 $6{\times}10^7count$$^{99m}Tc$$^{201}Tl$ 각각의 방사성 동위원소로 Uniformity Mapping을 실시하였다. Flood phantom에는 $^{201}Tl$ 21.3 kBq/mL, Jaszczak ECT phantom에는 $^{201}Tl$ 33.4 kBq/mL를 주입하여 phantom을 제작하였다. Flood Phantom으로 획득된 데이터는 Xeleris ver 2.05 프로그램을 이용하여 Integral uniformity, Differential uniformity을 두 가지 항목에 대하여 분석하였다. Jaszczak ECT Phantom으로 획득된 데이터를 본원에서 자체 개발한 Interactive Data Language 프로그램에 입력하여 Integral uniformity, Contrast, Coefficient of variation, Spatial Resolution을 4가지 항목에 대하여 분석하였다. Flood phantom test 에서는 $^{99m}Tc$에서의 Flood I.U값은 3.6%, Flood D.U값은 3.0%으로 나타났고, $^{201}Tl$ Flood I.U값은 3.8%, Flood D.U값은 2.1%으로 나타났다. 이를 통해 $^{201}Tl$으로 Uniformity correction map을 설정하였을 때, Flood I.U값은 감소하였으나 Flood D.U은 향상되어 Flood 영상에서는 크게 영상의 질이 개선되었는지는 알 수 없었다. 반면 Jaszczak ECT Phantom test에서는 $^{99m}Tc$에서의 SPECT I.U값은 13.99%, Coefficient of variation값은 4.89%, contrast값은 0.69, $^{201}Tl$에서의 SPECT I.U값은 11.37%, Coefficient of variation값은 4.79%, contrast값은 0.78로 나타났으며, 육안 분석을 실시한 Spatial Resolution 항목에서는 육안으로 큰 차이를 보이지 않았다. 이를 통해 $^{201}Tl$으로 Uniformity correction map을 설정하였을 때, Spatial Resolution 을 제외한 SPECT I.U, Coefficient of variation, Contrast 세 항목에서 각각 18%, 2%, 13%의 향상된 수치를 보였다는 점에서 영상의 질이 개선되었음을 알 수 있었다. Uniformity correction map이 영상의 질을 크게 좌우할 수 없으나, 개선의 효과를 가져다 준다는 점에서 임상적으로 진단에 영향을 주는지 또한 다른 검사에서 또 다른 방사성 동위원소로 Uniformity correction map을 설정했을 경우 영상의 질을 개선시킬 수 있는지에 관하여 추가적인 연구가 필요할 것으로 사료된다.

  • PDF

텍스트 마이닝 기법을 활용한 인공지능 기술개발 동향 분석 연구: 깃허브 상의 오픈 소스 소프트웨어 프로젝트를 대상으로 (A Study on the Development Trend of Artificial Intelligence Using Text Mining Technique: Focused on Open Source Software Projects on Github)

  • 정지선;김동성;이홍주;김종우
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.1-19
    • /
    • 2019
  • 제4차 산업혁명을 이끄는 주요 원동력 중 하나인 인공지능 기술은 이미지와 음성 인식 등 여러 분야에서 사람과 유사하거나 더 뛰어난 능력을 보이며, 사회 전반에 미치게 될 다양한 영향력으로 인하여 높은 주목을 받고 있다. 특히, 인공지능 기술은 의료, 금융, 제조, 서비스, 교육 등 광범위한 분야에서 활용이 가능하기 때문에, 현재의 기술 동향을 파악하고 발전 방향을 분석하기 위한 노력들 또한 활발히 이루어지고 있다. 한편, 이러한 인공지능 기술의 급속한 발전 배경에는 학습, 추론, 인식 등의 복잡한 인공지능 알고리즘을 개발할 수 있는 주요 플랫폼들이 오픈 소스로 공개되면서, 이를 활용한 기술과 서비스들의 개발이 비약적으로 증가하고 있는 것이 주요 요인 중 하나로 확인된다. 또한, 주요 글로벌 기업들이 개발한 자연어 인식, 음성 인식, 이미지 인식 기능 등의 인공지능 소프트웨어들이 오픈 소스 소프트웨어(OSS: Open Sources Software)로 무료로 공개되면서 기술확산에 크게 기여하고 있다. 이에 따라, 본 연구에서는 온라인상에서 다수의 협업을 통하여 개발이 이루어지고 있는 인공지능과 관련된 주요 오픈 소스 소프트웨어 프로젝트들을 분석하여, 인공지능 기술 개발 현황에 대한 보다 실질적인 동향을 파악하고자 한다. 이를 위하여 깃허브(Github) 상에서 2000년부터 2018년 7월까지 생성된 인공지능과 관련된 주요 프로젝트들의 목록을 검색 및 수집하였으며, 수집 된 프로젝트들의 특징과 기술 분야를 의미하는 토픽 정보들을 대상으로 텍스트 마이닝 기법을 적용하여 주요 기술들의 개발 동향을 연도별로 상세하게 확인하였다. 분석 결과, 인공지능과 관련된 오픈 소스 소프트웨어들은 2016년을 기준으로 급격하게 증가하는 추세이며, 토픽들의 관계 분석을 통하여 주요 기술 동향이 '알고리즘', '프로그래밍 언어', '응용분야', '개발 도구'의 범주로 구분하는 것이 가능함을 확인하였다. 이러한 분석 결과를 바탕으로, 향후 다양한 분야에서의 활용을 위해 개발되고 있는 인공지능 관련 기술들을 보다 상세하게 구분하여 확인하는 것이 가능할 것이며, 효과적인 발전 방향 모색과 변화 추이 분석에 활용이 가능할 것이다.