• 제목/요약/키워드: Intelligent system

검색결과 9,780건 처리시간 0.039초

CNN 보조 손실을 이용한 차원 기반 감성 분석 (Target-Aspect-Sentiment Joint Detection with CNN Auxiliary Loss for Aspect-Based Sentiment Analysis)

  • 전민진;황지원;김종우
    • 지능정보연구
    • /
    • 제27권4호
    • /
    • pp.1-22
    • /
    • 2021
  • 텍스트를 바탕으로 한 차원 기반 감성 분석(Aspect-Based Sentiment Analysis)은 다양한 산업에서 유용성을 주목을 받고 있다. 기존의 차원 기반 감성 분석에서는 타깃(Target) 혹은 차원(Aspect)만을 고려하여 감성을 분석하는 연구가 대다수였다. 그러나 동일한 타깃 혹은 차원이더라도 감성이 나뉘는 경우, 또는 타깃이 없지만 감성은 존재하는 경우 분석 결과가 정확하지 않다는 한계가 존재한다. 이러한 문제를 해결하기 위한 방법으로 차원과 타깃을 모두 고려한 감성 분석(Target-Aspect-Sentiment Detection, 이하 TASD) 모델이 제안되었다. 그럼에도 불구하고, TASD 기존 모델의 경우 구(Phrase) 간의 관계인 지역적인 문맥을 잘 포착하지 못하고 초기 학습 속도가 느리다는 문제가 있었다. 본 연구는 TASD 분야 내 기존 모델의 한계를 보완하여 분석 성능을 높이고자 하였다. 이러한 연구 목적을 달성하기 위해 기존 모델에 합성곱(Convolution Neural Network) 계층을 더하여 차원-감성 분류 시 보조 손실(Auxiliary loss)을 추가로 사용하였다. 즉, 학습 시에는 합성곱 계층을 통해 지역적인 문맥을 좀 더 잘 포착하도록 하였으며, 학습 후에는 기존 방식대로 차원-감성 분석을 하도록 모델을 설계하였다. 본 모델의 성능을 평가하기 위해 공개 데이터 집합인 SemEval-2015, SemEval-2016을 사용하였으며, 기존 모델 대비 F1 점수가 최대 55% 증가했다. 특히 기존 모델보다 배치(Batch), 에폭(Epoch)이 적을 때 효과적으로 학습한다는 것을 확인할 수 있었다. 본 연구에서 제시된 모델로 더욱 더 세밀한 차원 기반 감성 분석이 가능하다는 점에서, 기업에서 상품 개발 및 마케팅 전략 수립 등에 다양하게 활용할 수 있으며 소비자의 효율적인 구매 의사결정을 도와줄 수 있을 것으로 보인다.

코로나 19 하에서 재난문자 내의 정보유형 및 특성: 서울특별시 재난문자를 중심으로 (Information types and characteristics within the Wireless Emergency Alert in COVID-19: Focusing on Wireless Emergency Alerts in Seoul)

  • 윤성욱;남기환
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.45-68
    • /
    • 2022
  • 대한민국 중앙부처, 지방자치단체는 코로나 19가 급속도로 확산하는 팬데믹 상황에서 재난상황 극복을 위해 재난대응에 필요한 정보를 재난문자를 통해 제공하였다. 재난문자는 국민들이 가장 많이 접하는 재난정보 전달수단으로서, 휴대폰에 직접 방송하는 CBS(Cell Broadcast Service) 방식을 채택하고 있어 직접 찾아보는 수고스러움 없이 휴대폰을 통해 쉽게 정보를 접할 수 있다는 장점이 있다. 본 연구는 지난 1년 1개월간(2020년 1월~2021년 1월) 서울특별시에 발송된 재난문자의 특성을 다양한 텍스트마이닝 방법론 등을 통해 도출하고 재난문자에 포함된 다양한 유형의 정보가 국민들의 이동 행태에 어떠한 영향을 미쳤는지를 서울특별시 지역구의 연령별 유동인구의 이동성을 통해 확인하였다. 각 문자에 포함된 주요 단어와 포함된 정보를 분류하는 과정을 거치고 포함된 단어를 기반으로 하는 문서 군집 분석 기법을 적용해 개별 발송 문자를 분석 단위로써 활용할 수 있도록 텍스트 분석을 시행하였다. 이후, 텍스트마이닝을 통해 추출한 재난문자의 특성이 지역별, 연령별 인구이동성에 미친 영향을 규명하였다. 구조화된 모형을 활용하여 재난정보가 인구이동성에 미치는 영향을 기본효과, 누적효과로 구분하여 측정하였다. 지자체가 보유한 재난문자 발송권한으로 인해 재난문자 발송 특성은 지자체별로 상이함을 계량 분석에 활용하였다. 분석 결과 인구이동성에 변화를 유발하는 정보유형은 연령별로 상이함을 확인할 수 있었다. 날짜와 순서에 관련된 정보는 60-70대의 인구이동성을 유의미하게 감소시키는 것을 확인할 수 있었다. 온라인 정보는 20대의 이동성을 감소시켰고, 증상과 관련된 정보는 30대의 인구이동성을 감소시켰다. 한편, 방역 정책 준수를 당부하는 의미를 포함하는 규범적 단어 등은 전 연령의 인구이동성에 유의미한 변화를 불러일으키지 못함을 확인할 수 있었다. 이는 재난대응에 도움이 되는 유의미한 정보들만 재난문자에 포함되어야 함을 의미한다. 한편, 인구이동성에 유의미한 변화를 불러일으키는 정보유형 또한 재난문자가 반복됨에 따라 효과가 상쇄함을 음의 누적효과 추정 결과를 통해 확인할 수 있었다.

토픽모델링을 활용한 COVID-19 학술 연구 기반 연구 주제 분류에 관한 연구 (A study on the classification of research topics based on COVID-19 academic research using Topic modeling)

  • 유소연;임규건
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.155-174
    • /
    • 2022
  • 2020년 1월부터 2021년 10월 현재까지 COVID-19(치명적인 호흡기 증후군인 코로나바이러스-2)와 관련된 학술 연구가 500,000편 이상 발표되었다. COVID-19와 관련된 논문의 수가 급격하게 증가함에 따라 의료 전문가와 정책 담당자들이 중요한 연구를 신속하게 찾는 것에 시간적·기술적 제약이 따르고 있다. 따라서 본 연구에서는 LDA와 Word2vec 알고리즘을 사용하여 방대한 문헌의 텍스트 자료로부터 유용한 정보를 추출하는 방안을 제시한다. COVID-19와 관련된 논문에서 검색하고자 하는 키워드와 관련된 논문을 추출하고, 이를 대상으로 세부 주제를 파악하였다. 자료는 Kaggle에 있는 CORD-19 데이터 세트를 활용하였는데, COVID-19 전염병에 대응하기 위해 주요 연구 그룹과 백악관이 준비한 무료 학술 자료로서 매주 자료가 업데이트되고 있다. 연구 방법은 크게 두 가지로 나뉜다. 먼저, 47,110편의 학술 논문의 초록을 대상으로 LDA 토픽 모델링과 Word2vec 연관어 분석을 수행한 후, 도출된 토픽 중 'vaccine'과 관련된 논문 4,555편, 'treatment'와 관련된 논문 5,791편을 추출한다. 두 번째로 추출된 논문을 대상으로 LDA, PCA 차원 축소 후 t-SNE 기법을 사용하여 비슷한 주제를 가진 논문을 군집화하고 산점도로 시각화하였다. 전체 논문을 대상으로 찾을 수 없었던 숨겨진 주제를 키워드에 따라 문헌을 분류하여 토픽 모델링을 수행한 결과 세부 주제를 찾을 수 있었다. 본 연구의 목표는 대량의 문헌에서 키워드를 입력하여 특정 정보에 대한 문헌을 분류할 수 있는 방안을 제시하는 것이다. 본 연구의 목표는 의료 전문가와 정책 담당자들의 소중한 시간과 노력을 줄이고, 신속하게 정보를 얻을 수 있는 방법을 제안하는 것이다. 학술 논문의 초록에서 COVID-19와 관련된 토픽을 발견하고, COVID-19에 대한 새로운 연구 방향을 탐구하도록 도움을 주는 기초자료로 활용될 것으로 기대한다.

인공지능 기술에 관한 가트너 하이프사이클의 네트워크 집단구조 특성 및 확산패턴에 관한 연구 (Structural features and Diffusion Patterns of Gartner Hype Cycle for Artificial Intelligence using Social Network analysis)

  • 신선아;강주영
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.107-129
    • /
    • 2022
  • 기술경쟁이 심화되고 있는 오늘날 신기술에 대한 선도적 위치의 선점이 중요하다. 선도적 위치의 선점과 적정시점에 기술 획득·관리를 위해 이해관계자들은 지속적으로 기술에 대한 탐색활동을 수행한다. 이를 위한 참고 자료로서 가트너 하이프 사이클(Gartner Hype Cycle)은 중요한 의미가 있다. 하이프 사이클은 기술수명주기(S-curve)와 하이프 수준(Hype Level)을 결합하여 새로운 기술에 대한 대중의 기대감을 시간의 흐름에 따라 나타낸 그래프이다. 새로운 기술에 대한 기대는 기술사업화뿐만 아니라 연구개발 투자의 정당성, 투자유치를 위한 기회의 발판이 된다는 점에서 연구개발 담당자 및 기술투자자의 관심이 높다. 그러나 산업계의 높은 관심에 비해 실증분석을 시도한 선행연구는 다양하지 못하다. 선행문헌 분석결과 데이터 종류(뉴스, 논문, 주가지수, 검색 트래픽 등)나 분석방법은 한정적이었다. 이에 본 연구에서는 확산의 주요한 채널이 되어가고 있는 소셜네트워크서비스의 데이터를 활용하여 'Gartner Hype Cycle for Artificial Intelligence, 2021'의 단계별 기술들에 대한 집단구조(커뮤니티)의 특성과 커뮤니티 간 정보 확산패턴을 분석하고자 한다. 이를 위해 컴포넌트 응집규모(Component Cohesion Size)를 통해 각 단계별 구조적 특성과 연결중심화(Degree Centralization)와 밀도(Density)를 통해 확산의 방식을 확인하였다. 연구결과 기술을 수용하는 단계별 집단들의 커뮤니케이션 활동이 시간이 지날 수록 분절이 커지며 밀도 역시 감소함을 확인하였다. 또한 새로운 기술에 대한 관심을 촉발하는 혁신태동기 집단의 경우 정보확산을 촉발하는 외향연결(Out-degree) 중심화 지수가 높았으며, 이후의 단계는 정보를 수용하는 내향연결(In-degree) 중심화 지수가 높은 것으로 나타났다. 해당 연구를 통해 하이프 사이클에 관한 이론적 기초를 제공할 것이다. 또한 인공지능기술에 대한 기술관심집단들의 기대감을 반영한 정보확산의 특성과 패턴을 소셜데이터를 통해 분석함으로써 기업의 기술투자 의사결정에 새로운 시각을 제공할 것이다.

ERGM 기반의 모수적 및 비모수적 방법을 활용한 수출 유망국가 분석: 정보통신 및 가전 산업 사례를 중심으로 (Analysis of promising countries for export using parametric and non-parametric methods based on ERGM: Focusing on the case of information communication and home appliance industries)

  • 전승표;서진이;유재영
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.175-196
    • /
    • 2022
  • 우리나라의 주력 산업 중 하나였던 정보통신 및 가전 산업은 점차 수출 비중이 낮아지는 등 수출 경쟁력이 약화되고 있다. 본 연구는 이런 정보통신 및 가전 산업의 수출 제고를 돕기 위해서 객관적으로 수출경쟁력을 분석하고 수출 유망국가를 제시하고자 했다. 본 연구는 수출경쟁력 평가를 위해서 네트워크 분석 중 구조적 특징, 중심성 그리고 구조적 공백 분석을 수행했다. 유망 수출 국가를 선정하기 위해서는 기존에 경제적 요인 외에도 이미 형성된 글로벌 무역 네트워크(ITN) 즉 글로벌 밸류체인(GVC)의 특성을 고려할 수 있는 새로운 변수를 제안했다. 국가간 무역 네트워크 분석에서 Exponential Random Graph Model(ERGM)을 통해 도출된 개별적인 링크에 대한 조건부 로짓값(log-odds)을 수출가능성을 나타낼 수 있는 대리변수로 가정했다. 이런 ERGM의 링크 연결 가능성까지 고려해 수출 유망국가를 추천하는 데는 모수적 접근 방법과 비모수적 접근 방법을 각각 활용했다. 모수적 방법에서는 ERGM에서 도출된 네트워크의 링크별 특성값을 기존의 경제적 요인에 추가 고려하여 우리나라 정보통신 및 가전 산업 수출액을 예측하는 회귀분석 모형을 개발했다. 또한 비모수적 접근 방법에서는 클러스터링 방법을 바탕으로 한 Abnormality detection 알고리즘을 활용했는데, 2개 Peer(동배)에서 벗어난 이상값을 찾는 방법으로 수출 유망국가를 제안했다. 연구 결과에 따르면, 해당 산업 수출 네트워크의 구조적 특징은 이전성이 높은 연결망이었으며, 중심성 분석결과에 따르면 우리나라는 수출에 규모에 비해서 영향력이 약한 것으로 나타났고, 구조적 공백 분석결과에서 수출 효율성이 약한 것으로 나타났다. 본 연구가 제안한 추천모델에 따르면 모수 분석에서는 이란, 아일랜드, 북마케도니아, 앙골라, 파키스탄이 유망 수출 국가로 나타났으며, 비모수 분석에서는 카타르, 룩셈부르크, 아일랜드, 북마케도니아, 파키스탄이 유망 국가로 분석되었으며, 분석방법에 따라 추천된 국가에서는 일부 차이가 나타났다. 본 연구결과는 GVC에서 우리나라 정보통신과 가전 산업의 수출경쟁력이 수출 규모에 비해서 높지 않음을 밝혔고, 따라서 수출이 더욱 감소될 수 있음을 보였다. 또한 본 연구는 이렇게 약화된 수출경쟁력을 높일 수 있는 방안으로 다른 국가들과의 GVC 네트워크까지 고려해 수출유망 국가를 찾는 방법을 제안했다는데 의의가 있다.

새로운 결제서비스의 성공요인: 다중사례연구 (Critical Success Factor of Noble Payment System: Multiple Case Studies)

  • 박아름;이경전
    • 지능정보연구
    • /
    • 제20권4호
    • /
    • pp.59-87
    • /
    • 2014
  • 결제서비스에 대한 기존의 연구는 결제서비스의 채택요인 또는 지속적인 사용에 영향을 미치는 요인 등 행동이론을 중심으로 진행되어 왔다. 이러한 요인들이 미치는 영향에 대한 결과는 결제서비스의 종류에 따라 또는 연구 지역에 따라 상이하게 나타나고 있다. 본 연구는 결제 서비스의 종류나 문화등의 변수에 관계없이 새로운 결제 서비스가 성공할 수 있는 일반적인 요인이 무엇인지에 대한 의문에서 시작하게 되었다. 기존 연구에서 중요한 영향을 미친다고 제시한 채택요인들은 실제 결제사례의 결과에 비추어 보면 기존 연구에서 주장한 바와 일치하지 않는 경우를 볼 수 있다. 이러한 이론과 현실사이의 괴리를 발견하고 새로운 결제서비스가 성공하기 위한 근본적이고 결정적인 요인이 무엇인지에 대해 제시하고 사례연구를 통해 가설을 입증하고자 하는 것이 본 연구의 목적이다. 따라서 본 연구는 새로운 결제서비스가 성공하기 위해서는 기존 결제서비스의 비고객에게 이들이 결제할 수 있는 수단을 제공함으로써 새로운 결제 시장을 창출해야 함을 주장한다. 이를 위해 성공한 결제사례인 신용카드, 휴대폰 소액결제, PayPal, Square을 채택하였으며, 기존 결제서비스의 비고객을 3개의 계층으로 분류하여 분석하였다. 그리고 새로운 결제서비스가 어떠한 계층을 타겟으로 하였으며 이들에게 어떠한 결제수단을 제공하여 새로운 시장을 창출하였는지 제시한다. 사례 분석 결과, 성공 사례 모두 본 연구의 가설을 지지하는 것으로 나타났다. 따라서 새로운 결제서비스는 결국 기존의 결제수단으로 거래를 할 수 없었던 이들이 결제를 할 수 있도록 함으로써 성공할 수 있다는 가설을 입증하였다. 모바일 결제서비스가 아직 대중화되지 못한 원인을 본 가설에 비추어 분석해 보면 보면, 기존의 결제 인프라를 이용할 수 있는 바코드, QR코드 기반의 모바일 결제 서비스뿐만 아니라 NFC, BLE, 음파 등의 새로운 기술이 적용된 모바일 결제 서비스가 출시되는 등 새로운 시도가 계속되고 있다. 또한 모바일 월렛은 사용자들이 소지하고 있는 카드정보를 스마트폰에 저장하여 지갑 없이도 결제가 가능하며, 쿠폰 제공, 적립카드 관리, 신분증을 저장하는 등의 다양한 부가적인 기능을 제공하고 있어 성공할 것이라는 전망이 대두되고 있다. 하지만 이러한 서비스들은 본 연구 관점에서 보자면 기존 결제서비스의 비고객이(기존 결제수단을 이용할 수 없었던 사용자) 거래할 수 있는 새로운 결제 수단을 제공해 주지 못하고 있기 때문에 결국 초기사용자에게만 채택될 뿐 대중화되는데 한계가 있을 것으로 예상된다. 반면, 새로운 모바일 결제서비스의 성공사례 중 하나인 PaybyPhone은 기존 코인주차 결제서비스의 비고객인 현금 미소지 고객에게 스마트폰을 이용한 새로운 결제수단을 제공함으로써 새로운 주차 결제 시장을 창출하였으며 현재 미국뿐만 아니라 유럽시장까지 진출하는 등 급성장하고 있다. 결론적으로, 많은 이해관계자들이 모바일 결제시장을 선점하기 위해 다양한 형태의 모바일 결제 서비스를 출시하고 있지만 캐즘을 뛰어넘어 주류 시장에 성공적으로 정착할 수 있느냐는 결국 기존 결제서비스의 비고객군에게 그들이 필요로 하는 새로운 결제수단을 제공하는지의 여부에 달려있다고 볼 수 있다. 따라서 모바일 결제 서비스의 기획자나 매니저들은 서비스 기획 시 기존 결제서비스의 비고객군은 누구인가? 그들은 어떠한 결제수단을 원하는가?를 먼저 고려해야 한다. 본 연구는 새로운 결제서비스가 성공하는데 미치는 요인에 대한 가설을 검증하기 위해 4개의 성공사례를 선택하였으며 각 사례에 동일한 가설을 검증하는 '반복연구논리'를 적용하였다. 본 가설을 더욱 공고히 하기 위해 사례연구방법론에서 제시하고 있는 경쟁가설을 포함한 후속 사례연구가 진행되어야 할 것이다.

Information Privacy Concern in Context-Aware Personalized Services: Results of a Delphi Study

  • Lee, Yon-Nim;Kwon, Oh-Byung
    • Asia pacific journal of information systems
    • /
    • 제20권2호
    • /
    • pp.63-86
    • /
    • 2010
  • Personalized services directly and indirectly acquire personal data, in part, to provide customers with higher-value services that are specifically context-relevant (such as place and time). Information technologies continue to mature and develop, providing greatly improved performance. Sensory networks and intelligent software can now obtain context data, and that is the cornerstone for providing personalized, context-specific services. Yet, the danger of overflowing personal information is increasing because the data retrieved by the sensors usually contains privacy information. Various technical characteristics of context-aware applications have more troubling implications for information privacy. In parallel with increasing use of context for service personalization, information privacy concerns have also increased such as an unrestricted availability of context information. Those privacy concerns are consistently regarded as a critical issue facing context-aware personalized service success. The entire field of information privacy is growing as an important area of research, with many new definitions and terminologies, because of a need for a better understanding of information privacy concepts. Especially, it requires that the factors of information privacy should be revised according to the characteristics of new technologies. However, previous information privacy factors of context-aware applications have at least two shortcomings. First, there has been little overview of the technology characteristics of context-aware computing. Existing studies have only focused on a small subset of the technical characteristics of context-aware computing. Therefore, there has not been a mutually exclusive set of factors that uniquely and completely describe information privacy on context-aware applications. Second, user survey has been widely used to identify factors of information privacy in most studies despite the limitation of users' knowledge and experiences about context-aware computing technology. To date, since context-aware services have not been widely deployed on a commercial scale yet, only very few people have prior experiences with context-aware personalized services. It is difficult to build users' knowledge about context-aware technology even by increasing their understanding in various ways: scenarios, pictures, flash animation, etc. Nevertheless, conducting a survey, assuming that the participants have sufficient experience or understanding about the technologies shown in the survey, may not be absolutely valid. Moreover, some surveys are based solely on simplifying and hence unrealistic assumptions (e.g., they only consider location information as a context data). A better understanding of information privacy concern in context-aware personalized services is highly needed. Hence, the purpose of this paper is to identify a generic set of factors for elemental information privacy concern in context-aware personalized services and to develop a rank-order list of information privacy concern factors. We consider overall technology characteristics to establish a mutually exclusive set of factors. A Delphi survey, a rigorous data collection method, was deployed to obtain a reliable opinion from the experts and to produce a rank-order list. It, therefore, lends itself well to obtaining a set of universal factors of information privacy concern and its priority. An international panel of researchers and practitioners who have the expertise in privacy and context-aware system fields were involved in our research. Delphi rounds formatting will faithfully follow the procedure for the Delphi study proposed by Okoli and Pawlowski. This will involve three general rounds: (1) brainstorming for important factors; (2) narrowing down the original list to the most important ones; and (3) ranking the list of important factors. For this round only, experts were treated as individuals, not panels. Adapted from Okoli and Pawlowski, we outlined the process of administrating the study. We performed three rounds. In the first and second rounds of the Delphi questionnaire, we gathered a set of exclusive factors for information privacy concern in context-aware personalized services. The respondents were asked to provide at least five main factors for the most appropriate understanding of the information privacy concern in the first round. To do so, some of the main factors found in the literature were presented to the participants. The second round of the questionnaire discussed the main factor provided in the first round, fleshed out with relevant sub-factors. Respondents were then requested to evaluate each sub factor's suitability against the corresponding main factors to determine the final sub-factors from the candidate factors. The sub-factors were found from the literature survey. Final factors selected by over 50% of experts. In the third round, a list of factors with corresponding questions was provided, and the respondents were requested to assess the importance of each main factor and its corresponding sub factors. Finally, we calculated the mean rank of each item to make a final result. While analyzing the data, we focused on group consensus rather than individual insistence. To do so, a concordance analysis, which measures the consistency of the experts' responses over successive rounds of the Delphi, was adopted during the survey process. As a result, experts reported that context data collection and high identifiable level of identical data are the most important factor in the main factors and sub factors, respectively. Additional important sub-factors included diverse types of context data collected, tracking and recording functionalities, and embedded and disappeared sensor devices. The average score of each factor is very useful for future context-aware personalized service development in the view of the information privacy. The final factors have the following differences comparing to those proposed in other studies. First, the concern factors differ from existing studies, which are based on privacy issues that may occur during the lifecycle of acquired user information. However, our study helped to clarify these sometimes vague issues by determining which privacy concern issues are viable based on specific technical characteristics in context-aware personalized services. Since a context-aware service differs in its technical characteristics compared to other services, we selected specific characteristics that had a higher potential to increase user's privacy concerns. Secondly, this study considered privacy issues in terms of service delivery and display that were almost overlooked in existing studies by introducing IPOS as the factor division. Lastly, in each factor, it correlated the level of importance with professionals' opinions as to what extent users have privacy concerns. The reason that it did not select the traditional method questionnaire at that time is that context-aware personalized service considered the absolute lack in understanding and experience of users with new technology. For understanding users' privacy concerns, professionals in the Delphi questionnaire process selected context data collection, tracking and recording, and sensory network as the most important factors among technological characteristics of context-aware personalized services. In the creation of a context-aware personalized services, this study demonstrates the importance and relevance of determining an optimal methodology, and which technologies and in what sequence are needed, to acquire what types of users' context information. Most studies focus on which services and systems should be provided and developed by utilizing context information on the supposition, along with the development of context-aware technology. However, the results in this study show that, in terms of users' privacy, it is necessary to pay greater attention to the activities that acquire context information. To inspect the results in the evaluation of sub factor, additional studies would be necessary for approaches on reducing users' privacy concerns toward technological characteristics such as highly identifiable level of identical data, diverse types of context data collected, tracking and recording functionality, embedded and disappearing sensor devices. The factor ranked the next highest level of importance after input is a context-aware service delivery that is related to output. The results show that delivery and display showing services to users in a context-aware personalized services toward the anywhere-anytime-any device concept have been regarded as even more important than in previous computing environment. Considering the concern factors to develop context aware personalized services will help to increase service success rate and hopefully user acceptance for those services. Our future work will be to adopt these factors for qualifying context aware service development projects such as u-city development projects in terms of service quality and hence user acceptance.

전이학습 기반 다중 컨볼류션 신경망 레이어의 활성화 특징과 주성분 분석을 이용한 이미지 분류 방법 (Transfer Learning using Multiple ConvNet Layers Activation Features with Principal Component Analysis for Image Classification)

  • 바트후 ?바자브;주마벡 알리하노브;팡양;고승현;조근식
    • 지능정보연구
    • /
    • 제24권1호
    • /
    • pp.205-225
    • /
    • 2018
  • Convolutional Neural Network (ConvNet)은 시각적 특징의 계층 구조를 분석하고 학습할 수 있는 대표적인 심층 신경망이다. 첫 번째 신경망 모델인 Neocognitron은 80 년대에 처음 소개되었다. 당시 신경망은 대규모 데이터 집합과 계산 능력이 부족하여 학계와 산업계에서 널리 사용되지 않았다. 그러나 2012년 Krizhevsky는 ImageNet ILSVRC (Large Scale Visual Recognition Challenge) 에서 심층 신경망을 사용하여 시각적 인식 문제를 획기적으로 해결하였고 그로 인해 신경망에 대한 사람들의 관심을 다시 불러 일으켰다. 이미지넷 첼린지에서 제공하는 다양한 이미지 데이터와 병렬 컴퓨팅 하드웨어 (GPU)의 발전이 Krizhevsky의 승리의 주요 요인이었다. 그러므로 최근의 딥 컨볼루션 신경망의 성공을 병렬계산을 위한 GPU의 출현과 더불어 ImageNet과 같은 대규모 이미지 데이터의 가용성으로 정의 할 수 있다. 그러나 이러한 요소는 많은 도메인에서 병목 현상이 될 수 있다. 대부분의 도메인에서 ConvNet을 교육하기 위해 대규모 데이터를 수집하려면 많은 노력이 필요하다. 대규모 데이터를 보유하고 있어도 처음부터 ConvNet을 교육하려면 많은 자원과 시간이 소요된다. 이와 같은 문제점은 전이 학습을 사용하면 해결할 수 있다. 전이 학습은 지식을 원본 도메인에서 새 도메인으로 전이하는 방법이다. 전이학습에는 주요한 두 가지 케이스가 있다. 첫 번째는 고정된 특징점 추출기로서의 ConvNet이고, 두번째는 새 데이터에서 ConvNet을 fine-tuning 하는 것이다. 첫 번째 경우, 사전 훈련 된 ConvNet (예: ImageNet)을 사용하여 ConvNet을 통해 이미지의 피드포워드 활성화를 계산하고 특정 레이어에서 활성화 특징점을 추출한다. 두 번째 경우에는 새 데이터에서 ConvNet 분류기를 교체하고 재교육을 한 후에 사전 훈련된 네트워크의 가중치를 백프로퍼게이션으로 fine-tuning 한다. 이 논문에서는 고정된 특징점 추출기를 여러 개의 ConvNet 레이어를 사용하는 것에 중점을 두었다. 그러나 여러 ConvNet 레이어에서 직접 추출된 차원적 복잡성을 가진 특징점을 적용하는 것은 여전히 어려운 문제이다. 우리는 여러 ConvNet 레이어에서 추출한 특징점이 이미지의 다른 특성을 처리한다는 것을 발견했다. 즉, 여러 ConvNet 레이어의 최적의 조합을 찾으면 더 나은 특징점을 얻을 수 있다. 위의 발견을 토대로 이 논문에서는 단일 ConvNet 계층의 특징점 대신에 전이 학습을 위해 여러 ConvNet 계층의 특징점을 사용하도록 제안한다. 본 논문에서 제안하는 방법은 크게 세단계로 이루어져 있다. 먼저 이미지 데이터셋의 이미지를 ConvNet의 입력으로 넣으면 해당 이미지가 사전 훈련된 AlexNet으로 피드포워드 되고 3개의 fully-connected 레이어의 활성화 틀징점이 추출된다. 둘째, 3개의 ConvNet 레이어의 활성화 특징점을 연결하여 여러 개의 ConvNet 레이어의 특징점을 얻는다. 레이어의 활성화 특징점을 연결을 하는 이유는 더 많은 이미지 정보를 얻기 위해서이다. 동일한 이미지를 사용한 3개의 fully-connected 레이어의 특징점이 연결되면 결과 이미지의 특징점의 차원은 4096 + 4096 + 1000이 된다. 그러나 여러 ConvNet 레이어에서 추출 된 특징점은 동일한 ConvNet에서 추출되므로 특징점이 중복되거나 노이즈를 갖는다. 따라서 세 번째 단계로 PCA (Principal Component Analysis)를 사용하여 교육 단계 전에 주요 특징점을 선택한다. 뚜렷한 특징이 얻어지면, 분류기는 이미지를 보다 정확하게 분류 할 수 있고, 전이 학습의 성능을 향상시킬 수 있다. 제안된 방법을 평가하기 위해 특징점 선택 및 차원축소를 위해 PCA를 사용하여 여러 ConvNet 레이어의 특징점과 단일 ConvNet 레이어의 특징점을 비교하고 3개의 표준 데이터 (Caltech-256, VOC07 및 SUN397)로 실험을 수행했다. 실험결과 제안된 방법은 Caltech-256 데이터의 FC7 레이어로 73.9 %의 정확도를 얻었을 때와 비교하여 75.6 %의 정확도를 보였고 VOC07 데이터의 FC8 레이어로 얻은 69.2 %의 정확도와 비교하여 73.1 %의 정확도를 보였으며 SUN397 데이터의 FC7 레이어로 48.7%의 정확도를 얻었을 때와 비교하여 52.2%의 정확도를 보였다. 본 논문에 제안된 방법은 Caltech-256, VOC07 및 SUN397 데이터에서 각각 기존에 제안된 방법과 비교하여 2.8 %, 2.1 % 및 3.1 %의 성능 향상을 보였다.

텍스트마이닝 기법을 활용한 사용후핵연료 건식처리기술 관련 언론 동향 분석 (Analysis of media trends related to spent nuclear fuel treatment technology using text mining techniques)

  • 정지송;김호동
    • 지능정보연구
    • /
    • 제27권2호
    • /
    • pp.33-54
    • /
    • 2021
  • 최근 4차 산업혁명, 코로나로 인한 뉴노멀 시대의 도래 등을 계기로 인공지능, 빅데이터 연구와 같은 언택트 관련 기술의 중요성이 더욱 급상하고 있다. 각 종 연구 분야에서는 이러한 연구 트렌드를 따라가기 위한 융합적 연구가 본격적으로 시행되고 있으나 원자력 분야의 경우 자연어 처리, 텍스트마이닝 분석 등 인공지능 및 빅데이터 관련 기술을 적용한 연구가 많이 수행되지 않았다. 이에 원자력 연구 분야에 데이터 사이언스 분석기술의 적용 가능성을 확인해보고자 본 연구를 수행하였다. 원자로 연료로 사용된 뒤 배출되는 사용후핵연료 인식 동향 파악에 대한 연구는 원자력 산업 정책에 대한 방향을 결정하고 산업정책 변화를 사전에 대응할 수 있다는 측면에서 매우 중요하다. 사용후핵연료 처리기술은 크게 습식 재처리 방식과 건식 재처리 방식으로 나뉘는데, 이 중 환경 친화적이고 핵비확산성 및 경제성이 높은 건식재처리 기술인 '파이로프로세싱'과 그 연계 원자로 '소듐냉각고속로'의 연구개발에 대한 재평가가 현재 지속적으로 검토되고 있다. 따라서 위와 같은 이유로, 본 연구에서는 사용후핵연료 처리기술인 파이로프로세싱에 대한 언론 동향 분석을 진행하였다. 사용후핵연료 처리기술인 '파이로프로세싱' 키워드를 포함하는 네이버 웹 뉴스 기사 전문의 텍스트데이터를 수집하여 기간에 따라 인식변화를 분석하였다. 2016년 발생한 경주 지진, 2017년 새 정부의 에너지 전환정책 시행된 2010년대 중반 시기를 기준으로 전, 후의 동향 분석이 시행되었고, 빈도분석을 바탕으로 한 워드 클라우드 도출, TF-IDF(Term Frequency - Inverse Document Frequency) 도출, 연결정도 중심성 산출 등의 분석방법을 통해 텍스트데이터에 대한 세부적이고 다층적인 분석을 수행하였다. 연구 결과, 2010년대 이전에는 사용후핵연료 처리기술에 대한 사회 언론의 인식이 외교적이고 긍정적이었음을 알 수 있었다. 그러나 시간이 흐름에 따라 '안전(safety)', '재검토(reexamination)', '대책(countermeasure)', '처분(disposal)', '해체(disassemble)' 등의 키워드 출현빈도가 급증하며 사용후핵연료 처리기술 연구에 대한 지속 여부가 사회적으로 진지하게 고려되고 있음을 알 수 있었다. 정치 외교적 기술로 인식되던 사용후핵연료 처리기술이 국내 정책의 변화로 연구 지속 가능성이 모호해짐에 따라 언론 인식도 점차 변화했다는 것을 확인하였다. 이러한 연구 결과를 통해 원자력 분야에서의 사회과학 연구의 지속은 필수불가결함을 알 수 있었고 이에 대한 중요성이 부각되었다. 또한, 현 정부의 원전 감축과 같은 에너지 정책의 영향으로, 사용후핵연료 처리기술 연구개발에 대한 재평가가 시행되는 이 시점에서 해당 분야의 주요 키워드 분석은 향후 연구 방향 설정에 기여할 수 있을 것이라는 측면에서 실무적 의의를 갖는다. 더 나아가 원자력 공학 분야에 사회과학 분야를 폭넓게 적용할 필요가 있으며, 국가 정책적 변화를 고려해야 원자력 산업이 지속 가능할 것으로 사료된다.

공공 정보지원 인프라 활용한 제조 중소기업의 특징과 성과에 관한 연구 (The Characteristics and Performances of Manufacturing SMEs that Utilize Public Information Support Infrastructure)

  • 김근환;권태훈;전승표
    • 지능정보연구
    • /
    • 제25권4호
    • /
    • pp.1-33
    • /
    • 2019
  • 제조 중소기업들은 지속적인 성장과 생존을 위해 새로운 제품 개발에 필요한 많은 정보가 필요할 뿐만 아니라 자원의 한계를 극복하기 위한 네트워킹(networking)을 추구하지만, 규모의 한계로 인해 한계점에 봉착하게 된다. 초연결성으로 인해 비즈니스 환경의 복잡성과 불확실성이 더욱 높아지는 새로운 시대에 중소기업은 신속한 정보 확보와 네트워킹 문제를 해결이 더욱 절실해지고 있다. 이러한 문제를 해결하기 위해 공공기관인 정부출연(연)구기관(이하 '출연(연)')은 중소기업의 정보 비대칭성 문제를 해결해야하는 중요한 임무와 역할을 맞이하고 있다. 본 연구에서는 비즈니스 인텔리젼스의 경쟁 지능화(competitive intelligence) 기능과 외부 네트워크 활성화를 위한 서비스 인프라(service infrastructure)의 기능을 포함한 공공 정보지원 인프라를 통한 간접지원의 성과를 확산하고자 하는 목적으로 출연(연)이 중소기업의 혁신역량 제고를 위해 제공하는 공공 정보지원 인프라를 활용하는 중소기업의 차별적 특징을 파악하고, 인프라가 기업의 성과에 어떻게 기여하는 가를 규명하고자 하였다. 이를 위해 첫째, 출연(연)이 제공한 정보지원 인프라를 활용하는 제조 중소기업은 다른 중소기업과 어떤 차별적인 특정이 있는가? 라는 연구 질의를 도출하였다. 추가적으로 단순히 선택적 편의 여부를 판단하는 것을 넘어서 출연(연) 정보지원 인프라를 활용한 제조 중소기업의 특징을 복수 집단의 특징과 비교하는 연구를 진행하였다. 둘째, 출연(연)이 제공하는 정보지원 인프라를 활용한 제조 중소기업의 외부 네트워킹 역량이 제품 경쟁력에 어떻게 기여했는가? 라는 연구 질의이다. 본 연구에서 공공 정보지원 인프라에 의해서 강화된 외부 네트워킹 역량이 어떻게 제품 경쟁력에 영향을 미쳤는지 정밀하게 분석하기 위해 복수의 변수에 대한 매개 및 조절 효과 분석을 수행하였다. 연구 모형을 도출하기하기 위해 첫째, 외부 네트워킹이 기술혁신성과에 영향력에 대한 평가를 수행하였다. 일반적으로 기업들은 외부 네트워킹(networking) 전략을 통해 혁신에 필요한 가치 있는 정보를 획득할 수 있기 때문에 기술혁신성과를 높일 수 있다. 정보 획득은 중소 제조기업 경영자의 혁신에 대한 인식을 강화할 뿐만아니라, 의사결정을 효율적으로 하여 경쟁력을 강화시킬 수 있게 된다. 대기업에 비해 인력과 자금의 규모 한계를 극복하기 위해 중소기업은 외부 조직과의 협력관계를 보다 적극적으로 추구한다. 둘째, 기술사업화 역량이 기술혁신성과에 미치는 관계에 대한 평가를 수행하였다. 기술사업화는 생산과 마케팅을 통합하여 새로운 기술을 만드는 역량을 말한다. 우수한 생산 역량을 보유한 기업은 소비자의 수요를 가격, 품질, 신기능 측면에서 신속하게 충족시킬 수 있어 시장내 경쟁우위를 창출하고, 그 결과로 높은 재무적 혁신적 성과를 가져온다고 본다. 혁신적인 기업은 생산 역량과 마케팅 역량에서 일반 기업보다 높은 성과를 나타내는데, 기술혁신성과의 대표 지표로 제품 경쟁력을 지목하고 있다. 마지막으로 기업의 규모가 작을수록 새로운 혁신 정보를 확보할 수 있는 자체 정보지원 인프라가 없는 경향이 있다. 중소기업용 정보인프라는 기업의 제품 또는 서비스 역량을 강화하기 위한 전략에 필요한 중요한 정보를 확보할 수 있어야 하며, 데이터에 대한 해석 기능이 있어야 하고, 기업의 성장과 발전을 위한 다양한 주제(대기업, 공급자, 소비자 등)와의 협력 전략을 수립을 도울 수 있는 기능이 요구된다. 종합하면, 연구모형은 외부 네트워킹 역량(독립변수)이 기술혁신성과인 제품 경쟁력(종속변수)에 영향을 주는 기본 모형에 기술사업화 역량을 매개요인으로 적용하였고, 이들의 관계에 기업의 내부역량(연구원 집중도, 매출액, 업력)이 영향을 줄 수 있기 때문에 기업의 내부역량과 관련된 변수들을 통제하였다. 또한 KISTI가 제공한 공공 정보지원 인프라 활용한 기업별 역량 차이를 분석하기 위해, 정보지원 인프라 활용(효율성)과 관련된 KISTI 외부 기술사업화 전문가(멘토링) 정보지원 횟수의 조절 변수로 고려하였다. 본 연구에서 활용한 데이터 원천은 2차 정보인 '제8차 중소기업 기술통계조사' 자료와 1차 정보인 KISTI의 직접 설문 자료다. '제8차 중소기업 기술통계조사' 는 중소기업청과 중소기업중앙회에서 공동으로 매년 실시되고 있으며, 설문 조사의 모집단은 종사자수 5인 이상 300인 미만인 제조업 및 제조업 외 기업 중에서 기술개발을 수행하고 있는 중소기업 43,204개사이다. 이 중에서 2014년 12월 31일 현재 기준으로 기술개발을 수행하고 있는 3,300개 중소기업을 표본추출하여 방문조사를 실시하여 수집한 자료이다. 본 연구에서 KISTI의 정보지원 인프라를 통해 지원받은 290개의 KISTI 패밀리 기업(ASTI)을 대상으로 2017년에 전자 메일을 통해 자료를 수집하였다. 송부된 290개의 설문지 중 222개의 기업에서 회신을 보내왔으며 그 중에서 설문 내용이 유효한 설문 조사는 149건으로 활용율은 51.3%였다. 분석 결과에 대한 살펴보면 다음과 같다. 규모면에서는 공공 정보지원 인프라 활용 제조 중소기업(ASTI 설문 집단)과 R&D 중소기업(KBIZ 설문 집단)의 성향은 통계적으로 유의미하게 차이가 있었지만, 보다 많은 변수를 종합적으로 보면 크게 다르지 않은 집단이라고 판단했다. 공공 정보지원 인프라를 활용하는 제조 중소기업은 이미 출연(연)과 협업이 가능한 집단을 대표하는 성향 보이는 것으로 나타났다. 외부 네트워킹 역량 강화가 제품 경쟁력 제고에 기여하는데 있어서 기술사업화 역량(마케팅 및 생산 역량)이 가지는 매개 효과의 가능성을 탐색하기 위해서 먼저 통제 변수는 고려하지 않고, Baron과 Kenny(1986)의 매개 효과 분석을 수행했다. 분석결과 외부 네트워크 역량 강화 효과가 제품 경쟁력을 강화시키는 것으로 보였지만, 실제는 기술사업화 역량의 제고를 통해 제품 경쟁력을 강화시키는 것으로 나타났다. 공공 정보지원 인프라 활용의 효과성을 판단하기 위한 멘토링 정보지원 횟수의 조절효과 분석을 위해 3단계의 위계적 회귀분석을 수행하였다. 분석 결과 외부 네트워킹 역량과 멘토링 정보지원 횟수의 상호작용항이 혁신성과(제품 경쟁력)에 유의한 영향을 미쳤을 뿐 아니라, 모델의 설명력도 증가하여, 멘토링 정보지원 횟수의 조절 효과가 검증되었다. 마지막으로 앞서 확인된 복수 매개효과와 조절효과가 동시에 나타날 수 있는 가능성을 판단하기 위해서 매개된 조절효과를 검토했다. 분석결과 외부 네트워킹 역량이 높아지면 제품 경쟁력 제고에 양의 영향을 주지만, 조절 변수인 멘토링 지원 횟수가 높아질수록 그 영향은 오히려 약화되었다. 그리고 외부 네트워킹 역량이 높아지면 사업화 역량(마케팅과 생산)이 높아져서 제품 경쟁력이 높아지며, 조절변수인 멘토링 지원 횟수가 높아지면 독립변수 외부 네트워킹 역량이 매개변수 생산 역량에 미치는 역량이 작아졌다. 종합하면, 외부 네트워킹 역량의 제고는 제품 경쟁력을 높이는데 기여하는데, 직접적 기여하지는 않지만 마케팅과 생산 역량을 높여 간접적으로 기여한다(완전 매개 효과). 또한 이 과정에서 멘토링의 정보적 지원 횟수는 외부 네트워킹 역량 제고가 생산 역량을 제고하는 매개효과에 영향을 준다(순수 조절 효과). 그러나 멘토링 정보 지원 횟수는 마케팅 역량 제고와 제품경쟁력에 별다른 조절 효과를 보이진 않는 것으로 나타났다. 연구를 통한 시사점은 다음과 같다. KISTI의 정보지원 인프라는 서비스 활용 마케팅이 이미 잘 진행되고 있다는 결론을 이끌 수도 있지만, 반면에 시장의 정보 불균형을 해소하는 공공적 기능보다는(열위 기업 지원) 성과가 잘 도출될 수 있는 집단을 지원해서(의도적 선택적 편의) 성과가 잘 나타나도록 관리하고 있다는 결론에 이를 수 있다. 연구 결과를 통해서 우리는 공공 정보지원 인프라가 어떻게 제품경쟁력 제고에 기여하는지 확인했는데, 여기서 우리는 다음과 같은 몇 가지 정책적 시사점을 도출할 수 있다. 첫째, 정보지원 인프라는 분석된 정보뿐만아니라 이 정보를 제공하는 기관(또는 전문가)과 지속적인 교류나 이런 기관을 찾는 역량을 높이는 기능이 있어야 한다. 둘째, 공공 정보지원 (온라인) 인프라의 활용이 효과적이라면 병행적인 오프라인 지원인 정보 멘토링이 지속적으로 제공될 필요는 없으며, 오히려 멘토링과 같은 오프라인 병행 지원은 성과 제고보다는 이상징후 감시에 적절한 장치로 활용되어야 한다. 셋째, 셋째, 공공 정보지원 인프라를 통한 네트워킹 역량 제고와 이를 통한 제품경쟁력 제고 효과는 특정 중소기업에서 나타나기 보다는 대부분 형태의 기업에서 나타나기 때문에, 중소기업이 활용 능력을 제고할 노력이 요구된다.