• 제목/요약/키워드: Dynamic systems

검색결과 7,430건 처리시간 0.037초

스마트폰 위치기반 어플리케이션의 이용의도에 영향을 미치는 요인: 프라이버시 계산 모형의 적용 (Factors Influencing the Adoption of Location-Based Smartphone Applications: An Application of the Privacy Calculus Model)

  • 차훈상
    • Asia pacific journal of information systems
    • /
    • 제22권4호
    • /
    • pp.7-29
    • /
    • 2012
  • Smartphone and its applications (i.e. apps) are increasingly penetrating consumer markets. According to a recent report from Korea Communications Commission, nearly 50% of mobile subscribers in South Korea are smartphone users that accounts for over 25 million people. In particular, the importance of smartphone has risen as a geospatially-aware device that provides various location-based services (LBS) equipped with GPS capability. The popular LBS include map and navigation, traffic and transportation updates, shopping and coupon services, and location-sensitive social network services. Overall, the emerging location-based smartphone apps (LBA) offer significant value by providing greater connectivity, personalization, and information and entertainment in a location-specific context. Conversely, the rapid growth of LBA and their benefits have been accompanied by concerns over the collection and dissemination of individual users' personal information through ongoing tracking of their location, identity, preferences, and social behaviors. The majority of LBA users tend to agree and consent to the LBA provider's terms and privacy policy on use of location data to get the immediate services. This tendency further increases the potential risks of unprotected exposure of personal information and serious invasion and breaches of individual privacy. To address the complex issues surrounding LBA particularly from the user's behavioral perspective, this study applied the privacy calculus model (PCM) to explore the factors that influence the adoption of LBA. According to PCM, consumers are engaged in a dynamic adjustment process in which privacy risks are weighted against benefits of information disclosure. Consistent with the principal notion of PCM, we investigated how individual users make a risk-benefit assessment under which personalized service and locatability act as benefit-side factors and information privacy risks act as a risk-side factor accompanying LBA adoption. In addition, we consider the moderating role of trust on the service providers in the prohibiting effects of privacy risks on user intention to adopt LBA. Further we include perceived ease of use and usefulness as additional constructs to examine whether the technology acceptance model (TAM) can be applied in the context of LBA adoption. The research model with ten (10) hypotheses was tested using data gathered from 98 respondents through a quasi-experimental survey method. During the survey, each participant was asked to navigate the website where the experimental simulation of a LBA allows the participant to purchase time-and-location sensitive discounted tickets for nearby stores. Structural equations modeling using partial least square validated the instrument and the proposed model. The results showed that six (6) out of ten (10) hypotheses were supported. On the subject of the core PCM, H2 (locatability ${\rightarrow}$ intention to use LBA) and H3 (privacy risks ${\rightarrow}$ intention to use LBA) were supported, while H1 (personalization ${\rightarrow}$ intention to use LBA) was not supported. Further, we could not any interaction effects (personalization X privacy risks, H4 & locatability X privacy risks, H5) on the intention to use LBA. In terms of privacy risks and trust, as mentioned above we found the significant negative influence from privacy risks on intention to use (H3), but positive influence from trust, which supported H6 (trust ${\rightarrow}$ intention to use LBA). The moderating effect of trust on the negative relationship between privacy risks and intention to use LBA was tested and confirmed by supporting H7 (privacy risks X trust ${\rightarrow}$ intention to use LBA). The two hypotheses regarding to the TAM, including H8 (perceived ease of use ${\rightarrow}$ perceived usefulness) and H9 (perceived ease of use ${\rightarrow}$ intention to use LBA) were supported; however, H10 (perceived effectiveness ${\rightarrow}$ intention to use LBA) was not supported. Results of this study offer the following key findings and implications. First the application of PCM was found to be a good analysis framework in the context of LBA adoption. Many of the hypotheses in the model were confirmed and the high value of $R^2$ (i.,e., 51%) indicated a good fit of the model. In particular, locatability and privacy risks are found to be the appropriate PCM-based antecedent variables. Second, the existence of moderating effect of trust on service provider suggests that the same marginal change in the level of privacy risks may differentially influence the intention to use LBA. That is, while the privacy risks increasingly become important social issues and will negatively influence the intention to use LBA, it is critical for LBA providers to build consumer trust and confidence to successfully mitigate this negative impact. Lastly, we could not find sufficient evidence that the intention to use LBA is influenced by perceived usefulness, which has been very well supported in most previous TAM research. This may suggest that more future research should examine the validity of applying TAM and further extend or modify it in the context of LBA or other similar smartphone apps.

  • PDF

유사도 알고리즘을 활용한 시맨틱 프로세스 검색방안 (Semantic Process Retrieval with Similarity Algorithms)

  • 이홍주
    • Asia pacific journal of information systems
    • /
    • 제18권1호
    • /
    • pp.79-96
    • /
    • 2008
  • One of the roles of the Semantic Web services is to execute dynamic intra-organizational services including the integration and interoperation of business processes. Since different organizations design their processes differently, the retrieval of similar semantic business processes is necessary in order to support inter-organizational collaborations. Most approaches for finding services that have certain features and support certain business processes have relied on some type of logical reasoning and exact matching. This paper presents our approach of using imprecise matching for expanding results from an exact matching engine to query the OWL(Web Ontology Language) MIT Process Handbook. MIT Process Handbook is an electronic repository of best-practice business processes. The Handbook is intended to help people: (1) redesigning organizational processes, (2) inventing new processes, and (3) sharing ideas about organizational practices. In order to use the MIT Process Handbook for process retrieval experiments, we had to export it into an OWL-based format. We model the Process Handbook meta-model in OWL and export the processes in the Handbook as instances of the meta-model. Next, we need to find a sizable number of queries and their corresponding correct answers in the Process Handbook. Many previous studies devised artificial dataset composed of randomly generated numbers without real meaning and used subjective ratings for correct answers and similarity values between processes. To generate a semantic-preserving test data set, we create 20 variants for each target process that are syntactically different but semantically equivalent using mutation operators. These variants represent the correct answers of the target process. We devise diverse similarity algorithms based on values of process attributes and structures of business processes. We use simple similarity algorithms for text retrieval such as TF-IDF and Levenshtein edit distance to devise our approaches, and utilize tree edit distance measure because semantic processes are appeared to have a graph structure. Also, we design similarity algorithms considering similarity of process structure such as part process, goal, and exception. Since we can identify relationships between semantic process and its subcomponents, this information can be utilized for calculating similarities between processes. Dice's coefficient and Jaccard similarity measures are utilized to calculate portion of overlaps between processes in diverse ways. We perform retrieval experiments to compare the performance of the devised similarity algorithms. We measure the retrieval performance in terms of precision, recall and F measure? the harmonic mean of precision and recall. The tree edit distance shows the poorest performance in terms of all measures. TF-IDF and the method incorporating TF-IDF measure and Levenshtein edit distance show better performances than other devised methods. These two measures are focused on similarity between name and descriptions of process. In addition, we calculate rank correlation coefficient, Kendall's tau b, between the number of process mutations and ranking of similarity values among the mutation sets. In this experiment, similarity measures based on process structure, such as Dice's, Jaccard, and derivatives of these measures, show greater coefficient than measures based on values of process attributes. However, the Lev-TFIDF-JaccardAll measure considering process structure and attributes' values together shows reasonably better performances in these two experiments. For retrieving semantic process, we can think that it's better to consider diverse aspects of process similarity such as process structure and values of process attributes. We generate semantic process data and its dataset for retrieval experiment from MIT Process Handbook repository. We suggest imprecise query algorithms that expand retrieval results from exact matching engine such as SPARQL, and compare the retrieval performances of the similarity algorithms. For the limitations and future work, we need to perform experiments with other dataset from other domain. And, since there are many similarity values from diverse measures, we may find better ways to identify relevant processes by applying these values simultaneously.

사회과학 연구에 있어 인터넷 및 상업용 통신망을 이용한 전자설문 조사방법의 활용 (Toward a Social Sciences Methodology for Electronic Survey Research on the Internet or Personal Computer check)

  • 홍용기;이홍기;채수경
    • 경영과정보연구
    • /
    • 제3권
    • /
    • pp.287-316
    • /
    • 1999
  • Cyberspace permits us to more beyond traditional face-to-face, mail and telephone surveys, yet still to examine basic issues regarding the quality of data collection: sampling, questionnaire design, survey distribution, means of response, and database creation. This article address each of these issues by contrasting and comparing traditional survey methods(Paper-and-Pencil) with Internet or Personal Computer networks-mediated (Screen-and-Keyboard) survey methods also introduces researchers to this revolutionary and innovative tool and outlines a variety of practical methods for using the Internet or Personal Computer Networks. The revolution in telecommunications technology has fostered the rapid growth of the Internet all over the world. The Internet is a massive global network and comprising many national and international networks of interconnected computers. The Internet or Personal Computer Networks could be the comprehensive interactive tool that will facilitate the development of the skills. The Internet or Personal Computer Networks provides a virtual frontier to expand our access to information and to increase our knowledge and understanding of public opinion, political behavior, social trends and lifestyles through survey research. Comparable to other technological advancements, the Internet or Personal Computer Networks presents opportunities that will impact significantly on the process and quality of survey research now and in the twenty-first century. There are trade-offs between traditional and the Internet or Personal Computer Networks survey. The Internet or Personal Computer Networks is an important channel for obtaining information for target participants. The cost savings in time, efforts, and material were substantial. The use of the Internet or Personal Computer Networks survey tool will increase the quality of research environment. There are several limitations to the Internet or Personal Computer Network survey approach. It requires the researcher to be familiar with Internet navigation and E-mail, it is essential for this process. The use of Listserv and Newsgroup result in a biased sample of the population of corporate trainers. However, it is this group that participates in technology and is in the fore front of shaping the new organizations of interest, and therefore it consists of appropriate participants. If this survey method becomes popular and is too frequently used, potential respondents may become as annoyed with E-mail as the sometimes are with mail survey and junk mail. Being a member of the Listserv of Newsgroup may moderate that reaction. There is a need to determine efficient, effective ways for the researcher to strip identifiers from E-mail, so that respondents remain anonymous, while simultaneously blocking a respondent from responding to a particular survey instrument more than once. The optimum process would be on that is initiated by the researcher : simple, fast and inexpensive to administer and has credibility with respondents. This would protect the legitimacy of the sample and anonymity. Creating attractive Internet or Personal Computer Networks survey formats that build on the strengths of standardized structures but also capitalize on the dynamic and interactive capability of the medium. Without such innovations in survey design, it is difficult to imagine why potential survey respondents would use their time to answer questions. More must be done to create diverse and exciting ways of building an credibility between respondents and researchers on the Internet or Personal Computer Networks. We believe that the future of much exciting research is based in the Electronic survey research. The ability to communicate across distance, time, and national boundaries offers great possibilities for studying the ways in which technology and technological discourse are shaped. used, and disseminated ; the many recent doctoral dissertations that treat some aspect of electronic survey research testify to the increase focus on the Internet or Personal Computer Networks. Thus, scholars should begin a serious conversation about the methodological issues of conducting research In cyberspace. Of all the disciplines, Internet or Personal Computer Networks, emphasis on the relationship between technology and human communication, should take the lead in considering research in the cyberspace.

  • PDF

추천 시스템의 성능 안정성을 위한 예측적 군집화 기반 협업 필터링 기법 (Predictive Clustering-based Collaborative Filtering Technique for Performance-Stability of Recommendation System)

  • 이오준;유은순
    • 지능정보연구
    • /
    • 제21권1호
    • /
    • pp.119-142
    • /
    • 2015
  • 사용자의 취향과 선호도를 고려하여 정보를 제공하는 추천 시스템의 중요성이 높아졌다. 이를 위해 다양한 기법들이 제안되었는데, 비교적 도메인의 제약이 적은 협업 필터링이 널리 사용되고 있다. 협업 필터링의 한 종류인 모델 기반 협업 필터링은 기계학습이나 데이터 마이닝 모델을 협업 필터링에 접목한 방법이다. 이는 희박성 문제와 확장성 문제 등의 협업 필터링의 근본적인 한계를 개선하지만, 모델 생성 비용이 높고 성능/확장성 트레이드오프가 발생한다는 한계점을 갖는다. 성능/확장성 트레이드오프는 희박성 문제의 일종인 적용범위 감소 문제를 발생시킨다. 또한, 높은 모델 생성 비용은 도메인 환경 변화의 누적으로 인한 성능 불안정의 원인이 된다. 본 연구에서는 이 문제를 해결하기 위해, 군집화 기반 협업 필터링에 마르코프 전이확률모델과 퍼지 군집화의 개념을 접목하여, 적용범위 감소 문제와 성능 불안정성 문제를 해결한 예측적 군집화 기반 협업 필터링 기법을 제안한다. 이 기법은 첫째, 사용자 기호(Preference)의 변화를 추적하여 정적인 모델과 동적인 사용자간의 괴리 해소를 통해 성능 불안정 문제를 개선한다. 둘째, 전이확률과 군집 소속 확률에 기반한 적용범위 확장으로 적용범위 감소 문제를 개선한다. 제안하는 기법의 검증은 각각 성능 불안정성 문제와 확장성/성능 트레이드오프 문제에 대한 강건성(robustness)시험을 통해 이뤄졌다. 제안하는 기법은 기존 기법들에 비해 성능의 향상 폭은 미미하다. 또한 데이터의 변동 정도를 나타내는 지표인 표준 편차의 측면에서도 의미 있는 개선을 보이지 못하였다. 하지만, 성능의 변동 폭을 나타내는 범위의 측면에서는 기존 기법들에 비해 개선을 보였다. 첫 번째 실험에서는 모델 생성 전후의 성능 변동폭에서 51.31%의 개선을, 두 번째 실험에서는 군집 수 변화에 따른 성능 변동폭에서 36.05%의 개선을 보였다. 이는 제안하는 기법이 성능의 향상을 보여주지는 못하지만, 성능 안정성의 측면에서는 기존의 기법들을 개선하고 있음을 의미한다.

트윗 데이터를 활용한 IT 트렌드 분석 (An Analysis of IT Trends Using Tweet Data)

  • 이진백;이충권;차경진
    • 지능정보연구
    • /
    • 제21권1호
    • /
    • pp.143-159
    • /
    • 2015
  • 불확실한 환경변화에 대처하고 장기적 전략수립을 위해 기업에게 있어서 IT 트렌드에 대한 예측은 오랫동안 중요한 주제였다. IT 트렌드에 대한 예측을 기반으로 새로운 시대에 대한 인식을 하고 예산을 배정하여 빠르게 변화하는 기술의 추세에 대비할 수 있기 때문이다. 해마다 유수의 컨설팅업체들과 조사기관에서 차년도 IT 트렌드에 대해서 발표되고는 있지만, 이러한 예측이 실제로 차년도 비즈니스 현실세계에서 나타났는지에 대한 연구는 거의 없었다. 본 연구는 현존하는 빅데이터 기술을 활용하여 서울지역을 중심으로 지난 8개월동안(2013년 5월1일부터 2013년12월31까지) 정보통신산업진흥원과 한국정보화진흥원에서 2012년 말에 발표한 IT 트렌드 토픽이 언급된 21,589개의 트윗 데이터를 수집하여 분석하였다. 또한 2013년에 나라장터에 올라온 프로젝트들이 IT트렌드 토픽과 관련이 있는지 상관관계분석을 실시하였다. 연구결과, 빅데이터, 클라우드, HTML5, 스마트홈, 테블릿PC, UI/UX와 같은 IT토픽은 시간이 지날수록 매우 빈번하게 언급되어졌으며, 이 같은 토픽들은 2013년 나라장터 공고 프로젝트 데이터와도 매우 유의한 상관관계를 가지고 있는 것을 확인할 수 있었다. 이는 전년도(2012년)에 예측한 트렌드들이 차년도(2013년)에 실제로 트위터와 한국정부의 공공조달사업에 반영되어 나타나고 있는 것을 의미한다. 본 연구는 최신 빅데이터툴을 사용하여, 유수기관의 IT트렌드 예측이 실제로 트위터와 같은 소셜미디에서 생성되는 트윗데이터에서 얼마나 언급되어 나타나는지 추적했다는 점에서 중요한 의의가 있고, 이를 통해 트위터가 사회적 트랜드의 변화를 효율적으로 추적하기에 유용한 도구임을 확인하고자 할 수 있었다.

무역 중국어 담화 고찰과 한중 협상문화 비교 - '냅킨꽂이' 수입 관련 비즈니스 이메일을 중심으로 - (Discourse Analysis of Business Chinese and the Comparison of Negotiation Culture between Korea and China - Focused on Business Emails Related to 'Napkin Holder' Imports -)

  • 최태훈
    • 비교문화연구
    • /
    • 제50권
    • /
    • pp.103-130
    • /
    • 2018
  • 이 연구의 목표는 한국 구매자와 중국 공급자 사이에 주고받은 이메일을 분석 대상으로 삼아 무역 중국어 담화를 고찰하고 한 중 협상문화를 비교함에 있다. 연구 문제는 첫째, 이메일 비즈니스를 통해 보이는 무역 중국어 담화의 특징과 기능. 둘째, 이메일 비즈니스의 절차에 따른 중국어 무역 용어 분류. 셋째, 한 중문화 가치관에 따른 협상과 갈등 양상 비교이다. 연구 참가자는 한국 구매자 제임스와 중국 공급자 소냐이다. 분석대상은 거래 품목 냅킨꽂이를 주문, 생산, 수입하는 과정에서 교환 된 74개의 이메일로 한다. 연구의 발견은 다음과 같다. 첫째, 본 이메일 무역 중국어 담화는 필요시마다 몇 번에 걸쳐 반복적으로 진행되는 특징을 보여주었다. 더불어 무역 중국어 담화의 주요한 언어기능은 요청, 알려주기, 협상, 설득하기로 드러났다. 둘째, 본 이메일 무역에 집중적으로 사용된 중국어 어휘는 (1) 주문과 가격협상, (2) 원산지 표시, (3) 상품검사와 세관신고, (4) 무역 통관에 필요한 서류, (5) 포장과 운송 등으로 구분하여 설명하였다. 셋째, 한 중 문화적 가치관의 유사점과 차이점이 비즈니스 행위에 미치는 영향에 대해 협상과 갈등 양상을 중심으로 비교 고찰하였다. 한 중 비즈니스에서 상대방의 체면을 세워줌으로써 자신의 체면도 유지하는 협상 전략은 자기주장을 중시하여 상대방의 체면을 위협하거나 무관심한 서양의 협상 문화와는 뚜렷한 차이를 보인다. 나아가 무역 문서의 법적 문제와 관련한 담화에서는 한 중 양국의 불확실성 회피 전략의 큰 차이로 인한 갈등양상에 대해 고찰하였다. 이를 통해 우리는 한 중 무역에서 문화적 가치관이 당사자들의 행동 패턴에 영향을 미침으로 사전에 대책 마련이 중요함을 알 수 있게 되었다.

토픽 모델링을 활용한 한국의 창업생태계 트렌드 변화 분석 (Analysis on Dynamics of Korea Startup Ecosystems Based on Topic Modeling)

  • 손희영;이명종;변영조
    • 지식경영연구
    • /
    • 제23권4호
    • /
    • pp.315-338
    • /
    • 2022
  • 1986년, 한국은 국가발전의 주축인 중소기업 창업지원을 위한 법 제도를 마련하였다. 이를 기반으로 지난 30여년간 창업정책의 수립 및 발전을 거듭하여 매년 100만 개가 넘는 신규 창업기업이 설립되는 역동적인 창업생태계를 구축하였다. 국가의 정책 방향과 사회, 경제, 문화 등의 외부환경 영향, 그리고 창업지원의 역사를 주요 이슈별로 분석하여 도출된 핵심문장 또는 키워드는 시대별 지원의 특징과 국가지원의 중심내용 등을 확인하는 데 매우 유용하다. 본 연구는 한국의 창업생태계 트렌드 변화를 분석하기 위해 1991년부터 2020년 12월까지 30년간의 언론기사에서 '창업', '벤처', '스타트업' 키워드가 포함된 118만여 건을 추출하고 네트워크 분석과 토픽 모델링을 활용하였다. 분석결과, 한국의 창업생태계 트렌드는 기업 및 산업육성, 확산 그리고 규제 완화, 활황 등, 정부 중심으로 스타트업 생태계의 변화와 발전이 이루어졌음을 파악할 수 있었으며, 다빈도 키워드 분석결과, 생태계 구성요인 간의 연계 활동을 통하여 기업가적인 생산성이 창출되었다. 생산성 창출의 주요 요인으로 한국은 대기업의 휴대폰 산업 발전과 이와 관련된 콘텐츠 스타트업의 성장, 인터넷과 쇼핑몰 중심의 플랫폼 기업의 발전, 그리고 청년창업과 글로벌 진출, 모바일과 인터넷 인프라 중심의 창업기업육성 노력 등으로 파악할 수 있었다. 본 연구는 30년간의 언론기사를 텍스트마이닝과 토픽 모델링을 활용하여 트렌드를 도출하였다. 이는 선행연구가 기존 정부와 정책의 변경 시기를 기준으로 트렌드 변화를 분석한 것과 달리, 언론기사의 키워드와 토픽 변화를 기준으로 창업생태계의 트렌드 변화를 분석하였다는 점에서 학술적 의의뿐만 아니라, 30년 간의 창업생태계 변화 및 주요이슈를 조명해 봄으로써 향후 창업지원의 방향성을 예측할 수 있는 실무적 시사점을 제공하였다.

ICT 기반 다중 가치사슬의 동적 플랫폼에서의 공존 모형: 의료서비스를 중심으로 (A Coexistence Model in a Dynamic Platform with ICT-based Multi-Value Chains: focusing on Healthcare Service)

  • 이현정;장용식
    • 지능정보연구
    • /
    • 제23권1호
    • /
    • pp.69-93
    • /
    • 2017
  • ICT는 제조기반 산업사회에서 가치사슬의 효율성/효과성의 지원을 목적으로 도입되었으나 정보기반 산업사회에서는 ICT가 시장 가치 창출의 주체가 되어 다중 가치사슬의 형성 가능성을 기대하게 하였다. 즉, ICT의 발전은 공급 및 수요의 다변화와 다양성의 동인이 되면서 가치를 창출하기 시작했고, 이를 중심으로 하는 신 가치 사슬의 등장은 구 가치사슬과의 충돌의 문제를 야기하였다. 즉, 다중 가치사슬이 존재 가능한 플랫폼에서는 가치사슬 간의 충돌, 중첩, 생성, 상실 등의 동적 상황 등에 따른 신/구 가치의 창출과 소멸 등이 발생하게 된다. 예를 들어, ICT에 기반을 둔 우버택시 서비스는 신 가치사슬을 형성하여 택시서비스 시장에서 신/구 가치사슬간의 충돌을 야기했다. 제조기반 산업사회에서는 단일 가치사슬의 시장 선점이 중요하였으나, ICT 기반 융합 제품/서비스/정보가 유통되는 플랫폼에서는 시장 상황 변수의 동적 변화에 따라 다중의 가치사슬이 존재하면서 서로 충돌과 공존을 야기하게 되었다. 따라서 ICT에 기반을 둔 지능형 정보사회의 발전과 함께 시장가치 최대화를 위해 다중 가치사슬 간 충돌 최소화와 공존의 최대 가능성을 높일 수 있는 모형의 제시가 중요하다. 본 연구에서는 먼저 의료서비스 시장을 중심으로 하는 다중 가치사슬의 동적 플랫폼 형성에 대해 논의한다. 즉, 의료서비스 시장에 ICT 기반 원격 및 지능형 의료서비스 등이 구 시장에 진입함으로써 발생하는 가치사슬 간의 충돌을 최소화하고 공존 가능성을 높이기 위한 공존 요인 변수에 대해 논의 한다. 이를 위해 다중의 공급과 소비 및 서비스가 존재 가능한 다중 가치사슬이 충돌 및 중첩하는 과정에서 공존 요인 변수 등에 기반하여 가치 사슬들을 동적으로 생성/변화/소멸 및 공존하기까지 의료서비스 플랫폼에 대해 논의한다. 또한 플랫폼 내의 각 가치사슬의 생산가치의 증가와 가치사슬 간의 상호 작용에 의한 부가가치의 창출 등에 의해 플랫폼의 총 가치가 증가 될 수 있음을 논의한다. 마지막으로 공존 모형을 제안하고 실험을 통해 가치사슬 간의 공존 가능성을 제시한다.

기술 성숙도 및 의존도의 네트워크 분석을 통한 유망 융합 기술 발굴 방법론 (Discovering Promising Convergence Technologies Using Network Analysis of Maturity and Dependency of Technology)

  • 최호창;곽기영;김남규
    • 지능정보연구
    • /
    • 제24권1호
    • /
    • pp.101-124
    • /
    • 2018
  • 최근 다양한 분야에서 새로운 기술이 출현하고 있으며, 이들 대부분은 기존 기술들의 융합(Convergence)을 통해 형성되고 있다. 또한 가까운 미래에 출현하게 될 유망한 융합 기술을 예측함으로써 변화하는 기술 지형에 선제적으로 대응하기 위한 수요가 꾸준히 증가하고 있으며, 이러한 수요에 부응하여 많은 기관과 연구자들은 미래 유망 융합 기술 예측을 위한 분석을 수행하고 있다. 하지만 이와 관련한 기존의 많은 연구들은 (i) 고정된 기술 분류 기준을 분석에 사용함으로써 기술 분야의 동적 변화를 반영하지 못했다는 점, (ii) 예측 모형 수립 과정에서 주로 범용성 네트워크 지표를 사용함으로써 기술의 융합이라는 목적에 부합하는 고유 특성을 활용하지 못했다는 점, 그리고 (iii) 유망 분야 예측 모형의 정확성 평가를 위한 객관적 방법을 제시하지 못했다는 점 등에서 한계를 갖고 있다. 이에 본 연구에서는 (i) 토픽 모델링을 통해 기존의 고정된 분류 기준이 아닌 실제 기술시장의 동적 변화에 따른 새로운 기술군을 도출하고, (ii) 기술 성숙도 및 기술군 간 의존 관계에 따라 각 기술군의 융합적 특성을 반영하는 잠재 성장 중심성(Potential Growth Centrality) 지표를 산출하였으며, (iii) 잠재 성장 중심성에 근거하여 예측한 유망 기술의 성숙도 증가량을 시기별로 측정하여 예측 모형의 정확도를 평가하는 방안을 제시한다. 이와 더불어 제안 방법론의 성능 및 실무 적용 가능성의 평가를 위해 특허 문서 13, 477건에 대한 실험을 수행하였으며, 실험 결과 제안한 잠재 성장 중심성에 따른 예측 모형이 단순히 현재 활용되는 영향도 기반의 예측 모형에 비해 최대 약 2.88배 높은 예측 정확도를 보임을 확인하였다.

텍스트 마이닝을 이용한 2012년 한국대선 관련 트위터 분석 (Analysis of Twitter for 2012 South Korea Presidential Election by Text Mining Techniques)

  • 배정환;손지은;송민
    • 지능정보연구
    • /
    • 제19권3호
    • /
    • pp.141-156
    • /
    • 2013
  • 최근 소셜미디어는 전세계적 커뮤니케이션 도구로서 사용에 전문적인 지식이나 기술이 필요하지 않기 때문에 이용자들로 하여금 콘텐츠의 실시간 생산과 공유를 가능하게 하여 기존의 커뮤니케이션 양식을 새롭게 변화시키고 있다. 특히 새로운 소통매체로서 국내외의 사회적 이슈를 실시간으로 전파하면서 이용자들이 자신의 의견을 지인 및 대중과 소통하게 하여 크게는 사회적 변화의 가능성까지 야기하고 있다. 소셜미디어를 통한 정보주체의 변화로 인해 데이터는 더욱 방대해지고 '빅데이터'라 불리는 정보의 '초(超)범람'을 야기하였으며, 이러한 빅데이터는 사회적 실제를 이해하기 위한 새로운 기회이자 의미 있는 정보를 발굴해 내기 위한 새로운 연구분야로 각광받게 되었다. 빅데이터를 효율적으로 분석하기 위해 다양한 연구가 활발히 이루어지고 있다. 그러나 지금까지 소셜미디어를 대상으로 한 연구는 개괄적인 접근으로 제한된 분석에 국한되고 있다. 이를 적절히 해결하기 위해 본 연구에서는 트위터 상에서 실시간으로 방대하게 생성되는 빅스트림 데이터의 효율적 수집과 수집된 문헌의 다양한 분석을 통한 새로운 정보와 지식의 마이닝을 목표로 사회적 이슈를 포착하기 위한 실시간 트위터 트렌드 마이닝 시스템을 개발 하였다. 본 시스템은 단어의 동시출현 검색, 질의어에 의한 트위터 이용자 시각화, 두 이용자 사이의 유사도 계산, 트렌드 변화에 관한 토픽 모델링 그리고 멘션 기반 이용자 네트워크 분석의 기능들을 제공하고, 이를 통해 2012년 한국 대선을 대상으로 사례연구를 수행하였다. 본 연구를 위한 실험문헌은 2012년 10월 1일부터 2012년 10월 31일까지 약 3주간 1,737,969건의 트윗을 수집하여 구축되었다. 이 사례연구는 최신 기법을 사용하여 트위터에서 생성되는 사회적 트렌드를 마이닝 할 수 있게 했다는 점에서 주요한 의의가 있고, 이를 통해 트위터가 사회적 이슈의 변화를 효율적으로 추적하고 예측하기에 유용한 도구이며, 멘션 기반 네트워크는 트위터에서 발견할 수 있는 고유의 비가시적 네트워크로 이용자 네트워크의 또 다른 양상을 보여준다.