• Title/Summary/Keyword: 개인화 대화생성

Search Result 14, Processing Time 0.02 seconds

Natural Language Processing Model for Data Visualization Interaction in Chatbot Environment (챗봇 환경에서 데이터 시각화 인터랙션을 위한 자연어처리 모델)

  • Oh, Sang Heon;Hur, Su Jin;Kim, Sung-Hee
    • KIPS Transactions on Computer and Communication Systems
    • /
    • v.9 no.11
    • /
    • pp.281-290
    • /
    • 2020
  • With the spread of smartphones, services that want to use personalized data are increasing. In particular, healthcare-related services deal with a variety of data, and data visualization techniques are used to effectively show this. As data visualization techniques are used, interactions in visualization are also naturally emphasized. In the PC environment, since the interaction for data visualization is performed with a mouse, various filtering for data is provided. On the other hand, in the case of interaction in a mobile environment, the screen size is small and it is difficult to recognize whether or not the interaction is possible, so that only limited visualization provided by the app can be provided through a button touch method. In order to overcome the limitation of interaction in such a mobile environment, we intend to enable data visualization interactions through conversations with chatbots so that users can check individual data through various visualizations. To do this, it is necessary to convert the user's query into a query and retrieve the result data through the converted query in the database that is storing data periodically. There are many studies currently being done to convert natural language into queries, but research on converting user queries into queries based on visualization has not been done yet. Therefore, in this paper, we will focus on query generation in a situation where a data visualization technique has been determined in advance. Supported interactions are filtering on task x-axis values and comparison between two groups. The test scenario utilized data on the number of steps, and filtering for the x-axis period was shown as a bar graph, and a comparison between the two groups was shown as a line graph. In order to develop a natural language processing model that can receive requested information through visualization, about 15,800 training data were collected through a survey of 1,000 people. As a result of algorithm development and performance evaluation, about 89% accuracy in classification model and 99% accuracy in query generation model was obtained.

An Agroclimatic Data Retrieval and Analysis System for Microcomputer Users(CLIDAS) (퍼스컴을 이용한 농업기후자료 검색 및 분석시스템)

  • 윤진일;김영찬
    • KOREAN JOURNAL OF CROP SCIENCE
    • /
    • v.38 no.3
    • /
    • pp.253-263
    • /
    • 1993
  • Climatological informations have not been fully utilized by agricultural research and extension workers in Korea due mainly to inaccessbilty to the archived climate data. This study was initiated to improve access to historical climate data gathered from 72 weather stations of Korea Meteorological Administration for agricultural applications by using a microcomputer-based methodology. The climatological elements include daily values of average, maximum and minimum temperature, relative humidity, average and maximum wind speed, wind direction, evaporation, precipitation, sunshine duration and cloud amount. The menu-driven, user-friendly data retrieval system(CLIDAS) provides quick summaries of the data values on a daily, weekly and monthly basis and selective retrieval of weather records meeting certain user specified critical conditions. Growing degree days and potential evapotranspiration data are derived from the daily climatic data, too. Data reports can be output to the computer screen, a printer or ASCII data files. CLIDAS can be run on any IBM compatible machines with Video Graphics Array card. To run the system with the whole database, more than 50 Mb hard disk space should be available. The system can be easily upgraded for further expansion of functions due to the module-structured design.

  • PDF

'Collective intelligence Structure' Analysis (지식 생산 방식에 따른 집단지성 구조 분석 -네이버 지식IN과 위키피디아를 중심으로-)

  • Han, Chang-Jin
    • 한국HCI학회:학술대회논문집
    • /
    • 2009.02a
    • /
    • pp.1363-1373
    • /
    • 2009
  • 본 연구는 두 집단지성의 가장 대표적인 서비스인 네이버 지식iN과 위키피디아의 구조적, 경험적 차이를 바탕으로 생산의 차원에서 생산 주기, 생산 참여자, 생산물의 모델을 설정하고, 새롭게 탄생하는 지식을 중심으로 검증함으로써 최종 지식 소비 행위를 반영한 각각의 종합모델을 도출하였다. 우리는 웹에서 집단지성의 일상화를 확인할 수 있다. 지식 획득 매체가 매스미디어에서 인터넷으로 변화하는 과정에서 등장한 포털 및 검색사이트는 지식의 생산이 전문가패러다임에서 소비자 중심으로 재편될 수 있는 가능성을 열어주었다. 그리고 이러한 생산 방식의 변화는 '지식'의 개념 역시 변화시키고 있다. 즉, 집단지성이라는 새로운 웹2.0의 현상이 지식생산방식을 변화시키고 변화된 지식생산방식은 '지식'자체를 변화시킨다는 이론적 가설을 도출할 수 있는 것이다. 본 연구는 이러한 새로운 현상들을 분석하기 위해서는 먼저 보다 엄밀하게 집단지성의 개념을 규정할 필요성에 출발하였다. 현재 집단지성이라는 이름으로 불리면서 급격히 성장하고 있는 위키 방식의 인터넷 서비스와 지식검색 방식의 인터넷 서비스를 비교함으로써 보다 정교한 집단지성의 모델을 구축하고자 하였다. 위키형 집단지성과 지식검색형 집단지성의 차이점은 경험적으로도 뚜렷하게 확인할 수 있다. 본 연구는 이러한 경험적 차이와 기존의 문헌에서 밝혀진 사실들을 바탕으로 두 서비스의 지식생산 방식을 생산플로우, 생산참여자 성향, 생산물(지식)의 성향과 같이 세 영역으로 나누어 각각의 가설 모델을 설정하고 이 모델을 선정된 질의어를 바탕으로 검증한 뒤에 최종적인 모델을 도출하는 방식으로 진행되었다. 지식검색형 집단지성은 '질문-답변-채택'의 구조이고, 그 구조 속에서 '질문기-답변기-순서화기'를 거쳐 하나의 지식 덩어리인 'K-let'을 생산한다. 생산된 'K-let'들은 지식검색서비스의 데이터베이스에 축적되고, 이는 공통된 질의어를 기준으로 소비자들에 의해서 검색되어 소비된다. 하나의 질문에 대해 여러 개의 답변들이 존재하고, 답변자의 성향은 크게 전문성과 체계성을 바탕으로 한 전문가형 답변자와 경험적이고 의견지향적인 대화형 답변자로 나눠진다. 다수의 네티즌들의 참여에 의해서 지식의 생산이 진행되므로 질문의 성향 역시 사실, 의견, 경험 등 다양한 스펙트럼을 가지는 모델로 설정하였다. 반면에 위키형 집단지성은 개방형 플랫폼을 바탕으로 한 백과사전의 형식이며, 이러한 형식 속에서 최초의 개념어 등록과 다수의 편집활동을 거치면서 완성되지 않는 하나의 아티클인 'W-let'을 생산한다. 이러한 'W-let'은 생성 초기에 소수에 의한 활발한 내용 입력 활동으로 어느 정도의 안정화를 거친 후에는 꾸준한 다수의 수정활동을 통해서 'W-let'의 생명력을 유지함으로써 지식의 실제적인 변화를 반영한다. 생산된 'W-let'들은 위키형 집단지성 서비스의 데이터베이스에 축적되고, 이것들은 내부링크를 통해서 모두 연결되어 있다. 백과사전 형식으로 하나의 개념어를 설명하는 하나의 아티클은 오로지 사실적인 지식들로만 구성되나 내부링크와 외부링크를 통해서 다양한 스펙트럼을 가지는 모델로 설정하였다. 위와 같이 설정된 모델을 바탕으로 공통된 질의어 및 개념어를 선정하여 각각의 서비스에 노출시켰다. 이를 통해서 얻어진 각 서비스의 데이터베이스에 축적된 모든 데이터들 중에서 일정한 기간을 기준으로 각각의 모델 검증에 필요한 데이터를 추출하여 분석하는 방식으로 진행되었다. 그 결과 지식검색형 집단지성에서는 '질문-답변-채택'의 생산 구조 속에 다수가 참여하여 질문-채택답변-기타답변으로 배열되어 있는 완성된 형태의 K-let들을 지속적으로 생산하며 비슷한 성향을 가진 K-let들이 반복적으로 생산되어 지식검색 데이터베이스에 누적된다. 지식 소비자들은 질의어 검색을 통해서 다양한 K-let들을 선택하여 비교, 검토한 후에 선택된 K-let들의 배열은 해체되어 소비자들에 의해서 재배열됨을 발견할 수 있었다. 이에 지식검색형 집단지성이란 다수의 의해서 생산되고 누적된 지식들이 소비자의 검색과 선택에 의해 해체되어 재배열되는 지식의 맞춤화 과정이라고 정의내릴 수 있었다. 반면에 위키형 집단지성에서는 '내용입력-미세수정' 구조 속에서 생명력 있는 W-let을 생성한다. W-let은 백과사전처럼 정리되어 내부링크를 통해서 서로 연결되고, 외부링크를 통해 확장되고, 지식소비자들은 검색을 통해 최초의 W-let에 도달한 후에 링크를 선택함으로써 지식을 확장시킴을 검증할 수 있었다. 따라서 위키형 집단지성이란 다수의 의해서 생산되고 정리된 지식들이 소비자의 검색과 링크에 의해 무한히 확장되는 지식의 확대 재생산되는 과정이라고 정의 내릴 수 있다. 결국, 현재의 집단지성이란 지식이 다수의 참여로 생산됨으로써 개인에게 맞춤화되고, 끊임없이 확대 재생산되는 과정을 의미한다. 그리고 이러한 집단지성의 방식은 지식이라는 현재의 차원을 넘어서 정치, 경제를 비롯한 사회의 전 영역으로 점차적으로 확대되어갈 것이다. 앞으로 연구들은 두 가지 모델이 혼재되어 있는 현재의 집단지성이 어떠한 새로운 모델을 만들면서 다른 영역으로 확장되어갈 것인지에 대해서 초점을 맞춰 나가야할 것이다.

  • PDF

A Deep Learning Based Approach to Recognizing Accompanying Status of Smartphone Users Using Multimodal Data (스마트폰 다종 데이터를 활용한 딥러닝 기반의 사용자 동행 상태 인식)

  • Kim, Kilho;Choi, Sangwoo;Chae, Moon-jung;Park, Heewoong;Lee, Jaehong;Park, Jonghun
    • Journal of Intelligence and Information Systems
    • /
    • v.25 no.1
    • /
    • pp.163-177
    • /
    • 2019
  • As smartphones are getting widely used, human activity recognition (HAR) tasks for recognizing personal activities of smartphone users with multimodal data have been actively studied recently. The research area is expanding from the recognition of the simple body movement of an individual user to the recognition of low-level behavior and high-level behavior. However, HAR tasks for recognizing interaction behavior with other people, such as whether the user is accompanying or communicating with someone else, have gotten less attention so far. And previous research for recognizing interaction behavior has usually depended on audio, Bluetooth, and Wi-Fi sensors, which are vulnerable to privacy issues and require much time to collect enough data. Whereas physical sensors including accelerometer, magnetic field and gyroscope sensors are less vulnerable to privacy issues and can collect a large amount of data within a short time. In this paper, a method for detecting accompanying status based on deep learning model by only using multimodal physical sensor data, such as an accelerometer, magnetic field and gyroscope, was proposed. The accompanying status was defined as a redefinition of a part of the user interaction behavior, including whether the user is accompanying with an acquaintance at a close distance and the user is actively communicating with the acquaintance. A framework based on convolutional neural networks (CNN) and long short-term memory (LSTM) recurrent networks for classifying accompanying and conversation was proposed. First, a data preprocessing method which consists of time synchronization of multimodal data from different physical sensors, data normalization and sequence data generation was introduced. We applied the nearest interpolation to synchronize the time of collected data from different sensors. Normalization was performed for each x, y, z axis value of the sensor data, and the sequence data was generated according to the sliding window method. Then, the sequence data became the input for CNN, where feature maps representing local dependencies of the original sequence are extracted. The CNN consisted of 3 convolutional layers and did not have a pooling layer to maintain the temporal information of the sequence data. Next, LSTM recurrent networks received the feature maps, learned long-term dependencies from them and extracted features. The LSTM recurrent networks consisted of two layers, each with 128 cells. Finally, the extracted features were used for classification by softmax classifier. The loss function of the model was cross entropy function and the weights of the model were randomly initialized on a normal distribution with an average of 0 and a standard deviation of 0.1. The model was trained using adaptive moment estimation (ADAM) optimization algorithm and the mini batch size was set to 128. We applied dropout to input values of the LSTM recurrent networks to prevent overfitting. The initial learning rate was set to 0.001, and it decreased exponentially by 0.99 at the end of each epoch training. An Android smartphone application was developed and released to collect data. We collected smartphone data for a total of 18 subjects. Using the data, the model classified accompanying and conversation by 98.74% and 98.83% accuracy each. Both the F1 score and accuracy of the model were higher than the F1 score and accuracy of the majority vote classifier, support vector machine, and deep recurrent neural network. In the future research, we will focus on more rigorous multimodal sensor data synchronization methods that minimize the time stamp differences. In addition, we will further study transfer learning method that enables transfer of trained models tailored to the training data to the evaluation data that follows a different distribution. It is expected that a model capable of exhibiting robust recognition performance against changes in data that is not considered in the model learning stage will be obtained.