• Title/Summary/Keyword: Data Analyzing

검색결과 9,916건 처리시간 0.191초

Trend Analysis of the Agricultural Industry Based on Text Analytics

  • Choi, Solsaem;Kim, Junhwan;Nam, Seungju
    • Agribusiness and Information Management
    • /
    • 제11권1호
    • /
    • pp.1-9
    • /
    • 2019
  • This research intends to propose the methodology for analyzing the current trends of agriculture, which directly connects to the survival of the nation, and through this methodology, identify the agricultural trend of Korea. Based on the relationship between three types of data - policy reports, academic articles, and news articles - the research deducts the major issues stored by each data through LDA, the representative topic modeling method. By comparing and analyzing the LDA results deducted from each data source, this study intends to identify the implications regarding the current agricultural trends of Korea. This methodology can be utilized in analyzing industrial trends other than agricultural ones. To go on further, it can also be used as a basic resource for contemplation on potential areas in the future through insight on the current situation. database of the profitability of a total of 180 crop types by analyzing Rural Development Administration's survey of agricultural products income of 115 crop types, small land profitability index survey of 53 crop types, and Statistics Korea's survey of production costs of 12 crop types. Furthermore, this research presents the result and developmental process of a web-based crop introduction decision support system that provides overseas cases of new crop introduction support programs, as well as databases of outstanding business success cases of each crop type researched by agricultural institutions.

생애주기분석을 위한 궤도 마모 및 틀림 데이터 처리 및 분석 (Track Wear and Irregularity Data Processing and Analysis for Life Cycle Performance)

  • 공정식;정민철;김정훈;김건우
    • 한국철도학회:학술대회논문집
    • /
    • 한국철도학회 2011년도 정기총회 및 추계학술대회 논문집
    • /
    • pp.1123-1128
    • /
    • 2011
  • Generally, there are many types of data, such as wear data or irregularity data, are detected for analyzing railway performance. The analysis of railroad wear or irregularity data is most effective method for the efficient railway maintenance. Especially, the track damaged directly by train, have as important position with the inspection data. This study suggest the Life-Cycle performance analysis method and process of railroad by analyzing two types of data, wear data and irregularity data. This analysis methods can be applied to suggest the Life-Cycle performance of railroad based on environmental factors or design factors, such as sleeper type, roadbed type, cant, the radius of curvature, speed, maintenance history and so on.

  • PDF

DTG Big Data Analysis for Fuel Consumption Estimation

  • Cho, Wonhee;Choi, Eunmi
    • Journal of Information Processing Systems
    • /
    • 제13권2호
    • /
    • pp.285-304
    • /
    • 2017
  • Big data information and pattern analysis have applications in many industrial sectors. To reduce energy consumption effectively, the eco-driving method that reduces the fuel consumption of vehicles has recently come under scrutiny. Using big data on commercial vehicles obtained from digital tachographs (DTGs), it is possible not only to aid traffic safety but also improve eco-driving. In this study, we estimate fuel consumption efficiency by processing and analyzing DTG big data for commercial vehicles using parallel processing with the MapReduce mechanism. Compared to the conventional measurement of fuel consumption using the On-Board Diagnostics II (OBD-II) device, in this paper, we use actual DTG data and OBD-II fuel consumption data to identify meaningful relationships to calculate fuel efficiency rates. Based on the driving pattern extracted from DTG data, estimating fuel consumption is possible by analyzing driving patterns obtained only from DTG big data.

Matlab을 활용한 빅데이터 기반 분석 시스템 연구 (Research on the Analysis System based on the Big Data for Matlab)

  • 주문일;김희철
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2016년도 추계학술대회
    • /
    • pp.96-98
    • /
    • 2016
  • 최근 급속한 데이터의 생성으로 인하여 빅데이터 기술이 발전하고 있으며, 빅데이터를 분석하기 위한 다양한 빅데이터 분석 툴이 개발되어지고 있다. 대표적인 빅데이터 기반의 분석 툴은 R 프로그램, Hive, Tajo 등 다양한 분석 툴이 있다. 그러나, Matlab을 활용한 데이터 분석과 이를 위한 알고리즘 개발이 여전히 보편적이며, 빅데이터 분석에서도 Matlab이 광범위하게 사용되고 있다. 본 논문은 생체신호를 분석하는 Matlab을 활용한 빅데이터 기반 분석 시스템을 연구하고자 한다.

  • PDF

A Semiotics Framework for Analyzing Data Provenance Research

  • Ram, Sudha;Liu, Jun
    • Journal of Computing Science and Engineering
    • /
    • 제2권3호
    • /
    • pp.221-248
    • /
    • 2008
  • Data provenance is the background knowledge that enables a piece of data to be interpreted and used correctly within context. The importance of tracking provenance is widely recognized, as witnessed by significant research in various areas including e-science, homeland security, and data warehousing and business intelligence. In order to further advance the research on data provenance, however, one must first understand the research that has been conducted to date and identify specific topics that merit further investigation. In this work, we develop a framework based on semiotics theory to assist in analyzing and comparing existing provenance research at the conceptual level. We provide a detailed review of data provenance research and compare and contrast the research based on d semiotics framework. We conclude with an identification of challenges that will drive future research in this field.

Compensation of Installation Errors in a Laser Vision System and Dimensional Inspection of Automobile Chassis

  • Barkovski Igor Dunin;Samuel G.L.;Yang Seung-Han
    • Journal of Mechanical Science and Technology
    • /
    • 제20권4호
    • /
    • pp.437-446
    • /
    • 2006
  • Laser vision inspection systems are becoming popular for automated inspection of manufactured components. The performance of such systems can be enhanced by improving accuracy of the hardware and robustness of the software used in the system. This paper presents a new approach for enhancing the capability of a laser vision system by applying hardware compensation and using efficient analysis software. A 3D geometrical model is developed to study and compensate for possible distortions in installation of gantry robot on which the vision system is mounted. Appropriate compensation is applied to the inspection data obtained from the laser vision system based on the parameters in 3D model. The present laser vision system is used for dimensional inspection of car chassis sub frame and lower arm assembly module. An algorithm based on simplex search techniques is used for analyzing the compensated inspection data. The details of 3D model, parameters used for compensation and the measurement data obtained from the system are presented in this paper. The details of search algorithm used for analyzing the measurement data and the results obtained are also presented in the paper. It is observed from the results that, by applying compensation and using appropriate algorithms for analyzing, the error in evaluation of the inspection data can be significantly minimized, thus reducing the risk of rejecting good parts.

복잡성 분석을 통한 디지털 분석의 유효성에 관한 연구 (Study of Digital Analysis Efficiency through a Complexity Analysis)

  • 이혁준;이종석
    • 한국실내디자인학회논문집
    • /
    • 제31호
    • /
    • pp.56-63
    • /
    • 2002
  • This study intends to prepare a system that can be used, by applying digital technique, in analyzing complexity of architectural forms that have been visualized by the correlation based on the distribution chart made in accordance with profile lines. The profile lines are derived from the edge analysis of the architectural forms, simplified based on the visual theory. For the purpose, this study was conducted in the following ways: First, problems of the existing models for the elevation analysis were examined along with formal analysis based on visual recognition to consider the profile lines derived from the forms. Secondly, in elevation analysis, profile lines were derived by digital method to measure them qualitatively. To verify the objectivity of the measured data value, a survey was conducted based on the adjective cataloging method, and the correlation of the survey result and analyzed data was analyzed to verify the validity of the derived data. Thirdly, supplementation for the problems deducted from experiments and the possibility to use it in designing were suggested. Digital method has many advantages over the conventional analyzing system in deriving precise data value by excluding subjectivity. It also allows various analytical methods in analyzing numerous data repeatedly. Diversified models and methods of analysis considering numerous factors arising in the process of designing remain assignments to research in future.

MPEG 시퀸스의 장면 변화 검출을 위한 하이브리드 알고리즘 (Hybrid Algorithm for Scene Change Detection of MPEG Sequence)

  • 최윤식;이준형
    • 전자공학회논문지S
    • /
    • 제35S권10호
    • /
    • pp.156-165
    • /
    • 1998
  • 본 논문에서는 MPEG 기반 압축 영상데이터의 장면 변화를 검출하기 위한 하이브리드 알고리즘을 제안한다. MPEG이나 Motion JPEG으로 압축된 영상의 장면 변화를 검출하기 위해 사용된 알고리즘은 크게 두 가지로 나눌 수 있다. 한가지 방법은 압축된 상태의 영상에 직접 처리를 하는 방법으로서 수행시간을 줄일 수 있는 장점이 있지만 정확성이 떨어지는 문제점이 있고, 다른 방법은 복원된 영상에 처리를 하는 방법으로 보다 정확한 검출이 가능하나 속도가 느린 단점이 있다. 따라서 본 논문에서는 이러한 두 가지 알고리즘을 혼합하여, 우선 빠른 검출을 위하여 압축된 시퀀스로부터 DC값에 의한 영상에 의해 컷을 검출하고, 이 결과에서 적절한 영역을 선택한 뒤, 그 영역에 대해서만 영상을 복원하여 윤곽선 정보에 의해 점진적인 장면 변화를 검출한다. 실험결과 수행시간의 단축과 정확한 검출에 있어서 매우 효율적임을 확인하였다.

  • PDF

아파치 스쿱을 사용한 하둡의 데이터 적재 성능 영향 요인 분석 (Analysis of the Influence Factors of Data Loading Performance Using Apache Sqoop)

  • ;고정현;여정모
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제4권2호
    • /
    • pp.77-82
    • /
    • 2015
  • 빅데이터 기술은 데이터 처리 속도가 빠르다는 면에서 주목을 받고 있다. 그리고 관계형 데이터베이스(Relational Database: RDB)에 저장되어있는 대용량 정형 데이터를 더 빠르게 처리하기 위해서 빅데이터 기술을 활용하는 연구도 진행되고 있다. 다양한 분산 처리 도구들을 사용하여 분석 성능을 측정하는 연구는 많지만 분석하기 전 단계인 정형 데이터 적재의 성능에 관한 연구는 미미하다. 때문에 본 연구에서는 RDB 안에 저장되어있는 정형 데이터를 아파치 스쿱(Apache Sqoop)을 사용하여 분산 처리 플랫폼 하둡(Hadoop)으로 적재하는 성능을 측정하였다. 그리고 적재에 영향을 미치는 요인을 분석하기 위해 여러 가지 영향 요소를 변경해가면서 반복적으로 실험을 수행하였고 RDB 기반으로 구성된 서버 간의 적재 성능과 비교하였다. 실험 환경에서 아파치 스쿱의 적재 속도가 낮았지만 실제 운영하고 있는 대규모 하둡 클러스터 환경에서는 더 많은 하드웨어 자원이 확보되기 때문에 훨씬 더 좋은 성능을 기대할 수 있다. 이는 향후 진행할 적재 성능 개선 및 하둡 환경에서 정형 데이터를 분석하는 전체적인 단계의 성능을 향상시킬 수 있는 방법에 대한 연구의 기반이 될 것으로 예상한다.

텍스트 데이터 시각화를 위한 MVC 프레임워크 (A MVC Framework for Visualizing Text Data)

  • 최광선;정교성;김수동
    • 지능정보연구
    • /
    • 제20권2호
    • /
    • pp.39-58
    • /
    • 2014
  • 빅데이터의 중요성에 대한 인식이 확산되고, 관련한 기술이 발전됨에 따라, 최근에는 빅데이터의 처리와 분석의 결과를 어떻게 시각화할 것인지가 매우 관심 받는 주제로 부각되고 있다. 이는 분석된 결과를 보다 명확하고 효과적으로 전달하는 데에 있어서 데이터의 시각화가 매우 효과적인 방법이기 때문이다. 시각화는 분석 시스템과 사용자가 소통하기 위한 하나의 그래픽 사용자 인터페이스(GUI)를 담당하는 역할을 한다. 통상적으로 이러한 GUI 부분은 데이터의 처리나 분석의 결과와 독립될 수록 시스템의 개발과 유지보수가 용이하며, MVC(Model-View-Controller)와 같은 디자인 패턴의 적용을 통해 GUI와 데이터 처리 및 관리 부분 간의 결합도를 최소화하는 것이 중요하다. 한편 빅데이터는 크게 정형 데이터와 비정형 데이터로 구분할 수 있는데 정형 데이터는 시각화가 상대적으로 용이한 반면, 비정형 데이터는 시각화를 구현하기가 복잡하고 다양하다. 그럼에도 불구하고 비정형 데이터에 대한 분석과 활용이 점점 더 확산됨에 따라, 기존의 전통적인 정형 데이터를 위한 시각화 도구들의 한계를 벗어나기 위해 각각의 시스템들의 목적에 따라 고유의 방식으로 시각화 시스템이 구축되는 현실에 직면해 있다. 더욱이나 현재 비정형 데이터 분석의 대상 중 대부분을 차지하고 있는 텍스트 데이터의 경우 언어 분석, 텍스트 마이닝, 소셜 네트워크 분석 등 적용 기술이 매우 다양하여 하나의 시스템에 적용된 시각화 기술을 다른 시스템에 적용하는 것이 용이하지 않다. 이는 현재의 텍스트 분석 결과에 대한 정보 모델이 서로 다른 시스템에 적용될 수 있도록 설계되지 못하는 경우가 많기 때문이다. 본 연구에서는 이러한 문제를 해결하기 위하여 다양한 텍스트 데이터 분석 사례와 시각화 사례들의 공통적 구성 요소들을 식별하여 표준화된 정보 모델인 텍스트 데이터 시각화 모델을 제시하고, 이를 통해 시각화의 GUI 부분과 연결할 수 있는 시스템 모델로서의 시각화 프레임워크인 TexVizu를 제안하고자 한다.