• 제목/요약/키워드: Data Paper

검색결과 56,622건 처리시간 0.071초

역진자 모델-저차원 모션 캡처 데이터를 이용한 보행 모션 제어기 (Interactive Locomotion Controller using Inverted Pendulum Model with Low-Dimensional Data)

  • 한구현;김영범;박병하;정광모;한정현
    • 한국멀티미디어학회논문지
    • /
    • 제19권8호
    • /
    • pp.1587-1596
    • /
    • 2016
  • This paper presents an interactive locomotion controller using motion capture data and inverted pendulum model. Most of the data-driven character controller using motion capture data have two kinds of limitation. First, it needs many example motion capture data to generate realistic motion. Second, it is difficult to make natural-looking motion when characters navigate dynamic terrain. In this paper, we present a technique that uses dimension reduction technique to motion capture data together with the Gaussian process dynamical model (GPDM), and interpolates the low-dimensional data to make final motion. With the low-dimensional data, we can make realistic walking motion with few example motion capture data. In addition, we apply the inverted pendulum model (IPM) to calculate the root trajectory considering the real-time user input upon the dynamic terrain. Our method can be used in game, virtual training, and many real-time applications.

패턴 분류 문제에 확장된 데이터 표현 기법을 적용한 응용 사례 (Application Examples Applying Extended Data Expression Technique to Classification Problems)

  • 이종찬
    • 한국융합학회논문지
    • /
    • 제9권12호
    • /
    • pp.9-15
    • /
    • 2018
  • 확장된 데이터 표현의 주요 목표는 유비쿼터스 환경에서 일반적인 문제에 적합한 데이터 구조를 개발하는 것이다. 이 방법의 가장 큰 특징은 속성 값을 확률로 표현할 수 있다는 것이다. 다음 특성은 훈련 데이터의 각 이벤트가 중요도를 나타내는 가중치 값을 갖도록 한다는 것이다. 데이터 구조가 개발된 후에 이를 학습할 수 있는 알고리즘이 고안된다. 그 동안 이 알고리즘은 여러 분야에서 여러 문제에 적용하여 좋은 결과를 산출해 왔다. 본 논문은 먼저 데이터 표현 기법인 UChoo를 소개하고 이론적인 배경이 되는 규칙 개선 문제를 소개한다. 그리고 규칙 개선, 손실 데이터 처리, BEWS 문제, 앙상블 시스템과 같은 응용 분야의 예를 소개한다.

A Survey of State-of-the-Art Multi-Authority Attribute Based Encryption Schemes in Cloud Environment

  • Reetu, Gupta;Priyesh, Kanungo;Nirmal, Dagdee
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권1호
    • /
    • pp.145-164
    • /
    • 2023
  • Cloud computing offers a platform that is both adaptable and scalable, making it ideal for outsourcing data for sharing. Various organizations outsource their data on cloud storage servers for availing management and sharing services. When the organizations outsource the data, they lose direct control on the data. This raises the privacy and security concerns. Cryptographic encryption methods can secure the data from the intruders as well as cloud service providers. Data owners may also specify access control policies such that only the users, who satisfy the policies, can access the data. Attribute based access control techniques are more suitable for the cloud environment as they cover large number of users coming from various domains. Multi-authority attribute-based encryption (MA-ABE) technique is one of the propitious attribute based access control technique, which allows data owner to enforce access policies on encrypted data. The main aim of this paper is to comprehensively survey various state-of-the-art MA-ABE schemes to explore different features such as attribute and key management techniques, access policy structure and its expressiveness, revocation of access rights, policy updating techniques, privacy preservation techniques, fast decryption and computation outsourcing, proxy re-encryption etc. Moreover, the paper presents feature-wise comparison of all the pertinent schemes in the field. Finally, some research challenges and directions are summarized that need to be addressed in near future.

Time Series Data Cleaning Method Based on Optimized ELM Prediction Constraints

  • Guohui Ding;Yueyi Zhu;Chenyang Li;Jinwei Wang;Ru Wei;Zhaoyu Liu
    • Journal of Information Processing Systems
    • /
    • 제19권2호
    • /
    • pp.149-163
    • /
    • 2023
  • Affected by external factors, errors in time series data collected by sensors are common. Using the traditional method of constraining the speed change rate to clean the errors can get good performance. However, they are only limited to the data of stable changing speed because of fixed constraint rules. Actually, data with uneven changing speed is common in practice. To solve this problem, an online cleaning algorithm for time series data based on dynamic speed change rate constraints is proposed in this paper. Since time series data usually changes periodically, we use the extreme learning machine to learn the law of speed changes from past data and predict the speed ranges that change over time to detect the data. In order to realize online data repair, a dual-window mechanism is proposed to transform the global optimal into the local optimal, and the traditional minimum change principle and median theorem are applied in the selection of the repair strategy. Aiming at the problem that the repair method based on the minimum change principle cannot correct consecutive abnormal points, through quantitative analysis, it is believed that the repair strategy should be the boundary of the repair candidate set. The experimental results obtained on the dataset show that the method proposed in this paper can get a better repair effect.

채널상태에 적응적인 계층 부호화를 이용한 오류 은닉 방법 연구 (Channel Condition Adaptive Error Concealment using Scalability Coding)

  • 한승균;박승호;서덕영
    • 한국통신학회논문지
    • /
    • 제29권1B호
    • /
    • pp.8-17
    • /
    • 2004
  • 본 논문은 손실이 발생하기 쉬운 무선 네트워크에서 계층 부호화를 이용한 비디오 데이터의 적응적 오류 은닉기법을 제안한다. 비디오 데이터는 압축과정에서 중복성이 제거되므로, 전송 시 무선채널과 같이 손실이 발생하기 쉬운 네트워크에서는 오류에 더욱 더 민감하다. 본 논문에서 제안하는 오류 은닉방법은 두 가지이다. 첫째는 기본계층의 움직임 벡터를 이용하여 이전 VOP로 은닉하는 방법이고, 두 번째는 오류가 발생한 영역을 움직임의 유무에 따라 움직임이 있는 부분은 기본계층의 같은 위치영역 정보로 은닉하고 움직임이 없는 부분은 이전 VOP의 같은 위치 영역 정보로 은닉하는 적응적인 방법이다. 본 논문에서는 제안하는 오류 은닉 방법을 계층 부호화된 비디오 데이터에 적용했을 때 매우 유용함을 입증한다. 실험 결과에서 무선네트워크 망의 상태에 따라 달라지는 에러 패턴과 영상의 특성에 따라, 기본계층의 정보를 참조하거나 이전 VOP 정보를 참조함으로써 좀 더 나은 은닉방법임을 보였다. 본 논문에서는 계층부호화에 MPEG-4를 사용하는데, 더 나아가 DCT를 근간으로 하는 모든 비디오 코덱에 응용할 수 있다.

데이터마이닝 기법을 이용한 건강보험공단의 수술 통계량 근사치 추정 -허니아 수술을 중심으로- (Estimation of a Nationwide Statistics of Hernia Operation Applying Data Mining Technique to the National Health Insurance Database)

  • 강성홍;서숙경;양영자;이애경;배종면
    • Journal of Preventive Medicine and Public Health
    • /
    • 제39권5호
    • /
    • pp.433-437
    • /
    • 2006
  • Objectives: The aim of this study is to develop a methodology for estimating a nationwide statistic for hernia operations with using the claim database of the Korea Health Insurance Cooperation (KHIC). Methods: According to the insurance claim procedures, the claim database was divided into the electronic data interchange database (EDI_DB) and the sheet database (Paper_DB). Although the EDI_DB has operation and management codes showing the facts and kinds of operations, the Paper_DB doesn't. Using the hernia matched management code in the EDI_DB, the cases of hernia surgery were extracted. For drawing the potential cases from the Paper_DB, which doesn't have the code, the predictive model was developed using the data mining technique called SEMMA. The claim sheets of the cases that showed a predictive probability of an operation over the threshold, as was decided by the ROC curve, were identified in order to get the positive predictive value as an index of usefulness for the predictive model. Results: Of the claim databases in 2004, 14,386 cases had hernia related management codes with using the EDI system. For fitting the models with applying the data mining technique, logistic regression was chosen rather than the neural network method or the decision tree method. From the Paper_DB, 1,019 cases were extracted as potential cases. Direct review of the sheets of the extracted cases showed that the positive predictive value was 95.3%. Conclusions: The results suggested that applying the data mining technique to the claim database in the KHIC for estimating the nationwide surgical statistics would be useful from the aspect of execution and cost-effectiveness.

패턴분류를 위한 통계적 RBF 모델 (Statistical Radial Basis Function Model for Pattern Classification)

  • 최준혁;임기욱;이정현
    • 전자공학회논문지CI
    • /
    • 제41권1호
    • /
    • pp.1-8
    • /
    • 2004
  • 인터넷의 발달과 데이터베이스의 구축이 보편화됨에 따라 막대한 양의 데이터 속에서 의사 결정에 필요한 지식을 찾아내는 작업은 결코 쉬운 일이 아니다 본 논문에서는 대규모 데이터의 효율적인 분석을 위하여 지식의 탐사 이전에 데이터에 대한 축소 작업을 수행하기 위한 효과적인 차원 축소 전략에 의한 패턴분류 기법을 제안한다. 이를 위해 본 논문에서는 통계적학습 모형인 Support Vector Machine의 VC-dimension에 기반한 RBF 신경망 모형을 제안한다. 기존의 RBF 신경망 모형은 주로 퍼셉트론 모형의 전처리 작업만을 수행하지만 제안하는 신경망 모형은 VD-dimension과 연계한 독자적으로 데이터를 분석할 수 있는 능력을 갖춘 모형을 구축하고 이를 바탕으로 개체들을 정확한 레이블로 분류한다. 기계 학습 데이터를 이용하여 본 논문에서 제안하는 모형의 성능을 비교 평가한 결과 기존의 여러 분류 알고리즘에 비해 우수한 성능을 보임이 실험을 통해 확인되었다.

Real Time Monitoring of Cars during European Rally Championships in Poland in 2005

  • Bartlomiej, Oszczak;Cezary, Specht;Stanislaw, Oszczak;Sitnik, Eliza
    • 한국항해항만학회:학술대회논문집
    • /
    • 한국항해항만학회 2006년도 International Symposium on GPS/GNSS Vol.1
    • /
    • pp.241-246
    • /
    • 2006
  • The paper presents the preparations work and experiences gained from realtime GPS car monitoring during the European Rally Championships organized on 10-12 June 2005 in Poland. The developed system is based on GPS and GSM/GPRS technology. Distribution and teletransmission of data are possible using different GSM operators in Poland, which makes the system fully independent. The system's server collects data from rally cars, processing and send data through VPN connections to the SQL server located in main control room. Data can be collected in real time via Internet or GPRS. Some information on GSM/GPRS range during rally championships are also presented in the paper. The study covered many trials and tests of different software and various configurations of the GPRS modems before finally the system started to work. Information coming from 10 Rally Cars were collected to the SQL Server continuously in one second interval. In real time mode these all data were displayed simultaneously in the rally main control room and in the rally press conference room. Paper describes also adopted emergency procedures and remote reconfiguration of GPS/GPRS boxes inside rally cars made during championships. Some problems and method of practical solutions are presented to avoid active jamming dangerous for a driver and his pilot, having system of communication intercoms jammed by teletransmission of GPRS 900/1800 MHz. In cooperation with rally teams special GPS/GPRS safety boxes were designed and made. Monitoring of all 7 rally stages with GPS receivers and method of calibrations of the maps were presented. GSM signal coverage was also checked in all stages. All data transmitted from rally cars were recorded in the computer. Some of our GPS cars had accidents and dispite them information were continuously sent to server. There is possibility to show in post mission mode the position of chosen cars in our rally application. Some information of best rally cars are presented also in the paper.

  • PDF

분산 시뮬레이션 시스템에서 합성 환경 표현 및 교환 표준(SEDRIS) 기반의 전장 환경 구축 (Generation of the Battlefield in Distributed Simulation System Based on Synthetic Environment Representation and Interchange Standard (SEDRIS))

  • 함원경;김정훈;나영남;천상욱;박상철
    • 정보화연구
    • /
    • 제9권3호
    • /
    • pp.253-263
    • /
    • 2012
  • 본 논문은 분산 시스템에서의 표준합성환경 기반 수중 교전 시뮬레이션을 위한 방법론이다. 수중 교전 시뮬레이션의 경우 염분과 수온 등의 수중 환경 데이터를 시뮬레이션에 반영하는 것이 중요하다. 분산 시뮬레이션 시스템에서 이러한 환경 데이터의 재사용성과 상호운용성 향상을 위해 합성 환경 표현 및 교환 표준(Synthetic Environmental Data Representation and Interchange Specification, SEDRIS(ISO standard for environmental data))이 개발되었고, 본 논문에서는 SEDRIS를 활용하여 수중 합성환경을 구축한다. 본 논문을 통해 SEDRIS가 합성환경 데이터의 국제 표준이지만 그 방대함과 복잡함으로 인하여 사용이 저해된 문제점을 대기/해양 환경에 대해 효율적인 SEDRIS 기술 활용 방법을 제시하여 해결한다. 본 논문의 최종 목적은 대기/해양 환경 표현을 위한 다차원 격자 기반의 SEDRIS 구조를 구축하고, High Level Architecture (HLA)/Run-Time Infrastructure (RTI) 기반의 분산 시스템에서 대기/해양 합성전장환경 구축에 SEDRIS 적용 방법을 제시한다.

심층신경망을 통한 해파리 출현 예측 (The prediction of appearance of jellyfish through Deep Neural Network)

  • 황철훈;한명묵
    • 인터넷정보학회논문지
    • /
    • 제20권5호
    • /
    • pp.1-8
    • /
    • 2019
  • 본 논문은 지구온난화로 인하여 수온이 상승되며 증가한 해파리의 피해를 감소하고자 연구를 진행하였다. 해수욕장에서 해파리의 등장은 해파리의 쏘임 사고로 인한 인명피해와 폐장으로 인한 경제적 손실이 발생할 수 있다. 본 논문은 선행 연구들로부터 해파리의 출현 패턴을 머신러닝을 통하여 예측 가능함 확인하였다. SVM을 이용한 해파리 출현 예측 모델 연구를 확대하여 진행하였다. 심층신경망을 이용하여 해파리 출현 유무 예측인 이진 분류에서 지수화 된 방법인 다중 분류로 확장하고자 하였다. 수집된 데이터의 크기가 작다는 한계점으로 인하여 84.57%라는 예측 정확도의 한계를 부트스트래핑을 이용하여 데이터 확장을 통해 해결하고자 하였다. 확장된 데이터는 원본 데이터보다 약 7% 이상의 높은 성능을 보여주었으며, Transfer learning과 비교하여 약 6% 이상의 좋은 성능을 보여주었다. 최종적으로 테스트 데이터를 통하여 해파리 출현 예측 성능을 확인한 결과, 해파리의 출현 유무를 예측할 시 높은 정확도로 예측이 가능함을 확인하였으나, 지수화를 통한 예측에서는 의미 있는 결과를 얻지 못하였다.