• 제목/요약/키워드: Separate file

검색결과 42건 처리시간 0.025초

MySQL InnoDB의 삭제된 레코드 복구 기법 개선방안에 관한 연구 (A Study on the Improvement Method of Deleted Record Recovery in MySQL InnoDB)

  • 정성균;장지원;정두원;이상진
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제6권12호
    • /
    • pp.487-496
    • /
    • 2017
  • MySQL InnoDB에서는 데이터를 기록할 때, 테이블마다 테이블스페이스를 분할 생성하여 개별적으로 저장하는 방법과 모든 테이블 및 인덱스 정보를 단일 시스템 테이블스페이스에 저장하는 방법이 있다. 그리고 이렇게 기록된 정보들을 이용해 삭제된 데이터를 레코드 단위로 복구하는 것이 가능하다. 하지만 현재 진행된 대부분의 데이터베이스 포렌식 연구에서 전자의 경우는 연구가 활발하게 이루어져 그 구조에 대한 분석이 많이 이루어졌지만, 후자에 대해서는 아직 공개된 정보가 포렌식에 활용되기엔 충분치 않다. 위의 두 방식은 각각의 저장 구조가 서로 다르기 때문에 데이터베이스 포렌식 관점에서 본다면 둘 모두에 대한 분석이 이루어져야 한다. 본 논문에서는 단일 시스템 테이블스페이스인 IBDATA 파일에 레코드를 저장하는 방식에서의 삭제된 레코드 복구 방법을 제시한다. IBDATA 파일을 분석하여 그 구조를 밝히고 이를 활용하여 기존에 고려되지 않았던 미할당 페이지 영역까지 확장한 삭제 레코드 복구 알고리즘을 소개한다. 또한, 알고리즘을 도구로 구현하여 실제 데이터를 이용한 검증을 통해 기존 방법보다 복구율이 68%까지 향상되었음을 보인다.

Delaunay 삼각형분할법을 이용한 3차원복합형상의 역공학 (Reverse Engineering of 3D Compound Shapes using Delaunay Triangulation)

  • 조승현;조명우;김재도
    • 한국정밀공학회지
    • /
    • 제17권7호
    • /
    • pp.181-188
    • /
    • 2000
  • The objective of this research is to develop an efficient reverse engineering method of 3-dimensional compound surfaces for raped prototyping process. As a first step, several image processing techniques were applied to the measured data obtained using laser scanner. And the boundary information of the compound surface were extracted to divide the surface into several separate regions. As a next step, the Delaunay triangulation method were applied to reconstruct the surface based on the measured data and the boundary information. Finally, the STL file were created for the rapid prototyping process. Required simulations and experiments were performed and the results were analyzed to show the effectiveness of the proposed methods.

  • PDF

Android Application for Connecting Cycling Routes on Strava Segments

  • Mulasastra, Intiraporn;Kao-ian, Wichpong
    • Journal of information and communication convergence engineering
    • /
    • 제17권2호
    • /
    • pp.142-148
    • /
    • 2019
  • Relatively few countries provide separate bicycle lanes for cyclists. Hence, tools for suggesting cycling routes are essential for a safe and pleasant cycling experience. This study aims to develop a mobile application to build cycling routes based on user preferences, specifically location, search radius, ride distance, and number of optimal routes. Our application calls the Strava API to retrieve Strava cycling segments crowdsourced from the cycling community. Then, it creates a graph consisting of the start and end points of these segments. Beginning from a user-specified location, the depth-first search algorithm (DFS) is applied to find routes that conform to the user's preferences. Next, a set of optimal routes is obtained by computing a trade-off ratio for every discovered route. This ratio is calculated from the lengths of all segments and the lengths of all connecting paths. The connected routes can be displayed on a map on an Android device or exported as a GPX file to a bike computer. Future work must be performed to improve the design of the user interface and user experience.

Design an Indexing Structure System Based on Apache Hadoop in Wireless Sensor Network

  • Keo, Kongkea;Chung, Yeongjee
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 춘계학술발표대회
    • /
    • pp.45-48
    • /
    • 2013
  • In this paper, we proposed an Indexing Structure System (ISS) based on Apache Hadoop in Wireless Sensor Network (WSN). Nowadays sensors data continuously keep growing that need to control. Data constantly update in order to provide the newest information to users. While data keep growing, data retrieving and storing are face some challenges. So by using the ISS, we can maximize processing quality and minimize data retrieving time. In order to design ISS, Indexing Types have to be defined depend on each sensor type. After identifying, each sensor goes through the Indexing Structure Processing (ISP) in order to be indexed. After ISP, indexed data are streaming and storing in Hadoop Distributed File System (HDFS) across a number of separate machines. Indexed data are split and run by MapReduce tasks. Data are sorted and grouped depend on sensor data object categories. Thus, while users send the requests, all the queries will be filter from sensor data object and managing the task by MapReduce processing framework.

프레임 버퍼를 이용한 매끄러운 멀티미디어 스트리밍 서비스를 지원하는 안드로이드 앱 개발 (Development of Android App for Suppor ting Smooth Multimedia Streaming Service Using Frame Buffer)

  • 서상민;권준호;최윤호
    • 인터넷정보학회논문지
    • /
    • 제17권1호
    • /
    • pp.55-64
    • /
    • 2016
  • 본 논문에서는 기존의 안드로이드 화면 녹화 어플리케이션(이하, 앱)이 가지고 있는 녹화 기능의 코덱, 안드로이드 운영 체제 버전에 종속적인 특성과 별도의 데스크톱 PC와 유선으로 연결하여 서비스를 제공해야 하는 단점을 극복하는 새로운 앱을 제안한다. 또한 녹화된 화면 정보를 미디어 파일 포맷인 플래시 비디오(flash video) 파일을 이용하여 스트리밍 서비스를 제공하는 방법을 제안한다. 실험을 통해 제안한 앱 구현 방법의 경우 기존의 안드로이드 API를 이용하는 방법과 비교해 부호화 방법의 변경 없이 초당 20프레임 이상의 화면 녹화를 통해 매끄러운 영상을 녹화할 수 있음을 실험적으로 확인하였다.

건설업 유해화학물질 노출 모델의 개발 및 검증: Tier-2 노출 모델 (Development and Validation of Exposure Models for Construction Industry: Tier 2 Model)

  • 김승원;장지영;김갑배
    • 한국산업보건학회지
    • /
    • 제24권2호
    • /
    • pp.219-228
    • /
    • 2014
  • Objectives: The major objective of this study was to develop a tier 2 exposure model combining tier 1 exposure model estimates and worker monitoring data and suggesting narrower exposure ranges than tier 1 results. Methods: Bayesian statistics were used to develop a tier 2 exposure model as was done for the European Union (EU) tier 2 exposure models, for example Advanced REACH Tools (ART) and Stoffenmanager. Bayesian statistics required a prior and data to calculate the posterior results. In this model, tier 1 estimated serving as a prior and worker exposure monitoring data at the worksite of interest were entered as data. The calculation of Bayesian statistics requires integration over a range, which were performed using a Riemann sum algorithm. From the calculated exposure estimates, 95% range was extracted. These algorithm have been realized on Excel spreadsheet for convenience and easy access. Some fail-proof features such as locking the spreadsheet were added in order to prevent errors or miscalculations derived from careless usage of the file. Results: The tier 2 exposure model was successfully built on a separate Excel spreadsheet in the same file containing tier 1 exposure model. To utilize the model, exposure range needs to be estimated from tier 1 model and worker monitoring data, at least one input are required. Conclusions: The developed tier 2 exposure model can help industrial hygienists obtain a narrow range of worker exposure level to a chemical by reflecting a certain set of job characteristics.

DETECTING VARIABILITY IN ASTRONOMICAL TIME SERIES DATA: APPLICATIONS OF CLUSTERING METHODS IN CLOUD COMPUTING ENVIRONMENTS

  • 신민수;변용익;장서원;김대원;김명진;이동욱;함재균;정용환;윤준연;곽재혁;김주현
    • 천문학회보
    • /
    • 제36권2호
    • /
    • pp.131.1-131.1
    • /
    • 2011
  • We present applications of clustering methods to detect variability in massive astronomical time series data. Focusing on variability of bright stars, we use clustering methods to separate possible variable sources from other time series data, which include intrinsically non-variable sources and data with common systematic patterns. We already finished the analysis of the Northern Sky Variability Survey data, which include about 16 million light curves, and present candidate variable sources with their association to other data at different wavelengths. We also apply our clustering method to the light curves of bright objects in the SuperWASP Data Release 1. For the analysis of the SuperWASP data, we exploit a elastically configurable Cloud computing environments that the KISTI Supercomputing Center is deploying. Two quite different configurations are incorporated in our Cloud computing test bed. One system uses the Hadoop distributed processing with its distributed file system, using distributed processing with data locality condition. Another one adopts the Condor and the Lustre network file system. We present test results, considering performance of processing a large number of light curves, and finding clusters of variable and non-variable objects.

  • PDF

의료기관간 효과적인 의료정보 공유를 위한 WISD의 설계 및 구현 (Implementation and Design of WISD(Web Interface System based DICOM) for Efficient Sharing of Medical Information between Clinics)

  • 조익성;권혁숭
    • 한국정보통신학회논문지
    • /
    • 제12권3호
    • /
    • pp.500-508
    • /
    • 2008
  • 의료정보는 의료기관간의 호환을 위해서 텍스트 기반정보를 위한 HL7과 영상정보를 위한 DICOM과 같은 표준프로토콜로 구축되어야 한다. 하지만 각 의료기관에서 소유하고 있는 장비 및 개발된 정보시스템이 동일하지 않고 자료의 형태 및 사용하는 코드체계가 상이하여 의료기관간에 자료를 교환하고자 할 때는 상당한 어려움이 초래된다. 따라서 의료기관간 효율적으로 정보를 공유하고 교환하기 위해서는 먼저 DICOM 파일의 특성을 분석하고 이를 기초로 한 통합 데이터베이스를 설계해야한다. 본 논문에서 제안한 WISD(Web Interface System based DICOM) 시스템은 각 의료기관에서 전송 받은 DICOM 파일을 의료정보와 영상정보로 분리하고, 표준화된 형식으로 통합데이터베이스에 저장하며, 웹브라우저를 통해 정보의 검색 및 교환을 가능하게 한다. 본 논문에서 구현한 WISD 시스템은 통합데이터베이스와 인터넷을 통해 의료영상과 환자정보를 검색 및 관리할 수 있기 때문에 별도의 시스템도입 및 비용 없이 의료기관간 효율적인 공유를 할 수 있다.

Androfilter: 유효마켓데이터를 이용한 안드로이드 악성코드 필터 (Androfilter: Android Malware Filter using Valid Market Data)

  • 양원우;김지혜
    • 정보보호학회논문지
    • /
    • 제25권6호
    • /
    • pp.1341-1351
    • /
    • 2015
  • 스마트폰의 대중화로 다양한 애플리케이션이 증가하면서, Third party App Market 이나 블랙마켓을 통한 악성 애플리케이션 또한 급격한 증가세에 있다. 본 논문에서는 APK파일의 변조여부를 효과적으로 검출할 수 있는 검사 필터인 Androfilter를 제안한다. Androfilter는 대부분의 안티바이러스 소프트웨어들이 사용하는 수집, 분석, 업데이트 서버등을 사용하지 않고, Google Play를 신뢰 기관으로 가정하여 대응되는 애플리케이션의 조회만으로 애플리케이션의 변조여부를 판단 한다. 실험 결과에 따르면 변조된 애플리케이션을 감지함으로 보고되지 않은 신종 악성코드를 차단할 수 있다.

기상관측소의 이전이 계절평균 일교차의 균질성에 미치는 영향 (The Relocation Effect of Observation Station on the Homogeneity of Seasonal Mean of Diurnal Temperature Range)

  • 김지현;서명석;홍순희
    • 대기
    • /
    • 제20권4호
    • /
    • pp.437-449
    • /
    • 2010
  • The relocation effect of observation station (REOS) on the homogeneity of seasonal mean of maximum and minimum temperature, diurnal temperature range (DTR) and relative humidity (RH) was investigated using surface observation data and document file. Twelve stations were selected among the 60 stations which have been operated more than 30 years and relocated over one time. The data from Chunpungryeong station were used as a reference to separate the impacts of station relocation from the effects caused by increased green house gases, urbanization, and others. The REOS was calculated as a difference between REOS of relocated station and REOS of reference station. Although the REOS is clearly dependent on season, meteorological elements, and observing stations, statistically significant impacts are found in many stations, especially the environment of observing station after relocation is greatly changed. As a result, homogeneity of seasonal mean of meteorological elements, especially DTR and RH, is greatly reduced. The results showed that the effect of REOS, along with the effect of urbanization, should be eliminated for the proper estimation of climate change from the analysis of long-term observation data.