• 제목/요약/키워드: store methods

검색결과 476건 처리시간 0.025초

XML DTD의 JDBC 기반 SQL 스키마로의 변환 (Transforming XML DTD to SQL Schema based on JDBC)

  • 이상태;주경수
    • 인터넷정보학회논문지
    • /
    • 제3권1호
    • /
    • pp.29-40
    • /
    • 2002
  • B2B 전자상거래와 같이 XML을 이용한 정보교환이 보편화되고 있으며, 이에 XML 메시지의 데이터베이스로의 저장을 위한 효율적인 방안이 요구되고 있다. 한편 Oracle8i와 9i 및 Informix그리고 SQL2000서버 등과 같이 멀티미디어 응용 등을 위하여 기존의 관계형 DBMS들은 객체-관계형 DBMS로 확장되고 있으며, 이에 따라 관계형 데이터베이스 표준안인 SQL2도 ORDB인 SQL3로 확대 개편되고 있다. 아울러 J2EE와 같이 JAVA를 기반으로 한 XML 응용이 확대됨에 따라 JDBC를 통한 XML 응용과 데이터베이스의 효율적인 연계방안이 요망된다. 본 논문에서는 XML DTD를 토대로 하여 SQL3 스키마로의 변환을 위한 방법을 제시한다. 이를 위하여 먼저 XML DTD를 UML 클래스 다이어그램인 객체모델로 변환시키기 위한 방안을 제안하였고, 변환된 객체모델을 SQL3 스키마로 모델링하기 위한 방법을 제시하였다. 본 논문에서 제안한 XML DTD를 토대로 한 SQL3 스키마로의 변환 방법은 JAVA를 기반으로 Oracle8i와 9i 및 Informix 그리고 SQL2000서버 등과 같이 객체-관계형 데이터베이스를 토대로 XML 응용을 구축하기 위한 데이터베이스 설계 방안으로 활용될 수 있다.

  • PDF

CBIR을 위한 코너패치 기반 재배열 DCT특징 분석 (Rearranged DCT Feature Analysis Based on Corner Patches for CBIR (contents based image retrieval))

  • 이지민;박종안;안영은;오상언
    • 전기학회논문지
    • /
    • 제65권12호
    • /
    • pp.2270-2277
    • /
    • 2016
  • In modern society, creation and distribution of multimedia contents is being actively conducted. These multimedia information have come out the enormous amount daily, the amount of data is also large enough it can't be compared with past text information. Since it has been increased for a need of the method to efficiently store multimedia information and to easily search the information, various methods associated therewith have been actively studied. In particular, image search methods for finding what you want from the video database or multiple sequential images, have attracted attention as a new field of image processing. Image retrieval method to be implemented in this paper, utilizes the attribute of corner patches based on the corner points of the object, for providing a new method of efficient and robust image search. After detecting the edge of the object within the image, the straight lines using a Hough transformation is extracted. A corner patches is formed by defining the extracted intersection of the straight line as a corner point. After configuring the feature vectors with patches rearranged, the similarity between images in the database is measured. Finally, for an accurate comparison between the proposed algorithm and existing algorithms, the recall precision rate, which has been widely used in content-based image retrieval was used to measure the performance evaluation. For the image used in the experiment, it was confirmed that the image is detected more accurately in the proposed method than the conventional image retrieval methods.

실시간 IoT Big Data 분석 플랫폼 요건 (Real-time IoT Big Data Analysis Platform Requirements)

  • 강선경;이현창;신성윤
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2017년도 춘계학술대회
    • /
    • pp.165-166
    • /
    • 2017
  • 어느 곳에서나 실시간으로 데이터의 정보를 전달 받고 그를 의미 있는 데이터로 분석해 내는 것을 요구하고 있다. 이러한 분석을 위한 플랫폼에 대한 연구도 활발히 진행 중에 있다. 본 논문에서는 실시간으로 IoT 데이터를 수집하고 분석하는데 겪는 문제들을 해결해 내기 위해 중요한 요소가 무엇인지를 알아보려 한다. 기존의 데이터 수집 방법과 분석 방법보다 얼마나 더 나은지가 그 데이터의 가치를 판단하는 기준이 될 수 있다. 실시간으로 많은 곳에 있는 센서로부터 보다 빠르고 신속하게 데이터를 정확히 수집하고 저장하는 기술과 그 저장되어진 데이터로부터 값을 도출해 낼 수 있는 분석 방법이 중요하다. 따라서 IoT 환경에서의 분석 플랫폼의 중요한 요건은 대량의 데이터를 실시간 처리하고 그를 집중화 시켜 관리하는 것이라 할 수 있다.

  • PDF

시간지원 데이터의 효율적인 관리를 위한 이동 방법 (Migration Method for Efficient Management of Temporal Data)

  • 윤홍원
    • 정보처리학회논문지D
    • /
    • 제8D권6호
    • /
    • pp.813-822
    • /
    • 2001
  • 본 논문에서는 시간지원 데이터를 과거 세그먼트, 현재 세그먼트, 그리고 미래 세그먼트로 분리한 저장 구조를 기반으로 하는 네 가지 데이터 이동 방법을 제안하였다. 제안한 데이터 이동 방법은 시간단위에 의한 이동 방법, LST-GET(Least valid Start Time-Greatest valid End Time)에 의한 이동 방법, AST-AET(Average valid Start Time-Average valid End Time)에 의한 이동 방법, 그리고 Min-Overlap에 의한 이동 방법이 있다. 각각의 이동 방법에서는 세그먼트의 경계값, 각 세그먼트에 저장되는 개체 버전 등을 정의하였다. 제안한 이동 방법에 대해서 사용자 질의에 대한 평균 응답 시간을 측정하였다. 실험결과, LLT(Long Lived Tuples)가 없는 경우에는 LST-GET에 의한 이동 방법, 그리고 AST-AET에 의한 이동 방법이 시간단위에 의한 이동 방법보다 성능이 우수하였다. LLT가 있는 경우에는 LST-GET에 의한 이동 방법의 성능이 저하되었다. AST-AET에 의한 이동 방법은 시간단위에 의한 이동 방법과 LST-GET에 의한 이동 방법보다 질의에 대한 성능이 우수하였다. Min-Overlap에 의한 이동 방법은 질의에 대한 평균 응답 시간에서 AST-AET에 의한 이동 방법과 비슷한 결과를 보였고, 공간 이용율 측면에서는 AST-AET에 의한 이동 방법보다 효율적이었다.

  • PDF

이동 평균과 3-시그마를 이용한 하둡 로그 데이터의 이상 탐지 (Anomaly Detection of Hadoop Log Data Using Moving Average and 3-Sigma)

  • 손시운;길명선;문양세;원희선
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제5권6호
    • /
    • pp.283-288
    • /
    • 2016
  • 최근 빅데이터 처리를 위한 연구들이 활발히 진행 중이며, 관련된 다양한 제품들이 개발되고 있다. 이에 따라, 기존 환경에서는 처리가 어려웠던 대용량 로그 데이터의 저장 및 분석이 가능해졌다. 본 논문은 다수의 서버에서 빠르게 생성되는 대량의 로그 데이터를 Apache Hive에서 분석할 수 있는 데이터 저장 구조를 제안한다. 그리고 저장된 로그 데이터로부터 특정 서버의 이상 유무를 판단하기 위해, 이동 평균 및 3-시그마 기반의 이상 탐지 기술을 설계 및 구현한다. 또한, 실험을 통해 로그 데이터의 급격한 증가폭을 나타내는 구간을 이상으로 판단하여, 제안한 이상 탐지 기술의 유효성을 보인다. 이 같은 결과를 볼 때, 본 연구는 하둡 기반으로 로그 데이터를 분석하여 이상치를 바르게 탐지할 수 있는 우수한 결과라 사료된다.

편의점에서 판매되는 햄버거와 샌드위치의 유통과정중 품질관리에 관한 연구 (A Study on the Quality Control for the Circulation Steps including Productipn, Transportation, Selling about Hamburger & Sandwich in Convenience Store)

  • 김혜영;송용혜
    • 한국식생활문화학회지
    • /
    • 제11권4호
    • /
    • pp.465-473
    • /
    • 1996
  • The purpose of this study was to evaluate microbiological hazards in the steps of production, transportation and selling of hamburger and sandwich that were marketed in CVS, then to identify methods of control. The reasults are as follows: As the reasult of operation surroundings of manufacturerand reserch of circulation, $4{\sim}6$ hours are needed from manufacturer to CVS. Also transportation car mean temperature was $10^{\circ}C$ which exceeds the standard of $7^{\circ}C$ or below. Hamburger: Critical control points identified were purchasing, cooking, post-preparation, transportation and holding at CVS. As the reasult of microbial analysis following the case of holding methods and reheating at CVS, microbes of cold holding and reheat after cold holding was within standard value. But in the case of room temperature microbes exceeded standard value. Sandwich: Critical control points identified were purchasing, cooking, post-preparation, transportation and holding at CVS. As the reasult of microbial analysis following the case of holding methods and reheating at CVS, total plate counts of cold holding and reheat after cold holding was within standard value. But in the case of room temperature holding after 24 hours total plate counts exceeded standard value. In the case of room temperature holding the number of microbes increased according to the passage of time. As a reasult of food poisoning bacteria, it was negative in every test in sample against V. parahaemolyticus, Salmonella, S. aureus.

  • PDF

Deep Learning-based Depth Map Estimation: A Review

  • Abdullah, Jan;Safran, Khan;Suyoung, Seo
    • 대한원격탐사학회지
    • /
    • 제39권1호
    • /
    • pp.1-21
    • /
    • 2023
  • In this technically advanced era, we are surrounded by smartphones, computers, and cameras, which help us to store visual information in 2D image planes. However, such images lack 3D spatial information about the scene, which is very useful for scientists, surveyors, engineers, and even robots. To tackle such problems, depth maps are generated for respective image planes. Depth maps or depth images are single image metric which carries the information in three-dimensional axes, i.e., xyz coordinates, where z is the object's distance from camera axes. For many applications, including augmented reality, object tracking, segmentation, scene reconstruction, distance measurement, autonomous navigation, and autonomous driving, depth estimation is a fundamental task. Much of the work has been done to calculate depth maps. We reviewed the status of depth map estimation using different techniques from several papers, study areas, and models applied over the last 20 years. We surveyed different depth-mapping techniques based on traditional ways and newly developed deep-learning methods. The primary purpose of this study is to present a detailed review of the state-of-the-art traditional depth mapping techniques and recent deep learning methodologies. This study encompasses the critical points of each method from different perspectives, like datasets, procedures performed, types of algorithms, loss functions, and well-known evaluation metrics. Similarly, this paper also discusses the subdomains in each method, like supervised, unsupervised, and semi-supervised methods. We also elaborate on the challenges of different methods. At the conclusion of this study, we discussed new ideas for future research and studies in depth map research.

예측 잉여신호 벡터 양자화를 이용한 3차원 메시 모델 부호화 (3-dimensional Mesh Model Coding Using Predictive Residual Vector Quantization)

  • 최진수;이명호;안치득
    • 방송공학회논문지
    • /
    • 제2권2호
    • /
    • pp.136-145
    • /
    • 1997
  • 일반적으로 3차원 메시 모델은 많은 정점(vertex)과 다각형으로 이루어져 있을 뿐만 아니라 정점 위치 각각은 3차원 좌표에서 세 개의 32비트 부동소수점수로 표현되기 때문에, 모델을 표현하기 위해 필요한 데이터 량은 매우 많다. 따라서 3차원 모델을 효과적으로 저장 및 전송하기 위한 압축 기법은 필수적으로 요구된다. 이를 위해 본 논문에서는 예측 잉여신호 벡터 양자화를 이용한 3차원 모델 압축 기법을 제안한다. 기본적인 개념은 3D 모델을 이루는 서로 인접한 정점 위치들간에 존재하는 높은 상관도와 정점 위치 자체가 지니는 벡터 특성에 근거한다. 실험 결과에 따르면 제안한 방법이 기존의 압축 방법에 비해 높은 압축율을 얻을 수 있으며 정점 위치 정보를 점진적으로 전송할 수 있는 장점을 지닌다.

  • PDF

유비쿼터스 컴퓨팅 환경에서 클러스터링 기반 효율적인 서비스 디스커버리 기법 (Efficient Service Discovery Scheme based on Clustering for Ubiquitous Computing Environments)

  • 강은영
    • 한국인터넷방송통신학회논문지
    • /
    • 제9권2호
    • /
    • pp.123-128
    • /
    • 2009
  • 유비쿼터스 컴퓨팅 환경에서는 네트워크상의 서비스를 자동으로 발견하고 서비스는 자신의 능력을 광고할 수 있는 서비스 디스커버리(service discovery)가 중요하다. 본 논문에서는 클러스터링 기반 서비스 디스커버리 기법과 P2P 캐슁 기법을 혼합하여 효율적인 서비스 디스커버리 기법을 제안한다. 제안한 기법은 노드 ID를 기반으로 클러스터링 하고 이를 이용하여 서비스를 검색한다. 또한 서비스 검색을 빠르게 하기 위하여 P2P 캐쉬를 기반으로 이웃 노드의 정보를 사용하여 서비스 검색 성능을 향상시킨다. 제안된 기법은 노드의 부하를 가중 시키며 병목 현상을 일으키는 중앙 서버를 사용하지 않고 많은 쿼리를 생성하는 플러딩 방식을 사용하지 않는다. 시뮬레이션을 통하여 서비스 디스커버리를 이용하는 주고받는 메시지수를 줄이고 평균 탐색 거리를 줄임으로서 전체 네트워크 로드와 응답 시간이 성능 향상 면에서 우수함을 보인다.

  • PDF

MS-HEMs: An On-line Management System for High-Energy Molecules at ADD and BMDRC in Korea

  • Lee, Sung-Kwang;Cho, Soo-Gyeong;Park, Jae-Sung;Kim, Kwang-Yeon;No, Kyoung-Tae
    • Bulletin of the Korean Chemical Society
    • /
    • 제33권3호
    • /
    • pp.855-861
    • /
    • 2012
  • A pioneering version of an on-line management system for high-energy molecules (MS-HEMs) was developed by the ADD and BMDRC in Korea. The current system can manage the physicochemical and explosive properties of virtual and existing HEMs. The on-line MS-HEMs consist of three main routines: management, calculation, and search. The management routine contains a user-friendly interface to store and manage molecular structures and other properties of the new HEMs. The calculation routine automatically calculates a number of compositional and topological molecular descriptors when a new HEM is stored in the MS-HEMs. Physical properties, such as the heat of formation and density, can also be calculated using group additivity methods. In addition, the calculation routine for the impact sensitivity can be used to obtain the safety nature of new HEMs. The impact sensitivity was estimated in a knowledge-based manner using in-house neural network code. The search routine enables general users to find an exact HEM and its properties by sketching a 2D chemical structure, or to retrieve HEMs and their properties by giving a range of properties. These on-line MS-HEMs are expected be powerful tool for deriving novel promising HEMs.