• Title/Summary/Keyword: 객체삭제

Search Result 84, Processing Time 0.021 seconds

General-purpose Clustering System Using Standard CORBA Load Balancing Service (CORBA 로드밸런싱 서비스를 사용한 범용 클러스터링 시스템)

  • 차현철;최정호;김정선
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10a
    • /
    • pp.451-453
    • /
    • 2003
  • 인터넷과 개인컴퓨터가 대중화되어 사용자층이 넓어지고, 컴퓨터 기술이 다양화됨에 따라 점차 고가용성 서버에 대한 관심이 높아지면서 낮은 비용에 높은 성능을 만족시켜줄 수 있는 클러스터링 시스템이 인기를 끌고 있다. 하지만 기존의 클러스터링 시스템은 높은 성능에 비해 특정 플랫폼에 종속적이거나 특정 어플리케이션을 위한 구성이기 때문에 하나의 클러스터링 시스템을 여러 가지 플랫폼에서 다양한 목적으로 사용하기에는 부적절하다. 특정 장치 및 프로토콜 혹은 플랫폼에 의존적인 시스템은 유지보수 및 확장성의 제약을 받게 되기 때문에 이질적 컴포넌트들을 유기적으로 결합할 수 있는 방법이 요구되며 이러한 시스템을 효과적으로 구현하기 위해서는 표준 기반의 COTS (commercial-off-the-shelf) 미들웨어의 적용이 반드시 필요하다. 본 논문에서는 미들웨어로서 분산객체컴퓨팅의 표준인 CORBA 로드 밸런싱 서비스를 이용하여 유지보수 및 확장성이 용이하고 다양한 플랫폼에서 사용이 가능하며 여러 종류의 어플리케이션의 수행을 위한 클러스터 노드의 동적 추가/삭제가 가능한 범용 클러스터링 시스템을 설계하고 구현한다.

  • PDF

Measuring Dynamic CORBA Characteristics for Embedded System (임베디드 시스템을 위한 동적 CORBA 특성 측정)

  • Lee, Kyoung-Woo;Lee, In-Hwan
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2006.10a
    • /
    • pp.305-308
    • /
    • 2006
  • 최근 임베디드 분산 객체 응용 기술로 CORBA 규격이 사용되고 있다. CORBA규격은 엔터프라이즈 응용을 위해서 만들어진 규격이지만, 임베디드 시스템 환경에 적합하게 수정, 이식을 하고 있다. 그러나 주로 예측을 통한 CORBA의 동적인 기능 삭제와 CORBA 서비스를 최소화 한 메모리 사용량 제한에 중점을 둔 규격을 만들어 왔다. 실제 표준 CORBA 규격의 임베디드 시스템에 이식을 통한 실험적인 데이터를 근거 설정된 규격 설정이 필요하다. 따라서 이 논문에서는 표준 규격의 CORBA를 실제 임베디드 시스템에 이식을 하고, 동적인 응용프로그램을 실행함으로써 임베디드 시스템에서 발생 할 수 있는 특징을 조사 해보고자 한다. 이러한 특징을 근거로 임베디드 시스템 CORBA 규격 설정에 근거가 될 수 있을 것이다.

  • PDF

A CASE Tool for Building Multi-Scale Databases (다중축척 데이터베이스 구축을 위한 CASE 도구)

  • 이성희;강혜경;이기준
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10a
    • /
    • pp.198-200
    • /
    • 1999
  • 공간 데이터베이스 구축을 효과적으로 하는 방법중의 하나는 대축척 공간 데이터베이스를 이용하여 여러 종류의 다중축척 데이터베이스를 구축하는 것이다. 다중축척 데이터베이스의 구축에는 많은 작업들이 포함된다. 기하학적 변형이나 불필요한 객체의 단순화, 삭제 등의 일반화와 데이터 모델의 변형, 그리고 데이터베이스의 전환 과정에 포함된다. 이 작업은 매우 다양한 처리과정을 요구하기 때문에 자동화된 도구의 도움을 필요로 한다. 본 논문에서는 다중축척 데이터베이스 구축에 이용되는 작업을 지원하는 CASE 도구를 소개한다. 이 도구는 지도 일반화에 의해 발생되는 데이터 모델의 변화에 대한 규칙에 따라 새로운 소축척의 데이터베이스의 데이터 모델을 설계하는 작업을 지원하며, 이 데이터 모델에 따라 대축척의 데이터베이스를 소축척의 데이터베이스로 전환하는 기능을 지원한다.

  • PDF

Video Content Editing System for Senior Video Creator based on Video Analysis Techniques (영상분석 기술을 활용한 시니어용 동영상 편집 시스템)

  • Jang, Dalwon;Lee, Jaewon;Lee, JongSeol
    • Journal of Broadcast Engineering
    • /
    • v.27 no.4
    • /
    • pp.499-510
    • /
    • 2022
  • This paper introduces a video editing system for senior creator who is not familiar to video editing. Based on video analysis techniques, it provide various information and delete unwanted shot. The system detects shot boundaries based on RNN(Recurrent Neural Network), and it determines the deletion of video shots. The shots can be deleted using shot-level significance, which is computed by detecting focused area. It is possible to delete unfocused shots or motion-blurred shots using the significance. The system detects object and face, and extract the information of emotion, age, and gender from face image. Users can create video contents using the information. Decorating tools are also prepared, and in the tools, the preferred design, which is determined from user history, places in the front of the design element list. With the video editing system, senior creators can make their own video contents easily and quickly.

A Region-based Comparison Algorithm of k sets of Trapezoids (k 사다리꼴 셋의 영역 중심 비교 알고리즘)

  • Jung, Hae-Jae
    • The KIPS Transactions:PartA
    • /
    • v.10A no.6
    • /
    • pp.665-670
    • /
    • 2003
  • In the applications like automatic masks generation for semiconductor production, a drawing consists of lots of polygons that are partitioned into trapezoids. The addition/deletion of a polygon to/from the drawing is performed through geometric operations such as insertion, deletion, and search of trapezoids. Depending on partitioning algorithm being used, a polygon can be partitioned differently in terms of shape, size, and so on. So, It's necessary to invent some comparison algorithm of sets of trapezoids in which each set represents interested parts of a drawing. This comparison algorithm, for example, may be used to verify a software program handling geometric objects consisted of trapezoids. In this paper, given k sets of trapezoids in which each set forms the regions of interest of each drawing, we present how to compare the k sets to see if all k sets represent the same geometric scene. When each input set has the same number n of trapezoids, the algorithm proposed has O(2$^{k-2}$ $n^2$(log n+k)) time complexity. It is also shown that the algorithm suggested has the same time complexity O( $n^2$ log n) as the sweeping-based algorithm when the number k(<< n) of input sets is small. Furthermore, the proposed algorithm can be kn times faster than the sweeping-based algorithm when all the trapezoids in the k input sets are almost the same.

The Selection Methodology of Road Network Data for Generalization of Digital Topographic Map (수치지형도 일반화를 위한 도로 네트워크 데이터의 선택 기법 연구)

  • Park, Woo Jin;Lee, Young Min;Yu, Ki Yun
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.31 no.3
    • /
    • pp.229-238
    • /
    • 2013
  • Development of methodologies to generate the small scale map from the large scale map using map generalization has huge importance in management of the digital topographic map, such as producing and updating maps. In this study, the selection methodology of map generalization for the road network data in digital topographic map is investigated and evaluated. The existing maps with 1:5,000 and 1:25,000 scales are compared and the criteria for selection of the road network data, which are the number of objects and the relative importance of road network, are analyzed by using the T$\ddot{o}$pfer's radical law and Logit model. The selection model derived from the analysis result is applied to the test data, and the road network data of 1:18,000 and 1:72,000 scales from the digital topographic map of 1:5,000 scale are generated. The generalized results showed that the road objects with relatively high importance are selected appropriately according to the target scale levels after the qualitative and quantitative evaluations.

Robust Vision Based Algorithm for Accident Detection of Crossroad (교차로 사고감지를 위한 강건한 비젼기반 알고리즘)

  • Jeong, Sung-Hwan;Lee, Joon-Whoan
    • The KIPS Transactions:PartB
    • /
    • v.18B no.3
    • /
    • pp.117-130
    • /
    • 2011
  • The purpose of this study is to produce a better way to detect crossroad accidents, which involves an efficient method to produce background images in consideration of object movement and preserve/demonstrate the candidate accident region. One of the prior studies proposed an employment of traffic signal interval within crossroad to detect accidents on crossroad, but it may cause a failure to detect unwanted accidents if any object is covered on an accident site. This study adopted inverse perspective mapping to control the scale of object, and proposed different ways such as producing robust background images enough to resist surrounding noise, generating candidate accident regions through information on object movement, and by using edge information to preserve and delete the candidate accident region. In order to measure the performance of proposed algorithm, a variety of traffic images were saved and used for experiment (e.g. recorded images on rush hours via DVR installed on crossroad, different accident images recorded in day and night rainy days, and recorded images including surrounding noise of lighting and shades). As a result, it was found that there were all 20 experiment cases of accident detected and actual effective rate of accident detection amounted to 76.9% on average. In addition, the image processing rate ranged from 10~14 frame/sec depending on the area of detection region. Thus, it is concluded that there will be no problem in real-time image processing.

Dynamic Copy Security Protocol In Real-Time Database Systems (실시간 데이터베이스 시스템에서의 동적 복사 보안 프로토콜)

  • Park, Su-Yeon;Lee, Seung-Ryong;Jeong, Byeong-Su;Seung, Hyeon-U
    • Journal of KIISE:Software and Applications
    • /
    • v.26 no.8
    • /
    • pp.955-963
    • /
    • 1999
  • 다단계 보안 실시간 데이타베이스 시스템은 데이타베이스의 일관성 유지와 실시간 요구인 마감시간의 만족, 그리고 기밀성을 띤 데이타가 노출될 수 있는 비밀채널(covert-channel)의 방지라는 요구사항을 모두 만족해야 한다. 기존의 SRT-2PL(Secure Real-Time 2 Phase Locking)은 원본과 복사본으로 데이타 객체를 분리시켜 다른 등급간에 불간섭(non-interference)을 유지하여 비밀채널의 방지를 가능하게 하였으나, 복사본이 모든 데이타 객체에 대해 항상 존재하므로 메모리의 낭비가 있을 수 있고, 복사본의 갱신을 위한 갱신 큐의 관리에 따르는 오버헤드와 그에 따른 예측성 결여라는 문제점을 갖고 있다. 이를 개선하기 위하여 본 논문에서는 다단계 보안 실시간 데이타베이스 시스템의 요구사항을 모두 만족하는 동적 복사 프로토콜을 제안한다. 동적 복사 프로토콜은 로킹 기법을 기초로 동작하고, 트랜잭션의 작업에 따라 동적으로 복사본을 생성하고 삭제한다. 모의 실험 결과 제안한 동적 복사 프로토콜은 비밀채널을 방지하고 동적인 복사본의 생성으로 SRT-2PL의 단점인 메모리 낭비를 줄일 수 있으며, 예측성을 높여 마감시간 오류율을 감소시켰다.Abstract Concurrency control of real-time secure database system must satisfy not only logical data consistency but also timing constraints and security requirements associated with transactions. These conflicting natures between timing constraints and security requirements are often resolved by maintaining several versions(or secondary copies) on the same data items. In this paper, we propose a new lock-based concurrency control protocol, Dynamic Copy Security Protocol, ensuring both two conflicting requirements. Our protocol aims for reducing the storage overhead of maintaining secondary copies and minimizing the processing overhead of update history. Main idea of our protocol is to keep a secondary copy only when it is needed to resolve the conflicting read/write operations in real time secure database systems. For doing this, a secondary copy is dynamically created and removed during a transaction's read/write operations according to our protocol. We have also examined the performance characteristics of our protocol through simulation under different workloads while comparing the existing real time security protocol. The results show that our protocol consumed less storage and decreased the missing deadline transactions.

Video Retrieval System supporting Content-based Retrieval and Scene-Query-By-Example Retrieval (비디오의 의미검색과 예제기반 장면검색을 위한 비디오 검색시스템)

  • Yoon, Mi-Hee;Cho, Dong-Uk
    • The KIPS Transactions:PartB
    • /
    • v.9B no.1
    • /
    • pp.105-112
    • /
    • 2002
  • In order to process video data effectively, we need to save its content on database and a content-based retrieval method which processes various queries of all users is required. In this paper, we present VRS(Video Retrieval System) which provides similarity query, SQBE(Scene Query By Example) query, and content-based retrieval by combining the feature-based retrieval and the annotation-based retrieval. The SQBE query makes it possible for a user to retrieve scones more exactly by inserting and deleting objects based on a retrieved scene. We proposed query language and query processing algorithm for SQBE query, and carried out performance evaluation on similarity retrieval. The proposed system is implemented with Visual C++ and Oracle.

Lazy Bulk Insertion Method of Moving Objects Using Index Structure Estimation (색인 구조 예측을 통한 이동체의 지연 다량 삽입 기법)

  • Kim, Jeong-Hyun;Park, Sun-Young;Jang, Hyong-Il;Kim, Ho-Suk;Bae, Hae-Young
    • Journal of Korea Spatial Information System Society
    • /
    • v.7 no.3 s.15
    • /
    • pp.55-65
    • /
    • 2005
  • This paper presents a bulk insertion technique for efficiently inserting data items. Traditional moving object database focused on efficient query processing that happens mainly after index building. Traditional index structures rarely considered disk I/O overhead for index rebuilding by inserting data items. This paper, to solve this problem, describes a new bulk insertion technique which efficiently induces the current positions of moving objects and reduces update cost greatly. This technique uses buffering technique for bulk insertion in spatial index structures such as R-tree. To analyze split or merge node, we add a secondary index for information management on leaf node of primary index. And operations are classified to reduce unnecessary insertion and deletion. This technique decides processing order of moving objects, which minimize split and merge cost as a result of update operations. Experimental results show that this technique reduces insertion cost as compared with existing insertion techniques.

  • PDF