• 제목/요약/키워드: Set partitioning problem

검색결과 45건 처리시간 0.025초

대용량 GPS 궤적 데이터를 위한 효율적인 클러스터링 (An Efficient Clustering Algorithm for Massive GPS Trajectory Data)

  • 김태용;박보국;박진관;조환규
    • 정보과학회 논문지
    • /
    • 제43권1호
    • /
    • pp.40-46
    • /
    • 2016
  • 도로지도 생성은 인공위성 촬영이나 현장실사를 기반으로 한다. 그리하여 도로지도를 생성하고 수정하는데 많은 시간과 비용이 든다. 이러한 이유로 차량 GPS 데이터를 이용해 도로지도를 생성하는 연구가 활발히 진행되고 있다. 도로지도 생성 연구에서 가장 중요한 문제는 주도로와 같은 대표궤적을 추출하는 것이다. 대표궤적 추출을 수행할 때에는 시작과 끝이 비슷한 궤적데이터들의 집합을 전제로 하여 궤적을 추출한다. 따라서 대표궤적을 추출하기에 앞서 전처리 과정으로 궤적 클러스터링 작업이 필요하다. 본 논문에서는 이러한 문제를 해결하기 위해 하나의 영역을 일정한 격자로 분할하고, Sweep Line 알고리즘을 응용해 유사궤적들을 탐색한다. 마지막으로 프레쉐거리를 이용하여 궤적 간 유사도를 계산하였다. 실제로 서울의 강남구 지역에 있는 500대의 차량 GPS 궤적을 가지고 클러스터링 작업을 수행하였다. 또한, 실험을 통하여 격자분할 접근방식의 빠른 수행시간과 안정성을 보였다.

Partitioning likelihood method in the analysis of non-monotone missing data

  • Kim Jae-Kwang
    • 한국통계학회:학술대회논문집
    • /
    • 한국통계학회 2004년도 학술발표논문집
    • /
    • pp.1-8
    • /
    • 2004
  • We address the problem of parameter estimation in multivariate distributions under ignorable non-monotone missing data. The factoring likelihood method for monotone missing data, termed by Robin (1974), is extended to a more general case of non-monotone missing data. The proposed method is algebraically equivalent to the Newton-Raphson method for the observed likelihood, but avoids the burden of computing the first and the second partial derivatives of the observed likelihood Instead, the maximum likelihood estimates and their information matrices for each partition of the data set are computed separately and combined naturally using the generalized least squares method. A numerical example is also presented to illustrate the method.

  • PDF

관계형 데이터베이스의 물리적 설계에서 유전해법을 이용한 속성 중복 수직분할 방법 (An Attribute Replicating Vertical Partition Method by Genetic Algorithm in the Physical Design of Relational Database)

  • 유종찬;김재련
    • 산업경영시스템학회지
    • /
    • 제21권46호
    • /
    • pp.33-49
    • /
    • 1998
  • In order to improve the performance of relational databases, one has to reduce the number of disk accesses necessary to transfer data from disk to main memory. The paper proposes to reduce the number of disk I/O accesses by vertically partitioning relation into fragments and allowing attribute replication to fragments if necessary. When zero-one integer programming model is solved by the branch-and-bound method, it requires much computing time to solve a large sized problem. Therefore, heuristic solutions using genetic algorithm(GA) are presented. GA in this paper adapts a few ideas which are different from traditional genetic algorithms, for examples, a rank-based sharing fitness function, elitism and so on. In order to improve performance of GA, a set of optimal parameter levels is determined by the experiment and makes use of it. As relations are vertically partitioned allowing attribute replications and saved in disk, an attribute replicating vertical partition method by GA can attain less access cost than non-attribute-replication one and require less computing time than the branch-and-bound method in large-sized problems. Also, it can acquire a good solution similar to the optimum solution in small-sized problem.

  • PDF

계층적 트리의 집합 분할 알고리즘(SPIHT)에 기반한 에러에 강하고 가변적인 웨이브렛 비디오 코덱에 관한 연구 (A Study on Error-Resilient, Scalable Video Codecs Based on the Set Partitioning in Hierarchical Trees(SPIHT) Algorithm)

  • 지인호
    • 한국인터넷방송통신학회논문지
    • /
    • 제23권1호
    • /
    • pp.37-43
    • /
    • 2023
  • 압축된 정지 영상이나 비디오 비트열들은 무선채널에서 채널 에러의 보호가 요구된다. Embedded Zero Coding(EZW)와 SPIHT는 낮은 복합도의 영상압축에서 매우 우수한 성능을 제공하여준다. 무선 채널의 전송상의 문제로 인해 비트 에러가 발생하게 되면 부호화와 복호화 사이의 동기를 잃어버리게 되어 심각한 성능의 저하를 일으키게 된다. 그러나 웨이브렛 제로코딩 알고리즘은 에러에 매우 민감한 가변 길이 코드워드가 생성된다. 이 논문의 아이디어는 리프팅 계수들을 분할하는 것이다. 리프팅 변환들의 많은 분할이 무선채널의 채널 에러를 각 분할로 분배된다. 그래서 정지 영상이나 비디오 스트림에서 영상 왜곡을 야기 시키는 동기화 문제가 개선되었다.

고해상도 영상 압축을 위한 SPIHT 기반의 부대역 분할 압축 방법 (SPIHT-based Subband Division Compression Method for High-resolution Image Compression)

  • 김우석;박병서;오관정;서영호
    • 방송공학회논문지
    • /
    • 제27권2호
    • /
    • pp.198-206
    • /
    • 2022
  • 본 논문에서는 초고해상도를 갖는 복소 홀로그램을 압축하기 위한 전용 코덱에서 SPIHT (set partitioning in hierarchical trees)를 사용할 경우에 발생할 수 있는 문제점을 해결하기 위한 방법을 제안한다. 복소 홀로그램을 위한 코덱의 개발은 크게 전용 압축 방법을 만드는 방법과 HEVC 및 JPEG2000과 같은 앵커 코덱을 이용하고 전후처리 기법을 추가하는 방법으로 구분될 수 있다. 전용 압축 방법을 만드는 경우에 복소 홀로그램의 공간적인 특성을 해석하기 위한 별도의 변환 도구가 필요하다. EZW와 SPIHT 같은 부대역 단위의 제로트리 기반의 알고리즘들은 고해상도의 영상에 대해서 코딩할 경우에 비트스트림 제어 시 온전한 부대역의 정보가 제대로 전송되지 못하는 문제점을 갖는다. 본 논문에서는 이와 같은 문제를 해결하기 위한 웨이블릿 부대역의 분할 방법을 제안한다. 분할한 부대역을 각각 압축하는 것으로 부대역 전역의 정보가 균일하게 유지하도록 한다. 제안하는 방법은 기존 방법에 비하여, PSNR 대비 더 좋은 복원 결과를 보여주었다.

그래프 분할을 이용한 서울 수도권 지하철역들의 분류 (Classification of the Seoul Metropolitan Subway Stations using Graph Partitioning)

  • 박종수;이금숙
    • 한국경제지리학회지
    • /
    • 제15권3호
    • /
    • pp.343-357
    • /
    • 2012
  • 수도권 지하철 시스템은 지하철 역을 결절점으로 하고 이들을 연결하는 선로를 간선으로 구성한 그래프로 표현할 수 있다. 본 논문에서 서울 수도권 지하철 시스템의 통행흐름을 바탕으로 그래프를 거의 비슷한 그룹들로 분할하여 지하철역들의 분류와 지하철 승객들의 통행 특성을 연구한다. 그래프의 각 간선을 통과하는 승객수를 교통카드 트랜잭션 데이터베이스에서 추출하여 그 간선의 가중치로 둔다. 그래프 분할 문제는 NP-완전 문제에 속하기 때문에, 본 논문에서 지하철 시스템의 그래프를 분할하기위하여 휴리스틱 알고리즘을 제안한다. 그 휴리스틱 알고리즘은 두 개의 선택 가능한 목적함수들 중에서 하나를 사용하는 데, 첫 번째 목적함수는 다른 그룹들에 속한 결절점들을 연결하는 간선들의 가중치의 합을 최소화하는 것이고 두 번째는 전체 지하철 승객들에 대해 승차역과 하차역이 같은 그룹에 속한 승객들의 비율을 최대화하는 것이다. 실험결과에서 각 그룹에 속한 지하철역들과 간선들을 색깔로 구분하여 지도상에 표시하고 그룹별 기종점 행렬로 지하철 승객들의 통행 특성을 분석한다.

  • PDF

최적화에 기반 한 데이터 클러스터링 알고리즘 (New Optimization Algorithm for Data Clustering)

  • 김주미
    • 지능정보연구
    • /
    • 제13권3호
    • /
    • pp.31-45
    • /
    • 2007
  • 대용량의 데이터 처리에 관한 문제는 데이터 마이닝 내 중요한 이슈 중의 하나이다. 특히 데이터 클러스터링과 같이 컴퓨터 시뮬레이션으로 인한 부하가 큰 경우 더더욱 그러하다. 그러나 대개 이러한 문제는 Random sampling 으로 어느 정도 해결이 가능하다. 문제는 이런 샘플링을 통해서 발생하는 noise의 해결이다. 본 논문에서는 그러한 noise문제를 극복할 수 있도록 설계된 새로운 데이터클러스터링 알고리즘을 소개한다. 기존의 데이터 클러스팅 알고리즘과의 컴퓨터 비교 실험을 통해 본 알고리즘의 우수성을 밝혔으며 아울러 더 나아가 데이터 set의 일부만을 사용한 시뮬레이션 결과를 통해, 해의 정확도와 상관없이 실험 시간 또한 단축되었음을 보여주고 있다.

  • PDF

Multiple Description Coding using Whitening Ttansform

  • Park, Kwang-Pyo;Lee, Keun-Young
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -2
    • /
    • pp.1003-1006
    • /
    • 2002
  • In the communications systems with diversity, we are commonly faced on needing of new source coding technique, error resilient coding. The error resilient coding addresses the coding algorithm that has the robustness to unreliability of communications channel. In recent years, many error resilient coding techniques were proposed such as data partitioning, resynchronization, error detection, concealment, reference picture selection and multiple description coding (MDC). Especially, the MDC using correlating transform explicitly adds correlation between two descriptions to enable the estimation of one set from the other. However, in the conventional correlating transform method, there is a critical problem that decoder must know statistics of original image. In this paper, we propose an enhanced method, the MDC using whitening transform that is not necessary additional statistical information to decode image because the DCT coefficients to apply whitening transform to an image have uni-variance statistics. Our experimental results show that the proposed method achieves a good trade-off between the coding efficiency and the reconstruction quality. In the proposed method, the PSNR of images reconstructed from two descriptions is about 0.7dB higher than conventional method at the 1.0 BPP and from only one description is about 1,8dB higher at the same rate.

  • PDF

이미지 압축을 위한 Lifting Scheme을 이용한 병렬 2D-DWT 하드웨어 구조 (Parallel 2D-DWT Hardware Architecture for Image Compression Using the Lifting Scheme)

  • 김종욱;정정화
    • 전기전자학회논문지
    • /
    • 제6권1호
    • /
    • pp.80-86
    • /
    • 2002
  • 본 논문에서는 2차원 분할을 이용한 병렬 처리가 가능한 리프팅 스킴(lifting scheme) DWT(Discrete Wavelet Transform)를 구현하는 하드웨어 구조를 제안한다. 기존의 DWT 하드웨어 구조는 웨이블릿(Wavelet) 변환이 갖는 특성 때문에 병렬 처리 구조를 구현하는 데 있어서 메모리와 하드웨어 자원이 많이 필요하였다. 제안된 구조는 기존의 구조와 달리 데이터 흐름을 분석하여, 분할 과정을 2차원으로 수행하는 방법을 제안하였다. 이러한 2차원 분할 방법을 파이프라인 구조를 사용하여 병렬 처리의 효율을 증가 시켜 50% 정도의 출력 지연의 감소된 결과를 얻을 수 있었다. 또한 데이터 흐름의 분석과 출력 지연의 감소는 내부 메모리의 사용을 감소 시했으며, 리프팅 스킴의 특성을 이용하여 외부 메모리의 사용을 감소시키는 결과를 얻을 수 있다.

  • PDF

Goal-oriented multi-collision source algorithm for discrete ordinates transport calculation

  • Wang, Xinyu;Zhang, Bin;Chen, Yixue
    • Nuclear Engineering and Technology
    • /
    • 제54권7호
    • /
    • pp.2625-2634
    • /
    • 2022
  • Discretization errors are extremely challenging conundrums of discrete ordinates calculations for radiation transport problems with void regions. In previous work, we have presented a multi-collision source method (MCS) to overcome discretization errors, but the efficiency needs to be improved. This paper proposes a goal-oriented algorithm for the MCS method to adaptively determine the partitioning of the geometry and dynamically change the angular quadrature in remaining iterations. The importance factor based on the adjoint transport calculation obtains the response function to get a problem-dependent, goal-oriented spatial decomposition. The difference in the scalar fluxes from one high-order quadrature set to a lower one provides the error estimation as a driving force behind the dynamic quadrature. The goal-oriented algorithm allows optimizing by using ray-tracing technology or high-order quadrature sets in the first few iterations and arranging the integration order of the remaining iterations from high to low. The algorithm has been implemented in the 3D transport code ARES and was tested on the Kobayashi benchmarks. The numerical results show a reduction in computation time on these problems for the same desired level of accuracy as compared to the standard ARES code, and it has clear advantages over the traditional MCS method in solving radiation transport problems with reflective boundary conditions.