• Title/Summary/Keyword: memory size reduction

검색결과 97건 처리시간 0.023초

상관계수와 하프변환을 이용한 차량번호판 자동인식 (The automatic recognition of the plate of vehicle using the correlation coefficient and hough transform)

  • 김경민;이병진;류경;박귀태
    • 제어로봇시스템학회논문지
    • /
    • 제3권5호
    • /
    • pp.511-519
    • /
    • 1997
  • This paper presents the automatic recognition algorithm of the license number in on vehicle image. The proposed algorithm uses the correlation coefficient and Hough transform to detect license plate. The m/n ratio reduction is performed to save time and memory. By the correlation coefficient between the standard pattern and the target pattern, licence plate area is roughly extracted. On the extracted local area, preprocessing and binarization is performed. The Hough transform is applied to find the extract outline of the plate. If the detection fails, a smaller or a larger standard pattern is used to compute the correlation coefficient. Through this process, the license plate of different size can be extracted. Two algorithms to each separate number are proposed. One segments each number with projection-histogram, and the other segments each number with the label. After each character is separated, it is recognized by the neural network. This research overlomes the problems in conventional methods, such as the time requirement or failure in extraction of outlines which are due to the processing of the entire image, and by processing in real time, the practical application is possible.

  • PDF

간신티그램상 간크기의 새로운 평가방법 -간.복부횡경비- (A New Method of Liver Size Estimation on Hepatic Scintigram -Hepato-abdominal Ratio)

  • 양일권;윤성도;박석희;박용휘
    • 대한핵의학회지
    • /
    • 제16권2호
    • /
    • pp.25-28
    • /
    • 1982
  • Estimation of liver size is essential in the diagnosis of liver disease, Many approaches have been attempted in evaluation of liver size such as the measurement of length, area and volume. Among these, area and volume measurements are accurate but complicated, so we commonly use formerly introduced various linear measurements, but in scintigraphy one must calculate the actual liver size using rate of reduction, which is time consuming. Because of these reasons, we carried out present study to represent liver size by means of a simple liver measurement like we express the cardiac size by cardiothoracic ratio. Our cases consisted of 100 clinically normal subjects as the normal group and 50 patients suffering from liver disease and diagnosed to have hepatomegaly on abdominal palpation and scintigram at Dept, of Radiology of St. Mary's Hospital, Catholic Medical College during the period of 8 months from Jan. 1980. We measured the liver size using 4 linear diameters(Fig. 1). And as the reference measurement, the distance from the right margin of the liver to the left margin of the spleen was measured. We called this "abdominal transverse diameter(ATD)". The results were as follows; 1) The smallest value was recorded in the midline vertical diameter (MVD). It was $4.2{\pm}0.4cm$ in normal group and $5.0{\pm}0.6cm$ in the hepatomegaly group. 2) The diameter using other methods ranged from 5.6 to 7.2 cm in the normal group and from 6.3 to 7.5cm in the hepatomegaly group. 3) There was significant difference in the ratio of each diameter to ATD between the normal and hepatomegaly group (<0.01). We called this "hepato-abdominal ratio". 4) The "hepato-abdominal ratio" using MVD is $0.43{\pm}0.06$ in the normal group and $0.53{\pm}0.07$ in the hepatomegaly group. The "hepato-abdominal ratio" of MVD was most significantly different between normal and hepatomegaly group. 5) The tolerance limits(99%) of "hepato-abdominal ratio" using MVD is from 0.41 to 0.45 in the normal group and from 0.51 to 0.55 in the hepatomegaly group. Therefore, by reasons of error during measurement and convenience of memory, it was warranted to suggest hepatomegaly when "hepato-abdominal ratio" using MVD is more than 0.5 in the interpretation of hepatic scintigram.

  • PDF

Parallel Implementations of Digital Focus Indices Based on Minimax Search Using Multi-Core Processors

  • HyungTae, Kim;Duk-Yeon, Lee;Dongwoon, Choi;Jaehyeon, Kang;Dong-Wook, Lee
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권2호
    • /
    • pp.542-558
    • /
    • 2023
  • A digital focus index (DFI) is a value used to determine image focus in scientific apparatus and smart devices. Automatic focus (AF) is an iterative and time-consuming procedure; however, its processing time can be reduced using a general processing unit (GPU) and a multi-core processor (MCP). In this study, parallel architectures of a minimax search algorithm (MSA) are applied to two DFIs: range algorithm (RA) and image contrast (CT). The DFIs are based on a histogram; however, the parallel computation of the histogram is conventionally inefficient because of the bank conflict in shared memory. The parallel architectures of RA and CT are constructed using parallel reduction for MSA, which is performed through parallel relative rating of the image pixel pairs and halved the rating in every step. The array size is then decreased to one, and the minimax is determined at the final reduction. Kernels for the architectures are constructed using open source software to make it relatively platform independent. The kernels are tested in a hexa-core PC and an embedded device using Lenna images of various sizes based on the resolutions of industrial cameras. The performance of the kernels for the DFIs was investigated in terms of processing speed and computational acceleration; the maximum acceleration was 32.6× in the best case and the MCP exhibited a higher performance.

70MIPS 이내에서 동작하는 MPEG-2 AAC 부호화 칩 설계 (An MPEG-2 AAC Encoder Chip Design Operating under 70MIPS)

  • 강희철;박주성;정갑주;박종인;최병갑;김태훈;김승우
    • 대한전자공학회논문지SD
    • /
    • 제42권4호
    • /
    • pp.61-68
    • /
    • 2005
  • MPEG-2 오디오 압축방식인 AAC(Advanced Audio Coding) LC(Low Complexity) 스테레오 부호화기를 고속으로 구현할 수 있는 칩을 32비트 DSP 코어를 기반으로 설계하고 0.25um CMOS 기술을 이용하여 제작하였다. 계산량과 메모리 용량을 줄이기 위하여 알고리즘 구현방법 측면에서 최적화를 하였으며, FFT(Fast Fourier Transform)를 하드웨어로 구현하여 고속화하였다. 제작된 칩의 크기는 $7.20\times7.20 mm^2$ 이었으며 등가 게이트는 약 830,000 이었으며 70MIPS 이내에서 AAC 부호화를 할 수 있음을 확인하였다.

프로토타입 선택을 이용한 최근접 분류 학습의 성능 개선 (Performance Improvement of Nearest-neighbor Classification Learning through Prototype Selections)

  • 황두성
    • 전자공학회논문지CI
    • /
    • 제49권2호
    • /
    • pp.53-60
    • /
    • 2012
  • 최근접 이웃 분류에서 입력 데이터의 클래스는 선택된 근접 학습 데이터들 중에서 가장 빈번한 클래스로 예측된다. 최근접분류 학습은 학습 단계가 없으나, 준비된 데이터가 모두 예측 분류에 참여하여 일반화 성능이 학습 데이터의 질에 의존된다. 그러므로 학습 데이터가 많아지면 높은 기억 장치 용량과 예측 분류 시 높은 계산 시간이 요구된다. 본 논문에서는 분리 경계면에 위치한 학습 데이터들로 구성된 새로운 학습 데이터를 생성시켜 분류 예측을 수행하는 프로토타입 선택 알고리즘을 제안한다. 제안하는 알고리즘에서는 분리 경계 영역에 위치한 데이터를 Tomek links와 거리를 이용하여 선별하며, 이미 선택된 데이터와 클래스와 거리 관계 분석을 이용하여 프로토타입 집합에 추가 여부를 결정한다. 실험에서 선택된 프로토타입의 수는 원래 학습 데이터에 비해 적은 수의 데이터 집합이 되어 최근접 분류의 적용 시 기억장소의 축소와 빠른 예측 시간을 제공할수 있다.

2D-MELPP: A two dimensional matrix exponential based extension of locality preserving projections for dimensional reduction

  • Xiong, Zixun;Wan, Minghua;Xue, Rui;Yang, Guowei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권9호
    • /
    • pp.2991-3007
    • /
    • 2022
  • Two dimensional locality preserving projections (2D-LPP) is an improved algorithm of 2D image to solve the small sample size (SSS) problems which locality preserving projections (LPP) meets. It's able to find the low dimension manifold mapping that not only preserves local information but also detects manifold embedded in original data spaces. However, 2D-LPP is simple and elegant. So, inspired by the comparison experiments between two dimensional linear discriminant analysis (2D-LDA) and linear discriminant analysis (LDA) which indicated that matrix based methods don't always perform better even when training samples are limited, we surmise 2D-LPP may meet the same limitation as 2D-LDA and propose a novel matrix exponential method to enhance the performance of 2D-LPP. 2D-MELPP is equivalent to employing distance diffusion mapping to transform original images into a new space, and margins between labels are broadened, which is beneficial for solving classification problems. Nonetheless, the computational time complexity of 2D-MELPP is extremely high. In this paper, we replace some of matrix multiplications with multiple multiplications to save the memory cost and provide an efficient way for solving 2D-MELPP. We test it on public databases: random 3D data set, ORL, AR face database and Polyu Palmprint database and compare it with other 2D methods like 2D-LDA, 2D-LPP and 1D methods like LPP and exponential locality preserving projections (ELPP), finding it outperforms than others in recognition accuracy. We also compare different dimensions of projection vector and record the cost time on the ORL, AR face database and Polyu Palmprint database. The experiment results above proves that our advanced algorithm has a better performance on 3 independent public databases.

이종 멀티코어 프로세서에서 분할된 공유 LLC가 성능에 미치는 영향 분석 (Analysis on the Performance Impact of Partitioned LLC for Heterogeneous Multicore Processors)

  • 문민구;김철홍
    • 한국차세대컴퓨팅학회논문지
    • /
    • 제15권2호
    • /
    • pp.39-49
    • /
    • 2019
  • 컴퓨팅 성능을 향상시키기 위해 다양한 구조적 설계 기법들이 제안되고 있는데 그중에서도 CPU-GPU 융합형 이종 멀티코어 프로세서가 많은 관심을 받고 있다. CPU-GPU 융합형 이종 멀티코어 프로세서는 단일 칩에 CPU와 GPU를 집적하기 때문에 일반적으로 CPU와 GPU가 Last Level Cache(LLC)를 공유하게 된다. LLC 공유는 CPU와 GPU 코어 사이에 심각한 캐쉬 경합이 발생하는 경우 각각의 코어 활용도가 저하되는 문제를 가지고 있다. 본 논문에서는 CPU와 GPU 사이의 캐쉬 경합 문제를 해결하기 위해 단일 LLC를 CPU와 GPU 각각의 공간으로 분할하고, 분할된 공간의 크기 변화가 전체 시스템 성능에 미치는 영향을 분석하고자 한다. 모의실험 결과에 따르면, CPU는 사용하는 LLC 크기가 커질수록 성능이 최대 21%까지 향상되지만 GPU는 사용하는 LLC 크기가 커져도 큰 성능변화를 보이지 않는다. 즉, GPU는 LLC 크기가 감소하더라도 CPU에 비하여 성능이 적게 하락함을 알 수 있다. GPU에서의 LLC 크기 감소에 의한 성능하락이 CPU에서의 LLC 크기 증가에 따른 성능향상보다 훨씬 작기 때문에 실험결과를 기반으로 각각의 코어에 LLC를 분할하여 할당한다면 전체적인 이종 멀티코어 프로세서의 성능을 향상시킬 수 있을 것으로 기대된다. 또한, 이러한 분석을 통해 향후 각 코어의 성능을 최대한 높일 수 있는 메모리 관리기법을 개발한다면 이종 멀티코어 프로세서의 성능을 크게 향상시킬 수 있을 것이다.

히스토그램 균등화 기반의 효율적인 차량용 영상 보정 알고리즘 (An Efficient Vehicle Image Compensation Algorithm based on Histogram Equalization)

  • 홍성일;인치호
    • 한국산학기술학회논문지
    • /
    • 제16권3호
    • /
    • pp.2192-2200
    • /
    • 2015
  • 본 논문에서는 히스토그램 균등화 기반의 효율적인 차량용 영상 보정 알고리즘을 제안한다. 제안된 차량용 영상보정 알고리즘은 움직임 추정 및 움직임 보상을 통해 차량용 영상의 흔들림을 제거하였다. 그리고 영상을 보정하기 위해 영상을 일정 영역으로 분할하여 각각의 서브 영상에서 픽셀 값의 히스토그램을 계산하였다. 또한, 기울기를 조절하여 영상을 개선하였다. 제안된 알고리즘은 IP에 적용하여 성능 및 시간, 영상의 차이점을 평가하고, 차량용 카메라 영상의 흔들림 제거와 영상 개선을 확인하였다. 본 논문에서 제안된 차량용 영상 보정 알고리즘은 기존 차량 영상 안정화 기술과 비교하였을 때, 차량용 영상에 대한 흔들림 제거는 메모리를 사용하지 않고 실시간 처리를 했기 때문에 효율성을 입증하였다. 그리고 블록 정합을 통한 연산으로 계산 시간 감소 효과를 얻었고, 노이즈가 가장 적고 영상의 자연스러움이 더 뛰어난 복원 결과를 얻을 수 있었다.

m-비트 병렬 BCH 인코더의 새로운 설계 방법 (A new design method of m-bit parallel BCH encoder)

  • 이준;우중재
    • 융합신호처리학회논문지
    • /
    • 제11권3호
    • /
    • pp.244-249
    • /
    • 2010
  • 차세대 멀티 레벨 셀 플래시 메모리들을 위해 복잡도가 낮은 에러 정정 코드 구현에 대한 요구가 커지고 있다. 일반적으로 부 표현 (sub-expression) 들을 공유하는 것은 복잡도와 칩 면적을 줄이기 위한 효과적인 방법이다. 본 논문에서는 직렬 선형 귀환 쉬프트 레지스터 구조를 기반으로 부 표현들을 이용한 저 복잡도 m-비트 병렬 BCH 인코더 구현 방법을 제안한다. 또한, 부 표현들을 탐색하기 위한 일반화된 방법을 제시한다. 부 표현들은 패리티 생성을 위해 사용하는 행렬(생성 행렬, generator matrix)의 부 행렬 (sub-matrix)과 다른 변수들의 합과의 행렬 연산에 의해 표현된다. 부 표현들의 수는 개로 한정되며, 탐색된 부 표현들은 다른 병렬 BCH 인코더 구현을 위해 공유되어질 수 있다. 본 논문은 구현 과정에서 다수의 팬 아웃에 의해 발생하는 문제점(지연)의 해결이 아닌 복잡도(로직 사이즈) 감소에 그 목적이 있다.

고층건물의 효율적인 구조해석 (An Efficient Structural Analysis of Multistory Buildings)

  • 김경호;이동근
    • 대한토목학회논문집
    • /
    • 제7권2호
    • /
    • pp.141-153
    • /
    • 1987
  • 고층 건물의 정확한 거동을 구하기 위한 구조 해석은 컴퓨터 적용의 중요한 분야로 취급되어 왔다. 본 논문에서는 건축구조물에 대한 3차원적인 해석방법을 연구하였다. 이 해석 방법은 건물을 각각의 독립된 프레임의 조합체로 보고 해석하므로 매우 효율적이며, 건물의 3차원적인 거동에 관한 고려는 건물이나 하중이 대칭이 아닐 때는 특히 중요하다. 그리고 matrix condensation 기법을 이용함으로써 컴퓨터의 용량과 해석 시간이 상당히 절약되므로 매우 경제적이다. 본 논문의 건물 구조해석 컴퓨터 프로그램 PFS의 정확성과 효율성을 증명하기 위해 여러가지 예제들에 대해서 SAPIV 에 의한 해석 결과와 비교하였다. 그러므로, 본 논문에서 제안한 해석방법은 고층 건물의 구조 설계에서 매우 효율적이라 할 수 있다.

  • PDF