• 제목/요약/키워드: Reduced-size image

검색결과 259건 처리시간 0.023초

Parallel Implementations of Digital Focus Indices Based on Minimax Search Using Multi-Core Processors

  • HyungTae, Kim;Duk-Yeon, Lee;Dongwoon, Choi;Jaehyeon, Kang;Dong-Wook, Lee
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권2호
    • /
    • pp.542-558
    • /
    • 2023
  • A digital focus index (DFI) is a value used to determine image focus in scientific apparatus and smart devices. Automatic focus (AF) is an iterative and time-consuming procedure; however, its processing time can be reduced using a general processing unit (GPU) and a multi-core processor (MCP). In this study, parallel architectures of a minimax search algorithm (MSA) are applied to two DFIs: range algorithm (RA) and image contrast (CT). The DFIs are based on a histogram; however, the parallel computation of the histogram is conventionally inefficient because of the bank conflict in shared memory. The parallel architectures of RA and CT are constructed using parallel reduction for MSA, which is performed through parallel relative rating of the image pixel pairs and halved the rating in every step. The array size is then decreased to one, and the minimax is determined at the final reduction. Kernels for the architectures are constructed using open source software to make it relatively platform independent. The kernels are tested in a hexa-core PC and an embedded device using Lenna images of various sizes based on the resolutions of industrial cameras. The performance of the kernels for the DFIs was investigated in terms of processing speed and computational acceleration; the maximum acceleration was 32.6× in the best case and the MCP exhibited a higher performance.

저소음 청소기 개발 (Low Noise Vacuum Cleaner Design)

  • 주재만;이준화;홍승기;오장근;송화규
    • 한국소음진동공학회:학술대회논문집
    • /
    • 한국소음진동공학회 2007년도 추계학술대회논문집
    • /
    • pp.939-942
    • /
    • 2007
  • Vacuum cleaner is a close life product that can remove various dusts from our surroundings. However well vacuum cleaner clean our environments, many people are looking away from it, due to its loud noise. Its noise causes a big trouble in the usual life, for example, catch calls, TV watching and discussing etc. To reduce these inconveniences, noise reduction methods and systematic design of low noise vacuum cleaner are studied in this paper. At first, sound quality investigation is performed to get the noise level and quality that make people TV watching and catch calls available. Based on the European and domestic customer SQ survey result, sound power, peak noise level and target sound spectrum guideline are studied and introduced. As a second, precise product sound spectrums are designed into each part based on the sound quality result. Fan-motor, brush, mainbody, cyclone spectrums are decided to get the final target sound based on the contribution level. Fan-motor is the major noise source of vacuum cleaner. Specially, its peak sound, RPM peak and BPF Peak, cause the people nervous. To reduce these peak sounds, high rotating impeller and diffuser are focused due to its interaction. A lot of experimental and numerical tests, operation points are investigated and optimization of flow path area between diffusers is performed. As a bagless device, cyclones are one of the major noise sources of vacuum cleaner. To reduce its noise, previous research is used and adopted well. Brush is the most difficult part to reduce noise. Its noise sources are all comes from aero-acoustic phenomena. Numerical analysis helps the understanding of flow structure and pattern, and a lot of experimental test are performed to reduce the noise. Gaps between the carpet and brush are optimized and flow paths are re-designed to lower the noise. Reduction is performed with keeping the cleaning efficiency and handling power together and much reduction of noise is acquired. With all above parts, main-body design is studied. To do a systematic design, configuration design developments technique is introduced from airplane design and evolved with each component design. As a first configuration, fan-motor installation position is investigated and 10 configuration ideas are developed and tested. As a second step, reduced size and compressed configuration candidates are tested and evaluated by a lot of major factor. Noise, power, mass production availability, size, flow path are evaluated together. If noise reduction configuration results in other performance degrade, the noise reduction configuration is ineffective. As a third configuration, cyclones are introduced and the size is reduced one more time and fourth, fifth, sixth, seventh configuration are evolved with size and design image with noise and other performance indexes. Finally we can get a overall much noise level reduction configuration. All above investigations are adopted into vacuum cleaner design and final customer satisfaction tests in Europe are performed. 1st grade sound quality and lowest noise level of bagless vacuum cleaner are achieved.

  • PDF

다중 다층 퍼셉트론을 이용한 저해상도 홍채 영상의 고해상도 복원 연구 (A Study on the Restoration of a Low-Resoltuion Iris Image into a High-Resolution One Based on Multiple Multi-Layered Perceptrons)

  • 신광용;강병준;박강령;신재호
    • 한국멀티미디어학회논문지
    • /
    • 제13권3호
    • /
    • pp.438-456
    • /
    • 2010
  • 홍채 인식은 고유한 홍채 패턴을 이용하여 신원을 확인하는 생체 인식 기술이다. 일반적으로 홍채인식에서 는 홍채 직경이 200 화소(pixel) 이상 되는 고해상도 홍채 영상을 사용하며, 이런 경우 인식률 감소 없이 정확한 홍채 인식 결과를 얻는다고 알려져 있다. 이를 위해 기존의 홍채 인식 시스템들은 줌렌즈 카메라를 사용하지만, 이러한 카메라는 홍채 인식기의 가격과 크기를 증가시키는 요인이 된다. 이러한 문제를 해결하기 위하여 본 연구에서는 줌렌즈 카메라의 사용 없이 저해상도로 취득된 홍채 영상에서의 인식 정확도를 향상할 수 있는 방법을 제안한다. 본 연구에서는 기존의 방법과 비교하여 다음과 같은 두 가지 장점을 갖는다. 첫째, 기존의 연구에서는 홍채 직경이 200 화소 이하인 저해상도 영상에서의 홍채 인식 성능 감소에 대한 정량적 분석이 진행된 바 없다. 본 연구에서는 홍채 영상의 초점 정도, 눈꺼풀 및 속눈썹 가림 정도의 영향을 배제하고, 홍채 영상의 크기 변화에 따른 인식율의 저하정도를 정량적으로 파악하였다. 둘째, 한 장의 저해상도 홍채 영상을 고해상도 영상으로 복원하기 위해 홍채 영역의 에지 방향에 따라 개별적으로 다르게 학습된 다중 다층 퍼셉트론을 적용함으로써, 복원된 영상에서의 인식 정확도를 향상시켰다. 원 영상대비 6%만큼의 크기로 축소한 저해상도 홍채 영상을 고해상도 영상으로 복원한 결과, 제안하는 방법에 의한 홍채 인식의 EER이 기존의 이중선형보간법에 의한 EER보다 0.133% (1.485% - 1.352%) 만큼 감소됨을 알 수 있었다.

JPEG2000 시스템의 코드블록 메모리 크기 및 대역폭 감소를 위한 Multi-mode Embedded Compression 알고리즘 및 구조 (Multi-mode Embedded Compression Algorithm and Architecture for Code-block Memory Size and Bandwidth Reduction in JPEG2000 System)

  • 손창훈;박성모;김영민
    • 대한전자공학회논문지SD
    • /
    • 제46권8호
    • /
    • pp.41-52
    • /
    • 2009
  • Motion JPEG2000과 같은 동영상 압축 시스템에서는 데이터 메모리에 대한 빈번한 접근이 전체 시스템에 큰 병목 현상이 된다. 이처럼 시스템에서 요구하는 메모리의 대역폭을 감소시키기 위해서, 본 논문은 약간의 화질 손실이 있는 새로운 embedded compression(EC) 알고리즘과 구조를 고안하였다. 또한, 메모리 내의 압축된 데이터에 임의 접근성(Random Accessibility)과 짧은 지연 시간(Latency)을 보장하기 위해서 매우 단순하면서도 효율적인 entropy 부호화 방법을 제안하였다. 본 논문에서는 JPEG2000 표준안 알고리즘에는 어떠한 변경도 하지 않으면서, 제안한 multi-mode 알고리즘을 통해 JPEG2000 시스템에서 요구하는 메모리의 대역폭의 감소(약 52${\sim}$81%) 와 코드블록 메모리의 크기를 약 2 배 이상 감소시킬 수 있었다.

Fine-scalable SPIHT Hardware Design for Frame Memory Compression in Video Codec

  • Kim, Sunwoong;Jang, Ji Hun;Lee, Hyuk-Jae;Rhee, Chae Eun
    • JSTS:Journal of Semiconductor Technology and Science
    • /
    • 제17권3호
    • /
    • pp.446-457
    • /
    • 2017
  • In order to reduce the size of frame memory or bus bandwidth, frame memory compression (FMC) recompresses reconstructed or reference frames of video codecs. This paper proposes a novel FMC design based on discrete wavelet transform (DWT) - set partitioning in hierarchical trees (SPIHT), which supports fine-scalable throughput and is area-efficient. In the proposed design, multi-cores with small block sizes are used in parallel instead of a single core with a large block size. In addition, an appropriate pipelining schedule is proposed. Compared to the previous design, the proposed design achieves the processing speed which is closer to the target system speed, and therefore it is more efficient in hardware utilization. In addition, a scheme in which two passes of SPIHT are merged into one pass called merged refinement pass (MRP) is proposed. As the number of shifters decreases and the bit-width of remained shifters is reduced, the size of SPIHT hardware significantly decreases. The proposed FMC encoder and decoder designs achieve the throughputs of 4,448 and 4,000 Mpixels/s, respectively, and their gate counts are 76.5K and 107.8K. When the proposed design is applied to high efficiency video codec (HEVC), it achieves 1.96% lower average BDBR and 0.05 dB higher average BDPSNR than the previous FMC design.

깊이 화면의 평면 부호화를 위한 가변 블록 크기 결정 방법 (Method for Determining Variable-Block Size of Depth Picture for Plane Coding)

  • 권순각;이동석
    • 한국산업정보학회논문지
    • /
    • 제22권3호
    • /
    • pp.39-47
    • /
    • 2017
  • 깊이 화면을 부호화함에 있어서 깊이 화면의 일부를 평면으로 추정하여 부호화하는 평면 부호화 모드를 적용할 수 있다. 본 논문에서는 평면 부호화 모드를 통한 깊이 영상 부호화에서 가변 블록 부호화를 위해 가변 블록 크기를 결정하는 방법을 제안한다. 깊이를 통해 블록 내 화소에 대해 제일 근접한 평면을 추정하는 방법을 통해 평면 부호화를 수행할 수 있다. 평면 부호화를 수행할 때, 가변 블록 부호화를 다음과 같이 적용할 수 있다. 먼저 최대 블록 크기에 대하여 추정 오차를 계산한 뒤 오차가 임계값 이하라면 해당 블록 크기가 선택 된다. 반면 오차가 임계값을 초과한다면 해당 블록이 분할되고 위 과정을 반복한다. 분할된 블록 크기가 최소 블록 크기 미만이 되면 해당 블록은 평면 부호화 모드로 선택되지 않는다. 제안된 방법을 실험한 결과, 부호화하여야 할 블록의 개수가 평면으로 이루어진 영상에서 고정 블록 크기를 이용한 방법에 비해 19%로 줄었다.

치과구내용 X선발생기의 조사통 직경 변화에 따른 선량변화 (Dose Change according to Diameter Change of the Cone for Dental X-ray Apparatus)

  • 안성민;오정환;최정현;신귀순;김성철
    • 한국콘텐츠학회논문지
    • /
    • 제10권3호
    • /
    • pp.266-270
    • /
    • 2010
  • 진단용방사선발생장치의 안전관리법에 의하면 치과 구내촬영용 X선발생기의 경우 조사통의 조사야 크기는 촬영면에서의 최대지름이 7 cm이하가 되게 기준 되어있다. 하지만 실제 두개부에 붙여서 촬영하는 근접촬영이기 때문에 X선 조사면적을 벗어날 염려가 없으며, 구내촬영에 사용되는 필름 또는 디지털 디텍터의 크기도 $3\times4cm^2$의 크기이기 때문에 훨씬 큰 편이며, 근거리 촬영에 따른 환자의 피부선량도 무시할 수 가 없다. 이에 조사통의 지름을 0.5 cm간격으로 줄이며, 환자선량, 해상력 및 화질의 영향을 알아본 결과 조사통 직경이 5 cm가 되어도 사용에 따른 큰 불편이 없으면서 환자선량 감소 및 사진의 대조도 증가 효과를 볼 수 있어 정책적으로 검토해볼 사항이라는 연구 결과를 얻었다

MAC과 Pooling Layer을 최적화시킨 소형 CNN 가속기 칩 (Compact CNN Accelerator Chip Design with Optimized MAC And Pooling Layers)

  • 손현욱;이동영;김형원
    • 한국정보통신학회논문지
    • /
    • 제25권9호
    • /
    • pp.1158-1165
    • /
    • 2021
  • 본 논문은 메모리의 사이즈를 줄이기 위해 Pooling Layer가 MAC에 통합된 구조의 최적화된 CNN가속기를 설계하는 것을 제안한다. 메모리와 데이터 전달 회로의 최소화를 위해 MNIST를 이용하여 학습된 32bit 부동소수점 가중치 값을 8bit로 양자화하여 사용하였다. 가속기칩 크기의 최소화를 위해 MNIST용 CNN 모델을 1개의 Convolutional layer, 4*4 Max Pooling, 두 개의 Fully connected layer로 축소하였고 모든 연산에는근사화 덧셈기와 곱셈기가 들어간 특수 MAC을 사용한다. Convolution 연산과 동시에 Pooling이 동작하도록 설계하여 내장 메모리를 94% 만큼 축소하였으며, pooling 연산의 지연 시간을 단축했다. 제안된 구조로 MNIST CNN 가속기칩을 TSMC 65nm GP 공정으로 설계한 결과 기존 연구결과의 절반 크기인 0.8mm x 0.9mm = 0.72mm2의 초소형 가속기 설계 결과를 도출하였다. 제안된 CNN 가속기칩의 테스트 결과 94%의 높은 정확도를 확인하였으며, 100MHz 클럭 사용시 MNIST 이미지당 77us의 빠른 처리 시간을 획득하였다.

영상 재구성 방법에 따른 Bone SPECT 영상의 질과 검사시간에 대한 실효성 비교 (Comparison of Effectiveness about Image Quality and Scan Time According to Reconstruction Method in Bone SPECT)

  • 김우현;정우영;이주영;류재광
    • 핵의학기술
    • /
    • 제13권1호
    • /
    • pp.9-14
    • /
    • 2009
  • 최근 영상 처리 기법의 발전으로 영상의 질은 저하시키지 않고 검사 소요시간을 단축시키는 방법들이 개발되고 있다. 특히 단층 촬영의 경우 영상 재구성 방법을 개선하여 영상의 질이 우수한 영상을 획득할 수 있게 되었다. Philips사의 PRECEDENCE 16 감마카메라를 이용해 보편적으로 시행하고 있는 분석법에 의한 FBP 방법과 반복법에 의한 Astonish, 3D OSEM 방법을 이용해 각각 영상을 재구성하여 정성적인 분석과 정량적인 분석을 통해 영상 획득시간을 다르게 한 영상간의 비교와, 동일한 시간으로 획득한 영상을 비교하여 영상의 질이 우수한 재구성 방법에 대해 연구 하였다. 정성적인 분석을 위해 blind test를 한 결과, 영상 획득시간에 따른 영상의 질은 거의 차이가 없는 것을 확인할 수 있었다. 또한 정량적인 분석을 통해서도 영상 획득시간에 따른 영상의 질은 통계적으로 유의한 차이가 없었다. 하지만 영상 획득시간이 동일한 영상을 재구성 방법에 따라 분석한 결과는 통계적으로 유의한 차이가 있음을 확인할 수 있었다. 영상의 질은 반복법을 이용하는 Astonish에 의해 재구성된 영상이 해상력이 좋고 임상적으로 진단적 정보를 제공하는데 우수한 영상으로 판단된다. 영상을 재구성하기 위한 소요시간이 길고 저장 공간의 부족 등으로 현재까지 많이 사용되지 않던 반복법에 의한 재구성 방법이 영상의 질은 향상시키고 검사시간은 단축 할 수 있는 방법이 될 수 있음을 확인하였다.

  • PDF

효율적인 feature map 추출 네트워크를 이용한 2D 이미지에서의 3D 포인트 클라우드 재구축 기법 (3D Point Cloud Reconstruction Technique from 2D Image Using Efficient Feature Map Extraction Network)

  • 김정윤;이승호
    • 전기전자학회논문지
    • /
    • 제26권3호
    • /
    • pp.408-415
    • /
    • 2022
  • 본 논문에서는 효율적인 feature map 추출 네트워크를 이용한 2D 이미지에서의 3D 포인트 클라우드 재구축 기법을 제안한다. 본 논문에서 제안한 기법의 독창성은 다음과 같다. 첫 번째로, 메모리 측면에서 기존 기법보다 약 27% 더 효율적인 새로운 feature map 추출 네트워크를 사용한다. 제안하는 네트워크는 딥러닝 네트워크의 중간까지 크기 축소를 수행하지 않아, 3D 포인트 클라우드 재구축에 필요한 중요한 정보가 유실되지 않았다. 축소되지 않은 이미지 크기로 인해 발생하는 메모리 증가 문제는 채널의 개수를 줄이고 딥러닝 네트워크의 깊이를 얕게 효율적으로 구성하여 해결하였다. 두 번째로, 2D 이미지의 고해상도 feature를 보존하여 정확도를 기존 기법보다 향상시킬 수 있도록 하였다. 축소되지 않은 이미지로부터 추출한 feature map은 기존의 방법보다 자세한 정보가 담겨있어 3D 포인트 클라우드의 재구축 정확도를 향상시킬 수 있다. 세 번째로, 촬영 정보를 필요로 하지 않는 divergence loss를 사용한다. 2D 이미지뿐만 아니라 촬영 각도가 학습에 필요하다는 사항은 그만큼 데이터셋이 자세한 정보를 담고 있어야 하며 데이터셋의 구축을 어렵게 만드는 단점이다. 본 논문에서는 추가적인 촬영 정보 없이 무작위성을 통해 정보의 다양성을 늘려 3D 포인트 클라우드의 재구축 정확도가 높아질 수 있도록 하였다. 제안하는 기법의 성능을 객관적으로 평가하기 위해 ShapeNet 데이터셋을 이용하여 비교 논문들과 같은 방법으로 실험한 결과, 본 논문에서 제안하는 기법의 CD 값이 5.87, EMD 값이 5.81 FLOPs 값이 2.9G로 산출되었다. 한편, CD, EMD 수치가 낮을수록, 재구축한 3D 포인트 클라우드가 원본에 근접하는 정확도가 향상된 결과를 나타낸다. 또한, FLOPs 수치가 낮을수록 딥러닝 네트워크에 필요한 메모리가 적게 소요되는 결과를 나타낸다. 따라서, 제안하는 기법의 CD, EMD, FLOPs 성능평가 결과가 다른 논문의 기법들보다 메모리 측면에서 약 27%, 정확도 측면에서 약 6.3% 향상된 결과를 나타내어 객관적인 성능이 입증되었다.