• Title/Summary/Keyword: 스케일링

Search Result 524, Processing Time 0.029 seconds

Wavelet Shift Keying System using Binary Matching Filter (2진 정합필터를 이용한 웨이브릿 편이변조 시스템)

  • Oh, Hyoung-Jin;Jeong, Tae-Il;Lee, Tae-Oh
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2008.10a
    • /
    • pp.203-206
    • /
    • 2008
  • 기존의 대표적인 디지털 통신방식으로 주파수 편이 변조(FSK: frequency shift keying), 위상 편이 변조(PSK: phase shift keying), 진폭 편이 변조(ASK: amplitude shift keying) 방식들이 있다. 본 논문에서는 2진 정합필터를 이용하여 웨이브릿 편이변조 신호를 복원하는 알고리즘을 제안한다. 웨이브릿 편이 변조 시스템은 스케일링 함수(scaling function)와 웨이브릿(wavelet)을 이용한다. 스케일링 함수를 1로, 웨이브릿 함수를 0으로 할당하여 2진 데이터를 변조한다. 기존의 웨이브릿 편이 변조 시스템에서는 복원을 위해 후처리가 필요하였다. 된 논문에서는 2진정합필터를 이용하여 복원하므로, 별도의 후처리 과정 없이 복원을 가능하게 하였다. 모의실험 결과 제안한 알고리즘이 타당함을 확인하였다.

  • PDF

Application of Generalized Scaling Theory for Nano Structure MOSFET (나노 구조 MOSFET에서의 일반화된 스케일링의 응용)

  • 김재홍;김근호;정학기;이종인
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2002.05a
    • /
    • pp.275-278
    • /
    • 2002
  • As the gate lengths of MOSFETs are scaled down to sub-50nm regime, there are key issues to be considered in the device design. In this paper, we have investigated the characteristics of threshold voltage for MOSFET device. We have simulated the MOSFETs with gate lengths from 100nm to 30nm using generalized scaling. Then, we have known the device scaling limits for nano structure MOSFET. We have determined the threshold voltages using LE(Linear Extraction) method.

  • PDF

A Study on Efficient MPEG-2 Streaming Transmission Using the Agent and EOB (에이전트와 EOB를 이용한 효율적인 MPEG-2 스트리밍 전송에 관한 연구)

  • Kim MyoungJin;Lee Byeong Rae
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2004.11a
    • /
    • pp.211-214
    • /
    • 2004
  • 두 시스템간의 MPEG-2 데이터를 전송할 때 발생되는 여러 가지의 지연으로 인하여 데이터를 제때 재생하지 못하는 경우가 발생할 수 있다. 본 논문에서는 이러한 문제점을 보완하기 위하여 전송률을 제어하는 에이전트를 설계하고 네트워크 상태에 따라 MPEG-2의 스케일링 기법(시간적, 공간적 스케일링 기법)을 적용하여 전송률을 조절하는 전송률 제어방식을 제시한다. 특히 공간적 스케일링 기법에서는 충실도에 따라 그룹별로 계층화하는데 있어서 블록의 EOB 위치를 조정하여 MPEG-2 비디오 비트스트림을 네트워크 QoS에 따라 다양한 화질로 전송될 수 있도록 하고 있다.

  • PDF

Spatial Characteristics for Statistical Downscaling of Rainfall Data (강우의 통계학적 다운스케일링을 위한 공간특성 분석)

  • Lee, Jeong Eun;Lee, Jeongwoo;Kim, Chul Gyum;Kim, Nam Won
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2018.05a
    • /
    • pp.166-166
    • /
    • 2018
  • 수자원 분야의 기후변화 연구에서 유출분석을 위한 장기유출모형의 입력자료로 일단위의 기상자료가 요구된다. 이러한 일자료의 생성을 위해 통계학적 다운스케일링 기법 중 추계학적 기상모의모형이 가장 널리 적용되고 있다. 또한, 유역단위의 합리적 유출분석을 위해서는 기상모의모형을 이용한 일자료 발생시 기상관측지점 간의 공간상관성 확보가 선행되어야 한다. 이러한 문제점을 극복하기 위한 다지점 추계학적 기상모형의 개발 및 적용에 앞서 기존모형의 강우 발생과 크기와 관련된 주요요소들의 공간적인 특성을 분석하고자 하였다. 따라서, 본 연구에서는 국내 기상청 지점의 관측자료를 중심으로 모형의 강우발생과 관련된 강우/무강우 발생확률, 강우크기와 관련된 월강우량의 평균값, 월평균 강우량의 표준편차, 왜곡도를 산정하였다. 이를 중심으로 전국에 걸친 공간특성 분석을 통하여 다지점 추계학적 기상모의모형의 개발 및 적용시 고려해야 될 사항을 도출하고자 하였다.

  • PDF

A Study on Structure of Efficient Autoscaling Scheduler Using Request Prediction (리퀘스트 예측을 통한 효율적인 오토스케일링 스케쥴러 구조 연구)

  • Joo, Kyung-No;Youn, Chan-Hyun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.11a
    • /
    • pp.280-281
    • /
    • 2012
  • 클라우드 기술이 발달하면서 사용자 요구를 만족하면서도 비용을 절감하기 위해 VM 의 개수를 자동으로 조절해주는 오토스케일링 기술이 부각되었다. 하지만 어떤 VM 을 추가할 것인지는 NP-Hard Problem 으로 휴리스틱하게 풀 수밖에 없다. 따라서 사용자의 실시간으로 변하는 요구에 바로 대처하지 못할 수 있다. 사용자 요구에 실시간적으로 대처하기 위해서는 사용자가 보내는 요청의 패턴을 읽고, 앞으로 올 요청을 미리 아는 기술이 필요하다. 이에 본 논문에서는 리퀘스트 예측을 통한 오토스케일링을 가능케 하도록 구조를 제안하고자 한다.

Analysis of restoration network for phase-only hologram scaling (위상 홀로그램 스케일링을 위한 복원 네트워크 분석)

  • Kim, Woosuk;Oh, Kwan-Jung;Seo, Yong-Ho
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2022.05a
    • /
    • pp.448-449
    • /
    • 2022
  • In the image upscaling field, the method using deep learning is showing better results than using the interpolation method. And for hologram upscaling, using deep learning is showing better results than general interpolation. In this paper, the network structure and learning results are analyzed. The learning results are compared by adjusting the depth of the network and the number of channels at the same weight.

  • PDF

Efficient Super-Resolution of 2D Smoke Data with Optimized Quadtree (최적화된 쿼드트리를 이용한 2차원 연기 데이터의 효율적인 슈퍼 해상도 기법)

  • Choe, YooYeon;Kim, Donghui;Kim, Jong-Hyun
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2021.01a
    • /
    • pp.261-264
    • /
    • 2021
  • 본 논문에서는 SR(Super-Resolution)을 계산하는데 필요한 데이터를 효율적으로 분류하고 분할하여 빠르게 SR연산을 가능하게 하는 쿼드트리 기반 최적화 기법을 제안한다. 제안하는 방법은 입력 데이터로 사용하는 연기 데이터를 다운스케일링(Downscaling)하여 쿼드트리 연산 소요 시간을 감소시키며, 이때 연기의 밀도를 이진화함으로써, 다운스케일링 과정에서 밀도가 손실되는 문제를 피한다. 학습에 사용된 데이터는 COCO 2017 Dataset이며, 인공신경망은 VGG19 기반 네트워크를 사용한다. 컨볼루션 계층을 거칠 때 데이터의 손실을 막기 위해 잔차(Residual)방식과 유사하게 이전 계층의 출력 값을 더해주며 학습한다. 결과적으로 제안하는 방법은 이전 결과 기법에 비해 약15~18배 정도의 속도향상을 얻었다.

  • PDF

A study on AI upscaling algorithms suitable for facial recognition (얼굴 인식에 적합한 AI 업스케일링 알고리즘에 관한 연구)

  • Doo-il Kwak;Kwang-Young Park
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.05a
    • /
    • pp.598-600
    • /
    • 2023
  • CCTV가 범죄 예방 및 수사에 사용되는데, 수사를 위해 저화질 CCTV 영상에서 특정인의 얼굴 인식엔 어려움을 겪어 CCTV 본연의 역할의 희석된다. 따라서 본 논문은 저화질 영상을 고화질로 변환하여 얼굴 인식의 정확성을 높일 수 있는 알고리즘을 연구하는 것을 목적으로 한다. 기존에 연구된 인공지능 기반의 업스케일링 알고리즘을 분석하여 K-FACE 데이터셋에 적절한 모델을 제안한다. 이를 위해 2020년 이전과 이후의 AI 업스케일링 관련 연구를 비교 분석한다. 향후 제시된 모델을 대상으로 동일한 환경내에서 K-FACE 데이터셋을 학습시켜 통일된 기준의 지표 산출이 필요하다.

Oral health belief and satisfaction after scaling experience with comprehensive dental hygiene care (포괄치위생관리(CDHC) 과정 적용에 따른 스케일링 경험 대상자의 구강건강신념과 만족도)

  • Kim, Mi-Hye;Moon, Sang-Eun;Kim, Yun-Jeong;Kim, Seon-Yeong;Cho, Hye-Eun;Kang, Hyun-Joo
    • Journal of Korean society of Dental Hygiene
    • /
    • v.22 no.1
    • /
    • pp.1-9
    • /
    • 2022
  • Objectives: This study was conducted to find scaling patients' oral health belief and satisfaction by applying Comprehensive Dental Hygiene Care (CDHC) process. Methods: From July 1 to September 20, 2020, the data about 182 patients who had scaling in dental clinics and hospitals had been collected and analyzed. For data analysis, SPSS Statistics 22.0 was applied to conduct frequency analysis, chi-square, t-test, One way ANOVA and Pearson's correlation analysis. Results: Regarding oral health behavior, in the CDHC group 92.4% used oral care products (p<0.001), and 67.4% regularly visited dental clinics for oral care (p<0.001). Regarding the oral health belief according to general characteristics, in the CDHC group, persons aged '50-65' scored 2.4 (the highest), and were significantly different from those aged '20-29' as the result of post-hoc analysis (p<0.001). Regarding the oral health belief of the CDHC group according to oral health behavior, the scaling cycle '3 months' scored the highest (p<0.05). The patients' satisfaction had high correlations with benefit (p<0.01) and Importance (p<0.05) as the sub factors of the oral health belief of the CDHC group. Conclusions: CDHC positively influenced scaling patients' oral health belief and satisfaction. Therefore, it is necessary to expand CDHC, as the medium to improve oral health belief and satisfaction, to clinical settings.

Application of Dimensional Expansion and Reduction to Earthquake Catalog for Machine Learning Analysis (기계학습 분석을 위한 차원 확장과 차원 축소가 적용된 지진 카탈로그)

  • Jang, Jinsu;So, Byung-Dal
    • The Journal of Engineering Geology
    • /
    • v.32 no.3
    • /
    • pp.377-388
    • /
    • 2022
  • Recently, several studies have utilized machine learning to efficiently and accurately analyze seismic data that are exponentially increasing. In this study, we expand earthquake information such as occurrence time, hypocentral location, and magnitude to produce a dataset for applying to machine learning, reducing the dimension of the expended data into dominant features through principal component analysis. The dimensional extended data comprises statistics of the earthquake information from the Global Centroid Moment Tensor catalog containing 36,699 seismic events. We perform data preprocessing using standard and max-min scaling and extract dominant features with principal components analysis from the scaled dataset. The scaling methods significantly reduced the deviation of feature values caused by different units. Among them, the standard scaling method transforms the median of each feature with a smaller deviation than other scaling methods. The six principal components extracted from the non-scaled dataset explain 99% of the original data. The sixteen principal components from the datasets, which are applied with standardization or max-min scaling, reconstruct 98% of the original datasets. These results indicate that more principal components are needed to preserve original data information with even distributed feature values. We propose a data processing method for efficient and accurate machine learning model to analyze the relationship between seismic data and seismic behavior.