• 제목/요약/키워드: 데이터 확장 기법

검색결과 827건 처리시간 0.026초

시멘틱 컴퓨팅 기반의 동적 작업 스케줄링 모델 및 시뮬레이션 (Semantic Computing-based Dynamic Job Scheduling Model and Simulation)

  • 노창현;장성호;김태영;이종식
    • 한국시뮬레이션학회논문지
    • /
    • 제18권2호
    • /
    • pp.29-38
    • /
    • 2009
  • 이기종의 자원들로 이루어진 컴퓨팅 환경에서 효율적인 자원 활용과 대용량의 데이터를 고속으로 처리하기 위해서는 실시간으로 변화하는 자원의 상태에 따라 대처 할 수 있는 동적인 작업 스케줄링 모델이 필요하다. 현재 이기종의 자원들에게 작업을 어떻게 분배 및 할당 할 것인지에 대하여 많은 자원 평가 방법 및 휴리스틱 기법들이 연구되었으나 이러한 방법들은 표준언어를 사용하지 않기 때문에 시스템 호환 및 확장에 어려움이 많다. 또한 다양한 자원들의 상태가 실시간으로 동적으로 변화하기 때문에 기존 연구에서 제안한 방법으로는 효율적인 처리가 불가능하거나 자원의 상태 변화에 동적으로 대처할 수 없다. 본 논문은 이러한 기존 연구들의 문제에 대한 해결책으로 W3C에서 제정한 온톨로지 표준 언어인 OWL을 이용하여 자원 온톨로지를 구축함으로써 이기종의 자원 관리를 손쉽게 할 수 있으며, 자원의 동적인 변화에 따라 작업 스케줄링하는 방법을 지식기반의 다양한 규칙들로 정의하여 추론을 통해서 최적의 자원에게 작업을 할당하는 시멘틱 컴퓨팅 기반의 동적 작업 스케줄링 모델을 제안한다. 시뮬레이션 실험 결과는 본 논문에서 제안한 작업 스케줄링 모델이 기존 모델에 비하여 낮은 작업 손실과 높은 작업 처리율 및 짧은 응답시간을 제공함으로써 이기종의 자원들로 구성된 시스템 전반에 걸쳐 안정적이고 고속의 데이터 처리를 제공할 수 있다는 사실을 증명한다.

다변량 시계열 분석에 기반한 쿠버네티스 오토-스케일링 개선 (An Improvement of Kubernetes Auto-Scaling Based on Multivariate Time Series Analysis)

  • 김용회;김영한
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제11권3호
    • /
    • pp.73-82
    • /
    • 2022
  • 오토-스케일링은 클라우드 컴퓨팅 기술이 ICT 핵심 기반 기술로 자리 잡을 수 있는 가장 중요한 기능 중 하나로써 사용자나 서비스 요청의 폭발적인 증가 또는 감소에도 시스템 자원과 서비스 인스턴스를 적절하게 확장 또는 축소하여 상황에 맞는 서비스의 안정성과 비용 대비 효과를 향상하는 기술이다. 하지만 특정 시스템 자원에 대한 모니터링 시점의 단일 메트릭 데이터를 기반으로 정책이 수립·실행되다 보니 이미 서비스에 영향이 있거나 실제 필요한 서비스 인스턴스를 세밀하게 관리하지 못하는 문제점이 있다. 이러한 문제점을 해결하기 위해서 본 논문에서는 시스템 자원과 서비스 응답시간을 다변량 시계열 분석 모델을 사용하여 분석·예측하고 이를 기반으로 오토-스케일링 정책을 수립하는 방안을 제안한다. 이를 검증하기 위해 쿠버네티스 환경에서 커스텀 스케쥴러를 구현하고, 실험을 통해 쿠버네티스 기본 오토-스케일링 방식과 비교 분석한다. 제안하는 기법은 시스템 자원과 응답시간 사이의 영향에 기반한 예측 데이터를 활용하여 예상되는 상황에 대한 오토-스케일링을 선제적으로 실행함으로써 시스템의 안정성을 확보하고 서비스 품질이 저하되지 않는 범위내에서 필요한 만큼의 인스턴스를 세밀하게 관리할 수 있는 결과를 보인다.

심층신경망을 활용한 데이터 기반 ESG 성과 예측에 관한 연구: 기업 재무 정보를 중심으로 (Predicting Future ESG Performance using Past Corporate Financial Information: Application of Deep Neural Networks)

  • 김민승;문승환;최성원
    • 지능정보연구
    • /
    • 제29권2호
    • /
    • pp.85-100
    • /
    • 2023
  • 최근 기업의 지속가능경영 역량으로 대변되는 기업 ESG 성과(environmental, social, and corporate governance)가 투자의사 결정에 주요 요인 중 하나로 부각되고 있다. 전통적 ESG 성과 평가 프로세스는 평가기관마다의 고유 기준에 따라 질적 정성적 방식으로 수행되어 그 평가 소요 시간 및 비용이 큰 데 비해 투자의사 결정 시 신뢰성과 예측 가능성 및 적시성에 제약이 존재한다. 이에 본 연구에서는 정량화되고 공개된 기업 재무 정보를 활용하여 머신러닝을 통한 자동화된 기업 ESG 평가 예측을 시도하였다. 심층신경망 기법을 활용해 2019년부터 2021년까지 3년간 한국ESG기준원에서 제공한 1,780건의 ESG 평가에 대하여 총 12종(21,360건)의 시장 공개 재무 정보를 기반으로 예측 모형을 구축한 결과, 제안된 심층신경망 모형은 약 86%의 분류성능을 보여 여타 비교모형 대비 크게 높은 정확도를 나타냈다. 본 연구는 정량적이고 공개된 과거 기업 재무 정보만으로도 자동화된 프로세스를 통해 비교적 정확한 미래 ESG 평가 예측을 달성할 수 있었다는 점에 의의가 크다. 특히 기업 ESG 관련 정보 접근이 상대적으로 불리한 일반 투자자들의 입장에서 볼 때 낮은 비용과 적은 시간 투자로도 기업 ESG 성과 평가에 대한 예측 가능성과 적시성을 향상 시킬 수 있다는 점에 실용적 함의가 있다. 또한 본 연구는 향후 추가적인 국내외 데이터 수집 및 모형 고도화를 통해 기업 ESG 성과 예측 분야에서의 확장이 기대된다.

RawNet3 화자 표현을 활용한 임의의 화자 간 음성 변환을 위한 StarGAN의 확장 (Extending StarGAN-VC to Unseen Speakers Using RawNet3 Speaker Representation)

  • 박보경;박소민;홍현기
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권7호
    • /
    • pp.303-314
    • /
    • 2023
  • 음성 변환(Voice Conversion)은 개인의 음성 데이터를 다른 사람의 음향적 특성(음조, 리듬, 성별 등)으로 재생성할 수 있는 기술로, 교육, 의사소통, 엔터테인먼트 등 다양한 분야에서 활용되고 있다. 본 논문은 StarGAN-VC 모델을 기반으로 한 접근 방식을 제안하여, 병렬 발화(Utterance) 없이도 현실적인 음성을 생성할 수 있다. 고정된 원본(source) 및 목표(target)화자 정보의 원핫 벡터(One-hot vector)를 이용하는 기존 StarGAN-VC 모델의 제약을 극복하기 위해, 본 논문에서는 사전 훈련된 Rawnet3를 사용하여 목표화자의 특징 벡터를 추출한다. 이를 통해 음성 변환은 직접적인 화자 간 매핑 없이 잠재 공간(latent space)에서 이루어져 many-to-many를 넘어서 any-to-any 구조가 가능하다. 기존 StarGAN-VC 모델에서 사용된 손실함수 외에도, Wasserstein-1 거리를 사용하여 생성된 음성 세그먼트가 목표 음성의 음향적 특성과 일치하도록 보장했다. 또한, 안정적인 훈련을 위해 Two Time-Scale Update Rule (TTUR)을 사용한다. 본 논문에서 제시한 평가 지표들을 적용한 실험 결과에 따르면, 제한된 목소리 변환만이 가능한 기존 StarGAN-VC 기법 대비, 본 논문의 제안 방법을 통해 다양한 발화자에 대한 성능이 개선된 음성 변환을 제공할 수 있음을 정량적으로 확인하였다.

디지털 도서관에서 전자상거래 트랜잭션을 위한 메타데이타 관리 기법 (Metadata Management for E-Commerce Transactions in Digital Library)

  • 최일환;박석
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제29권1호
    • /
    • pp.34-43
    • /
    • 2002
  • Dublin Core같은 기존의 정적인 메타데이타 집합은 서지 정보 중심의 정적인 데이터 요소를 가지므로 새로운 환경에 적용하기 위해서는 다양한 메타데이타를 위한 메타데이타 간의 통합, 웹 환경에서의 메타데이타의 표준화 문제 및 확장성 문제들이 고려되어야 한다. 특히, 디지털 라이브러리에서 전자상거래의 개념을 포함하며 서로간의 상호운영성을 위해 이벤트중심의 메타데이타 기록 방식이 등장함에 따라 기존 관리법으로는 갱신 연산간의 차별화가 이루어지지 않아 부적절한 갱신 연산 지연이 발생하므로 이에 대한 고려 역시 필요하다. 본 논문에서는 우선 디지털 라이브러리 환경에서 완화된 트랜잭션 일관성의 적용여부를 보이며, 새로운 방식의 메타데이타 요소를 사용자 질의 트랜잭션의 판독연산에 관련있는 정적 메타데이타 요소와 전자상거래 트랜잭션의 갱신연산과 관련있는 동적 메타데이타 요소로 구분한다. 구분된 메타데이타 요소에 따라, 관련 트랜잭션들을 재분류함으로써 전자상거래 요소와 동적 갱신(전자상거래) 트랜잭선을 고려한 새로운 메타데이타 관리기법을 제안한다. 최소의 유지비용으로 갱신을 고려하는 2버전과 동적 갱신 연산 충돌의 최소화를 위한 ARU(Appended Refresh Unit)를 사용함으로써 기록연산 간의 충돌을 최소화해 빠른 응답시간과 높은 최근성 비율을 보이게 된다. 성능분석을 통해, 새로운 메타데이타 환경하에서 제안한 알고리즘이 기존의 알고리즘에 비해 좋은 성능을 가짐을 보인다.

기울기를 이용한 랜덤워크 윌콕슨 부호순위검정 (A Wilcoxon signed-rank test for random walk hypothesis based on slopes)

  • 김태윤;박철용;김슬기;김민석;이우정;권윤지
    • Journal of the Korean Data and Information Science Society
    • /
    • 제25권6호
    • /
    • pp.1499-1506
    • /
    • 2014
  • 랜덤워크는 다양한 분야에서 랜덤현상을 기술하는데 이용되고 있으나, 현재까지 개발된 랜덤워크 검정법에는 유의수준 왜곡과 낮은 검정력 등의 문제가 있는 것으로 알려져 있다. 이러한 문제점들을 개선하기 위해 Kim 등 (2014)은 부호검정에 기초한 랜덤워크 검정 (${\rho}=1$)방법을 제안하였다. 본 논문에서는 보다 개선된 랜덤워크 검정법을 제안하고자 부호검정보다 검정력이 우수한 것으로 알려진 윌콕슨 부호순위검정을 이용한 랜덤워크 검정법을 제안하고, 모의실험을 통해 부호검정, 윌콕슨 부호순위검정, 확장 Dickey-Fuller 검정의 성능을 비교하였다. 모의실험 결과 소표본에서 비모수 검정기법들이 ADF 검정보다 우월하다는 사실을 재확인하였다. 새롭게 밝혀진 사실은 부호검정이 윌콕슨 부호순위검정에 비해 높은 검정력을 가지며, 또한 비모수 검정기법들은 ${\rho}$가 양의 부호를 가지는 경우 (0 < ${\rho}$ < 1) 정규분포보다 이중지수분포에서 낮은 검정력을 가지게 되나, ${\rho}$가 음의 부호(-1 < ${\rho}$ < 0)를 갖는 경우에는 정규분포보다 이중지수분포에서 높은 검정력을 보인다는 사실이다.

신호교차로 내 실시간 교통사고 자동검지 알고리즘 개발 (Development of the Algorithm for Traffic Accident Auto-Detection in Signalized Intersection)

  • 오주택;임재극;황보희
    • 대한교통학회지
    • /
    • 제27권5호
    • /
    • pp.97-111
    • /
    • 2009
  • 영상기반의 교통정보수집시스템은 관리 및 운영상의 한계를 보이고 있는 기존의 루프검지기의 역할을 대체하는 검지기로써의 역할뿐만 아니라 다양한 교통류의 정보를 제공하고 관리할 수 있다는 점에서 여러 나라에서 보급 활용되기 시작했다. 또한 용도와 사용범위에 있어서도 획기적인 확장세에 있다. 반면에 교통사고 관리와 관련하여 현재까지는 단순히 교통사고 예상지역에 감시카메라를 설치해 두고 기록되는 자료의 디지털화를 추진하는 정도의 영상처리기술을 활용하고 있는 형편이다. 교차로 내 교통사고의 발생 전과 후의 순차적인 상황을 정확히 기록하고, 이 자료를 통해 발생된 교통사고의 사고 매커니즘을 객관적이고 명확하게 조명하고 분석하는 것은 교통사고 처리에 있어서 어느 것보다 시급하고 중요한 부분이다. 기존 기술들은 교차로의 환경적 다양한 변화로 인해 극복하기 매우 어려운 차량의 객체분리, 추적 등의 기술을 가지고 있음에도 불구하고 엄청난 데이터처리용량으로 실시간으로 적용하기 어려운 문제들을 갖고 있다. 이에 본 연구는 이를 극복할 수 있는 기술 방식을 제시하고자 한다. 또한 기존에 잘 알려진 환경적 장애요소 제거방식 중 가장 우수한 방식으로 평가받고 있는 가우시안 복합모델 분석기법에서 조차 환경적인 요인으로 인해 자주 발생하고 있는 오 검지 상황들을 효과적으로 저감시킬 수 있는 능동적이고 환경적응적인 기법을 제시하고 구현하여 그 기술의 성능을 평가하고자 한다. 기존의 교통사고자동기록장치와 비교해 본 연구의 결과가 비교우위의 성능을 구현하였음을 입증하기 위해 실제 운용되고 있는 신호교차로의 영상을 실시간 온라인으로 입력받아 시험하였으며 이 시험결과를 기존의 다른 기술의 성능과 비교평가를 실시하였다.

초협대역 비디오 전송을 위한 심층 신경망 기반 초해상화를 이용한 스케일러블 비디오 코딩 (Scalable Video Coding using Super-Resolution based on Convolutional Neural Networks for Video Transmission over Very Narrow-Bandwidth Networks)

  • 김대은;기세환;김문철;전기남;백승호;김동현;최증원
    • 방송공학회논문지
    • /
    • 제24권1호
    • /
    • pp.132-141
    • /
    • 2019
  • 매우 제한된 전송 대역을 이용하여 비디오 데이터를 전송해야 하는 필요성은, 광대역을 통한 비디오 서비스가 활성화되어 있는 현 시점에서도 꾸준히 존재한다. 본 논문에서는 초협대역 네트워크를 통한 저해상도 비디오 전송을 위해, 공간 확장형 스케일러블 비디오 코딩 프레임워크에서 기본 계층의 부호화된 프레임을 심층 신경망 기반 초해상화 기법을 이용하여 업스케일링 하여 향상 계층 부호화 시에 예측 영상으로 활용하여 부호화 효율을 높이는 방법을 제안한다. 기존의 스케일러블 HEVC (High efficiency video coding) 표준에서는 고정된 필터로 업스케일링을 하는데 비해, 본 논문에서는 초해상화 수행을 위해 학습된 심층신경망을 기존의 고정 업스케일링 필터를 대체하여 적용하는 스케일러블 비디오 코딩 프레임워크를 제안한다. 이를 위해 스킵 연결과 잔차 학습 기법 등이 적용된 심층 콘볼루션 신경망 구조를 제안하고, 비디오 코딩 프레임워크의 실제 응용 상황에 맞추어 학습시켰다. 입력 해상도가 $352{\times}288$이고 프레임율이 8fps인 영상을 110kbps로 부호화 하는 응용 상황에서, 기존의 스케일러블 HEVC 프레임워크에 비해 제안하는 스케일러블 비디오 코딩 프레임워크의 화질이 더 높고 부호화 효율이 우수함을 확인할 수 있었다.

양방향 DNN 해석을 이용한 삼성분계 콘크리트의 배합 산정에 관한 연구 (A Study on the Calculation of Ternary Concrete Mixing using Bidirectional DNN Analysis)

  • 최주희;고민삼;이한승
    • 한국건축시공학회지
    • /
    • 제22권6호
    • /
    • pp.619-630
    • /
    • 2022
  • 콘크리트의 배합설계와 압축강도 평가는 지속가능한 구조물의 내구성을 위한 기초적인 자료로서 활용되고 있다. 하지만, 콘크리트 배합설계는 최근 배합요소의 다변화 등의 이유로 인하여 정확한 배합요소 산정이나 기준값 설정에 어려움을 겪고 있다. 본 연구에서는 인공지능 기법 중 하나인 딥러닝 기법을 사용하여 삼성분계 콘크리트의 배합요소를 산정하는 양방향 해석의 예측모델을 설계하는 것을 목적으로 한다. 콘크리트 배합요소 산정을 위한 DNN 기반 예측모 델은 층 수, 은닉 뉴런 수를 변수로 한 총 8개의 모델을 사용하여 성능평가 및 비교를 실시하였으며, 이후 학습된 DNN 모델을 사용하여 소요압축강도에 따른 콘크리트 배합 산정 결과를 출력하였다. 모델의 성능평가 결과, 콘크리트 압축 강도 인자에 대하여 평균 약 1.423%의 오류율을 나타내었으며, 삼성분계 콘크리트 배합인자 예측에 대하여 평균 8.22%의 MAPE 오차를 만족하였다. DNN 모델의 구조별 성능평가 비교 결과, 모든 배합인자에 대하여 DNN5L-2048 모델이 가장 높은 성능을 보였다. 학습된 DNN 모델을 사용하여 30, 50MPa의 소요압축강도를 가지는 삼성분계 콘크 리트 배합표 예측을 진행하였으며, 추후 학습을 위한 데이터 세트 확장과 실제 콘크리트 배합표와 DNN 모델 출력 콘 크리트 배합표 간의 비교를 통한 검증 과정이 필요할 것으로 판단된다.

감염병 확산에 따른 레스토랑 선택속성 변화 분석: 텍스트마이닝 기법 적용 (Analysis of Changes in Restaurant Attributes According to the Spread of Infectious Diseases: Application of Text Mining Techniques)

  • 유준일;이은지;구철모
    • 경영정보학연구
    • /
    • 제25권4호
    • /
    • pp.89-112
    • /
    • 2023
  • 2020년 3월, 코로나바이러스 팬데믹으로 선포되면서, 다양한 방역 조치가 취해져 왔다. 이에 따라, 관광 및 환대 산업 내의 많은 변화들이 야기되었다. 특히 레스토랑 산업에서는 비대면 서비스 및 좌석 간 거리두기 등 방역 지침이 시행되었다. 전통적으로 레스토랑 선택속성에 대한 연구는 분위기, 서비스 품질, 음식의 품질을 포함한 3가지 속성의 중요성이 강조해 온 데 반해, 코로나19 이후 레스토랑 이용자를 대상으로 레스토랑 선택속성을 탐색한 연구는 미비한 실정이다. 이에 따라, 본 연구에서는 코로나19라는 환대 산업 내의 환경적 변화에 대한 이해에 기반하여, 국내 온라인 리뷰 데이터 상에서 새로운 레스토랑 경험적 속성을 확인하기 위한 탐색적인 접근을 시도하였다. 본 연구는 서울 을지로 지역에 위치한 일반음식점 및 휴게음식점 475개로 네이버 플레이스에 등록된 총 31,115개의 온라인 리뷰를 분석 단위로 고려하였다. 분석 방법은 단어 빈도와 역문서 빈도의 곱으로 산출된 TF-IDF와 잠재적 토픽들을 추출하는 확률적 모델 알고리즘인 LDA 토픽모델링 기법을 통해 온라인 리뷰 내에서 단어들의 군집화를 통해 레스토랑 선택속성을 재분류하고자 하였다. 분석 결과, 분위기, 서비스 품질, 음식 품질과 함께 코로나19 이후 레스토랑의 새로운 속성으로 "감염병 예방"요인이 도출되었다. 본 연구는 기존 레스토랑 선택속성에서 제시하는 세 가지 속성들을 범주화하고, 나아가 새로운 속성을 제시하였다는 점에서 기존 레스토랑 선택속성 문헌을 확장하여 학술적 의의가 있다. 나아가, 분석 결과에 기반하여 레스토랑 운영의 측면 및 정책적 관점에서의 실무적 제언을 시도하였다.