• 제목/요약/키워드: stock databases

검색결과 31건 처리시간 0.025초

산림경영형 산림탄소상쇄 사업설계를 위한 주요 수종별 베이스라인 흡수량 산정 (A Study on the Baseline Carbon Stock for Major Species in Korea for Conducting Carbon Offset Projects based on Forest Management)

  • 김영환;전어진;신만용;정일빈;이상태;서경원;표정기
    • 한국산림과학회지
    • /
    • 제103권3호
    • /
    • pp.439-445
    • /
    • 2014
  • 본 연구에서는 산림경영형 산림탄소상쇄 사업을 설계하는데 필요한 베이스라인 흡수량의 산정을 위해 제5차 국가산림자원조사 자료를 토대로 개발된 동적 임분생장모델을 적용하였다. 모델의 정확성 검증을 위해 홍천, 횡성, 양양 대치리 및 정자리에 위치한 4개 시험지 14개 간벌 처리구에서 조사된 실측자료와 비교한 결과 모델 예측치와 실측치의 편차가 5% 미만의 낮은 오차율을 보였다. 개발된 동적 임분생장모델을 이용하여 수종별 베이스라인 시나리오에 따른 임분 생장량 및 탄소저장량의 변화를 예측하고, 베이스라인 흡수량을 산정한 결과, 상수리나무의 베이스라인 흡수량이 83.01tC/ha로 가장 높은 반면, 리기다소나무(32.17tC/ha)와 중부지방소나무(39.09tC/ha)는 흡수량이 낮았다. 따라서 수종갱신을 통한 산림경영형 산림탄소상쇄사업을 추진하는 경우 리기다소나무와 중부지방소나무 임분을 대상지로 하는 것이 유리한 것으로 나타났다. 본 연구에서 제시된 수종별 베이스라인 흡수량과 동적 임분생장모델은 산림경영형 산림탄소상쇄 사업을 설계하는데 활용할 수 있을 것으로 기대된다.

음성 인터페이스 기반의 재고 관리 시스템의 설계 및 구현 (Design and Implementation of Vocal Interface-Inventory Management System)

  • 박세진;권철홍
    • 대한음성학회:학술대회논문집
    • /
    • 대한음성학회 2002년도 11월 학술대회지
    • /
    • pp.119-122
    • /
    • 2002
  • This paper focuses on building up a database of commercial stocks using XML syntax and looks into a way of building up a system with the combination of XML and XSLT that provides connectivity to client-server databases through vocal means. The use of XSLT has several advantages. Most importantly, it can transform a type of data into different formats. A vocal interface minimizes some space and time limits imposed on users outside premises when they need an instant connection to their database. In this fashion, the users can check information on stock lists without being pressurized by certain limits. PC, PDAs and cellular phones are some examples of mobile connection. The use of VoiceXML creates vocal applications. In VoiceXML servies, users can gain immediate access to data upon the input of their voices and the DTMF signals of the telephone.

  • PDF

정규 거리에 기반한 시계열 데이터베이스의 유사 검색 기법 (Similarity Search in Time Series Databases based on the Normalized Distance)

  • 이상준;이석호
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제31권1호
    • /
    • pp.23-29
    • /
    • 2004
  • 본 논문에서는 정규 거리에 기반 한 유사 시퀀스의 검색 기법을 제안한다. 시퀀스의 형태가 중요한 관심 사항인 응용에서 정규 거리는 단순한 Lp 거리에 비해 적합한 유사도라 할 수 있다. 이러한 정규 거리에 기반 한 질의를 처리하기 위한 기존의 기법들은 시퀀스의 평균을 구한 후 이를 이용하여 시퀀스를 수직 이동하는 전처리 과정을 가지고 있다. 제안된 기법은 시퀀스의 인접한 두 요소들 간의 변이가 정규화 과정에 불변이라는 속성을 이용하여 수직 이동의 전처리 과정 없이 특징 벡터를 추출한 후 이를 R-tree와 같은 공간 접근 기법을 이용하여 인덱싱한다. 제안된 기법은 비슷한 형태의 시퀀스를 검색할 수 있으며 착오 누락이 얼음을 보장한다. 실제 주식 데이타를 이용한 실험을 통해 제안된 기법의 성능을 확인하였다.

시계열 데이타베이스에서 서브시퀀스 매칭의 성능 병목 : 관찰, 해결 방안, 성능 평가 (The Performance Bottleneck of Subsequence Matching in Time-Series Databases: Observation, Solution, and Performance Evaluation)

  • 김상욱
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제30권4호
    • /
    • pp.381-396
    • /
    • 2003
  • 서브시퀀스 매칭은 주어진 질의 시퀀스와 변화의 추세가 유사한 서브시퀀스들을 시계열 데이타베이스로부터 검색하는 연산이다. 본 논문에서는 서브시퀀스 매칭 처리의 성능 병목을 파악하고, 이를 해결함으로써 전체 서브시퀀스 매칭의 성능을 크게 개선하는 방안에 관하여 논의한다. 먼저, 사전 실험을 통하여 전체 서브시퀀스 매칭의 처리 시간 중 인덱스 검색 단계와 후처리 단계에서 디스크 액세스 시간 및 CPU 처리 시간이 차지하는 비중을 분석한다. 이를 바탕으로 후처리 단계가 서브시퀀스 매칭의 성능 병목이며, 후처리 단계의 최적화가 기존의 서브시퀀스 매칭 기법들이 간과한 매우 중요한 이슈임을 지적한다. 이러한 서브시퀀스 매칭의 성능 병목을 해결하기 위하여 후처리 단계를 최적으로 처리할 수 있는 간단하면서도 매우 효과적인 기법을 제안한다. 제안된 기법은 후처리 단계에서 후보 서브시퀀스들이 질의 시퀀스와 실제로 유사한가를 판단하는 순서를 조정함으로써 기존의 후처리 단계의 처리에서 발생하는 많은 디스크 액세스의 중복과 CPU 처리의 중복을 완전히 제거한 수 있다 제안된 기법이 착오 기각을 발생시키지 않음과 후처리 단계를 처리하기 위한 최적의 기법임을 이론적으로 증명한다. 또한, 실제 데이타와 생성 데이타를 이용한 다양한 실험들을 통하여 제안된 기법의 성능 개선 효과를 정량적으로 검증한다. 실험 결과에 의하면, 제안된 기법은 기존 기법의 후처리 단계 수행 시간을 실제 주식 데이타를 이용한 실험의 경우 ,3.91 배에서 9.42배까지, 대규모의 생성 데이터를 이용한 실험의 경우 4.97 배에서 5.61배까지 개선시키는 것으로 나타났다. 또한, 제안된 기법을 채택함으로써 전체 서브시퀀스 매칭 처리 시간의 90%에 이르던 후처리 단계의 비중을 70%이하로 내릴 수 있었다. 이것은 제안된 기법이 서브시퀀스 매칭의 성능 병목을 성공적으로 해결하였음을 보여주는 것이다. 이 견과, 제안된 기법은 전체 서브시퀀tm 매칭의 성능을 실제 주식 데이타를 사용한 실험의 경우 3.05 배에서 5.60 배까지, 대규모의 생성 데이타를 이용한 실험의 경우 3.68 배에서 4.21 배까지 개선시킬 수 있었다.

시퀀스 데이터베이스에서 타임 워핑을 지원하는 효과적인 인덱스 기반 서브시퀀스 매칭 (An Index-Based Approach for Subsequence Matching Under Time Warping in Sequence Databases)

  • 박상현;김상욱;조준서;이헌길
    • 정보처리학회논문지D
    • /
    • 제9D권2호
    • /
    • pp.173-184
    • /
    • 2002
  • 본 논문에서는 대용량 시퀀스 데이터베이스에 타임 워핑을 지원하는 인덱스 기반 서브시퀀스 매칭에 관하여 논의한다. 타임 워핑은 시퀀스의 길이가 서로 다른 경우에도 유사한 패턴을 갖는 시퀀스들을 찾을 수 있도록 해준다. 최근의 연구에서 타임 워핑을 지원하는 효과적인 전체 매칭 기법을 제안된바 있다. 이 기법은 데이터 시퀀스들로부터 타임 워핑에 영향을 받지 않는 특징 벡터들의 집합을 대상으로 인덱스를 구성한다. 또한, 특징 공간상에서의 필터링을 위하여 삼각형 부등식을 만족하는 타임 워핑 거리의 하한 함수를 사용한다. 본 연구에서는 이 기존의 연구에 슬라이딩 윈도우를 기반으로 하는 접두어-질의 방법을 결합하는 새로운 기법을 제안한다. 인덱싱을 위하여 각 슬라이딩 윈도우와 대응되는 서브 시퀀스로부터 특징 벡터를 추출하고, 이 특징 벡터를 인덱싱 애트리뷰트로 사용하는 다차원 인덱스를 구성한다. 질의 처리를 위하여, 조건을 만족하는 질의 접두어들에 대한 특징 벡터들을 이용하여 다수의 인덱스 검색을 수행한다. 제안된 기법은 대용량의 데이터베이스에서도 효과적인 서브시퀀스 매칭을 지원한다. 본 연구에서는 제안된 기법이 착오 기각을 유발시키지 않음을 증명한다. 제안된 기법의 우수성을 규명하기 위하여 다양한 실험을 수행한다. 실험 결과에 따르면, 제안된 기법은 실제 S&P 500 주식 데이터와 대용량의 생성 데이터 모두에 대하여 큰 성능 개선 효과를 보이는 것으로 나타났다.

지식 누적을 이용한 실시간 주식시장 예측 (A Real-Time Stock Market Prediction Using Knowledge Accumulation)

  • 김진화;홍광헌;민진영
    • 지능정보연구
    • /
    • 제17권4호
    • /
    • pp.109-130
    • /
    • 2011
  • 연속발생 데이터는 데이터의 원천으로부터 데이터 저장소로 연속적으로 축적이 되는 데이터를 말한다. 이렇게 축적된 데이터의 크기는 시간이 지남에 따라 점점 커진다. 또한 이러한 대용량 데이터에서 정보를 추출하기 위해서는 저장공간, 시간, 그리고 많은 자원이 필요하다. 이러한 연속발생 데이터의 특성은 시간이 지남에 따라 축적된 대용량 데이터의 이용을 어렵고 고비용이 되게 한다. 만약 정보나 패턴을 추출할 때 누적된 전체 발생 데이터 중에서 최근의 일부만 사용 한다면 적은 일부 표본의 사용의 문제로 인하여 전체 데이터 사용에서 발견될 수 있는 유용한 정보의 유실이 있을 수 있다. 이러한 문제점을 해결하기 위해서 본 연구는 연속발생 데이터를 발생 시점에서 계속 모으기 보다 이러한 발생되는 데이터에서 규칙을 추출하여 효율적으로 지식을 관리하고자 한다. 이 방법은 기존의 방법에 비하여 적은 양의 데이터 저장공간을 필요로 한다. 또한 이렇게 축적된 규칙집합은 미래에 예측을 위해서 언제든 실시간 예측을 할 수 있게 준비가 된다. 여러 예측 모델을 결합시키는 방법인 앙상블 이론에 의하면 본 연구가 제시하는 데로 체계적으로 규칙집합을 시간에 따라 융합시킬 경우 더 나은 예측 성과가 가능하다. 본 연구는 주식시장의 변동성을 예측하기 위하여 주식시장 데이터를 사용하였다. 본 연구는 이 데이터를 이용해 본 연구가 제시하는 방법과 기존의 방법의 예측 정확도를 비교 하였다.

주택재고 산정을 위한 기초자료의 현황 및 개선방안: 서울시 건축정보시스템을 중심으로 (Current Status and Directions of Databases to Measure Housing Stock: The Case of Architectural Information System, Seoul)

  • 신상영
    • 한국공간정보시스템학회:학술대회논문집
    • /
    • 한국공간정보시스템학회 2007년도 GIS 공동춘계학술대회 논문집
    • /
    • pp.261-267
    • /
    • 2007
  • 적실하고도 신뢰성 있는 주택정책을 수립하기 위해서는 주택관련 기초자료 및 그에 따른 주택정책지표의 정확성, 정밀성, 시의성이 전제되어야 한다. 본 고에서는 서울시 주택재고산정을 위한 현행 인구주택총조사, 건축물대장(AIS), 과세대장, 주택특성조사 등 기초자료의 현황 및 문제점을 분석하고 개선방안을 제시하였다. 특히 서울시가 보유하고 있는 가장 기본적인 자료라고 할 수 있는 건축물대장자료를 이용한 주택재고 산정문제에 각별한 비중을 두었다. 분석 결과, 각 기초자료별 현행 주택재고 산정기준에 따를 경우, 서울시 소유 거래기준 주택수는 대략 219만${\sim}$232만호에 걸쳐있는 것으로 나타났다. 자료에 따라 주택수가 차이가 나는 이유는 주택의 범위, 분류체계, 산정기준, 원천데이터의 오류 누락 등 수많은 원인에 의한 것인데, 본 고에서는 이들 문제점에 대한 비교분석을 실시하였다. 건축물대장 등은 서울시가 주택 등 건축물 재고파악을 위한 가장 기초적인 자료임에도 불구하고, 이를 이용하여 주택재고를 정확하게 산정하는 것은 자료에 대한 대대적인 정비를 거치기 이전에는 사실상 불가능한 것으로 사료된다. 개선과제로서, 단기적으로는 현행 건축물대장의 주택재고산정방법을 개선할 필요가 있고, 중장기적으로는 기초자료의 구조변경과 데이터정비, 업무정비, 표준 주택분류체계 마련 등이 필요하다. 또한 주택보급률 100%를 눈앞에 두고 있는 상황에서 주택의 양적 지표뿐만 아니라 질적 지표를 지원할 수 있도록 기초자료의 활용성 제고방안이 마련되어야 할 것이다.

  • PDF

구간 데이타에 대한 히스토그램 구축 알고리즘의 확장 (Extensions of Histogram Construction Algorithms for Interval Data)

  • 이호석;심규석;이병기
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제34권4호
    • /
    • pp.369-377
    • /
    • 2007
  • 히스토그램은 원본 데이타를 효과적으로 요약하는 기법중의 하나이며, 선택도 측정과 근사 질의 처리 등에 널리 사용되고 있다. 기존의 히스토그램 구축 알고리즘들은 하나의 값으로 표현되는 점 데이타에 대하여 적용 가능한 알고리즘이었다. 그러나 일상생활에서는 하루 동안의 온도, 주식 가격과 같은 구간 데이타들도 점 데이터만큼 흔하게 접할 수 있다. 본 논문에서는 점 데이타에 대한 히스토그램 구축 알고리즘을 구간 데이타에 대하여 확장한다. 합성 데이타를 사용한 실험을 통하여 기존의 점 데이타에 대한 히스토그램을 초보적으로 확장하는 방법보다 본 논문에서 제시된 알고리즘의 성능이 좋다는 것을 보였다.

미국영어에서의 후설원순저모음의 사용분포와 확산추이 (A trend of Open rounded back /a:/ distribution in American English)

  • 박충연
    • 인문언어
    • /
    • 제8집
    • /
    • pp.313-329
    • /
    • 2006
  • In some American English dialects, the vowels /a:/ or /c:/ have been replaced with /a:/, as in caught /ka:t/ dog /da:g/ that were pronounced in /kc:t/, and /dc:g/ previously. General American does not have /a:/ in its vowel system. But in East American and Western Pensylvania, cot and caught are homophones, /ka:t/, and similarly with other pairs such as collar vs. caller, stock vs. stalk, don vs. down, knotty vs. naughty. The use of /a/ or /c/ is quite unstable, and is a well-known diagnostic for distinguishing the northern speech area of the United States from the midland and southern area. For an increasing number of Americans, however, entirely lack the opposition between /a/ and /c/, merging to /a/, referring to 'both' of the vowels of lot. This paper investigates the use of /b:/ in American dialects and its relationship with /a:/, /c:/ in AE, and with short /a/ in RP. Examining the isoglosses of the use of /a:/ in various databases of the phonological atlas of North America, this paper discusses the use, position, and trend of merger to /a:/ from the vowels of /a:/ and /c:/ in Current American English.

  • PDF

타임 워핑을 지원하는 효율적인 서브시퀀스 매칭 기법 (A Subsequence Matching Technique that Supports Time Warping Efficiently)

  • 박상현;김상욱;조준서;이헌길
    • 산업기술연구
    • /
    • 제21권A호
    • /
    • pp.167-179
    • /
    • 2001
  • This paper discusses an index-based subsequence matching that supports time warping in large sequence databases. Time warping enables finding sequences with similar patterns even when they are of different lengths. In earlier work, we suggested an efficient method for whole matching under time warping. This method constructs a multidimensional index on a set of feature vectors, which are invariant to time warping, from data sequences. For filtering at feature space, it also applies a lower-bound function, which consistently underestimates the time warping distance as well as satisfies the triangular inequality. In this paper, we incorporate the prefix-querying approach based on sliding windows into the earlier approach. For indexing, we extract a feature vector from every subsequence inside a sliding window and construct a multi-dimensional index using a feature vector as indexing attributes. For query precessing, we perform a series of index searches using the feature vectors of qualifying query prefixes. Our approach provides effective and scalable subsequence matching even with a large volume of a database. We also prove that our approach does not incur false dismissal. To verily the superiority of our method, we perform extensive experiments. The results reseal that our method achieves significant speedup with real-world S&P 500 stock data and with very large synthetic data.

  • PDF