• Title/Summary/Keyword: 데이터밀도

Search Result 509, Processing Time 0.022 seconds

Estimation of Density of Methane and Ethane and Vapor-Liquid Equilibrium Predictions for Methane-Ethane Binary System Using PR and PC-SAFT Equations of State (PR 및 PC-SAFT 상태방정식을 이용한 메탄과 에탄의 기상과 액상의 밀도 추산 및 이성분계의 기-액 상평형 계산)

  • Park, Jong-Kee;Choi, Kun-Hyung;Lee, Sang-Gyu;Yang, Young-Myung;Cho, Jung-Ho
    • Journal of the Korean Institute of Gas
    • /
    • v.14 no.2
    • /
    • pp.22-26
    • /
    • 2010
  • In this study, experimental vapor pressures and densities of vapor and liquid phases versus temperature were estimated using PC-SAFT equation. The estimated results were compared with those using PR equation of state. For the vapor phase densities, both equations well predicted the literature data. However, PC-SAFT equation showed better prediction capability for liquid phase densities. In the comparison of vapor-liquid equilibrium prediction capability for the binary systems of methane and ethane, PC-SAFT equation was better than the PR equation.

Guassian pdfs Clustering Using a Divergence Measure-based Neural Network (발산거리 기반의 신경망에 의한 가우시안 확률 밀도 함수의 군집화)

  • 박동철;권오현
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.29 no.5C
    • /
    • pp.627-631
    • /
    • 2004
  • An efficient algorithm for clustering of GPDFs(Gaussian Probability Density Functions) in a speech recognition model is proposed in this paper. The proposed algorithm is based on CNN with the divergence as its distance measure and is applied to a speech recognition. The algorithm is compared with conventional Dk-means(Divergence-based k-means) algorithm in CDHMM(Continuous Density Hidden Markov Model). The results show that it can reduce about 31.3% of GPDFs over Dk-means algorithm without suffering any recognition performance. When compared with the case that no clustering is employed and full GPDFs are used, the proposed algorithm can save about 61.8% of GPDFs while preserving the recognition performance.

Temporal Urban Growth Monitoring using Landsat Imagery and Pycnophypactic Interpolation Method - The case of Seoul Metropolitan Area - (Landsat 영상과 Pycnophylactic 보간 알고리즘에 의한 도시성장 분석 - 서울-경기 도시지역을 중심으로 -)

  • 장훈;박정환;손홍규
    • Proceedings of the Korean Association of Geographic Inforamtion Studies Conference
    • /
    • 2003.04a
    • /
    • pp.191-198
    • /
    • 2003
  • 서울은 인구 1000만이 넘는 세계적인 대도시로 발전하였다. 1970년대 이후로 급속적인 경제발전과 더불어 서울의 도시화는 급속히 이루어졌으며 이에 따른 인구집중 역시 빠른 속도로 진행되었다. 본 연구에서는 서울과 그 주변 도시를 대상으로 인구자료와 행정구역도 그리고 Landsat 위성영상을 사용하여 인구밀도의 변화에 따른 도시의 성장형태를 분석하여 도시의 관리와 발전계획을 위한 기초 자료로 활용하고자 한다. 도시성장 분석을 위한 기존의 연구방법은 행정구역에 따른 인구밀도를 통해 수행되었으나 이는 행정구역 내에 일률적인 인구데이터의 분배로 실제 경우와 다른 해석이 가능할 수 있는 오류를 포함하고 있다. 이에 본 연구에서는 실질적인 대부분의 인구가 도시지역에 거주한다는 가정 하에 1985년부터 2000년까지의 5년 간격의 Landsat 위성영상을 사용하여 도시지역을 추출하고 이를 기초로 행정구역 내에 포함되어 있는 도시지역에만 인구를 배분하는 새로운 방식으로 인구밀도의 변화 추이를 나타내었다. 연구결과 기존에 방법에서는 발견되지 않았던 서울의 확장형태를 알 수 있었으며 또한 인구데이터의 경계현상을 Pycnophylactic 보간 알고리즘을 통해 제거함으로써 보다 실질적인 도시지역 인구밀도의 변화를 알 수 있었다. 이러한 인구밀도의 변화는 도시의 성장과 밀접한 상관관계를 갖기 때문에 이를 통해 서울 및 주변도시의 성장 형태를 확인할 수 있었다. 마지막으로 4장의 서울-경기 도시지역의 인구밀도 변화도를 제작하여 GIS를 이용한 관련 분야의 활용에 도움이 되고자 한다.

  • PDF

Validating DEVS based Traffic Simulation Model for Freeways (DEVS 기반의 연속 교통류 시뮬레이션 시스템 검증 ($I^3D^2$ 교통류 시뮬레이션 시스템을 중심으로))

  • 윤동영;김원규;송병흠;지승도
    • Proceedings of the Korea Society for Simulation Conference
    • /
    • 2002.11a
    • /
    • pp.125-130
    • /
    • 2002
  • 본 연구는 DEVS를 기반으로 개발된 교통류 시뮬레이션 시스템인 $\ulcorner$I$^3$D$^2$ 교통류 시뮬레이션 시스템$\lrcorner$(이하 I$^3$D$^2$)의 검증을 그 목적으로 한다. I$^3$D$^2$는 본 연구진이 DEVS를 기반으로 개발한 범용 시뮬레이션 도구로써, 이미 서울시 강남 신호교차로와 내부순환로를 대상으로 하여 개발된 내용을 발표한 바 있다. I$^3$D$^2$는 헌재 단속류에서의 최적신호 생성 및 대기행렬 예측 문제, 그리고 연속류 시설의 용량 산정 문제등을 시뮬레이션 할 수 있다. 하지만 아직 문헌자료나 현장 데이터를 토대로 한 충분한 검증이 수행되지 못한 문제가 있다. 따라서 본 연구에서는 문헌자료를 토대로, I$^3$D$^2$를 검증한다. 이를 위하여 고속도로 또는 도시고속도로와 같은 연속 교통류의 대표적인 효과척도인 $\ulcorner$교통량 - 밀도 - 평균주행속도 (시간)$\lrcorner$ 간의 상관관계를 이용하여 미국 HCM과 우리나라의 도로용량편람에 정의되어 있는 기준을 토대로 I$^3$D$^2$ 검증을 수행하였다. 모델링은 서울시 올림픽대로의 양화대교 - 성산대교 - 가양대교 구간을 대상으로 했으며, 검증은 교통량에 따라 크게 3가지 교통류 상태(random, intermediate, constant)를 기준으로 시뮬레이션이 각각의 교통상태에서 예측한 평균주행시간의 정확도를 측정하면서 수행하였다. 검증 결과 random 상태에서는 문헌자료에 부합되는 예측결과를 보여주었으나, intermediate와 constant 상태에서는 문헌보다 다소 낮은 속도를 보여주었다 이러한 속도차는 추후 현장 데이터를 수집하여 보다 실질적인 검증을 통하여 조정되어야 할 것으로 판단된다.

  • PDF

An Analysis of the Software defect density based on components size (소프트웨어 컴포넌트 규모에 의한 소프트웨어 결함 밀도의 평가)

  • 이재기;남상식;김창봉
    • Journal of the Institute of Electronics Engineers of Korea TC
    • /
    • v.41 no.8
    • /
    • pp.69-78
    • /
    • 2004
  • In this paper, we estimated the exact software defect density to build up a suitable model that is closely related to the size of module in the probability model proposed by MD (Malaiya and Denton). To put it concretely, we predict that the software defect density using some practical data sets that are the outcomes from the system test performed our three projects for the types of distribution (exponential and geometric), per a unit of module, and the size of source line that have been recommended by KLOC(kilo-line-of-code). Then, we make comparison between our proposed defect density model and those examined real data.

표준기용 Spectroscopic Ellipsometer 제작

  • 조용재;조현모;김현종;신동주;이윤우;이인원
    • Proceedings of the Korea Crystallographic Association Conference
    • /
    • 2002.11a
    • /
    • pp.38-39
    • /
    • 2002
  • Spectroscopic ellipsometer(SE)는 박막의 두께, 굴절률, 흡수율, 에너지 갭, 결정상태, 밀도, 표면 및 계면의 거칠기 등에 관한 유용한 정보들을 제공한다. (1-3) SE는 빛을 탐침으로 사용하기 때문에 비파괴적이고 비접촉식 박막물성 측정방법이며 편광변화에 대한 상대적 물리량을 측정함으로써 정밀도와 재연성이 매우 높은 장점들을 갖고 있다. 따라서 SE는 반도체 메모리 소자, 평판 디스플레이, DVD와 CD와 같은 데이터 저장장치 등을 제작하는 공정에서 박막에 관련된 공정계측장비로 사용되고 있다. 특히, 최근의 차세대 반도체 소자 개발에 관한 연구 등(4-6)에서는 수 nm 두께의 다양한 초박막들에 관한 물성연구가 주관심사이기 때문에 최고의 성능을 갖는 계측장비와 기술이 요구되고 있다. 따라서 본 연구에서는 그림과 같은 편광자(polarizer)-시료(sample)-검광자(analyzer)로 구성된 PSA구조의 표준기용 rotating-analyzer SE를 제작하게 되었다. 현재까지 개발된 ellipsometer의 수많은 종류들 중에서 null 형, rotating element 형, 그리고 phase modulation 형이 가장 많이 사용되고 있다. 여기서 element란 polarizer, analyzer, 또는 compensator와 같은 광 부품들을 지칭하는데 이 중 하나 또는 둘을 회전시키기 때문에 그 종류 또한 매우 많다. 이들 중에서 회전검광자형 ellipsometer는 입사각 정렬이 우수하고, 파장에 무관한 편광기만 사용하므로 비교적 넓은 광량자 에너지영역에서 정확도 높은 데이터를 얻을 수 있기 때문에 박막 상수의 정밀측정에 가장 적합하다. 특히, 본 연구에서 제작된 ellipsometer에는 간섭계 장치, polarizer tracking,(2) zone average,(1) 그리고 low-pass filter 등을 사용함으로써 측정오차를 최대한 줄이는 노력을 하였다.

  • PDF

Automatic Generation of Named Entity Tagged Corpus using Web Search Engine (웹을 이용한 개체명 부착 말뭉치의 자동생성과 정제)

  • An, Joo-Hui;Lee, Seung-Woo;Lee, Gary Geun-Bae
    • Annual Conference on Human and Language Technology
    • /
    • 2002.10e
    • /
    • pp.85-91
    • /
    • 2002
  • 최근 정보 추출, 질의응답 시스템 등의 고정밀 자연어처리 어플리케이션이 부각됨에 따라 개체명 인식의 중요성이 더욱 커지고 있다. 이러한 개체명 인식을 위한 학습에는 대용량의 어휘자료를 필요로 하기 때문에 충분한 학습 데이터, 즉 개체명 태그가 부착된 충분한 코퍼스가 제공되지 못하는 경우 자료희귀문제(data sparseness problem)로 인하여 목적한 효과를 내지 못하는 경우가 않다. 그러나 태그가 부착된 코퍼스를 생성하는 일은 시간과 인력이 많이 드는 힘든 작업이다. 최근 인터넷의 발전으로 웹 데이터는 그 양이 매우 많으며, 습득 또한 웹 검색 엔진을 사용해서 자동으로 모음으로써 다량의 말뭉치를 모으는 것이 매우 용이하다. 따라서 최근에는 웹을 무한한 언어자원으로 보고 웹에서 필요한 언어자원을 자동으로 뽑는 연구가 활발히 진행되고 있다. 본 연구는 이러한 연구의 첫 시도로 웹으로부터 다량의 원시(raw) 코퍼스를 얻어 개체명 태깅 학습을 위한 태그 부착 코퍼스를 자동으로 생성하고 이렇게 생성된 말뭉치를 개체면 태깅 학습에 적용하는 비교 실험을 통해 수집된 말뭉치의 유효성을 검증하고자 한다. 향후에는 자동으로 웹으로부터 개체 명 태깅 규칙과 패턴을 뽑아내어 실제 개체명 태거를 빨리 개발하여 유용하게 사용할 수 있다.

  • PDF

A Movie Recommendation System based on Fuzzy-AHP with User Preference and Partition Algorithm (사용자 선호도와 군집 알고리즘을 이용한 퍼지-계층적 분석 기법 기반 영화 추천 시스템)

  • Oh, Jae-Taek;Lee, Sang-Yong
    • Journal of Digital Convergence
    • /
    • v.15 no.11
    • /
    • pp.425-432
    • /
    • 2017
  • The current recommendation systems have problems including the difficulty of figuring out whether they recommend items that actual users have preference for or have simple interest in, the scarcity of data to recommend proper items due to the extremely small number of users, and the cold-start issue of the dropping system performance to recommend items that can satisfy users according to the influx of new users. In an effort to solve these problems, this study implemented a movie recommendation system to ensure user satisfaction by using the Fuzzy-Analytic Hierarchy Process, which can reflect uncertain situations and problems, and the data partition algorithm to group similar items among the given ones. The data of a survey on movie preference with 61 users was applied to the system, and the results show that it solved the data scarcity problem based on the Fuzzy-AHP and recommended items fit for a user with the data partition algorithm even with the influx of new users. It is thought that research on the density-based clustering will be needed to filter out future noise data or outlier data.

A Data Transformation Method for Visualizing the Statistical Information based on the Grid (격자 기반의 통계정보 표현을 위한 데이터 변환 방법)

  • Kim, Munsu;Lee, Jiyeong
    • Spatial Information Research
    • /
    • v.23 no.5
    • /
    • pp.31-40
    • /
    • 2015
  • The purpose of this paper is to propose a data transformation method for visualizing the statistical information based on the grid system which has regular shape and size. Grid is better solution than administrator boundary or census block to check the distribution of the statistical information and be able to use as a spatial unit on the map flexibly. On the other hand, we need the additional process to convert the various statistical information to grid if we use the current method which is areal interpolation. Therefore, this paper proposes the 3 steps to convert the various statistical information to grid. 1)Geocoding the statistical information, 2)Converting the spatial information through the defining the spatial relationship, 3)Attribute transformation considering the data scale measurement. This method applies to the population density of Seoul to convert to the grid. Especially, spatial autocorrelation is performed to check the consistency of grid display if the reference data is different for same statistic information. As a result, both distribution of grid are similar to each other when the population density data which is represented by census block and building is converted to grid. Through the result of implementation, it is demonstrated to be able to perform the consistent data conversion based on the proposed method.

A Comparative Study on the Social Awareness of Metaverse in Korea and China: Using Big Data Analysis (한국과 중국의 메타버스에 관한 사회적 인식의 비교연구: 빅데이터 분석의 활용 )

  • Ki-youn Kim
    • Journal of Internet Computing and Services
    • /
    • v.24 no.1
    • /
    • pp.71-86
    • /
    • 2023
  • The purpose of this exploratory study is to compare the differences in public perceptual characteristics of Korean and Chinese societies regarding the metaverse using big data analysis. Due to the environmental impact of the COVID-19 pandemic, technological progress, and the expansion of new consumer bases such as generation Z and Alpha, the world's interest in the metaverse is drawing attention, and related academic studies have been also in full swing from 2021. In particular, Korea and China have emerged as major leading countries in the metaverse industry. It is a timely research question to discover the difference in social awareness using big data accumulated in both countries at a time when the amount of mentions on the metaverse has skyrocketed. The analysis technique identifies the importance of key words by analyzing word frequency, N-gram, and TF-IDF of clean data through text mining analysis, and analyzes the density and centrality of semantic networks to determine the strength of connection between words and their semantic relevance. Python 3.9 Anaconda data science platform 3 and Textom 6 versions were used, and UCINET 6.759 analysis and visualization were performed for semantic network analysis and structural CONCOR analysis. As a result, four blocks, each of which are similar word groups, were driven. These blocks represent different perspectives that reflect the types of social perceptions of the metaverse in both countries. Studies on the metaverse are increasing, but studies on comparative research approaches between countries from a cross-cultural aspect have not yet been conducted. At this point, as a preceding study, this study will be able to provide theoretical grounds and meaningful insights to future studies.