• 제목/요약/키워드: graph structure

검색결과 506건 처리시간 0.027초

Ge2Sb2Te5/TiN/W-Doped Ge2Sb2Te5 셀 구조의 다중준위 메모리 특성 평가 (Evaluation of Multi-Level Memory Characteristics in Ge2Sb2Te5/TiN/W-Doped Ge2Sb2Te5 Cell Structure)

  • 조준혁;서준영;이주희;박주영;이현용
    • 한국전기전자재료학회논문지
    • /
    • 제37권1호
    • /
    • pp.88-93
    • /
    • 2024
  • To evaluate the possibility as a multi-level memory medium for the Ge2Sb2Te5/TiN/W-doped Ge2Sb2Te5 cell structure, the crystallization rate and stabilization characteristics according to voltage (V)- and current (I)- pulse sweeping were investigated. In the cell structures prepared by a magnetron sputtering system on a p-type Si (100) substrate, the Ge2Sb2Te5 and W-doped Ge2Sb2Te5 thin films were separated by a barrier metal, TiN, and the individual thicknesses were varied, but the total thickness was fixed at 200 nm. All cell structures exhibited relatively stable multi-level states of high-middle-low resistance (HR-MR-LR), which guarantee the reliability of the multilevel phase-change random access memory (PRAM). The amorphousto-multilevel crystallization rate was evaluated from a graph of resistance (R) vs. pulse duration (T) obtained by the nanoscaled pulse sweeping at a fixed applied voltage (12 V). For all structures, the phase-change rates of HR→MR and MR→LR were estimated to be approximately t<20 ns and t<40 ns, respectively, and the states were relatively stable. We believe that the doublestack structure of an appropriate Ge-Sb-Te film separated by barrier metal (TiN) can be optimized for high-speed and stable multilevel PRAM.

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.

이미지 처리를 통한 공기 중 섬유의 자동계수 알고리즘 프로그램 개발 (Developing Image Processing Program for Automated Counting of Airborne Fibers)

  • 최성원;이희공;이종일;김현욱
    • 한국산업보건학회지
    • /
    • 제24권4호
    • /
    • pp.484-491
    • /
    • 2014
  • Objectives: An image processing program for asbestos fibers analyzing the gradient components and partial linearity was developed in order to accurately segment fibers. The objectives were to increase the accuracy of counting through the formulation of the size and shape of fibers and to guarantee robust fiber detection in noisy backgrounds. Methods: We utilized samples mixed with sand and sepiolite, which has a similar structure to asbestos. Sample concentrations of 0.01%, 0.05%, 0.1%, 0.5%, 1%, 2%, and 3%(w/w) were prepared. The sand used was homogenized after being sieved to less than $180{\mu}m$. Airborne samples were collected on MCE filters by utilizing a personal pump with 2 L/min flow rate for 30 minutes. We used the NIOSH 7400 method for pre-treating and counting the fibers on the filters. The results of the NIOSH 7400 method were compared with those of the image processing program. Results: The performance of the developed algorithm, when compared with the target images acquired by PCM, showed that the detection rate was on average 88.67%. The main causes of non-detection were missing fibers with a low degree of contrast and overlapping of faint and thin fibers. Also, some duplicate countings occurred for fibers with breaks in the middle due to overlapping particles. Conclusions: An image detection algorithm that could increase the accuracy of fiber counting was developed by considering the direction of the edge to extract images of fibers. It showed comparable results to PCM analysis and could be used to count fibers through real-time tracking by modeling a branch point to graph. This algorithm can be utilized to measure the concentrations of asbestos in real-time if a suitable optical design is developed.

위키피디아 링크를 이용한 랭크 기반 개념 계층구조의 자동 구축 (Automated Development of Rank-Based Concept Hierarchical Structures using Wikipedia Links)

  • 이가희;김한준
    • 한국전자거래학회지
    • /
    • 제20권4호
    • /
    • pp.61-76
    • /
    • 2015
  • 흔히 대용량 텍스트 데이터의 분류를 위한 인덱싱 데이터 구조로서 계층 개념 트리가 활용된다. 본 논문은 개념 계층구조를 자동적으로 구축하기 위해 위키피디아를 이용한 일반성 랭크 기반 기법을 제안한다. 이것의 목적은 위키피디아 문서를 하나의 개념으로 정의하여 이들 간의 계층적 위상관계를 생성하는 것이다. 이를 위해 위키피디아 문서들 간의 링크 개수를 주요 인자로 하여 개념 일반성을 가늠하는 랭킹함수를 고안하였으며, 이를 활용하여 개념 간 확률적 포함관계를 산출함으로써 안정적인 개념 간 계층 구조를 생성한다. 결과적으로 계층적 관계를 담은 개념쌍은 DAG 구조로 시각화 된다. Open Directory Project 계층구조를 사용한 성능 분석을 통해 제안 기법이 기준 기법에 비해 성능이 우수하며 고품질 계층 관계를 안정적으로 추출할 수 있음을 확인하였다.

복잡계망 모델을 사용한 강화 학습 상태 공간의 효율적인 근사 (Efficient Approximation of State Space for Reinforcement Learning Using Complex Network Models)

  • 이승준;엄재홍;장병탁
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제36권6호
    • /
    • pp.479-490
    • /
    • 2009
  • 여러 가지 실세계 문제들은 마르코프 결정 문제(Markov decision problem) 들로 형식화하여 풀 수 있으나, 풀이 과정의 높은 계산 복잡도 때문에 실세계 문제들을 직접적으로 다루는 데 많은 어려움이 있다. 이를 해결하기 위해 많은 시간적 추상화(Temporal abstraction) 방법들이 제안되어 왔고 이를 자동화하기 위한 여러 방법들 또한 연구되어 왔으나, 이들 방법들은 명시적인 효율성 척도를 갖고 있지 않아 이론적인 성능 보장을 하지 못하는 문제가 있었다. 본 연구에서는 문제의 크기가 커지더라도 좋은 성능이 보장되는 자동적인 시간적 추상화 구현 방법에 대해 제안한다. 이를 위하여 네트워크 척도(Network measurements)를 이용하여 마르코프 결정 문제의 풀이 효율과 상태 궤적 그래프(State trajectory graph)의 위상 특성간의 관계를 분석하고, 네트워크 척도들 중 평균 측지 거리(Mean geodesic distance)가 마르코프 결정 문제의 풀이 성능과 밀접한 관계가 있다는 사실을 알아내었다. 이 사실을 기반으로 하여, 낮은 평균 측지 거리를 보장하는 복잡계망 모델(Complex network model)을 사용하여 시간적 추상화를 만들어 나가는 알고리즘을 제안한다. 제안된 알고리즘은 사실적인 3차원 게임 환경을 비롯한 여러 문제에 대해 테스트되었고, 문제 크기의 증가에도 불구하고 효율적인 풀이 성능을 보여 주었다.

큰 수의 법칙 시뮬레이션에서 중학생의 안구 운동 분석 (An Analysis of Middle School Student's Eye Movements in the Law of Large Numbers Simulation Activity)

  • 최인용;조한혁
    • 한국수학교육학회지시리즈A:수학교육
    • /
    • 제56권3호
    • /
    • pp.281-300
    • /
    • 2017
  • This study analyzed the difficulties of middle school students in computer simulation of the law of large numbers through eye movement analysis. Some students did not attend to the simulation results and could not make meaningful inferences. It is observed that students keep the existing concept even though they observe the simulation results which are inconsistent with the misconceptions they have. Since probabilistic intuition influence student's thinking very strongly, it is necessary to design a task that allows students to clearly recognize the difference between their erroneous intuitions and simulation results. In addition, we could confirm through eye movements analysis that students could not make meaningful observations and inferences if too much reasoning was needed even though the simulation included a rich context. It is necessary to use visual representations such as graphs to provide immediate feedback to students, to encourage students to attend to the results in a certain intentional way to discover the underlying mathematical structure rather than simply presenting experimental data. Some students focused their attention on the visually salient feature of the experimental results and have made incorrect conclusion. The simulation should be designed so that the patterns of the experimental results that the student must discover are not visually distorted and allow the students to perform a sufficient number of simulations. Based on the results of this study, we suggested that cumulative relative frequency graph showing multiple results at the same time, and the term 'generally tends to get closer' should be used in learning of the law of large numbers. In addition, it was confirmed that eye-tracking method is a useful tool for analyzing interaction in technology-based probabilistic learning.

Free-Hand 선화로부터 점진적 3차원 물체 복원 (Progressive Reconstruction of 3D Objects from a Single Freehand Line Drawing)

  • 오범수;김창헌
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제30권3_4호
    • /
    • pp.168-185
    • /
    • 2003
  • 본 논문은 하나의 스케치 면도인 선화로부터 면 인식의 탐색 영역을 축소하고 다양한 3차원 물체를 빠르게 복원하는 점진적인 알고리즘을 제안한다. 복원 과정의 입력으로 사용되는 스케치 면도는 파선이 제거되지 않은 모서리-꼭지점 그래프인 2차원 스케치 면도로서 3차원 와이어프레임 물체의 부정확한 free-hand 스케치이다. 알고리즘은 두 단계로 수행된다. 면 인식 단계에서는 스케치 면도로부터 모든 가능 한 면을 생성하고 탐색 공간을 축소하기 위한 기하학적 위상학적 제약 조건을 이용하여 면을 불가능한 면, 기본 면, 최소 면으로 분류한다. 제안 알고리즘은 물체를 구성하는 실제 면을 빠르게 인식하기 위하여 최소 면만을 탐색한다 물체 생성 단계에서는 면의 스케치 순서에 따라 물체의 꼭지점 좌표를 최적화함으로써 3차원 구조를 점진적으로 계산한다. 점진적 방법은 복원 과정에서 물체와 스케치 도면 사이의 관계로부터 유도된 3차원 제약 조건을 적용함으로써 최적 3차원 물체를 빠르게 복원한다. 또한, 스케치 도중에 시점 이동을 허용한다. 점진적 복원 알고리즘을 기술하고 실제 구현 결과를 보인다.

비교정 영상에서의 반자동 3차원 건물 모델링 (Semi-automatic 3D Building Reconstruction from Uncalibrated Images)

  • 장경호;장재석;이석준;정순기
    • 한국멀티미디어학회논문지
    • /
    • 제12권9호
    • /
    • pp.1217-1232
    • /
    • 2009
  • 본 논문에서는 실외에서 촬영된 비교정 영상으로부터 3차원 건물 구조를 복원하는 반자동화 방법론을 제안한다. 사용자는 관심있는 건물을 임의의 위치에서 촬영한다. 본 논문에서 제안하는 시스템은 먼저, 입력영상에 대하여 SIFT 알고리즘을 이용하여 특징점과 대응점을 추출한다. 두 번째로, 각 영상에 존재하는 선과 소실점을 추정하고, 추정된 소실점으로 추출한 선들을 그룹화 한다. 다음으로, 각 영상 간의 관계를 대응점의 개수로 정의한 인접 그래프를 이용하여 입력 영상에 대한 순서를 정의하여, 각 영상을 촬영한 카메라의 위치 정보를 보정한다. 최종적으로 추정한 카메라의 정보와 각 영상에서 그룹화된 선을 이용하여 건물의 대략적인 3차원 구조를 복원한다. 하프 에지(half-edge) 자료 구조와 오일러 연산자(Euler operator)를 이용한 상세 모델링을 수행함으로써 완성된 건물 구조를 복원할 수 있다. 본 논문에서는 자동으로 추출된 기하학적 정보를 이용하여 최소한의 사용자 입력으로 건물을 복원 할 수 있도록 하였다.

  • PDF

자연사박물관 전시내용구성의 시지각적 공간구조분석에 관한 연구 (A Study on the Visual Perception Space Structure Analysis of Exhibition Contents Organization in Natural History Museum)

  • 김은정;홍관선
    • 한국실내디자인학회논문집
    • /
    • 제18권2호
    • /
    • pp.80-92
    • /
    • 2009
  • Natural history museums preserve and manage the creatures living in each country, so they play unique roles for bio-diversity, and in fact, their roles are really instrumental for the collection, preservation, research, exhibition and education of creatures in the 21st century. Therefore, this research has the purpose to survey the status of our country's existing natural history museums, analyze their visual perception space structural characteristics, and ultimately utilize their characteristics as basic data in planning out and designing spaces of natural history museums to be established later on. As for the research scope, the research selected as research subjects 7 natural history museums that currently have composite set of open type and mixed type and have been accommodating comparatively active exhibitions since 2000 among 10 or so natural history museums in our country. Research method is that the research analyzed the exhibition spaces of 7 natural history museums by using depthmap program which can analyze space with visual graph analysis function, and analyzed the visibility among unit areas by each natural history museum integration and exhibition contents composition. In such analysis method, the research was able to quantitatively analyze the visual characteristics of exhibition space that induces and adjusts the motion of audience. Visual perception quantitative analysis as in this research will enhance exhibition design by considering the correlation between audience and exhibited items when planning out natural history museums space to be established later on.

웹 데이타베이스에서 하이퍼텍스트 모델 확장 및 데이타베이스 게이트웨이의 동적 서버 할당 (Hypertext Model Extension and Dynamic Server Allocation for Database Gateway in Web Database Systems)

  • 신판섭;김성완;임해철
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제27권2호
    • /
    • pp.227-237
    • /
    • 2000
  • 웹 데이타베이스는 웹 환경에서 하이퍼텍스트 모델을 바탕으로 멀티미디어 처리를 위한 부가적인 구조와 관계형 또는 객체지향형 데이타베이스 관리 시스템을 접목하여 구축하는 대용량의 멀티미디어 데이타베이스 응용 시스템이다. 그러나 기존의 하이퍼텍스트 모델링 기법과 DBMS 통로 형태로는 웹 서비스 고급화에 필수적인 다양한 표현능력과 DBMS 연동과정에서의 병목발생으로 인한 동시성 기능이 제한된다. 따라서, 본 논문에서는 하이퍼텍스트 모델링 측면에서 암시적 질의 수행 기능을 지원하고 동적으로 생성되는 항해 모델과 가상 그래프 구조를 제안한다. 또한 항해 유형 분류를 통해 노드와 링크의 생성 규칙을 유도하고 제안된 모델과 웹 데이타베이스 시스템 후위에 위치하는 관계형 모델과의 상호 사상기법을 연구한다. 그리고 데이타베이스 통로의 효율을 향상시키기 위해 가중치를 기반으로 질의처리 서버를 동적으로 할당하는 스케줄링 기법을 제안하여 시스템 전체의 성능을 개선하고, 제안된 기법이 상대적으로 높은 복잡도를 갖는 동시 질의 요구에 적합함을 보인다.

  • PDF