• 제목/요약/키워드: Software Graph

검색결과 310건 처리시간 0.022초

그래프 컷을 이용한 학습된 자기 조직화 맵의 자동 군집화 (Automatic Clustering on Trained Self-organizing Feature Maps via Graph Cuts)

  • 박안진;정기철
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제35권9호
    • /
    • pp.572-587
    • /
    • 2008
  • SOFM(Self-organizing Feature Map)은 고차원의 데이타를 군집화(clustering)하거나 시각화(visualization)하기 위해 많이 사용되고 있는 비교사 학습 신경망(unsupervised neural network)의 한 종류이며, 컴퓨터비전이나 패턴인식 분야에서 다양하게 활용되고 있다. 최근 SOFM이 실제 응용분야에 다양하게 활용되고 좋은 결과를 보이고 있지만, 학습된 SOFM의 뉴론(neuron)을 다시 군집화해야 하는 후처리가 필요하며, 대부분의 경우 수동으로 이루어지고 있다. 후처리를 자동으로 하기 위해 k-means와 같은 기존의 군집화 알고리즘을 많이 이용하지만, 이 방법은 특히 다양한 모양의 클래스를 가진 고차원의 데이타에서 만족스럽지 못한 결과를 보인다. 다양한 모양의 클래스에서 좋은 성능을 보이기 위해, 본 논문에서는 그래프 컷(graph cut)을 이용하여 학습된 SOFM을 자동으로 군집화하는 방법을 제안한다. 그래프 컷을 이용할 때 터미널(terminal)이라는 두 개의 추가적인 정점(vertex)이 필요하며, 터미널과 각 정점 사이의 가중치는 대부분 사용자에 의해 입력받은 사전정보를 기반으로 설정된다. 제안된 방법은 SOFM의 거리 매트릭스(distance matrix)를 기반으로 한 모드 탐색(mode-seeking)과 모드의 군집화를 통하여 자동으로 사전정보를 설정하며, 학습된 SOFM의 군집화를 자동으로 수행한다. 실험에서 효율성을 검증하기 위해 제안된 방법을 텍스처 분할(texture segmentation)에 적용하였다. 실험 결과에서 제안된 방법은 기존의 군집화 알고리즘을 이용한 방법보다 높은 정확도를 보였으며, 이는 그래프기반의 군집화를 통해 다양한 모양의 클러스터를 처리할 수 있기 때문이다.

소프트웨어 컴포넌트 기반 로봇 시스템을 위한 입출력 연관관계 기반 적응형 조합 테스팅 기법 (Input/Output Relationship Based Adaptive Combinatorial Testing for a Software Component-based Robot System)

  • 강정석;박홍성
    • 제어로봇시스템학회논문지
    • /
    • 제21권7호
    • /
    • pp.699-708
    • /
    • 2015
  • In the testing of a software component-based robot system, generating test cases for the system is a time-consuming and difficult task that requires the combining of test data. This paper proposes an adaptive combinatorial testing method which is based on the input/output relationship among components and which automatically generates the test cases for the system. The proposed algorithm first generates an input/output relationship graph in order to analyze the input/output relationship of the system. It then generates the reduced set of test cases according to the analyzed type of input/output relationship. To validate the proposed algorithm some comparisons are given in terms of the time complexity and the number of test cases.

Requirement Diagram 를 자연어로 작성하기 위한 Translation Database Design (The translation database design for being written in the Natural Language using the Requirement Diagram)

  • 이혜련;최경희;정기현
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2007년도 추계학술발표대회
    • /
    • pp.325-327
    • /
    • 2007
  • Software testing 은 소프트웨어 개발 과정 중에 1/3 을 차지 할 만큼 중요한 부분 중 하나이다. Software testing 는 Requirement 작성이 제대로 이루어져야만이 제대로 testing 을 할 수 있고, 그에 따라 정확한 결과를 얻을 수 있다. 그 만큼 Requirement 작성이 중요시 되고 있지만, 수동적으로 기술자에 의해서 작성되는 Requirement 에는 많은 문제점을 안고 있다. 본 논문에서는 Requirement를 Graph 하게 표현한 방법을 소개하고, 표현된 방식을 이용하여 다시 자연어로 표현할 수 있도록 Database 를 설계하는 방식을 제안한다. 그 결과로 Design 된 패턴들을 이용하여 Requirement 자연어로 기술한다. 이를 통하여 Requirment 기술 방식을 통일화 시킬 수 있으며, 기술자간에 의사소통을 원할하게 수행할 수 있으며, Software testing 의 중요 기반으로 제공할 수 있다.

  • PDF

FMI기반 co-simulation에서 step size control을 위한 Markov chain을 사용한 예측 방법 (A Prediction Method using Markov chain for Step Size Control in FMI based Co-simulation)

  • 홍석준;임덕선;김원태;조인휘
    • 전기전자학회논문지
    • /
    • 제23권4호
    • /
    • pp.1430-1439
    • /
    • 2019
  • FMI를 기반으로 하는 co-simulation의 마스터 알고리즘(MA)에서 시뮬레이션 결과의 정확도를 높이는 방법으로 zero crossing 포인트를 찾기 위한 Bisectional algorithm을 사용할 수 있다. 그러나 이 알고리즘은 많은 Rollback을 야기한다. 따라서 본 논문에서는 제안하는 MA는 Bisection algorithm을 통해 zero crossing 포인트를 검출하면서도 반복되는 구간 그래프를 분석하여 그 값을 Markov chain을 적용하여 다음 구간을 예측하여 이를 step size에 적용한다. 시뮬레이션에서 실제 Rollback이 발생했을 때 그래프 형태별로 변화되는 step size를 배열로 저장하고, 이룰 다음 예측 구간에 적용함으로서 Rollback을 최소화하는 알고리즘을 제안한다. 시뮬레이션 결과를 통해 제안하는 알고리즘이 기존 알고리즘에 비해 최대 20% 이상의 시뮬레이션 시간이 감소되는 것을 확인하였다.

Dependent Quantization for Scalable Video Coding

  • ;김문철;함상진;이근식;박근수
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2006년도 학술대회
    • /
    • pp.127-132
    • /
    • 2006
  • Quantization in video coding plays an important role in controlling the bit-rate of compressed video bit-streams. It has been used as an important control means to adjust the amount of bit-streams to at]owed bandwidth of delivery networks and storage. Due to the dependent nature of video coding, dependent quantization has been proposed and applied for MPEG-2 video coding to better maintain the quality of reconstructed frame for given constraints of target bit-rate. Since Scalable Video Coding (SVC) being currently standardized exhibits highly dependent coding nature not only between frames but also lower and higher scalability layers where the dependent quantization can be effectively applied, in this paper, we propose a dependent quantization scheme for SVC and compare its performance in visual qualities and bit-rates with the current JSVM reference software for SVC. The proposed technique exploits the frame dependences within each GOP of SVC scalability layers to formulate dependent quantization. We utilize Lagrange optimization, which is widely accepted in R-D (rate-distortion) based optimization, and construct trellis graph to find the optimal cost path in the trellis by minimizing the R-D cost. The optimal cost path in the trellis graph is the optimal set of quantization parameters (QP) for frames within a GOP. In order to reduce the complexity, we employ pruning procedure using monotonicity property in the trellis optimization and cut the frame dependency into one GOP to decrease dependency depth. The optimal Lagrange multiplier that is used for SVC is equal to H.264/AVC which is also used in the mode prediction of the JSVM reference software. The experimental result shows that the dependent quantization outperforms the current JSVM reference software encoder which actually takes a linear increasing QP in temporal scalability layers. The superiority of the dependent quantization is achieved up to 1.25 dB increment in PSNR values and 20% bits saving for the enhancement layer of SVC.

  • PDF

최적합 객체 선정을 위한 다중 객체군 추출 (A Extraction of Multiple Object Candidate Groups for Selecting Optimal Objects)

  • 박성옥;노경주;이문근
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제26권12호
    • /
    • pp.1468-1481
    • /
    • 1999
  • didates.본 논문은 절차 중심 소프트웨어를 객체 지향 소프트웨어로 재/역공학하기 위한 다단계 절차중 첫 절차인 객체 추출 절차에 대하여 기술한다. 사용한 객체 추출 방법은 전처리, 기본 분할 및 결합, 정제 결합, 결정 및 통합의 다섯 단계로 이루어진다 : 1) 전처리 과정에서는 객체 추출을 위한 FTV(Function, Type, Variable) 그래프를 생성/분할 및 클러스터링하고, 2) 기본 분할 및 결합 단계에서는 다중 객체 추출을 위한 그래프를 생성하고 생성된 그래프의 정적 객체를 추출하며, 3) 정제 결합 단계에서는 동적 객체를 추출하며, 4) 결정 단계에서는 영역 모델링과 다중 객체 후보군과의 유사도를 측정하여 영역 전문가가 하나의 최적합 후보를 선택할 수 있는 측정 결과를 제시하며, 5) 통합 단계에서는 전처리 과정에서 분리된 그래프가 여러 개 존재할 경우 각각의 처리된 그래프를 통합한다. 본 논문에서는 클러스터링 순서가 고정된 결정론적 방법을 사용하였으며, 가능한 경우의 수에 따른 다중 객체 후보, 객관적이고 의미가 있는 객체 추출 방법으로의 정제와 결정, 영역 모델링을 통한 의미적 관점에 기초한 방법 등을 사용한다. 이러한 방법을 사용함으로써 전문가는 객체 추출 단계에서 좀더 다양하고 객관적인 선택을 할 수 있다.Abstract This paper presents an object extraction process, which is the first phase of a methodology to transform procedural software to object-oriented software. The process consists of five steps: the preliminary, basic clustering & inclusion, refinement, decision and integration. In the preliminary step, FTV(Function, Type, Variable) graph for object extraction is created, divided and clustered. In the clustering & inclusion step, multiple graphs for static object candidate groups are generated. In the refinement step, each graph is refined to determine dynamic object candidate groups. In the decision step, the best candidate group is determined based on the highest similarity to class group modeled from domain engineering. In the final step, the best group is integrated with the domain model. The paper presents a new clustering method based on static clustering steps, possible object candidate grouping cases based on abstraction concept, a new refinement algorithm, a similarity algorithm for multiple n object and m classes, etc. This process provides reengineering experts an comprehensive and integrated environment to select the best or optimal object candidates.

Automatic Extraction of Metadata Information for Library Collections

  • Yang, Gi-Chul;Park, Jeong-Ran
    • International Journal of Advanced Culture Technology
    • /
    • 제6권2호
    • /
    • pp.117-122
    • /
    • 2018
  • As evidenced through rapidly growing digital repositories and web resources, automatic metadata generation is becoming ever more critical, especially considering the costly and complex operation of manual metadata creation. Also, automatic metadata generation is apt to consistent metadata application. In this sense, metadata quality and interoperability can be enhanced by utilizing a mechanism for automatic metadata generation. In this article, a mechanism of automatic metadata extraction called ExMETA is introduced in order to alleviate issues dealing with inconsistent metadata application and semantic interoperability across ever-growing digital collections. Conceptual graph, one of formal languages that represent the meanings of natural language sentences, is utilized for ExMETA as a mediation mechanism that enhances the metadata quality by disambiguating semantic ambiguities caused by isolation of a metadata element and its corresponding definition from the relevant context. Hence, automatic metadata generation by using ExMETA can be a good way of enhancing metadata quality and semantic interoperability.

GSP를 활용한 수학과 교육자료 개발 연구 -중학교 함수의 그래프를 중심으로- (A Study on the Development of Teaching Material using GSP in Mathematics Education -Focused on the graph of function of Middle School-)

  • 신영섭
    • 한국학교수학회논문집
    • /
    • 제2권1호
    • /
    • pp.93-104
    • /
    • 1999
  • The subject of this study was the graph of relation of direct inverse proportion, linear function and quadratic function in the 1st, 2nd and 3rd grade of current middle school mathematics curriculum. GSP materials were developed to simplify the principle, trait and characteristics of graphs and make them easier to understand. The overall aim of the materials is to improve the effectiveness of teaching and learning through the utilization of enhanced students' practice. Additionally, the use of the GSP will be useful in the development of mere effective materials. The effectiveness of the GSP materials will be as followings. 1. The step by step approach of GSP materials through computer interaction will enhance students motivation and interest in mathematics. 2. By presenting the subject matter simply and in a variety of ways, difficult concepts can be understood without the use of complex mathematical calculation. 3. The GSP program is different from CAI and other software programs. It should be used only after learning how to input and output data.

  • PDF

Handling Semantic Ambiguity for Metadata Generation

  • Yang, Gi-Chul;Park, Jeong-Ran
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제10권2호
    • /
    • pp.1-6
    • /
    • 2018
  • The following research questions are examined in this paper. What hinders quality metadata generation and metadata interoperability? What kind of semantic representation technique can be utilized in order to enhance metadata quality and semantic interoperability? This paper suggests a way of handling semantic ambiguity for metadata generation. The conceptual graph is utilized to disambiguate semantic ambiguities caused by isolation of a metadata element and its corresponding definition from the relevant context. The mechanism introduced in this paper has the potential to alleviate issues dealing with inconsistent metadata application and interoperability across digital collections.

REVIEW OF VARIOUS DYNAMIC MODELING METHODS AND DEVELOPMENT OF AN INTUITIVE MODELING METHOD FOR DYNAMIC SYSTEMS

  • Shin, Seung-Ki;Seong, Poong-Hyun
    • Nuclear Engineering and Technology
    • /
    • 제40권5호
    • /
    • pp.375-386
    • /
    • 2008
  • Conventional static reliability analysis methods are inadequate for modeling dynamic interactions between components of a system. Various techniques such as dynamic fault tree, dynamic Bayesian networks, and dynamic reliability block diagrams have been proposed for modeling dynamic systems based on improvement of the conventional modeling methods. In this paper, we review these methods briefly and introduce dynamic nodes to the existing reliability graph with general gates (RGGG) as an intuitive modeling method to model dynamic systems. For a quantitative analysis, we use a discrete-time method to convert an RGGG to an equivalent Bayesian network and develop a software tool for generation of probability tables.