• 제목/요약/키워드: Goal graph

검색결과 79건 처리시간 0.02초

RDF 온톨로지 접근 제어를 위한 3 계층 온톨로지 뷰 보안 모델 (A Three-Layered Ontology View Security Model for Access Control of RDF Ontology)

  • 정동원;징이신;백두권
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제35권1호
    • /
    • pp.29-43
    • /
    • 2008
  • RDF 온톨로지는 XML 트리 모델을 이용하여 표현할 수 있다. 그러나 XML 문서를 보호하기 위해 개발된 XML 보안 모델을 RDF 온톨로지에 적용하는 방법은 부적합하다. RDF는 그래프 모델로서 추론 기능을 제공하므로 새로운 보안 모델의 개발이 요구된다. 이 논문에서는 RDF 온톨로지 접근 제어를 위한 새로운 질의 지향 모델을 제안한다. 제안 모델은 3 계층 온톨로지 뷰를 이용하여 사용자 질의를 재작성한다. 이를 통해 제안 모델은 추론 규칙에 따라 추론 모델을 생성하는 기존 접근 방법의 문제점을 해결한다. 사용자가 방문할 수 있는 접근 가능한 온톨로지 개념들과 인스턴스들을 각각 온톨로지 뷰로서 정의하며, 또한 추론 질의에 대한 제어를 위해 정의한 추론 뷰를 통해 사용자의 추론 기능을 제어할 수 있다. 이 논문에서는 3 계층 뷰를 정의하고 이에 따라 질의를 재작성하는 알고리즘에 대하여 기술한다. 시스템 구조와 구현된 프로토타입에 대하여 기술한다. 마지막으로. 제안 모델과 기존 접근 방법에 대한 실험 및 평가 결과에 대하여 기술한다.

폭소노미 사이트를 위한 랭킹 프레임워크 설계: 시맨틱 그래프기반 접근 (A Folksonomy Ranking Framework: A Semantic Graph-based Approach)

  • 박현정;노상규
    • Asia pacific journal of information systems
    • /
    • 제21권2호
    • /
    • pp.89-116
    • /
    • 2011
  • In collaborative tagging systems such as Delicious.com and Flickr.com, users assign keywords or tags to their uploaded resources, such as bookmarks and pictures, for their future use or sharing purposes. The collection of resources and tags generated by a user is called a personomy, and the collection of all personomies constitutes the folksonomy. The most significant need of the folksonomy users Is to efficiently find useful resources or experts on specific topics. An excellent ranking algorithm would assign higher ranking to more useful resources or experts. What resources are considered useful In a folksonomic system? Does a standard superior to frequency or freshness exist? The resource recommended by more users with mere expertise should be worthy of attention. This ranking paradigm can be implemented through a graph-based ranking algorithm. Two well-known representatives of such a paradigm are Page Rank by Google and HITS(Hypertext Induced Topic Selection) by Kleinberg. Both Page Rank and HITS assign a higher evaluation score to pages linked to more higher-scored pages. HITS differs from PageRank in that it utilizes two kinds of scores: authority and hub scores. The ranking objects of these pages are limited to Web pages, whereas the ranking objects of a folksonomic system are somewhat heterogeneous(i.e., users, resources, and tags). Therefore, uniform application of the voting notion of PageRank and HITS based on the links to a folksonomy would be unreasonable, In a folksonomic system, each link corresponding to a property can have an opposite direction, depending on whether the property is an active or a passive voice. The current research stems from the Idea that a graph-based ranking algorithm could be applied to the folksonomic system using the concept of mutual Interactions between entitles, rather than the voting notion of PageRank or HITS. The concept of mutual interactions, proposed for ranking the Semantic Web resources, enables the calculation of importance scores of various resources unaffected by link directions. The weights of a property representing the mutual interaction between classes are assigned depending on the relative significance of the property to the resource importance of each class. This class-oriented approach is based on the fact that, in the Semantic Web, there are many heterogeneous classes; thus, applying a different appraisal standard for each class is more reasonable. This is similar to the evaluation method of humans, where different items are assigned specific weights, which are then summed up to determine the weighted average. We can check for missing properties more easily with this approach than with other predicate-oriented approaches. A user of a tagging system usually assigns more than one tags to the same resource, and there can be more than one tags with the same subjectivity and objectivity. In the case that many users assign similar tags to the same resource, grading the users differently depending on the assignment order becomes necessary. This idea comes from the studies in psychology wherein expertise involves the ability to select the most relevant information for achieving a goal. An expert should be someone who not only has a large collection of documents annotated with a particular tag, but also tends to add documents of high quality to his/her collections. Such documents are identified by the number, as well as the expertise, of users who have the same documents in their collections. In other words, there is a relationship of mutual reinforcement between the expertise of a user and the quality of a document. In addition, there is a need to rank entities related more closely to a certain entity. Considering the property of social media that ensures the popularity of a topic is temporary, recent data should have more weight than old data. We propose a comprehensive folksonomy ranking framework in which all these considerations are dealt with and that can be easily customized to each folksonomy site for ranking purposes. To examine the validity of our ranking algorithm and show the mechanism of adjusting property, time, and expertise weights, we first use a dataset designed for analyzing the effect of each ranking factor independently. We then show the ranking results of a real folksonomy site, with the ranking factors combined. Because the ground truth of a given dataset is not known when it comes to ranking, we inject simulated data whose ranking results can be predicted into the real dataset and compare the ranking results of our algorithm with that of a previous HITS-based algorithm. Our semantic ranking algorithm based on the concept of mutual interaction seems to be preferable to the HITS-based algorithm as a flexible folksonomy ranking framework. Some concrete points of difference are as follows. First, with the time concept applied to the property weights, our algorithm shows superior performance in lowering the scores of older data and raising the scores of newer data. Second, applying the time concept to the expertise weights, as well as to the property weights, our algorithm controls the conflicting influence of expertise weights and enhances overall consistency of time-valued ranking. The expertise weights of the previous study can act as an obstacle to the time-valued ranking because the number of followers increases as time goes on. Third, many new properties and classes can be included in our framework. The previous HITS-based algorithm, based on the voting notion, loses ground in the situation where the domain consists of more than two classes, or where other important properties, such as "sent through twitter" or "registered as a friend," are added to the domain. Forth, there is a big difference in the calculation time and memory use between the two kinds of algorithms. While the matrix multiplication of two matrices, has to be executed twice for the previous HITS-based algorithm, this is unnecessary with our algorithm. In our ranking framework, various folksonomy ranking policies can be expressed with the ranking factors combined and our approach can work, even if the folksonomy site is not implemented with Semantic Web languages. Above all, the time weight proposed in this paper will be applicable to various domains, including social media, where time value is considered important.

기술적 의사소통능력의 하위요소 추출과 체제모형 구축 (Study on Extraction of Sub-element and Construction of System Model for the Technological Communication Skills)

  • 김주현;이용진
    • 대한공업교육학회지
    • /
    • 제40권1호
    • /
    • pp.105-120
    • /
    • 2015
  • 이 연구의 목적은 학습자의 의사소통능력을 향상시키기 위한 도구로서 사용될 기술적 의사소통능력의 하위요소 추출과 체제모형 구축에 있다. 연구의 목적을 달성하기 위해 기술적 의사소통능력 하위요소 추출 및 정의, 기술적 의사소통능력 체제 모형구축의 두 가지 단계로 진행하였다. 기술적 의사소통능력 하위요소 추출 및 정의 단계에서는, 기술적 의사소통능력과 관련된 요소를 포함하고 있는 기존의 설계과정 모형을 분석, 비교하고, 기술적 의사소통능력 하위요소를 추출하여 전문가 검증하였다. 다음으로 '기술적 의사소통능력'과 그 하위요소에 대한 정의를 하였다. 기술적 의사소통능력 체제 모형 구축 단계에서는, 기술적 의사소통능력 하위요소와 관련 문헌에 대한 연구를 통해 기술적 의사소통능력 체제 모형을 구축하여 전문가 검증하였다. 이러한 연구과정을 통해 얻은 결과는 다음과 같다. 첫째, 기술적 의사소통능력의 하위요소는 이미지, 스케치, 순서도, 설계도, 원형제작, 기호 표 그래프, 프레젠테이션이 추출되었다. 둘째, 기술적 의사소통능력을 '온라인 오프라인을 아우르는 협업 활동'을 기반으로, '기술적 의사소통 도구'를 사용하여, '교류를 통한 구상, 교류를 통한 구현, 교류를 통한 마무리'의 과정을 통해 길러지는 의사소통능력으로 정의하였다. 셋째, 기술적 의사소통능력은 교류를 통한 구상(이미지, 스케치, 순서도), 교류를 통한 구현(설계도, 원형제작), 교류를 통한 마무리(기호 표 그래프, 프레젠테이션)의 모든 과정이 협업을 기반으로 체제를 구성하고 있다. 넷째, 기존 의사소통능력 검사도구와 기술적 의사소통능력 체제모형을 기반으로 기술적 의사소통능력 검사 도구를 개발하고, 전문가 타당도 조사를 통해 개선하였다.

수학과 중등임용 이산수학 기출 문항 분석 (An Analysis on the Past Items of Discrete Mathematics in Secondary School Mathematics Teacher Certification Examination)

  • 김창일;전영주
    • 한국콘텐츠학회논문지
    • /
    • 제17권10호
    • /
    • pp.472-482
    • /
    • 2017
  • 본 연구에서는 최근 7개년(2011~2017학년도)의 수학교과내용학 기출문항 가운데 이산수학 문항을 분석대상 문항으로 분류하고, 수학과 임용시험 문항 분석틀을 기반으로 분류된 문항을 분석하였다. 그 결과 첫째, 한국교육과정평가원이 제시한 이산수학 평가 영역 및 평가 내용 요소가 고르게 출제될 필요가 있다. 둘째, 인지적 방법의 활용에 대한 전략적 지식인 메타인지적 지식(Metacognitive Knowledge)을 측정하는 문항도 출제되어야 한다. 셋째, 이산수학의 출제 비중은 문항 수로는 비율이 3.8%~6.8%이고, 배점에 따른 비율은 이 보다 낮은 2.2%~6.3% 사이로 출제되었다. 넷째, 모든 문항이 평가 목표에 적합하고 교육과정을 성실하게 이행한 예비 수학교사라면 해결 할 수 있도록 적정한 난도가 유지된 것으로 분석된다. 다섯째, 임용시험 문항과 각 사범대학 수학교육과에 개설된 이산수학 교육과정의 세는 방법, 점화관계와 생성함수, 그래프 등의 내용요소가 일치하고 있어 예비 교사의 학습 동기 부여에 기여하고 있다는 결론과 시사점을 얻었다.

후방 카메라 영상과 3차원 도로지도를 이용한 이동차량의 위치인식 (Localization of A Moving Vehicle using Backward-looking Camera and 3D Road Map)

  • 최성인;박순용
    • 전자공학회논문지
    • /
    • 제50권3호
    • /
    • pp.160-173
    • /
    • 2013
  • 본 논문에서는 실외 도로환경에서 주행하는 차량의 위치를 추정하기 위한 비쥬얼 오도메트리 기술을 제안한다. 제안하는 방법은 운전자의 이동계획에 따라 차량의 초기위치에서 원거리에 위치한 특정 목적지를 방문한 후 지나온 경로를 따라 다시 초기위치로 정확하게 복귀해야 하는 차량의 위치인식을 위해 사용된다. 위치인식에는 차량 전방의 3차원 정보획득을 위한 스테레오 카메라와 후방의 영상을 획득하는 단일 카메라를 사용한다. 차량이 목적지를 향해 순방향 주행할 때는 전방 스테레오 비쥬얼 오도메트리(stereo visual odometry)를 이용하여 이동차량의 위치를 추정하고 동시에 도로 및 주변 환경에 대한 3차원 전역지도를 그래프 구조로 생성한다. 차량이 목적지에 도달하여 복귀할 때는 후방의 단일 카메라에서 획득한 2차원 영상과 전역지도를 바탕으로 모노 비쥬얼 오도메트리(monocular visual odometry)로 위치를 추정한다. 복귀하는 차량의 위치를 정확하게 추정하기 위해서는 효과적인 전역지도의 노드 탐색방법이 요구된다. 후방 카메라의 영상 특징과 전역지도의 각 노드의 영상 특징을 정합하고 지도에 저장된 3차원 좌표를 이용하여 차량의 위치를 추정하였다. 또한 3차원 위치추정에 성공한 이전노드들의 정보를 바탕으로 매 영상 프레임마다 적응적으로 탐색영역을 확장하거나 줄이도록 하였다. 두 개의 서로 다른 경로에 대한 실험을 통하여 제안하는 방법의 성능을 검증하였다.

그래프와 부등식 영역의 소집단 그림그리기 활동에서 나타나는 수학에 대한 흥미변화 및 전략적 사고분석 -Grafeq 활용을 중심으로- (An analysis of changing interests in mathematics and strategic thinking reflected in small group drawing activities using graphs and inequations - With Grafeq software -)

  • 신인선;박경민
    • 한국수학교육학회지시리즈E:수학교육논문집
    • /
    • 제26권2호
    • /
    • pp.177-203
    • /
    • 2012
  • 중등교육과정에서 수학적 내용사이의 연결과 수학과 다른 학문 사이의 연결의 중요성이 강조되고 있다. 이에 본 연구에서는 미술과 수학이 모두 시 공간적 능력의 활용을 포함하는 학문이라는데 주목하여 그래프와 부품식 영역의 지도에서 활용 가능한 소집단 그림그리기 활동을 실시하였다. 일반계 고등학교 1학년 학생을 대상으로 실시한 소집단 그림그리기 활동과정에서 나타나는 학생들의 수학에 대한 흥미변화를 살펴보고자 하였으며, 학생의 전략적 사고의 촉진가능성을 살펴보고 그 구체적인 특정을 분석하는데 목적을 두었다. 연구 결과, 그래프를 활용한 소집단 그림그리기 활동은 학생들의 수학에 대한 흥미변화에 긍정적인 영향을 미쳤을 뿐만 아니라 활동과정에서 다양한 전략적 사고가 나타남으로써 이러한 활동이 고등사고활동인 전략적 사고를 촉진시키는데 효과적임을 알 수 있었다.

하이퍼레저 패브릭을 이용한 화물차 디지털 운행기록 단말기의 안전운행 보상시스템 구현 (Development of The Safe Driving Reward System for Truck Digital Tachograph using Hyperledger Fabric)

  • 김용배;백주용;김종원
    • 인터넷정보학회논문지
    • /
    • 제23권3호
    • /
    • pp.47-56
    • /
    • 2022
  • 본 논문의 안전운행 보상시스템은 안전운전을 수행한 차량운전자에게 직접적인 보상을 제공하여 안전운전의 동기를 부여하고 적극적 참여를 유도함으로써 사고의 발생을 줄여 생명과 재산의 손실을 줄이는데 목표가 있다. 기존의 디지털 운행기록계의 경우 차량의 운전상태를 기록만 하였으나, 안전운전보상시스템은 사고예방 효과를 높이기 위한 지원책으로서 안전운전을 수행한 경우 금전적 보상을 통해 위험운전을 피하고 안전운전을 하도록 유도하였다. 즉, 과속으로 인한 사고 발생 빈도가 높은 지역에서는 속도 준수, 또는 차 간 거리 유지, 지정차로 운행 등의 안전운행 지시를 수행한 경우 직접적인 보상을 제공함으로써 안전운전 동기를 부여하여 교통사고를 예방하고자 한다. 이러한 안전운행 데이터와 보상내용은 투명하고 안전하게 관리되어야 하므로 보상근거와 보상내용을 폐쇄형 블록체인 하이퍼레저 패브릭을 이용하여 구축하였다. 그러나 블록체인 시스템은 투명성과 안전성이 보장되는 반면에 낮은 데이터 처리속도가 문제가 되므로 이를 개선하고자 블록생성 가속 기능을 구현하였다. 본 연구에서는 순차적으로 블록을 생성하는 속도가 10TPS(Transaction per second) 내외의 낮은 속도를 나타내어, 블록의 생성속도를 높이기 위해 가속 기능을 적용한 결과 1,000TPS 이상의 고성능 네트워크를 구현하였다.

토픽 모델링을 이용한 트위터 이슈 트래킹 시스템 (Twitter Issue Tracking System by Topic Modeling Techniques)

  • 배정환;한남기;송민
    • 지능정보연구
    • /
    • 제20권2호
    • /
    • pp.109-122
    • /
    • 2014
  • 현재 우리는 소셜 네트워크 서비스(Social Network Service, 이하 SNS) 상에서 수많은 데이터를 만들어 내고 있다. 특히, 모바일 기기와 SNS의 결합은 과거와는 비교할 수 없는 대량의 데이터를 생성하면서 사회적으로도 큰 영향을 미치고 있다. 이렇게 방대한 SNS 데이터 안에서 사람들이 많이 이야기하는 이슈를 찾아낼 수 있다면 이 정보는 사회 전반에 걸쳐 새로운 가치 창출을 위한 중요한 원천으로 활용될 수 있다. 본 연구는 이러한 SNS 빅데이터 분석에 대한 요구에 부응하기 위해, 트위터 데이터를 활용하여 트위터 상에서 어떤 이슈가 있었는지 추출하고 이를 웹 상에서 시각화 하는 트위터이슈 트래킹 시스템 TITS(Twitter Issue Tracking System)를 설계하고 구축 하였다. TITS는 1) 일별 순위에 따른 토픽 키워드 집합 제공 2) 토픽의 한달 간 일별 시계열 그래프 시각화 3) 토픽으로서의 중요도를 점수와 빈도수에 따라 Treemap으로 제공 4) 키워드 검색을 통한 키워드의 한달 간 일별 시계열 그래프 시각화의 기능을 갖는다. 본 연구는 SNS 상에서 실시간으로 발생하는 빅데이터를 Open Source인 Hadoop과 MongoDB를 활용하여 분석하였고, 이는 빅데이터의 실시간 처리가 점점 중요해지고 있는 현재 매우 주요한 방법론을 제시한다. 둘째, 문헌정보학 분야뿐만 아니라 다양한 연구 영역에서 사용하고 있는 토픽 모델링 기법을 실제 트위터 데이터에 적용하여 스토리텔링과 시계열 분석 측면에서 유용성을 확인할 수 있었다. 셋째, 연구 실험을 바탕으로 시각화와 웹 시스템 구축을 통해 실제 사용 가능한 시스템으로 구현하였다. 이를 통해 소셜미디어에서 생성되는 사회적 트렌드를 마이닝하여 데이터 분석을 통한 의미 있는 정보를 제공하는 실제적인 방법을 제시할 수 있었다는 점에서 주요한 의의를 갖는다. 본 연구는 JSON(JavaScript Object Notation) 파일 포맷의 1억 5천만개 가량의 2013년 3월 한국어 트위터 데이터를 실험 대상으로 한다.

유사도 알고리즘을 활용한 시맨틱 프로세스 검색방안 (Semantic Process Retrieval with Similarity Algorithms)

  • 이홍주
    • Asia pacific journal of information systems
    • /
    • 제18권1호
    • /
    • pp.79-96
    • /
    • 2008
  • One of the roles of the Semantic Web services is to execute dynamic intra-organizational services including the integration and interoperation of business processes. Since different organizations design their processes differently, the retrieval of similar semantic business processes is necessary in order to support inter-organizational collaborations. Most approaches for finding services that have certain features and support certain business processes have relied on some type of logical reasoning and exact matching. This paper presents our approach of using imprecise matching for expanding results from an exact matching engine to query the OWL(Web Ontology Language) MIT Process Handbook. MIT Process Handbook is an electronic repository of best-practice business processes. The Handbook is intended to help people: (1) redesigning organizational processes, (2) inventing new processes, and (3) sharing ideas about organizational practices. In order to use the MIT Process Handbook for process retrieval experiments, we had to export it into an OWL-based format. We model the Process Handbook meta-model in OWL and export the processes in the Handbook as instances of the meta-model. Next, we need to find a sizable number of queries and their corresponding correct answers in the Process Handbook. Many previous studies devised artificial dataset composed of randomly generated numbers without real meaning and used subjective ratings for correct answers and similarity values between processes. To generate a semantic-preserving test data set, we create 20 variants for each target process that are syntactically different but semantically equivalent using mutation operators. These variants represent the correct answers of the target process. We devise diverse similarity algorithms based on values of process attributes and structures of business processes. We use simple similarity algorithms for text retrieval such as TF-IDF and Levenshtein edit distance to devise our approaches, and utilize tree edit distance measure because semantic processes are appeared to have a graph structure. Also, we design similarity algorithms considering similarity of process structure such as part process, goal, and exception. Since we can identify relationships between semantic process and its subcomponents, this information can be utilized for calculating similarities between processes. Dice's coefficient and Jaccard similarity measures are utilized to calculate portion of overlaps between processes in diverse ways. We perform retrieval experiments to compare the performance of the devised similarity algorithms. We measure the retrieval performance in terms of precision, recall and F measure? the harmonic mean of precision and recall. The tree edit distance shows the poorest performance in terms of all measures. TF-IDF and the method incorporating TF-IDF measure and Levenshtein edit distance show better performances than other devised methods. These two measures are focused on similarity between name and descriptions of process. In addition, we calculate rank correlation coefficient, Kendall's tau b, between the number of process mutations and ranking of similarity values among the mutation sets. In this experiment, similarity measures based on process structure, such as Dice's, Jaccard, and derivatives of these measures, show greater coefficient than measures based on values of process attributes. However, the Lev-TFIDF-JaccardAll measure considering process structure and attributes' values together shows reasonably better performances in these two experiments. For retrieving semantic process, we can think that it's better to consider diverse aspects of process similarity such as process structure and values of process attributes. We generate semantic process data and its dataset for retrieval experiment from MIT Process Handbook repository. We suggest imprecise query algorithms that expand retrieval results from exact matching engine such as SPARQL, and compare the retrieval performances of the similarity algorithms. For the limitations and future work, we need to perform experiments with other dataset from other domain. And, since there are many similarity values from diverse measures, we may find better ways to identify relevant processes by applying these values simultaneously.