• 제목/요약/키워드: In-memory

검색결과 10,122건 처리시간 0.039초

폭소노미 사이트를 위한 랭킹 프레임워크 설계: 시맨틱 그래프기반 접근 (A Folksonomy Ranking Framework: A Semantic Graph-based Approach)

  • 박현정;노상규
    • Asia pacific journal of information systems
    • /
    • 제21권2호
    • /
    • pp.89-116
    • /
    • 2011
  • In collaborative tagging systems such as Delicious.com and Flickr.com, users assign keywords or tags to their uploaded resources, such as bookmarks and pictures, for their future use or sharing purposes. The collection of resources and tags generated by a user is called a personomy, and the collection of all personomies constitutes the folksonomy. The most significant need of the folksonomy users Is to efficiently find useful resources or experts on specific topics. An excellent ranking algorithm would assign higher ranking to more useful resources or experts. What resources are considered useful In a folksonomic system? Does a standard superior to frequency or freshness exist? The resource recommended by more users with mere expertise should be worthy of attention. This ranking paradigm can be implemented through a graph-based ranking algorithm. Two well-known representatives of such a paradigm are Page Rank by Google and HITS(Hypertext Induced Topic Selection) by Kleinberg. Both Page Rank and HITS assign a higher evaluation score to pages linked to more higher-scored pages. HITS differs from PageRank in that it utilizes two kinds of scores: authority and hub scores. The ranking objects of these pages are limited to Web pages, whereas the ranking objects of a folksonomic system are somewhat heterogeneous(i.e., users, resources, and tags). Therefore, uniform application of the voting notion of PageRank and HITS based on the links to a folksonomy would be unreasonable, In a folksonomic system, each link corresponding to a property can have an opposite direction, depending on whether the property is an active or a passive voice. The current research stems from the Idea that a graph-based ranking algorithm could be applied to the folksonomic system using the concept of mutual Interactions between entitles, rather than the voting notion of PageRank or HITS. The concept of mutual interactions, proposed for ranking the Semantic Web resources, enables the calculation of importance scores of various resources unaffected by link directions. The weights of a property representing the mutual interaction between classes are assigned depending on the relative significance of the property to the resource importance of each class. This class-oriented approach is based on the fact that, in the Semantic Web, there are many heterogeneous classes; thus, applying a different appraisal standard for each class is more reasonable. This is similar to the evaluation method of humans, where different items are assigned specific weights, which are then summed up to determine the weighted average. We can check for missing properties more easily with this approach than with other predicate-oriented approaches. A user of a tagging system usually assigns more than one tags to the same resource, and there can be more than one tags with the same subjectivity and objectivity. In the case that many users assign similar tags to the same resource, grading the users differently depending on the assignment order becomes necessary. This idea comes from the studies in psychology wherein expertise involves the ability to select the most relevant information for achieving a goal. An expert should be someone who not only has a large collection of documents annotated with a particular tag, but also tends to add documents of high quality to his/her collections. Such documents are identified by the number, as well as the expertise, of users who have the same documents in their collections. In other words, there is a relationship of mutual reinforcement between the expertise of a user and the quality of a document. In addition, there is a need to rank entities related more closely to a certain entity. Considering the property of social media that ensures the popularity of a topic is temporary, recent data should have more weight than old data. We propose a comprehensive folksonomy ranking framework in which all these considerations are dealt with and that can be easily customized to each folksonomy site for ranking purposes. To examine the validity of our ranking algorithm and show the mechanism of adjusting property, time, and expertise weights, we first use a dataset designed for analyzing the effect of each ranking factor independently. We then show the ranking results of a real folksonomy site, with the ranking factors combined. Because the ground truth of a given dataset is not known when it comes to ranking, we inject simulated data whose ranking results can be predicted into the real dataset and compare the ranking results of our algorithm with that of a previous HITS-based algorithm. Our semantic ranking algorithm based on the concept of mutual interaction seems to be preferable to the HITS-based algorithm as a flexible folksonomy ranking framework. Some concrete points of difference are as follows. First, with the time concept applied to the property weights, our algorithm shows superior performance in lowering the scores of older data and raising the scores of newer data. Second, applying the time concept to the expertise weights, as well as to the property weights, our algorithm controls the conflicting influence of expertise weights and enhances overall consistency of time-valued ranking. The expertise weights of the previous study can act as an obstacle to the time-valued ranking because the number of followers increases as time goes on. Third, many new properties and classes can be included in our framework. The previous HITS-based algorithm, based on the voting notion, loses ground in the situation where the domain consists of more than two classes, or where other important properties, such as "sent through twitter" or "registered as a friend," are added to the domain. Forth, there is a big difference in the calculation time and memory use between the two kinds of algorithms. While the matrix multiplication of two matrices, has to be executed twice for the previous HITS-based algorithm, this is unnecessary with our algorithm. In our ranking framework, various folksonomy ranking policies can be expressed with the ranking factors combined and our approach can work, even if the folksonomy site is not implemented with Semantic Web languages. Above all, the time weight proposed in this paper will be applicable to various domains, including social media, where time value is considered important.

평점과 리뷰 텍스트 감성분석을 결합한 추천시스템 향상 방안 연구 (How to improve the accuracy of recommendation systems: Combining ratings and review texts sentiment scores)

  • 현지연;유상이;이상용
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.219-239
    • /
    • 2019
  • 개인에게 맞춤형 서비스를 제공하는 것이 중요해지면서 개인화 추천 시스템 관련 연구들이 끊임없이 이루어지고 있다. 추천 시스템 중 협업 필터링은 학계 및 산업계에서 가장 많이 사용되고 있다. 다만 사용자들의 평점 혹은 사용 여부와 같은 정량적인 정보에 국한하여 추천이 이루어져 정확도가 떨어진다는 문제가 제기되고 있다. 이와 같은 문제를 해결하기 위해 현재까지 많은 연구에서 정량적 정보 외에 다른 정보들을 활용하여 추천 시스템의 성능을 개선하려는 시도가 활발하게 이루어지고 있다. 리뷰를 이용한 감성 분석이 대표적이지만, 기존의 연구에서는 감성 분석의 결과를 추천 시스템에 직접적으로 반영하지 못한다는 한계가 있다. 이에 본 연구는 리뷰에 나타난 감성을 수치화하여 평점에 반영하는 것을 목표로 한다. 즉, 사용자가 직접 작성한 리뷰를 감성 수치화하여 정량적인 정보로 변환해 추천 시스템에 직접 반영할 수 있는 새로운 알고리즘을 제안한다. 이를 위해서는 정성적인 정보인 사용자들의 리뷰를 정량화 시켜야 하므로, 본 연구에서는 텍스트 마이닝의 감성 분석 기법을 통해 감성 수치를 산출하였다. 데이터는 영화 리뷰를 대상으로 하여 도메인 맞춤형 감성 사전을 구축하고, 이를 기반으로 리뷰의 감성점수를 산출한다. 본 논문에서 사용자 리뷰의 감성 수치를 반영한 협업 필터링이 평점만을 고려하는 전통적인 방식의 협업 필터링과 비교하여 우수한 정확도를 나타내는 것을 확인하였다. 이후 제안된 모델이 더 개선된 방식이라고 할 근거를 확보하기 위해 paired t-test 검증을 시도했고, 제안된 모델이 더 우수하다는 결론을 도출하였다. 본 연구에서는 평점만으로 사용자의 감성을 판단한 기존의 선행연구들이 가지는 한계를 극복하고자 리뷰를 수치화하여 기존의 평점 시스템보다 사용자의 의견을 더 정교하게 추천 시스템에 반영시켜 정확도를 향상시켰다. 이를 기반으로 추가적으로 다양한 분석을 시행한다면 추천의 정확도가 더 높아질 것으로 기대된다.

임플랜트 식립부위 형성시 골조직의 온도변화에 관한 연구 (A STUDY ON THE TEMPERATURE CHANGES OF BONE TISSUES DURING IMPLANT SITE PREPARATION)

  • 김평일;김영수;장경수;김창회
    • 대한치과보철학회지
    • /
    • 제40권1호
    • /
    • pp.1-17
    • /
    • 2002
  • The purpose of this study is to examine the possibility of thermal injury to bone tissues during an implant site preparation under the same condition as a typical clinical practice of $Br{\aa}nemark$ implant system. All the burs for $Br{\aa}nemark$ implant system were studied except the round bur The experiments involved 880 drilling cases : 50 cases for each of the 5 steps of NP, 5 steps of RP, and 7 steps of WP, all including srew tap, and 30 cases of 2mm twist drill. For precision drilling, a precision handpiece restraining system was developed (Eungyong Machinery Co., Korea). The system kept the drill parallel to the drilling path and allowed horizontal adjustment of the drill with as little as $1{\mu}m$ increment. The thermocouple insertion hole. that is 0.9mm in diameter and 8mm in depth, was prepared 0.2mm away from the tapping bur the last drilling step. The temperatures due to countersink, pilot drill, and other drills were measured at the surface of the bone, at the depths of 4mm and 8mm respectively. Countersink drilling temperature was measured by attaching the tip of a thermocouple at the rim of the countersink. To assure temperature measurement at the desired depths, 'bent-thermocouples' with their tips of 4 and 8mm bent at $120^{\circ}$ were used. The profiles of temperature variation were recorded continuously at one second interval using a thermometer with memory function (Fluke Co. U.S.A.) and 0.7mm thermocouples (Omega Co., U.S.A.). To simulate typical clinical conditions, 35mm square samples of bovine scapular bone were utilized. The samples were approximately 20mm thick with the cortical thickness on the drilling side ranging from 1 to 2mm. A sample was placed in a container of saline solution so that its lower half is submerged into the solution and the upper half exposed to the room air, which averaged $24.9^{\circ}C$. The temperature of the saline solution was maintained at $36.5^{\circ}C$ using an electric heater (J. O Tech Co., Korea). This experimental condition was similar to that of a patient s opened mouth. The study revealed that a 2mm twist drill required greatest attention. As a guide drill, a twist drill is required to bore through a 'virgin bone,' rather than merely enlarging an already drilled hole as is the case with other drills. This typically generates greater amount of heat. Furthermore, one tends to apply a greater pressure to overcome drilling difficulty, thus producing even greater amount heat. 150 experiments were conducted for 2mm twist drill. For 140 cases, drill pressure of 750g was sufficient, and 10 cases required additional 500 or 100g of drilling pressure. In case of the former. 3 of the 140 cases produced the temperature greater than $47^{\circ}C$, the threshold temperature of degeneration of bone tissue (1983. Eriksson et al.) which is also the reference temperature in this study. In each of the 10 cases requiring extra pressure, the temperature exceeded the reference temperature. More significantly, a surge of heat was observed in each of these cases This observations led to addtional 20 drilling experiments on dense bones. For 10 of these cases, the pressure of 1,250g was applied. For the other 10, 1.750g were applied. In each of these cases, it was also observed that the temperature rose abruptly far above the thresh old temperature of $47^{\circ}C$, sometimes even to 70 or $80^{\circ}C$. It was also observed that the increased drilling pressure influenced the shortening of drilling time more than the rise of drilling temperature. This suggests the desirability of clinically reconsidering application of extra pressures to prevent possible injury to bone tissues. An analysis of these two extra pressure groups of 1,250g and 1,750g revealed that the t-statistics for reduced amount of drilling time due to extra pressure and increased peak temperature due to the same were 10.80 and 2.08 respectively suggesting that drilling time was more influenced than temperature. All the subsequent drillings after the drilling with a 2mm twist drill did not produce excessive heat, i.e. the heat generation is at the same or below the body temperature level. Some of screw tap, pilot, and countersink showed negative correlation coefficients between the generated heat and the drilling time. indicating the more the drilling time, the lower the temperature. The study also revealed that the drilling time was increased as a function of frequency of the use of the drill. Under the drilling pressure of 750g, it was revealed that the drilling time for an old twist drill that has already drilled 40 times was 4.5 times longer than a new drill The measurement was taken for the first 10 drillings of a new drill and 10 drillings of an old drill that has already been used for 40 drillings. 'Test Statistics' of small samples t-test was 3.49, confirming that the used twist drills require longer drilling time than new ones. On the other hand, it was revealed that there was no significant difference in drilling temperature between the new drill and the old twist drill. Finally, the following conclusions were reached from this study : 1 Used drilling bur causes almost no change in drilling temperature but increase in drilling time through 50 drillings under the manufacturer-recommended cooling conditions and the drilling pressure of 750g. 2. The heat that is generated through drilling mattered only in the case of 2mm twist drills, the first drill to be used in bone drilling process for all the other drills there is no significant problem. 3. If the drilling pressure is increased when a 2mm twist drill reaches a dense bone, the temperature rises abruptly even under the manufacturer-recommended cooling conditions. 4. Drilling heat was the highest at the final moment of the drilling process.

트랜잭션 가중치 기반의 빈발 아이템셋 마이닝 기법의 성능분석 (Performance analysis of Frequent Itemset Mining Technique based on Transaction Weight Constraints)

  • 윤은일;편광범
    • 인터넷정보학회논문지
    • /
    • 제16권1호
    • /
    • pp.67-74
    • /
    • 2015
  • 최근, 아이템들의 가치를 고려한 빈발 아이템셋 마이닝 방법은 데이터 마이닝 분야에서 가장 중요한 이슈 중 하나로 활발히 연구되어왔다. 아이템들의 가치를 고려한 마이닝 기법들은 적용 방법에 따라 크게 가중화 빈발 아이템셋 마이닝, 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝, 유틸리티 아이템셋 마이닝으로 구분된다. 본 논문에서는 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝들에 대해 실증적인 분석을 수행한다. 일반적으로 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝 기법들은 데이터베이스 내 아이템들의 가치를 고려함으로써 트랜잭션 가중치를 계산한다. 또한, 그 기법들은 계산된 각 트랜잭션의 가중치를 바탕으로 가중화 빈발 아이템셋들을 마이닝 한다. 트랜잭션 가중치는 트랜잭션 내에 높은 가치의 아이템이 많이 포함 될수록 높은 값으로 나타나기 때문에 우리는 각 트랜잭션의 가중치의 분석을 통해 그 가치를 파악할 수 있다. 우리는 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝 기법 중에서 가장 유명한 알고리즘인 WIS와 WIT-FWIs, IT-FWIs-MODIFY, WIT-FWIs-DIFF의 장 단점을 분석하고 각각의 성능을 비교한다. WIS는 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝의 개념과 그 기법이 처음 제안된 알고리즘이며, 전통적인 빈발 아이템셋 마이닝 기법인 Apriori를 기반으로 하고 있다. 또 다른 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝 방법인 WIT-FWIs와 WIT-FWIs-MODIFY, WIT-FWIs-DIFF는 가중화된 빈발 아이템셋 마이닝을 더 효율적으로 수행하기 위해 격자구조(Lattice) 형태의 특별한 저장구조인 WIT-tree를 이용한다. WIT-tree의 각 노드에는 아이템셋 정보와 아이템셋이 포함된 트랜잭션의 ID들이 저장되며, 이 구조를 사용함으로써 아이템셋 마이닝 과정에서 발생되는 다수의 데이터베이스 스캔 과정이 감소된다. 특히, 전통적인 알고리즘들이 수많은 데이터베이스 스캔을 수행하는 반면에, 이 알고리즘들은 WIT-tree를 이용해 데이터베이스를 오직 한번만 읽음으로써 마이닝과정에서 발생 가능한 오버헤드 문제를 해결한다. 또한, 공통적으로 길이 N의 두 아이템셋을 이용해 길이 N+1의 새로운 아이템셋을 생성한다. 먼저, WIT-FWIs는 각 아이템셋이 동시에 발생되는 트랜잭션들의 정보를 활용하는 것이 특징이다. WIT-FWIs-MODIFY는 조합되는 아이템셋의 정보를 이용해 빈도수 계산에 필요한 연산을 줄인 알고리즘이다. WIT-FWIs-DIFF는 두 아이템셋 중 하나만 발생한 트랜잭션의 정보를 이용한다. 우리는 다양한 실험환경에서 각 알고리즘의 성능을 비교분석하기 위해 각 트랜잭션의 형태가 유사한 dense 데이터와 각 트랜잭션의 구성이 서로 다른 sparse 데이터를 이용해 마이닝 시간과 최대 메모리 사용량을 평가한다. 또한, 각 알고리즘의 안정성을 평가하기 위한 확장성 테스트를 수행한다. 결과적으로, dense 데이터에서는 WIT-FWIs와 WIT-FWIs-MODIFY가 다른 알고리즘들보다 좋은 성능을 보이고 sparse 데이터에서는 WIT-FWI-DIFF가 가장 좋은 효율성을 갖는다. WIS는 더 많은 연산을 수행하는 알고리즘을 기반으로 했기 때문에 평균적으로 가장 낮은 성능을 보인다.

감산사(甘山寺) 아미타불상(阿彌陁佛像)과 미륵보살상(彌勒菩薩像) 조상기(造像記)의 연구 (Dedicatory Inscriptions on the Amitabha Buddha and Maitreya Bodhisattva Sculptures of Gamsansa Temple)

  • 남동신
    • 미술자료
    • /
    • 제98권
    • /
    • pp.22-53
    • /
    • 2020
  • 본 논문에서는 감산사(甘山寺)의 아미타불상(阿彌陁佛像)과 미륵보살상(彌勒菩薩像)의 광배(光背)에 각각 새겨진 조상기(造像記)를 재검토함으로써, 통일신라기 불상을 대표하는 걸작이자 기준작인 두 상을 새롭게 이해하고자 하였다. 이를 요약하면 다음과 같다. 먼저 I장에서는 '근대적 발견' 이래 지난 100년간의 연구 성과를 네 시기로 나누어 검토한 다음, 필자의 새로운 관점과 방법론을 제시하였다. 이어서 II장에서는 기왕의 미륵보살상>아미타불상의 위차(位次)를 비판하고 조상기를 재검토한 후 두 상의 배치와 외관에 근거하여 아미타불상>미륵보살상의 위차가 옳음을 논증하였다. III장에서는 마지막까지 판독 불능으로 남았던 두 글자를 처음으로 판독하고, 이를 포함하여 기존에 의미가 불분명하였던 몇몇 구절을 새롭게 해석하였다. 아울러 아미타불상조상기와 미륵보살상조상기의 문장 구조를 비교하고 조상기의 찬자와 서자에 대하여 새로운 해석을 시도하였으며, 서체(書體) 연구는 앞으로의 과제로 남겨두었다. 끝으로 IV장에서는 조상기의 내용을 조상주(造像主)와 조상(造像) 및 발원(發願)으로 나누어 재검토하였다. 특히 필자는 '돌아가신 부모님을 위하여'라는 조상기의 구절이 상투적인 표현에 그치지 않고 실질적인 의미가 있음을 밝히고자 하였다. 결론적으로 말하자면 다음과 같다. 김지성(金志誠)이 돌아가신 부모를 모두 화장해서 동해 바닷가에 산골하였기 때문에, 나중에 부모를 추모하려 해도 그 마음을 의지할 물질적 표지(標識)가 없었다. 그래서 만년의 김지성은 감산전장(甘山田莊)을 희사하여 절로 삼고, 여기에 돌아가신 부모님을 위하여 돌로 각각 아미타불상과 미륵보살상을 조성하되, 부모님의 실제 모습을 투영하여 상(像)의 존용(尊容)을 사실적으로 조각하고 그 정혈(頂穴)에 부모의 상징물을 안치하였다고 해석하였다. 두 상 가운데 특히 미륵보살상은 관(冠)에 화불(化佛)이 있는 입상(立像)인데, 미술사학자들이 지적하였듯이, 이러한 도상(圖像)의 미륵보살상은 동아시아 불교조각사에서 그 유례를 찾아보기 어려워서, 도상적 특징만 본다면 십중팔구 관음보살상이라고 간주할 것이다. 반대로 조상기만 읽는 사람들에게는 의심할 여지없이 미륵보살상이다. 김지성은 돌아가신 어머니가 내세(來世)에는 도솔천에 상생(上生)하기를 기원하였기에 도솔천을 주재하는 미륵보살상을 만들기로 하되, 그 상에 자모(慈母)의 이미지를 투영하기 위하여 자비(慈悲)의 화신인 관음보살상의 도상을 취했던 것이다. 이것은 아미타불상도 마찬가지여서, 돌아가신 아버지의 극락왕생을 희구하여 아미타불상을 조성하되 모든 불교도의 자부(慈父)인 석가여래상의 도상을 차용하였다고 유추된다. 후대의 추모자들이 정면에서 상[Image]을 친견하고 뒤로 돌아가서 조상기[Text]를 읽었다면, 그들은 김지성의 부모님을 향한 추모의 마음에 깊이 공감하였을 것이다.

Bi-LSTM 기반의 한국어 감성사전 구축 방안 (KNU Korean Sentiment Lexicon: Bi-LSTM-based Method for Building a Korean Sentiment Lexicon)

  • 박상민;나철원;최민성;이다희;온병원
    • 지능정보연구
    • /
    • 제24권4호
    • /
    • pp.219-240
    • /
    • 2018
  • 감성사전은 감성 어휘에 대한 사전으로 감성 분석(Sentiment Analysis)을 위한 기초 자료로 활용된다. 이와 같은 감성사전을 구성하는 감성 어휘는 특정 도메인에 따라 감성의 종류나 정도가 달라질 수 있다. 예를 들면, '슬프다'라는 감성 어휘는 일반적으로 부정의 의미를 나타내지만 영화 도메인에 적용되었을 경우 부정의 의미를 나타내지 않는다. 그렇기 때문에 정확한 감성 분석을 수행하기 위해서는 특정 도메인에 알맞은 감성사전을 구축하는 것이 중요하다. 최근 특정 도메인에 알맞은 감성사전을 구축하기 위해 범용 감성 사전인 오픈한글, SentiWordNet 등을 활용한 연구가 진행되어 왔으나 오픈한글은 현재 서비스가 종료되어 활용이 불가능하며, SentiWordNet은 번역 간에 한국 감성 어휘들의 특징이 잘 반영되지 않는다는 문제점으로 인해 특정 도메인의 감성사전 구축을 위한 기초 자료로써 제약이 존재한다. 이 논문에서는 기존의 범용 감성사전의 문제점을 해결하기 위해 한국어 기반의 새로운 범용 감성사전을 구축하고 이를 KNU 한국어 감성사전이라 명명한다. KNU 한국어 감성사전은 표준국어대사전의 뜻풀이의 감성을 Bi-LSTM을 활용하여 89.45%의 정확도로 분류하였으며 긍정으로 분류된 뜻풀이에서는 긍정에 대한 감성 어휘를, 부정으로 분류된 뜻풀이에서는 부정에 대한 감성 어휘를 1-gram, 2-gram, 어구 그리고 문형 등 다양한 형태로 추출한다. 또한 다양한 외부 소스(SentiWordNet, SenticNet, 감정동사, 감성사전0603)를 활용하여 감성 어휘를 확장하였으며 온라인 텍스트 데이터에서 사용되는 신조어, 이모티콘에 대한 감성 어휘도 포함하고 있다. 이 논문에서 구축한 KNU 한국어 감성사전은 특정 도메인에 영향을 받지 않는 14,843개의 감성 어휘로 구성되어 있으며 특정 도메인에 대한 감성사전을 효율적이고 빠르게 구축하기 위한 기초 자료로 활용될 수 있다. 또한 딥러닝의 성능을 높이기 위한 입력 자질로써 활용될 수 있으며, 기본적인 감성 분석의 수행이나 기계 학습을 위한 대량의 학습 데이터 세트를 빠르게 구축에 활용될 수 있다.

Open Source를 이용한 MicroPACS의 구성과 활용 (Application of MicroPACS Using the Open Source)

  • 유연욱;김용근;김영석;원우재;김태성;김석기
    • 핵의학기술
    • /
    • 제13권1호
    • /
    • pp.51-56
    • /
    • 2009
  • 목적 : Small-scalled PACS, Pc-based PACS로 표현되는 MicroPACS 시스템 구축에 대한 관심도가 급격하게 증가하고 있는 추세이다. MicroPACS 시스템은 PACS를 작은 규모에서 사용할 수 있도록 구성해놓은 것이고, 이 시스템을 구성하기 위해서는 DICOM viewer나 연결프로그램 등이 필요하다. 이것은 공개소스프로그램(Open Source Program)을 통해서 어느 누구나 쉽게 무료로 다운로드를 받을 수 있게 되어있다. 본 논문은 Open source program으로 MicroPACS를 직접 구성해보았고, 저장매체로서의 활용가치를 측정하기위하여 성능, 안정성 측면에서 기존의 광 저장매체(CD, DVDRAM)와 비교 분석하였다. 실험재료 및 방법 : 1. 소형 PACS를 구축하기 위해서 먼저 다음 기준에 맞는 DICOM Server Software를 검색한다. (1) 윈도우체제에서 사용가능할 것. (2) Free ware일 것. (3) PET/CT scanner와 호환되어야 할 것. (4) 사용하기 쉬워야 할 것. (5) 저장의 한계가 없어야 할 것. 2. (1) MicroPACS의 성능을 평가하기 위해 환자 1명의 Data ($^{18}F$-FDG Torso PET/CT)를 현재 Back-up장치로 쓰이는 광 저장매체(CD, DVD-RAM)와 MicroPACS에 저장하는데 소요되는 시간(Back up time)과 workstation으로 복구되기까지의 시간(Retrieval time)을 비교해 보았다. (2) PET/CT 검사를 시행했던 환자 1명의 병록번호와 검사 시행날짜를 핵의학과 직원 7명을 대상으로 알려주고 Data를 찾는데 소요되는 시간을 MicroPACS와 광 저장매체(CD, DVD-RAM)에서 각각 측정하여 비교하였다. 3. 기존의 백업장치로 쓰였던 CD들 중에서 2004년부터 2006년까지 500장을 무작위로 뽑아서 loading을 하였고 그중에서 얼마만큼의 에러가 발생하였는지를 측정하여 MicroPACS의 안정성을 비교평가하였다. 결과 : 1. Server와 DICOM viewer 기능을 갖춘 11개의 open source software 중에서 Conquest DICOM Server를 선택하였다. 2. (1) Backup과 Retrieval 시간 비교(단위 : 분)는 다음과 같다; DVD-RAM(5.13,2.26)/Conquest DICOM Server (1.49,1.19) by GE DSTE (p<0.001), CD (6.12,3.61)/Conquest (0.82,2.23) by GE DLS (p<0.001), CD (5.88,3.25)/Conquest (1.05,2.06) by SIEMENS. (2) CD ($156{\pm}46$초), DVD-RAM ($115{\pm}21$초) and Conquest DICOM Server ($13{\pm}6$초). 3. 1년간 MicroPACS에서의 데이터손실은 없었으며(0%), 500장의 CD 중에서 14개(2.8%)가 Loading하는데 실패하였다. 결론 : 현재 많은 병원에서 도입되고 있는 Full PACS를 open source software를 통하여 소규모의 PACS로 재현해 보았고, 그 결과 가능하다는 결론이 나왔다. 데이터 저장의 유용성을 평가한 결과에서 MicroPACS를 이용하는 것이 기존의 광저장매체를 사용하는 것보다 효율적이고 작업속도가 향상 된다는 것을 확인할 수 있다.

  • PDF

관심 문자열 인식 기술을 이용한 가스계량기 자동 검침 시스템 (Automatic gasometer reading system using selective optical character recognition)

  • 이교혁;김태연;김우주
    • 지능정보연구
    • /
    • 제26권2호
    • /
    • pp.1-25
    • /
    • 2020
  • 본 연구에서는 모바일 기기를 이용하여 획득한 가스계량기 사진을 서버로 전송하고, 이를 분석하여 가스 사용량 및 계량기 기물 번호를 인식함으로써 가스 사용량에 대한 과금을 자동으로 처리할 수 있는 응용 시스템 구조를 제안하고자 한다. 모바일 기기는 일반인들이 사용하는 스마트 폰에 준하는 기기를 사용하였으며, 획득한 이미지는 가스 공급사의 사설 LTE 망을 통해 서버로 전송된다. 서버에서는 전송받은 이미지를 분석하여 가스계량기 기물 번호 및 가스 사용량 정보를 추출하고, 사설 LTE 망을 통해 분석 결과를 모바일 기기로 회신한다. 일반적으로 이미지 내에는 많은 종류의 문자 정보가 포함되어 있으나, 본 연구의 응용분야인 가스계량기 자동 검침과 같이 많은 종류의 문자 정보 중 특정 형태의 문자 정보만이 유용한 분야가 존재한다. 본 연구의 응용분야 적용을 위해서는 가스계량기 사진 내의 많은 문자 정보 중에서 관심 대상인 기물 번호 및 가스 사용량 정보만을 선별적으로 검출하고 인식하는 관심 문자열 인식 기술이 필요하다. 관심 문자열 인식을 위해 CNN (Convolutional Neural Network) 심층 신경망 기반의 객체 검출 기술을 적용하여 이미지 내에서 가스 사용량 및 계량기 기물번호의 영역 정보를 추출하고, 추출된 문자열 영역 각각에 CRNN (Convolutional Recurrent Neural Network) 심층 신경망 기술을 적용하여 문자열 전체를 한 번에 인식하였다. 본 연구에서 제안하는 관심문자열 기술 구조는 총 3개의 심층 신경망으로 구성되어 있다. 첫 번째는 관심 문자열 영역을 검출하는 합성곱신경망이고, 두 번째는 관심 문자열 영역 내의 문자열 인식을 위해 영역 내의 이미지를 세로 열 별로 특징 추출하는 합성곱 신경망이며, 마지막 세 번째는 세로 열 별로 추출된 특징 벡터 나열을 문자열로 변환하는 시계열 분석 신경망이다. 관심 문자열은 12자리 기물번호 및 4 ~ 5 자리 사용량이며, 인식 정확도는 각각 0.960, 0.864 이다. 전체 시스템은 Amazon Web Service 에서 제공하는 클라우드 환경에서 구현하였으며 인텔 제온 E5-2686 v4 CPU 및 Nvidia TESLA V100 GPU를 사용하였다. 1일 70만 건의 검침 요청을 고속 병렬 처리하기 위해 마스터-슬레이브 처리 구조를 채용하였다. 마스터 프로세스는 CPU 에서 구동되며, 모바일 기기로 부터의 검침 요청을 입력 큐에 저장한다. 슬레이브 프로세스는 문자열 인식을 수행하는 심층 신경망으로써, GPU에서 구동된다. 슬레이브 프로세스는 입력 큐에 저장된 이미지를 기물번호 문자열, 기물번호 위치, 사용량 문자열, 사용량 위치 등으로 변환하여 출력 큐에 저장한다. 마스터 프로세스는 출력 큐에 저장된 검침 정보를 모바일 기기로 전달한다.

중등교사 신규임용 후보자 선정 경쟁시험 가정과 교과교육학 출제 문항 분석 (An Analysis of the Home Economics Education Discipline Items in the Teacher Recruitment Examination for Secondary School)

  • 김성숙;채정현
    • 한국가정과교육학회지
    • /
    • 제19권3호
    • /
    • pp.149-168
    • /
    • 2007
  • 본 연구의 목적은 가정과 임용시험 문항 중에서 교과교육학 문항수준 즉, 문항의 출제비율, 문항형태, 문항의 행동영역, 내용의 포괄성의 분석을 통해 가정교과교육학 문항의 문제점을 파악하고 개선방안을 도출하는 데 있다. 이를 위하여 2001-2007 학년도까지의 가정과 임용시험 문항 중에서 교과교육학 문항을 대상으로 문항의 출제비율, 문항형태는 빈도와 비율을 통해, 문항의 행동영역, 내용의 포괄성은 내용분석방법을 통하여 분석하였다. 또한 가정교과교육학 문항의 개선방안을 제안하기 위하여 2001-2007 학년도까지의 과학군, 사회군 교과교육학 문항 중에서 사례문항을 추출하여 논의하였다. 본 연구의 결과를 종합하면 다음과 같다. 첫째, 가정교과교육학 문항의 출제비율은 2001-2004학년도까지 20-30%로 유동적이었으나 2005학년도 이후 30%로 고정적인 비율을 보였으며 가정교과교육학 각 하위영역의 출제비율은 교육과정(43%), 교수학습법(35%), 교육평가(19%), 교육철학(3%) 순이었다. 둘째, 가정교과교육학 문항형태는 2001-2004학년도까지 단독문항의 형태와 소문항을 포함한 형태의 문항이 양립하였으나 2005-2007학년도 문항형태는 100% 단독문항의 형태로 변화되었다. 셋째, 가정교과교육학 하위영역 문항의 출제내용을 살펴보면 다음과 같다. 교육과정 출제내용은 제7차 교육과정 해설서의 내용이 대부분이었고 교수학습법 출제내용은 특정 교수학습모형에 관한 내용이 주를 이뤘다 교육평가에 관한 문항의 출제내용은 수행평가에 관련된 내용이 주로 출제되었다. 마지막으로 가정과교육철학에 관한 문항은 2005학년도에 가정과 사명에 나타난 하버마스의 세 행동체계에 관한 내용이 유일하게 출제되었다. 넷째, 가정교과교육학 문항의 행동영역을 살펴보면 다음과 같다. 가정과교육과정 문항의 행동영역은 대다수의 문항이 '단순지식 또는 기억' 수준에 머물러 있어 구체적인 개선방안으로 교육과정의 내용을 조망하는 시각으로 이해하여 실제적 인 교육현장에서의 적용능력을 평가할 수 있는 '복합지식 또는 이해와 적용'의 행동영역을 제안하였다. 가정과교수학습법 문항의 행동영역은 대체로 '복합지식 또는 이해와 적용'으로 나타났으나 좀 더 발전적인 문항의 개선방안으로 특정 교수 학습법에 대한 개념과 원리의 이해만을 요하는 문항의 행동영역에서 좀 더 실제적인 수업상황에서 교수학습이론을 폭넓게 적용하는 '적용' 능력을 좀 더 요하는 문항의 행동영역을 제안하였다. 가정과교육평가 문항의 행동영역 역시 대체로 '복합지식 또는 이해와 적용'을 요하는 문항의 행동영역이라고 볼 수 있으나 좀 더 발전적인 문항으로의 개선방안으로 이론적인 내용의 '이해'만으로 해결할 수 있는 문항의 행동영역에서 가정과의 실제 수행평가 상황에 맞는 평가도구를 찾아 제작하고 활용할 수 있는 '적용' 능력을 요하는 문항의 행동영역을 제안하였다. 다섯째, 가정교과교육학 문항내용의 포괄성을 살펴보면 다음과 같다. 가정과교육과정 문항내용은 제7차 교육과정 문서상에 표면적으로 제시된 내용에 한정되어 있어 구체적인 개선방안으로 교육과정의 철학적 이론적 배경, 다양한 교육과정 원리를 활용하는 문항내용 등과 같이 좀 더 이론적이고 원론적인 내용으로의 확대를 제안하였다. 가정과교수학습법 문항내용은 특정 교수학습모형에 관련된 지식을 묻는 내용으로 주로 출제되었다. 이에 구체적인 개선방안으로 특정 교수학습모형의 이론적 토대가 되고 전체적인 교수설계를 하기 위한 기본 바탕이 될 수 있는 교수학습이론에 관한 내용, 또한 현재가정과교육에 있어서 유용한 교수학습법이라고 입증되고 있는 실천적 추론 가정과 수업에 관한 내용으로의 확대를 제안하였다. 가정과교육평가 문항의 출제는 대다수의 문항이 수행평가에 관한 문항내용으로 출제되었다. 이에 구체적인 개선방안으로 문항의 변별도 여부의 판단, 평가문항의 내용 타당도 분석, 평가결과를 해석하는 능력, 평가자의 철학적 관점과 같은 내용으로의 확대를 제안하였다.

  • PDF

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.