With the abundance of digital contents, the necessity of precise indexing technology is consistently required. To meet these requirements, the intelligent software entity needs to be the subject of information retrieval and the interoperability among intelligent entities including human must be supported. In this paper, we analyze the unifying framework for multi-modality indexing that Snoek and Worring proposed. Our work investigates the method of improving the authenticity of indexing information in contents-based automated indexing techniques. It supports the creation and control of abstracted high-level indexing information through ontological concepts of Semantic Web skills. Moreover, it attempts to present the fundamental model that allows interoperability between human and machine and between machine and machine. The memory-residence model of processing ontology is inappropriate in order to take-in an enormous amount of indexing information. The use of ontology repository and inference engine is required for consistent retrieval and reasoning of logically expressed knowledge. Our work presents an experiment for storing and retrieving the designed knowledge by using the Minerva ontology repository, which demonstrates satisfied techniques and efficient requirements. At last, the efficient indexing possibility with related research is also considered.
Journal of the Korea Academia-Industrial cooperation Society
/
v.18
no.3
/
pp.72-77
/
2017
This paper focuses on the development of a supporting S/W tool for the automated design of an automotive press trim die. To define the die design process based on automation, we analyze the press die design process of the current industry and group repetitive works in the 3D modeling process. The proposed system consists of two modules, namely the template models of the trim steel parts and UI function for their auto-positioning. Four kinds of template models are developed to adapt to various situations and the rules of the interaction formula which are used for checking and correcting the directions of the datum point, datum curve, datum plane are implemented to eliminate errors. The system was developed using CATIA Knowledgeware, CAA(CATIA SDK) and Visual C++, in order for it to function as a plug-in module of CATIA V5, which is one of the major 3D CAD systems in the manufacturing industry. The developed system was tested by applying it to various panels of current automobiles and the results showed that it reduces the time-cost by 74% compared to the traditional method.
Purpose: This study aimed to assess the reliability of measurements performed on three-dimensional (3D) virtual models of maxillary defects obtained using cone-beam computed tomography (CBCT) and 3D optical scanning. Materials and Methods: Mechanical cavities simulating maxillary defects were prepared on the hard palate of nine cadavers. Images were obtained using a CBCT unit at three different fields-of-views (FOVs) and voxel sizes: 1) $60{\times}60mm$ FOV, $0.125mm^3$ ($FOV_{60}$); 2) $80{\times}80mm$ FOV, $0.160mm^3$ ($FOV_{80}$); and 3) $100{\times}100mm$ FOV, $0.250mm^3$ ($FOV_{100}$). Superimposition of the images was performed using software called VRMesh Design. Automated volume measurements were conducted, and differences between surfaces were demonstrated. Silicon impressions obtained from the defects were also scanned with a 3D optical scanner. Virtual models obtained using VRMesh Design were compared with impressions obtained by scanning silicon models. Gold standard volumes of the impression models were then compared with CBCT and 3D scanner measurements. Further, the general linear model was used, and the significance was set to p=0.05. Results: A comparison of the results obtained by the observers and methods revealed the p values to be smaller than 0.05, suggesting that the measurement variations were caused by both methods and observers along with the different cadaver specimens used. Further, the 3D scanner measurements were closer to the gold standard measurements when compared to the CBCT measurements. Conclusion: In the assessment of artificially created maxillary defects, the 3D scanner measurements were more accurate than the CBCT measurements.
Journal of Korean Society for Geospatial Information Science
/
v.4
no.1
s.6
/
pp.115-119
/
1996
odel). One of important tasks for hydrological analysis is the division of watershed. It can be an essential factor amThe main objective of this study is to extract of the geometric characteristics of the Pyongchang River basin, headwaters of the South Ran River. A GIS is capable of extracting various hydrological factors from DEM(digital elevation mong various geometric characteristics of watershed. In this study, watershed itself and other geometric factors of watershed are extracted from DEM by using a GIS technique. The manual process of tasks to obtain geometric characteristics of watershed is automated. by using the function of ARC/INFO software as a GIS package. Scanned data is used for this study and it is converted to DEM data Various forms of representation of spatial data are handled in main modules and a GRID module of ARC/INFO. A GRID module is used on a stream in order to define watershed boundary, so it would be possible to obtain the watersheds. Also, a flowdirection, stream networks and others are generated. The results show that GIS can aid watershed management and research and surveillance. Also the geometric characteristics as parameters of watershed can be quantified by a using GIS technique. Resonable results can be obtained as compared with conventional graphic methods.
Journal of Advanced Marine Engineering and Technology
/
v.40
no.5
/
pp.418-428
/
2016
In this study, a Vessel Shore Report Management System (VSRMS) is developed for the International Maritime Organization (IMO), Maritime Service Portfolio (MSP) Number 8, which comprises vessel shore reporting. Several documents have to be completed before the arrival/departure of a vessel at a port, as each national port has its own reporting format and data. The present vessel reporting system is inefficient, time-consuming, and involves excessive paperwork, which results in duplications and errors. To solve this problem, in this study, the vessel reporting formats and data contents of various national ports are investigated, as at present, the reporting documents required by the current IMO standard includes insufficient information which is requested by national ports. Initially, the vessel reporting information of various national ports are collected and analyzed. Subsequently, a database structure for managing vessel reporting data for ports worldwide is devised. To make the transfer of data and the exchange of information of vessel reports much more reliable, efficient, and paper-free, VSRMS, which is a software application for the simplification and facilitation of vessel report formalities, is developed. This application is developed using the latest Microsoft C#.Net Programming Language in the Microsoft Visual Studio framework 4.5. It provides a user interface and a backend MySQL server used for database management. SAP Crystal Reports 2013 is used for designing and generating vessel reports in the original report formats. The VSRMS can facilitate vessel reporting and improve data accuracy through the reduction of input data, efficient data exchange, and reduction of the cost of communication. Adoption of the VSRMS will allow the vessel shore reporting system to be automated, resulting in enhanced work efficiency for shipping companies. Based on this information system and architecture, the consensus of various international organizations, such as the IMO, the International Association of Marine Aids to Navigation and Lighthouse Authorities (IALA), the Federation of National Associations of Ship Brokers and Agents (FONASBA), and the Baltic and International Maritime Council (BIMCO), is required so that vessel reporting is standardized internationally.
Deep Ecliptic Patrol of the Southern Sky (DEEP-South) observation is being made during the off-season for exoplanet survey, using Korea Microlensing Telescope Network (KMTNet). An optimal combination of its prime focus optics and the 0.3 billion pixel CCD provides a four square degrees field of view with 0.4 arcsec/pixel plate scale which is also best suited for small body studies. Normal operation of KMTNet started in October 2015, and a significant portion of the allocated telescope time for DEEP-South is dedicated to targeted observation, Opposition Census (OC), of near-Earth asteroids for physical and taxonomic characterization. This is effectively achieved through multiband, time series photometry using Johnson-Cousins BVRI filters. Uninterrupted monitoring of the southern sky with KMTNet is optimized for spin characterization of a broad spectrum of asteroids ranging from the near-Earth space to the main-belt, including binaries, asteroids with satellites, slow/fast- and non-principal axis-rotators, and thus is expected to facilitate the debiasing of previously reported lightcurve observations. Our software subsystem consists of an automated observation scheduler, a pipelined data processing system for differential photometry, and an easy-to-use lightcurve analysis toolkit. Lightcurves, spin periods and provisional determination of class of asteroids to which the lightcurve belongs will be presented, using the dataset from first year operation of KMTNet. Our new taxonomic classification scheme for asteroids will also be summarized.
RFID, Radio Frequency Identification, is a technology of automated identification replacing bar-code. RFID technology has advantages that it recognizes fast and it is strong to contamination using wireless communication. However, there are difficult problems that should be solved for popularization of RFID. Among of these, tag anti-collision problem is dealed in this paper. It affected the performance of RFID system directly. This paper analyzes conventional algorithms and proposes new algorithms of tag anti-collision. The algorithm proposed was composed of appropriate properties to each phase of distribution and recognition as hybrid between ALOHA-based algorithm and QT-based algorithm. At phase of distribution, the number of tags recognizing at a frame was reduced using ALOHA-based algorithm. It addressed the delay problem because of deep depth of tree. At phase of recognition, it solved ALOHA-based chronic problem that couldn't recognize all the tags sometimes. Moreover, QTR algorithm that recognize by reversed tag IDs was adopted for the performance. The FQTR algorithm proposed in this paper showed brilliant performance as compared with convention algorithms by simulation.
In this paper, we propose a design method and process for hardware and software of hybrid V2X communication module that supports both C-ITS communication protocol designed for vehicle environment and Legacy LTE communication technology. C-ITS is suitable for safety service applications due to its low latency characteristics, and Legacy LTE is a technology suitable for non-safety applications such as traffic information and infotainment due to high latency and high capacity. The hybrid V2X communication module supports multiple communication technologies of WAVE and LTE, in which WAVE supports multiple channels, so that it is designed to transmit road information such as LDM and positioning correction information to an autonomous vehicle in real time. The main design results presented in this paper will be applied to the implementation of future hybrid V2X communication terminals for vehicles.
KIPS Transactions on Software and Data Engineering
/
v.9
no.2
/
pp.53-60
/
2020
Sentiment analysis is the automated process of understanding attitudes and opinions about a given topic from written or spoken text. One of the sentiment analysis approaches is a dictionary-based approach, in which a sentiment dictionary plays an much important role. In this paper, we propose a method to automatically generate Korean sentiment lexicon from the well-known English sentiment lexicon called VADER (Valence Aware Dictionary and sEntiment Reasoner). The proposed method consists of three steps. The first step is to build a Korean-English bilingual lexicon using a Korean-English parallel corpus. The bilingual lexicon is a set of pairs between VADER sentiment words and Korean morphemes as candidates of Korean sentiment words. The second step is to construct a bilingual words graph using the bilingual lexicon. The third step is to run the label propagation algorithm throughout the bilingual graph. Finally a new Korean sentiment lexicon is generated by repeatedly applying the propagation algorithm until the values of all vertices converge. Empirically, the dictionary-based sentiment classifier using the Korean sentiment lexicon outperforms machine learning-based approaches on the KMU sentiment corpus and the Naver sentiment corpus. In the future, we will apply the proposed approach to generate multilingual sentiment lexica.
KIPS Transactions on Software and Data Engineering
/
v.9
no.4
/
pp.145-152
/
2020
MRC (Machine reading comprehension) is the AI NLP task that predict the answer for user's query by understanding of the relevant document and which can be used in automated consult services such as chatbots. Recently, the BERT (Pre-training of Deep Bidirectional Transformers for Language Understanding) model, which shows high performance in various fields of natural language processing, have two phases. First phase is Pre-training the big data of each domain. And second phase is fine-tuning the model for solving each NLP tasks as a prediction. In this paper, we have made the Patent MRC dataset and shown that how to build the patent consultation training data for MRC task. And we propose the method to improve the performance of the MRC task using the Pre-trained Patent-BERT model by the patent consultation corpus and the language processing algorithm suitable for the machine learning of the patent counseling data. As a result of experiment, we show that the performance of the method proposed in this paper is improved to answer the patent counseling query.
본 웹사이트에 게시된 이메일 주소가 전자우편 수집 프로그램이나
그 밖의 기술적 장치를 이용하여 무단으로 수집되는 것을 거부하며,
이를 위반시 정보통신망법에 의해 형사 처벌됨을 유념하시기 바랍니다.
[게시일 2004년 10월 1일]
이용약관
제 1 장 총칙
제 1 조 (목적)
이 이용약관은 KoreaScience 홈페이지(이하 “당 사이트”)에서 제공하는 인터넷 서비스(이하 '서비스')의 가입조건 및 이용에 관한 제반 사항과 기타 필요한 사항을 구체적으로 규정함을 목적으로 합니다.
제 2 조 (용어의 정의)
① "이용자"라 함은 당 사이트에 접속하여 이 약관에 따라 당 사이트가 제공하는 서비스를 받는 회원 및 비회원을
말합니다.
② "회원"이라 함은 서비스를 이용하기 위하여 당 사이트에 개인정보를 제공하여 아이디(ID)와 비밀번호를 부여
받은 자를 말합니다.
③ "회원 아이디(ID)"라 함은 회원의 식별 및 서비스 이용을 위하여 자신이 선정한 문자 및 숫자의 조합을
말합니다.
④ "비밀번호(패스워드)"라 함은 회원이 자신의 비밀보호를 위하여 선정한 문자 및 숫자의 조합을 말합니다.
제 3 조 (이용약관의 효력 및 변경)
① 이 약관은 당 사이트에 게시하거나 기타의 방법으로 회원에게 공지함으로써 효력이 발생합니다.
② 당 사이트는 이 약관을 개정할 경우에 적용일자 및 개정사유를 명시하여 현행 약관과 함께 당 사이트의
초기화면에 그 적용일자 7일 이전부터 적용일자 전일까지 공지합니다. 다만, 회원에게 불리하게 약관내용을
변경하는 경우에는 최소한 30일 이상의 사전 유예기간을 두고 공지합니다. 이 경우 당 사이트는 개정 전
내용과 개정 후 내용을 명확하게 비교하여 이용자가 알기 쉽도록 표시합니다.
제 4 조(약관 외 준칙)
① 이 약관은 당 사이트가 제공하는 서비스에 관한 이용안내와 함께 적용됩니다.
② 이 약관에 명시되지 아니한 사항은 관계법령의 규정이 적용됩니다.
제 2 장 이용계약의 체결
제 5 조 (이용계약의 성립 등)
① 이용계약은 이용고객이 당 사이트가 정한 약관에 「동의합니다」를 선택하고, 당 사이트가 정한
온라인신청양식을 작성하여 서비스 이용을 신청한 후, 당 사이트가 이를 승낙함으로써 성립합니다.
② 제1항의 승낙은 당 사이트가 제공하는 과학기술정보검색, 맞춤정보, 서지정보 등 다른 서비스의 이용승낙을
포함합니다.
제 6 조 (회원가입)
서비스를 이용하고자 하는 고객은 당 사이트에서 정한 회원가입양식에 개인정보를 기재하여 가입을 하여야 합니다.
제 7 조 (개인정보의 보호 및 사용)
당 사이트는 관계법령이 정하는 바에 따라 회원 등록정보를 포함한 회원의 개인정보를 보호하기 위해 노력합니다. 회원 개인정보의 보호 및 사용에 대해서는 관련법령 및 당 사이트의 개인정보 보호정책이 적용됩니다.
제 8 조 (이용 신청의 승낙과 제한)
① 당 사이트는 제6조의 규정에 의한 이용신청고객에 대하여 서비스 이용을 승낙합니다.
② 당 사이트는 아래사항에 해당하는 경우에 대해서 승낙하지 아니 합니다.
- 이용계약 신청서의 내용을 허위로 기재한 경우
- 기타 규정한 제반사항을 위반하며 신청하는 경우
제 9 조 (회원 ID 부여 및 변경 등)
① 당 사이트는 이용고객에 대하여 약관에 정하는 바에 따라 자신이 선정한 회원 ID를 부여합니다.
② 회원 ID는 원칙적으로 변경이 불가하며 부득이한 사유로 인하여 변경 하고자 하는 경우에는 해당 ID를
해지하고 재가입해야 합니다.
③ 기타 회원 개인정보 관리 및 변경 등에 관한 사항은 서비스별 안내에 정하는 바에 의합니다.
제 3 장 계약 당사자의 의무
제 10 조 (KISTI의 의무)
① 당 사이트는 이용고객이 희망한 서비스 제공 개시일에 특별한 사정이 없는 한 서비스를 이용할 수 있도록
하여야 합니다.
② 당 사이트는 개인정보 보호를 위해 보안시스템을 구축하며 개인정보 보호정책을 공시하고 준수합니다.
③ 당 사이트는 회원으로부터 제기되는 의견이나 불만이 정당하다고 객관적으로 인정될 경우에는 적절한 절차를
거쳐 즉시 처리하여야 합니다. 다만, 즉시 처리가 곤란한 경우는 회원에게 그 사유와 처리일정을 통보하여야
합니다.
제 11 조 (회원의 의무)
① 이용자는 회원가입 신청 또는 회원정보 변경 시 실명으로 모든 사항을 사실에 근거하여 작성하여야 하며,
허위 또는 타인의 정보를 등록할 경우 일체의 권리를 주장할 수 없습니다.
② 당 사이트가 관계법령 및 개인정보 보호정책에 의거하여 그 책임을 지는 경우를 제외하고 회원에게 부여된
ID의 비밀번호 관리소홀, 부정사용에 의하여 발생하는 모든 결과에 대한 책임은 회원에게 있습니다.
③ 회원은 당 사이트 및 제 3자의 지적 재산권을 침해해서는 안 됩니다.
제 4 장 서비스의 이용
제 12 조 (서비스 이용 시간)
① 서비스 이용은 당 사이트의 업무상 또는 기술상 특별한 지장이 없는 한 연중무휴, 1일 24시간 운영을
원칙으로 합니다. 단, 당 사이트는 시스템 정기점검, 증설 및 교체를 위해 당 사이트가 정한 날이나 시간에
서비스를 일시 중단할 수 있으며, 예정되어 있는 작업으로 인한 서비스 일시중단은 당 사이트 홈페이지를
통해 사전에 공지합니다.
② 당 사이트는 서비스를 특정범위로 분할하여 각 범위별로 이용가능시간을 별도로 지정할 수 있습니다. 다만
이 경우 그 내용을 공지합니다.
제 13 조 (홈페이지 저작권)
① NDSL에서 제공하는 모든 저작물의 저작권은 원저작자에게 있으며, KISTI는 복제/배포/전송권을 확보하고
있습니다.
② NDSL에서 제공하는 콘텐츠를 상업적 및 기타 영리목적으로 복제/배포/전송할 경우 사전에 KISTI의 허락을
받아야 합니다.
③ NDSL에서 제공하는 콘텐츠를 보도, 비평, 교육, 연구 등을 위하여 정당한 범위 안에서 공정한 관행에
합치되게 인용할 수 있습니다.
④ NDSL에서 제공하는 콘텐츠를 무단 복제, 전송, 배포 기타 저작권법에 위반되는 방법으로 이용할 경우
저작권법 제136조에 따라 5년 이하의 징역 또는 5천만 원 이하의 벌금에 처해질 수 있습니다.
제 14 조 (유료서비스)
① 당 사이트 및 협력기관이 정한 유료서비스(원문복사 등)는 별도로 정해진 바에 따르며, 변경사항은 시행 전에
당 사이트 홈페이지를 통하여 회원에게 공지합니다.
② 유료서비스를 이용하려는 회원은 정해진 요금체계에 따라 요금을 납부해야 합니다.
제 5 장 계약 해지 및 이용 제한
제 15 조 (계약 해지)
회원이 이용계약을 해지하고자 하는 때에는 [가입해지] 메뉴를 이용해 직접 해지해야 합니다.
제 16 조 (서비스 이용제한)
① 당 사이트는 회원이 서비스 이용내용에 있어서 본 약관 제 11조 내용을 위반하거나, 다음 각 호에 해당하는
경우 서비스 이용을 제한할 수 있습니다.
- 2년 이상 서비스를 이용한 적이 없는 경우
- 기타 정상적인 서비스 운영에 방해가 될 경우
② 상기 이용제한 규정에 따라 서비스를 이용하는 회원에게 서비스 이용에 대하여 별도 공지 없이 서비스 이용의
일시정지, 이용계약 해지 할 수 있습니다.
제 17 조 (전자우편주소 수집 금지)
회원은 전자우편주소 추출기 등을 이용하여 전자우편주소를 수집 또는 제3자에게 제공할 수 없습니다.
제 6 장 손해배상 및 기타사항
제 18 조 (손해배상)
당 사이트는 무료로 제공되는 서비스와 관련하여 회원에게 어떠한 손해가 발생하더라도 당 사이트가 고의 또는 과실로 인한 손해발생을 제외하고는 이에 대하여 책임을 부담하지 아니합니다.
제 19 조 (관할 법원)
서비스 이용으로 발생한 분쟁에 대해 소송이 제기되는 경우 민사 소송법상의 관할 법원에 제기합니다.
[부 칙]
1. (시행일) 이 약관은 2016년 9월 5일부터 적용되며, 종전 약관은 본 약관으로 대체되며, 개정된 약관의 적용일 이전 가입자도 개정된 약관의 적용을 받습니다.