The priority of requirement is important because the priority is a critical activity of release plan especially in software development which has an open market customer. Also, it is important for stakeholders to select a method and aspects to prioritize requirements. The selection is based on the organizational experience of a priority process, the process model of the product, goals and a type of products, and dependencies between requirements. But, the current researches considered only static dependency between requirements and did not suggest a systematic priority process. In addition, the current researches only suggest limited aspects to prioritize requirements, such as cost and value. Therefore, this paper proposes an adjustable priority process based on a priority model to select a method and aspects for the suitable priority for product and organization. Especially, this paper enhances the completeness of a release plan by a definition of static and dynamic dependency types between requirements. This paper suggests a priority model, which considers the dependencies between requirement and various viewpoint of software development. Based on the priority model, the paper suggests a systematic priority process to promote reasonable decisions to the priority and release plan of requirement.
KIPS Transactions on Software and Data Engineering
/
v.3
no.1
/
pp.19-30
/
2014
For the expansion of the Semantic Web, studies in converting the data stored in the relational database into the ontology are actively in process. Such studies mainly use an RDB to RDF mapping model, the model to map relational database components to RDF components. However, pre-proposed mapping models have got different expression modes and these damage the accessibility and reusability of the users. As a consequence, the necessity of the standardized mapping language was raised and the W3C suggested the R2RML as the standard mapping language for the RDB to RDF model. The R2RML has a characteristic that converts only the relational database schema data to RDF. For the same reasons above, the ontology about the relation data between table name and column name of the relational database cannot be added. In this paper, we propose an RDB to RDF mapping system considering semantic relations of RDB components in order to solve the above issue. The proposed system generates the mapping data by adding the RDFS attribute data into the schema data defined by the R2RML in the relational database. This mapping data converts the data stored in the relational database into RDF which includes the RDFS attribute data. In this paper, we implement the proposed system as a Java-based prototype, perform the experiment which converts the data stored in the relational database into RDF for the comparison evaluation purpose and compare the results against D2RQ, RDBToOnto and Morph. The proposed system expresses semantic relations which has richer converted ontology than any other studies and shows the best performance in data conversion time.
Jin, Moon Yong;Park, Jong Bin;Lee, Dong Suk;Park, Dong Sun
KIPS Transactions on Software and Data Engineering
/
v.3
no.9
/
pp.361-368
/
2014
The LPR(License plate recognition) system has been developed to efficient control for complex traffic environment and currently be used in many places. However, because of light, noise, background changes, environmental changes, damaged plate, it only works limited environment, so it is difficult to use in real-time. This paper presents a heuristic segmentation algorithm for robust to noise and illumination changes and introduce a real-time license plate recognition system using it. In first step, We detect the plate utilized Haar-like feature and Adaboost. This method is possible to rapid detection used integral image and cascade structure. Second step, we determine the type of license plate with adaptive histogram equalization, bilateral filtering for denoise and segment accurate character based on adaptive threshold, pixel projection and associated with the prior knowledge. The last step is character recognition that used histogram of oriented gradients (HOG) and multi-layer perceptron(MLP) for number recognition and support vector machine(SVM) for number and Korean character classifier respectively. The experimental results show license plate detection rate of 94.29%, license plate false alarm rate of 2.94%. In character segmentation method, character hit rate is 97.23% and character false alarm rate is 1.37%. And in character recognition, the average character recognition rate is 98.38%. Total average running time in our proposed method is 140ms. It is possible to be real-time system with efficiency and robustness.
KIPS Transactions on Software and Data Engineering
/
v.2
no.8
/
pp.579-588
/
2013
This paper proposes an effective watermarking approach for copyright protection of fire video images. The proposed watermarking approach efficiently utilizes the inherent characteristics of fire data with respect to color and texture by using a gray level co-occurrence matrix (GLCM) and fuzzy c-means (FCM) clustering. GLCM is used to generate a texture feature dataset by computing energy and homogeneity properties for each candidate fire image block. FCM is used to segment color of the fire image and to select fire texture blocks for embedding watermarks. Each selected block is then decomposed into a one-level wavelet structure with four subbands [LL, LH, HL, HH] using a discrete wavelet transform (DWT), and LH subband coefficients with a gain factor are selected for embedding watermark, where the visibility of the image does not affect. Experimental results show that the proposed watermarking approach achieves about 48 dB of high peak-signal-to-noise ratio (PSNR) and 1.6 to 2.0 of low M-singular value decomposition (M-SVD) values. In addition, the proposed approach outperforms conventional image watermarking approach in terms of normalized correlation (NC) values against several image processing attacks including noise addition, filtering, cropping, and JPEG compression.
KIPS Transactions on Software and Data Engineering
/
v.2
no.8
/
pp.535-542
/
2013
Since case-based reasoning(CBR) has many advantages, it has been used for supporting decision making in various areas including medical checkup, production planning, customer classification, and so on. However, there are several factors to be set by heuristics when designing effective CBR systems. Among these factors, this study addresses the issue of selecting appropriate neighbors in case retrieval step. As the criterion for selecting appropriate neighbors, conventional studies have used the preset number of neighbors to combine(i.e. k of k-nearest neighbor), or the relative portion of the maximum similarity. However, this study proposes to use the absolute similarity threshold varying from 0 to 1, as the criterion for selecting appropriate neighbors to combine. In this case, too small similarity threshold value may make the model rarely produce the solution. To avoid this, we propose to adopt the coverage, which implies the ratio of the cases in which solutions are produced over the total number of the training cases, and to set it as the constraint when optimizing the similarity threshold. To validate the usefulness of the proposed model, we applied it to a real-world target marketing case of an online shopping mall in Korea. As a result, we found that the proposed model might significantly improve the performance of CBR.
KIPS Transactions on Software and Data Engineering
/
v.2
no.8
/
pp.507-516
/
2013
Mobile devices have limited computing power and resources. Since mobile devices are equipped with rich network connectivity, an approach to subscribe cloud services can effectively remedy the problem, which is called Mobile Cloud Computing (MCC). Most works on MCC depend on a method to offload functional components at runtime. However, these works only consider the limited verion of offloading to a pre-defined, designated node. Moveover, there is the limitation of managing services subscribed by applications. To provide a comprehensive and practical solution for MCC, in this paper, we propose a self-stabilizing process and its management-related methods. The proposed process is based on an autonomic computing paradigm and works with diverse quality remedy actions such as migration or replicating services. And, we devise a pratical offloading mechanism which is still in an initial stage of the study. The proposed offloading mechanism is based on our proposed MCC meta-model. By adopting the self-stabilization process for MCC, many of the technical issues are effectively resolved, and mobile cloud environments can maintain consistent levels of quality in autonomous manner.
KIPS Transactions on Software and Data Engineering
/
v.2
no.8
/
pp.517-526
/
2013
When developing an android mobile application the androids intent is used as a mechanism to send messages between local equipment of androids application inner part and other applications. But the androids intent does not support sending messages via each android products intent. If there is a way to support each androids equipments to send messages, it will be easier to make non-stopping services. Non-stopping service is used when the user is using the android to do word or searching services and suddenly changes to a different android product but still maintains the progress what was currently being done without waiting the programs to be loaded. It is possible to send messages to each android products by using the socket, but the connection must be maintained stably which is the weak point. In this paper, I am suggesting a BRIF(Broadcasting Remote Intent Framework) framework to send messages to different android products. BRIF is a framework that uses the Googles C2DM service which services asynchronous transmissions to different android products. This is organized with the C2DM server, RemoteContext Api, web server and RISP(Remote Intent Service Provider) which is will be easy to be used for the developers since there are no big changes for coding compared to the intent code.
KIPS Transactions on Computer and Communication Systems
/
v.6
no.3
/
pp.121-134
/
2017
With rapid increasing the development and use of IoT Devices, requirements for safe IoT devices and services such as reliability, security are also increasing. In Security engineering, SDLC (Secure Development Life Cycle) is applied to make the trustworthy system. Secure Development Life Cycle has 4 big steps, Security requirements, Design, Implementation and Operation and each step has own goals and activities. Deriving security requirements, the first step of SDLC, must be accurate and objective because it affect the rest of the SDLC. For accurate and objective security requirements, Threat modeling is used. And the results of the threat modeling can satisfy the completeness of scope of analysis and the traceability of threats. In many countries, academic and IT company, a lot of researches about drawing security requirements systematically are being done. But in domestic, awareness and researches about deriving security requirements systematically are lacking. So in this paper, I described about method and process to drawing security requirements systematically by using threat modeling including DFD, STRIDE, Attack Library and Attack Tree. And also security requirements are described via Common Criteria for delivering objective meaning and broad use of them.
Journal of the Korea Institute of Building Construction
/
v.20
no.1
/
pp.83-91
/
2020
The recent bridge construction projects is demanded more sophisticated risk management measures and loss forecasts to brace for risk losses from an increase in the trend of bridge construction. This study aims to analyze the risk factors that caused the loss of material in actual bridge construction and to develop a quantified predictive loss model, based on the past record of insurance payment by major domestic insurance companies for bridge construction projects. For the development of quantitative bridge construction loss model, the dependent variable was selected as the loss ratio, i.e., the ratio of insurance payout divided by the total project cost, while the independent variable adopted 1) Technical factors: superstructure type, foundation type, construction method, and bridge length 2) Natural hazards: typhoon and flood 3) Project information: construction period and total project cost. Among the selected independent variables, superstructure type, construction method, and project period were shown to affect the ratio of bridge construction losses. The results of this study can provide government agencies, bridge construction design and construction and insurance companies with the quantitative damage prediction and risk assessment services, using risk indicators and loss prediction functions derived from the findings of this study and can be used as a guideline for future basic bridge risk assessment development research.
In this paper, we propose a bidirectional full duplex MAC (Medium Access Control) protocol for underwater acoustic networks. An underwater sensor node can set a back-off timer according to the priority of transmission. When the back-off timer expires, the underwater sensor node acquires a transmission opportunity. If a source node wants to send data to a destination node, it broadcasts RTS (Request-To-Send) including ID of the destination node to neighbor nodes. The destination node receiving RTS sends CTS (Clear-To-Send) to the source node to inform the bidirectional full duplex communication. After the source node receives CTS, the source node and the destination node can send the data to each other. In the underwater environment, the existing MAC protocol may take a lot of time for successful transmission of data due to long underwater propagation delay. On the other hand, the proposed bidirectional full duplex MAC protocol improves the throughput by shortening the time for successful transmission of data. In this paper, we analyze the throughput of the proposed bidirectional full duplex MAC protocol. In addition, we show that the proposed bidirectional full duplex MAC protocol has better performance in the presence of the long underwater propagation delay compared with existing MAC protocols for underwater environments.
본 웹사이트에 게시된 이메일 주소가 전자우편 수집 프로그램이나
그 밖의 기술적 장치를 이용하여 무단으로 수집되는 것을 거부하며,
이를 위반시 정보통신망법에 의해 형사 처벌됨을 유념하시기 바랍니다.
[게시일 2004년 10월 1일]
이용약관
제 1 장 총칙
제 1 조 (목적)
이 이용약관은 KoreaScience 홈페이지(이하 “당 사이트”)에서 제공하는 인터넷 서비스(이하 '서비스')의 가입조건 및 이용에 관한 제반 사항과 기타 필요한 사항을 구체적으로 규정함을 목적으로 합니다.
제 2 조 (용어의 정의)
① "이용자"라 함은 당 사이트에 접속하여 이 약관에 따라 당 사이트가 제공하는 서비스를 받는 회원 및 비회원을
말합니다.
② "회원"이라 함은 서비스를 이용하기 위하여 당 사이트에 개인정보를 제공하여 아이디(ID)와 비밀번호를 부여
받은 자를 말합니다.
③ "회원 아이디(ID)"라 함은 회원의 식별 및 서비스 이용을 위하여 자신이 선정한 문자 및 숫자의 조합을
말합니다.
④ "비밀번호(패스워드)"라 함은 회원이 자신의 비밀보호를 위하여 선정한 문자 및 숫자의 조합을 말합니다.
제 3 조 (이용약관의 효력 및 변경)
① 이 약관은 당 사이트에 게시하거나 기타의 방법으로 회원에게 공지함으로써 효력이 발생합니다.
② 당 사이트는 이 약관을 개정할 경우에 적용일자 및 개정사유를 명시하여 현행 약관과 함께 당 사이트의
초기화면에 그 적용일자 7일 이전부터 적용일자 전일까지 공지합니다. 다만, 회원에게 불리하게 약관내용을
변경하는 경우에는 최소한 30일 이상의 사전 유예기간을 두고 공지합니다. 이 경우 당 사이트는 개정 전
내용과 개정 후 내용을 명확하게 비교하여 이용자가 알기 쉽도록 표시합니다.
제 4 조(약관 외 준칙)
① 이 약관은 당 사이트가 제공하는 서비스에 관한 이용안내와 함께 적용됩니다.
② 이 약관에 명시되지 아니한 사항은 관계법령의 규정이 적용됩니다.
제 2 장 이용계약의 체결
제 5 조 (이용계약의 성립 등)
① 이용계약은 이용고객이 당 사이트가 정한 약관에 「동의합니다」를 선택하고, 당 사이트가 정한
온라인신청양식을 작성하여 서비스 이용을 신청한 후, 당 사이트가 이를 승낙함으로써 성립합니다.
② 제1항의 승낙은 당 사이트가 제공하는 과학기술정보검색, 맞춤정보, 서지정보 등 다른 서비스의 이용승낙을
포함합니다.
제 6 조 (회원가입)
서비스를 이용하고자 하는 고객은 당 사이트에서 정한 회원가입양식에 개인정보를 기재하여 가입을 하여야 합니다.
제 7 조 (개인정보의 보호 및 사용)
당 사이트는 관계법령이 정하는 바에 따라 회원 등록정보를 포함한 회원의 개인정보를 보호하기 위해 노력합니다. 회원 개인정보의 보호 및 사용에 대해서는 관련법령 및 당 사이트의 개인정보 보호정책이 적용됩니다.
제 8 조 (이용 신청의 승낙과 제한)
① 당 사이트는 제6조의 규정에 의한 이용신청고객에 대하여 서비스 이용을 승낙합니다.
② 당 사이트는 아래사항에 해당하는 경우에 대해서 승낙하지 아니 합니다.
- 이용계약 신청서의 내용을 허위로 기재한 경우
- 기타 규정한 제반사항을 위반하며 신청하는 경우
제 9 조 (회원 ID 부여 및 변경 등)
① 당 사이트는 이용고객에 대하여 약관에 정하는 바에 따라 자신이 선정한 회원 ID를 부여합니다.
② 회원 ID는 원칙적으로 변경이 불가하며 부득이한 사유로 인하여 변경 하고자 하는 경우에는 해당 ID를
해지하고 재가입해야 합니다.
③ 기타 회원 개인정보 관리 및 변경 등에 관한 사항은 서비스별 안내에 정하는 바에 의합니다.
제 3 장 계약 당사자의 의무
제 10 조 (KISTI의 의무)
① 당 사이트는 이용고객이 희망한 서비스 제공 개시일에 특별한 사정이 없는 한 서비스를 이용할 수 있도록
하여야 합니다.
② 당 사이트는 개인정보 보호를 위해 보안시스템을 구축하며 개인정보 보호정책을 공시하고 준수합니다.
③ 당 사이트는 회원으로부터 제기되는 의견이나 불만이 정당하다고 객관적으로 인정될 경우에는 적절한 절차를
거쳐 즉시 처리하여야 합니다. 다만, 즉시 처리가 곤란한 경우는 회원에게 그 사유와 처리일정을 통보하여야
합니다.
제 11 조 (회원의 의무)
① 이용자는 회원가입 신청 또는 회원정보 변경 시 실명으로 모든 사항을 사실에 근거하여 작성하여야 하며,
허위 또는 타인의 정보를 등록할 경우 일체의 권리를 주장할 수 없습니다.
② 당 사이트가 관계법령 및 개인정보 보호정책에 의거하여 그 책임을 지는 경우를 제외하고 회원에게 부여된
ID의 비밀번호 관리소홀, 부정사용에 의하여 발생하는 모든 결과에 대한 책임은 회원에게 있습니다.
③ 회원은 당 사이트 및 제 3자의 지적 재산권을 침해해서는 안 됩니다.
제 4 장 서비스의 이용
제 12 조 (서비스 이용 시간)
① 서비스 이용은 당 사이트의 업무상 또는 기술상 특별한 지장이 없는 한 연중무휴, 1일 24시간 운영을
원칙으로 합니다. 단, 당 사이트는 시스템 정기점검, 증설 및 교체를 위해 당 사이트가 정한 날이나 시간에
서비스를 일시 중단할 수 있으며, 예정되어 있는 작업으로 인한 서비스 일시중단은 당 사이트 홈페이지를
통해 사전에 공지합니다.
② 당 사이트는 서비스를 특정범위로 분할하여 각 범위별로 이용가능시간을 별도로 지정할 수 있습니다. 다만
이 경우 그 내용을 공지합니다.
제 13 조 (홈페이지 저작권)
① NDSL에서 제공하는 모든 저작물의 저작권은 원저작자에게 있으며, KISTI는 복제/배포/전송권을 확보하고
있습니다.
② NDSL에서 제공하는 콘텐츠를 상업적 및 기타 영리목적으로 복제/배포/전송할 경우 사전에 KISTI의 허락을
받아야 합니다.
③ NDSL에서 제공하는 콘텐츠를 보도, 비평, 교육, 연구 등을 위하여 정당한 범위 안에서 공정한 관행에
합치되게 인용할 수 있습니다.
④ NDSL에서 제공하는 콘텐츠를 무단 복제, 전송, 배포 기타 저작권법에 위반되는 방법으로 이용할 경우
저작권법 제136조에 따라 5년 이하의 징역 또는 5천만 원 이하의 벌금에 처해질 수 있습니다.
제 14 조 (유료서비스)
① 당 사이트 및 협력기관이 정한 유료서비스(원문복사 등)는 별도로 정해진 바에 따르며, 변경사항은 시행 전에
당 사이트 홈페이지를 통하여 회원에게 공지합니다.
② 유료서비스를 이용하려는 회원은 정해진 요금체계에 따라 요금을 납부해야 합니다.
제 5 장 계약 해지 및 이용 제한
제 15 조 (계약 해지)
회원이 이용계약을 해지하고자 하는 때에는 [가입해지] 메뉴를 이용해 직접 해지해야 합니다.
제 16 조 (서비스 이용제한)
① 당 사이트는 회원이 서비스 이용내용에 있어서 본 약관 제 11조 내용을 위반하거나, 다음 각 호에 해당하는
경우 서비스 이용을 제한할 수 있습니다.
- 2년 이상 서비스를 이용한 적이 없는 경우
- 기타 정상적인 서비스 운영에 방해가 될 경우
② 상기 이용제한 규정에 따라 서비스를 이용하는 회원에게 서비스 이용에 대하여 별도 공지 없이 서비스 이용의
일시정지, 이용계약 해지 할 수 있습니다.
제 17 조 (전자우편주소 수집 금지)
회원은 전자우편주소 추출기 등을 이용하여 전자우편주소를 수집 또는 제3자에게 제공할 수 없습니다.
제 6 장 손해배상 및 기타사항
제 18 조 (손해배상)
당 사이트는 무료로 제공되는 서비스와 관련하여 회원에게 어떠한 손해가 발생하더라도 당 사이트가 고의 또는 과실로 인한 손해발생을 제외하고는 이에 대하여 책임을 부담하지 아니합니다.
제 19 조 (관할 법원)
서비스 이용으로 발생한 분쟁에 대해 소송이 제기되는 경우 민사 소송법상의 관할 법원에 제기합니다.
[부 칙]
1. (시행일) 이 약관은 2016년 9월 5일부터 적용되며, 종전 약관은 본 약관으로 대체되며, 개정된 약관의 적용일 이전 가입자도 개정된 약관의 적용을 받습니다.