The purpose of this research is to suggest how to develop the internet homepage of the general hospital. The research was operated with 72 general hospitals which were titled 'general hospital' by subject in internet web search engine. The contents of general hospital homepage was studied by internet screen. On the other hand, It was surveyed for homepage operation by mail questionaire. The contents was mainly composed with (1) introduction of hospital (2) medical examination and the treatment-related information (3) the information & communication (4) the general medicare service, specialist & employee service. In order to operate homepage effectively, inquiry system, reservation system, consulting, information search, phone number, etc, web database shall be established inside of hospital homepage which will link compatible with computer database in hospital. Human resources employment & purchasing order system used by a enterprise shall be in consideration of adopting, since it has various merits in light of hospital management.
Journal of the Korean Institute of Intelligent Systems
/
v.19
no.1
/
pp.115-121
/
2009
Web 2.0 has become the face next generation Web among the business world and research community. Web 2.0 is instant superficial gratification of people. On the other hand, Semantic Web is deep, meaningful and lasting relationship with data. So, it is difficult to apply the Semantic Web to the real world. In this paper, a platform for educational services using the Semantic Web and Web 2.0 is proposed. The proposed platform is based mix of the Semantic Web and Web 2.0, so it is useful to apply in the real world applications. Two services are presented, one is a semantic email system and the other is a cyber study space. The cyber study space adjusted each student is presented. The study environment is called iStudySpace that has personal scheduler, study status plan table, personalized search engine and several gadgets. Finally characteristics and limitations of the Semantic Web and Web 2.0, the organization and components of the platform, evaluation of iStudySpace are shown.
In these days, various kinds of web applications based on web 2.0 paradigm have been developed. In web 2.0 paradigm pursuing participation, sharing, and openness on the web-as-platform, web mapping or web GIS application are regarded as top most applications, so that web applications, handling geo-spatial contents, with user-interaction interface and search engine of high performance have been provided for both public users and expert users in the special domains. Public and industrial needs for web mapping mashup application by open API, linked with the practical web computing technologies, are gradually increasing. In this study, a user interface in mashup for geo-spatial feature generation was implemented by using mainly Google maps API. Spatial database resources in this implementation are those of Google mapping server. As the results, public users on web client can create their own geo-spatial data sets in web vector formats, without the help of any GIS tools or access to proprietary databases. It is concluded that web-based mashup application in client-side using open API can be used as an alternative for geo-browsing system or portable feature generation system.
In this paper, we present an approach to sentence boundary detection for web documents that builds on statistical-based methods and uses rule-based correction. The proposed system uses the classification model learned offline using a training set of human-labeled web documents. The web documents have many word-spacing errors and frequently no punctuation mark that indicates the end of sentence boundary. As sentence boundary candidates, the proposed method considers every Ending Eomis as well as punctuation marks. We optimize engine performance by selecting the best feature, the best training data, and the best classification algorithm. For evaluation, we made two test sets; Set1 consisting of articles and blog documents and Set2 of web community documents. We use F-measure to compare results on a large variety of tasks, Detecting only periods as sentence boundary, our basis engine showed 96.5% in Set1 and 56.7% in Set2. We improved our basis engine by adapting features and the boundary search algorithm. For the final evaluation, we compared our adaptation engine with our basis engine in Set2. As a result, the adaptation engine obtained improvements over the basis engine by 39.6%. We proved the effectiveness of the proposed method in sentence boundary detection.
Journal of the Korean Operations Research and Management Science Society
/
v.33
no.4
/
pp.63-82
/
2008
The explosively growing attractiveness of the Web is commencing significant demands for a structuring analysis on various web objects. The larger the substantial number of web objects are available, the more difficult for the clients(i.e. common web users and web robots) and the servers(i.e. Web search engine) to retrieve what they really want. We have in mind focusing on the structure of web objects by introducing optimization models for more convenient and effective information retrieval. For this purpose, we represent web objects and hyperlinks as a directed graph from which the optimal structures are derived in terms of rooted directed spanning trees and Top-k trees. Computational experiments are executed for synthetic data as well as for real web sites' domains so that the Lagrangian Relaxation approaches have exploited the Top-k trees and Hop constraint resolutions. In the experiments, our methods outperformed the conventional approaches so that the complex web graph can successfully be converted into optimal-structured ones within a reasonable amount of computation time.
Journal of Information Technology Applications and Management
/
v.10
no.2
/
pp.33-41
/
2003
It is not easy to find desired information in the world wide web. In this research, we introduce a notion of concept network that is useful in finding information if it is used in search engines that are specialized in domains such as medicine, law or engineering. The concept network that we propose is a network in which nodes represent significant concepts in the domain, and links represent relationships between the concepts. We may use the concept network constructor as a preprocessor to speci-alized search engines. When user enters a target word to find information, our system generates and displays a concept network in which nodes are con-cepts that are closely related with the target word. By reviewing the network, user may confirm that the target word is properly selected for his intention, otherwise he may replace the target word with better ones discovered in the network. In this research, we propose a detailed method to construct concept net-work, implemented a prototypical system that constructs concept networks, and illustrate its usefulness by demonstrating a practical case.
On the Internet we are confronted with a huge amount of information in daily lives. However, we do not have system support for storing and managing Internet search results useful for us. To solve this problem, this paper presents a data management system in which search results obtained from wikipedia and a web search engine are organized in a structured way, enabling an easy access to them later.
Journal of the Korean Society for Library and Information Science
/
v.31
no.2
/
pp.177-197
/
1997
The study measured whether two search engines retrieve different Web documents for 6 queries. Two different search engines, Alta Vista in terms of keyword search engines and Yahoo in terms of subject directory engines were measured using as criteria, total number of documents retrieved, total number of relevant documents retrieved, recall and precision ratios. In addition, Alta Vista was suitable for specific and technical terms, while Yahoo was effective for general and plain terms. However, more elaborate research needs to be tested in terms of query characteristics.
Journal of Korea Spatial Information System Society
/
v.11
no.4
/
pp.28-32
/
2009
For the ubiquitous web environment internet, as an one of the R&D projects by Korean Land Spatialization Group, the project for platform technologies was initiated to provide customized land information and geospatial service. The platform technologies can be categorized for streaming, mashup and geosearch. More specifically, the 2D/3D hybrid streaming engine, mashup engine for u-GIS service and next generation search engine for land information have been developed. In this context, the patent analyses are required to propose the strategies for efficient development and use of these technologies. This study searches the related patents in Korea, US and EU, analyzes the trend of them for customized spatial information technologies, and finally proposes proper strategies.
During over decades, metadata on spatial data have been developed, and they have been widely applied at the national and international metadata standards such as file structure, format, and data model. However, in the web 2.0 paradigm toward user participation and openness, sources and contents of geospatial products are also diversified, not being limited to well-organized and structured data sets or databases. Especially, software products in both open source software and commercially packaged software are considered into important resources in the geospatial domain. But there are no reports or studies regarding software metadata from the side of software engineering or information technology, till now. The motivation of this study is based on practical needs to build search engine in the intelligent geospatial web. Brief review on current metadata standards is presented, and necessity for software metadata is discussed as well as related works. Basic elements, initially considered, of software metadata are presented. This work is the first attempt for software metadata, although it just covers geospatial software products. Further practical works to meet industrial demands need to actual applications of software metadata.
본 웹사이트에 게시된 이메일 주소가 전자우편 수집 프로그램이나
그 밖의 기술적 장치를 이용하여 무단으로 수집되는 것을 거부하며,
이를 위반시 정보통신망법에 의해 형사 처벌됨을 유념하시기 바랍니다.
[게시일 2004년 10월 1일]
이용약관
제 1 장 총칙
제 1 조 (목적)
이 이용약관은 KoreaScience 홈페이지(이하 “당 사이트”)에서 제공하는 인터넷 서비스(이하 '서비스')의 가입조건 및 이용에 관한 제반 사항과 기타 필요한 사항을 구체적으로 규정함을 목적으로 합니다.
제 2 조 (용어의 정의)
① "이용자"라 함은 당 사이트에 접속하여 이 약관에 따라 당 사이트가 제공하는 서비스를 받는 회원 및 비회원을
말합니다.
② "회원"이라 함은 서비스를 이용하기 위하여 당 사이트에 개인정보를 제공하여 아이디(ID)와 비밀번호를 부여
받은 자를 말합니다.
③ "회원 아이디(ID)"라 함은 회원의 식별 및 서비스 이용을 위하여 자신이 선정한 문자 및 숫자의 조합을
말합니다.
④ "비밀번호(패스워드)"라 함은 회원이 자신의 비밀보호를 위하여 선정한 문자 및 숫자의 조합을 말합니다.
제 3 조 (이용약관의 효력 및 변경)
① 이 약관은 당 사이트에 게시하거나 기타의 방법으로 회원에게 공지함으로써 효력이 발생합니다.
② 당 사이트는 이 약관을 개정할 경우에 적용일자 및 개정사유를 명시하여 현행 약관과 함께 당 사이트의
초기화면에 그 적용일자 7일 이전부터 적용일자 전일까지 공지합니다. 다만, 회원에게 불리하게 약관내용을
변경하는 경우에는 최소한 30일 이상의 사전 유예기간을 두고 공지합니다. 이 경우 당 사이트는 개정 전
내용과 개정 후 내용을 명확하게 비교하여 이용자가 알기 쉽도록 표시합니다.
제 4 조(약관 외 준칙)
① 이 약관은 당 사이트가 제공하는 서비스에 관한 이용안내와 함께 적용됩니다.
② 이 약관에 명시되지 아니한 사항은 관계법령의 규정이 적용됩니다.
제 2 장 이용계약의 체결
제 5 조 (이용계약의 성립 등)
① 이용계약은 이용고객이 당 사이트가 정한 약관에 「동의합니다」를 선택하고, 당 사이트가 정한
온라인신청양식을 작성하여 서비스 이용을 신청한 후, 당 사이트가 이를 승낙함으로써 성립합니다.
② 제1항의 승낙은 당 사이트가 제공하는 과학기술정보검색, 맞춤정보, 서지정보 등 다른 서비스의 이용승낙을
포함합니다.
제 6 조 (회원가입)
서비스를 이용하고자 하는 고객은 당 사이트에서 정한 회원가입양식에 개인정보를 기재하여 가입을 하여야 합니다.
제 7 조 (개인정보의 보호 및 사용)
당 사이트는 관계법령이 정하는 바에 따라 회원 등록정보를 포함한 회원의 개인정보를 보호하기 위해 노력합니다. 회원 개인정보의 보호 및 사용에 대해서는 관련법령 및 당 사이트의 개인정보 보호정책이 적용됩니다.
제 8 조 (이용 신청의 승낙과 제한)
① 당 사이트는 제6조의 규정에 의한 이용신청고객에 대하여 서비스 이용을 승낙합니다.
② 당 사이트는 아래사항에 해당하는 경우에 대해서 승낙하지 아니 합니다.
- 이용계약 신청서의 내용을 허위로 기재한 경우
- 기타 규정한 제반사항을 위반하며 신청하는 경우
제 9 조 (회원 ID 부여 및 변경 등)
① 당 사이트는 이용고객에 대하여 약관에 정하는 바에 따라 자신이 선정한 회원 ID를 부여합니다.
② 회원 ID는 원칙적으로 변경이 불가하며 부득이한 사유로 인하여 변경 하고자 하는 경우에는 해당 ID를
해지하고 재가입해야 합니다.
③ 기타 회원 개인정보 관리 및 변경 등에 관한 사항은 서비스별 안내에 정하는 바에 의합니다.
제 3 장 계약 당사자의 의무
제 10 조 (KISTI의 의무)
① 당 사이트는 이용고객이 희망한 서비스 제공 개시일에 특별한 사정이 없는 한 서비스를 이용할 수 있도록
하여야 합니다.
② 당 사이트는 개인정보 보호를 위해 보안시스템을 구축하며 개인정보 보호정책을 공시하고 준수합니다.
③ 당 사이트는 회원으로부터 제기되는 의견이나 불만이 정당하다고 객관적으로 인정될 경우에는 적절한 절차를
거쳐 즉시 처리하여야 합니다. 다만, 즉시 처리가 곤란한 경우는 회원에게 그 사유와 처리일정을 통보하여야
합니다.
제 11 조 (회원의 의무)
① 이용자는 회원가입 신청 또는 회원정보 변경 시 실명으로 모든 사항을 사실에 근거하여 작성하여야 하며,
허위 또는 타인의 정보를 등록할 경우 일체의 권리를 주장할 수 없습니다.
② 당 사이트가 관계법령 및 개인정보 보호정책에 의거하여 그 책임을 지는 경우를 제외하고 회원에게 부여된
ID의 비밀번호 관리소홀, 부정사용에 의하여 발생하는 모든 결과에 대한 책임은 회원에게 있습니다.
③ 회원은 당 사이트 및 제 3자의 지적 재산권을 침해해서는 안 됩니다.
제 4 장 서비스의 이용
제 12 조 (서비스 이용 시간)
① 서비스 이용은 당 사이트의 업무상 또는 기술상 특별한 지장이 없는 한 연중무휴, 1일 24시간 운영을
원칙으로 합니다. 단, 당 사이트는 시스템 정기점검, 증설 및 교체를 위해 당 사이트가 정한 날이나 시간에
서비스를 일시 중단할 수 있으며, 예정되어 있는 작업으로 인한 서비스 일시중단은 당 사이트 홈페이지를
통해 사전에 공지합니다.
② 당 사이트는 서비스를 특정범위로 분할하여 각 범위별로 이용가능시간을 별도로 지정할 수 있습니다. 다만
이 경우 그 내용을 공지합니다.
제 13 조 (홈페이지 저작권)
① NDSL에서 제공하는 모든 저작물의 저작권은 원저작자에게 있으며, KISTI는 복제/배포/전송권을 확보하고
있습니다.
② NDSL에서 제공하는 콘텐츠를 상업적 및 기타 영리목적으로 복제/배포/전송할 경우 사전에 KISTI의 허락을
받아야 합니다.
③ NDSL에서 제공하는 콘텐츠를 보도, 비평, 교육, 연구 등을 위하여 정당한 범위 안에서 공정한 관행에
합치되게 인용할 수 있습니다.
④ NDSL에서 제공하는 콘텐츠를 무단 복제, 전송, 배포 기타 저작권법에 위반되는 방법으로 이용할 경우
저작권법 제136조에 따라 5년 이하의 징역 또는 5천만 원 이하의 벌금에 처해질 수 있습니다.
제 14 조 (유료서비스)
① 당 사이트 및 협력기관이 정한 유료서비스(원문복사 등)는 별도로 정해진 바에 따르며, 변경사항은 시행 전에
당 사이트 홈페이지를 통하여 회원에게 공지합니다.
② 유료서비스를 이용하려는 회원은 정해진 요금체계에 따라 요금을 납부해야 합니다.
제 5 장 계약 해지 및 이용 제한
제 15 조 (계약 해지)
회원이 이용계약을 해지하고자 하는 때에는 [가입해지] 메뉴를 이용해 직접 해지해야 합니다.
제 16 조 (서비스 이용제한)
① 당 사이트는 회원이 서비스 이용내용에 있어서 본 약관 제 11조 내용을 위반하거나, 다음 각 호에 해당하는
경우 서비스 이용을 제한할 수 있습니다.
- 2년 이상 서비스를 이용한 적이 없는 경우
- 기타 정상적인 서비스 운영에 방해가 될 경우
② 상기 이용제한 규정에 따라 서비스를 이용하는 회원에게 서비스 이용에 대하여 별도 공지 없이 서비스 이용의
일시정지, 이용계약 해지 할 수 있습니다.
제 17 조 (전자우편주소 수집 금지)
회원은 전자우편주소 추출기 등을 이용하여 전자우편주소를 수집 또는 제3자에게 제공할 수 없습니다.
제 6 장 손해배상 및 기타사항
제 18 조 (손해배상)
당 사이트는 무료로 제공되는 서비스와 관련하여 회원에게 어떠한 손해가 발생하더라도 당 사이트가 고의 또는 과실로 인한 손해발생을 제외하고는 이에 대하여 책임을 부담하지 아니합니다.
제 19 조 (관할 법원)
서비스 이용으로 발생한 분쟁에 대해 소송이 제기되는 경우 민사 소송법상의 관할 법원에 제기합니다.
[부 칙]
1. (시행일) 이 약관은 2016년 9월 5일부터 적용되며, 종전 약관은 본 약관으로 대체되며, 개정된 약관의 적용일 이전 가입자도 개정된 약관의 적용을 받습니다.