Purpose: The aim of this study was to develop a Korean version of Night Eating Questionnaire (KNEQ) and test its psychometric properties and evaluate items according to item response theory. Methods: The 14-item NEQ as a measure of severity of the night eating syndrome was translated into Korean, and then this KNEQ was evaluated. A total of 1171 participants aged 20 to 50 completed the KNEQ on the Internet. To test reliability and validity, Cronbach's alpha, correlation, simple regression, and factor analysis were used. Each item was analyzed according to Rasch-Andrich rating scale model and item difficulty, discrimination, infit/outfit, and point measure correlation were evaluated. Results: Construct validity was evident. Cronbach's alpha was .78. The items of evening hyperphagia and nocturnal ingestion showed high ability in discriminating people with night eating syndrome, while items of morning anorexia and mood/sleep provided relatively little information. The results of item analysis showed that item2 and item7 needed to be revised to improve the reliability of KNEQ. Conclusion: KNEQ is an appropriate instrument to measure severity of night eating syndrome with good validity and reliability. However, further studies are needed to find cut-off scores to screen persons with night eating syndrome.
A design of reliability qualification test based on performance distribution is developed. In general, the performance of an item degrades as the time goes by and the failure of an item occurs when the performance degradation reaches the pre-determined critical level. This article considers the reliability qualification test based on a more tightened critical value at the earlier stage to reduce the evaluation testing time and cost. A numerical example is provided to illustrate how to use the developed reliability qualification test.
Journal of Korean Academy of Nursing Administration
/
v.7
no.2
/
pp.285-300
/
2001
To meet standards for high quality of care and satisfied customers, an evaluation tool about nursing care is necessary. And, We need to evaluate our practice continuously for the improvement in quality and outcomes. This study was intended to develop an evaluation tool about nursing care in NSICU, and was progressed of 3 steps; development, content validity verification and reliability verification. Data were obtained and analysed from Feb. To April, 2000. Development process of the study was as follows A preliminary list was made item by item on the basis of clinical Experience, literature review and patients' record review. Then the standards, criteria and indicators of preliminary evaluation tool were set by 5 clinical nursing panel, and their content validity was reviewed by 27 ICU nurses. Finally, an evaluation tool was developed and verified the reliability at c-university hospital located in Kwang-Ju. The results of this was as follows 1) The evaluation tool of this study developed 8 standards, 39 criterias and 106 indicators. The standards were divided into two dimensions. One was process dimension which contained 4 standards(26 criteria), The other was outcome dimension which contained 4 standards(13 criteria). 2) the Average content validity of the tool was 3.39 at standards, 3.55 at criteria and 3.51 at indicators. 3) Interrater reliability of the tool is r=.7993(p<.001) & internal consistency reliability ${\alpha}$ is .6031 4) Scores of NSICU Patients who participated in this study were 57 at total mean score, 58 at process mean score and 56 at outcome mean score The evaluation tool developed in this study seems to be useful in evaluation nursing practice appropriately for the improvement of nursing care in NSICU. I hope that this evaluation tool can be used effectively in NSICU as an intervention for the improvement of quality control.
A performance evaluation model of an R&D module in the quality management system for M Company Is constructed using QFD. The company produces telecommunication devices and employs the performance evaluation model based on ISO 9000 family. However, the model has some problems, one of them is that all check items are regarded as equally important Customer requirements are gathered from internal customers and QFD is utilized to obtain weights for each check item.
Background: Functional capacity evaluations (FCEs) are designed to systematically assess the capacity to perform work-related tasks and to determine worker's ability to return to the previous job following work-related injuries. These evaluations may be rated either by clinician or worker. There has been a lack of consensus between the two scoring methods. Objects: This study aimed: 1) to confirm if the data are fit to the Rasch rating scale model and 2) to investigate the item-level concordance rate between the ratings of clinician and injured worker of the FCE. Methods: A cross-sectional study was conducted with a sample (n=124) of a rehabilitation program with the Occupational Rehabilitation Data Base for workers with low back pain. The functional capacity evaluation at admission and discharge was administered to clinicians and workers. The data were analyzed using both classical test theory-based Pearson's r and intra-class coefficient followed by item-level analysis with Rasch rating scale model. Results: All items of the FCE, except sitting items rated by clinician at admission and handling items rated by both clinician and worker throughout admission and discharge, were acceptable fit statistics with minor out of ranges for a misfit criterion. This may indicate that the items of the FCE overall fit to the Rasch rating scale model. Few problematic items responding differently to clinician and worker both at admission and discharge were detected with the differential item functioning analysis despite the excellent concordance rate using the two conventional statistics-sitting and handling items at admission and handling item at discharge. Conclusion: The item-level speculations using Rasch analysis of the FCE demonstrate that the ratings of clinician and self ratings of worker were psychometrically acceptable though there was an apparent discrepancy between the raters both at admission and discharge.
Rhee, Unhai;Choi, Hye Yeong;Song, Hye Rin;Shin, Hye Young
Korean Journal of Child Studies
/
v.24
no.3
/
pp.135-149
/
2003
This study aimed to develop an observation scale for assessing the quality of day care programs and to examine reliability and validity of the scale. Instruments included 3 self-assessment scales, the Evaluation Scale for Early Childhood Programs and an observation scale completed by 8 trained observers in 89 day care sites. Item analysis indicated that most items were acceptable in terms of item discrimination and item response distribution. Cronbach ${\alpha}^{\prime}s$ and inter-observer reliability were relatively high. Validity of the scale was evidenced by correlations between the observation scale and the criterion measure and inter-correlations among sub-areas of the observation scale. Scores on the observation scale were validated by quality ratings from self-assessment scores.
Item cold start is a well studied problem in the research field of recommender systems. Still, many existing collaborative filters cannot recommend items accurately when only a few user-item interaction data are available for newly introduced items (Cold items). We propose a interaction feature prediction method to mitigate item cold start problem. The proposed method predicts the interaction features that collaborative filters can calculate for the cold items. For prediction, in addition to content features of the cold-items used by state-of-the-art methods, our method exploits the interaction features of k-nearest content neighbors of the cold-items. An attention network is adopted to extract appropriate information from the interaction features of the neighbors by examining the contents feature similarity between the cold-item and its neighbors. Our evaluation on a real dataset CiteULike shows that the proposed method outperforms state-of-the-art methods 0.027 in Recall@20 metric and 0.023 in NDCG@20 metric.
A data-driven index of dimensionality for an educational or psychological test - DETECT, short for Dimensionality Evaluation To Enumerate Contributing Traits, is proposed in this paper. It is based on estimated conditional covariances of item pairs, given score on remaining test items. Its purpose is to detect whatever multidimensionality structure exists, especially in the case of approximate simple structure. It does so by assigning items to relatively dimensionally homogeneous clusters via attempted maximization of the DETECT over all possible item cluster partitions. The performance of DETECT is studied through real and simulated data analyses.
Park, Young Soon;Chun, Kyung Hee;Lee, Kyeong Soo;Lee, Young Hwan
Journal of Yeungnam Medical Science
/
v.38
no.2
/
pp.118-126
/
2021
Background: This study is an analysis of evaluator factors affecting physician-patient interaction (PPI) scores in clinical performance examination (CPX). The purpose of this study was to investigate possible ways to increase the reliability of the CPX evaluation. Methods: The six-item Yeungnam University Scale (YUS), four-item analytic global rating scale (AGRS), and one-item holistic rating scale (HRS) were used to evaluate student performance in PPI. A total of 72 fourth-year students from Yeungnam University College of Medicine in Korea participated in the evaluation with 32 faculty and 16 standardized patient (SP) raters. The study then examined the differences in scores between types of scale, raters (SP vs. faculty), faculty specialty, evaluation experience, and level of fatigue as time passes. Results: There were significant differences between faculty and SP scores in all three scales and a significant correlation among raters' scores. Scores given by raters on items related to their specialty were lower than those given by raters on items out of their specialty. On the YUS and AGRS, there were significant differences based on the faculty's evaluation experience; scores by raters who had three to ten previous evaluation experiences were lower than others' scores. There were also significant differences among SP raters on all scales. The correlation between the YUS and AGRS/HRS declined significantly according to the length of evaluation time. Conclusion: In CPX, PPI score reliability was found to be significantly affected by the evaluator factors as well as the type of scale.
Proceedings of the Korean Geotechical Society Conference
/
2006.03a
/
pp.732-737
/
2006
The facility diagnosis technique of past subjective judged the technical expert and interpreted stably mainly. The facility the periodical civil official becomes indispensability consequently with the law and the system and objectivity inspection which relates with a this and development of diagnosis technique were necessary. Currently the evaluation elements which relate with an inspection and diagnosis technique depended to the subjectivity of each facility quality, data statistics, diagnosis know-how, various circumstance and the technical expert and the evaluation item came to decide. But the evaluation score distribution of marks of each item depended plentifully in data analysis result and experience. The past method is weak in logically because the objection theoretical background and basis are insufficiency. Consequently in order to apply a data analysis result and an experience logically, it used AHP(Analytic Hierarchy Process) method from this research. It is visible with the fact that the application result reconfirmation and complement process will be necessary the technique which is suitable in the multi facility management. Also it is expected with the fact that the application characteristic from the next relation technique will be excellent.
본 웹사이트에 게시된 이메일 주소가 전자우편 수집 프로그램이나
그 밖의 기술적 장치를 이용하여 무단으로 수집되는 것을 거부하며,
이를 위반시 정보통신망법에 의해 형사 처벌됨을 유념하시기 바랍니다.
[게시일 2004년 10월 1일]
이용약관
제 1 장 총칙
제 1 조 (목적)
이 이용약관은 KoreaScience 홈페이지(이하 “당 사이트”)에서 제공하는 인터넷 서비스(이하 '서비스')의 가입조건 및 이용에 관한 제반 사항과 기타 필요한 사항을 구체적으로 규정함을 목적으로 합니다.
제 2 조 (용어의 정의)
① "이용자"라 함은 당 사이트에 접속하여 이 약관에 따라 당 사이트가 제공하는 서비스를 받는 회원 및 비회원을
말합니다.
② "회원"이라 함은 서비스를 이용하기 위하여 당 사이트에 개인정보를 제공하여 아이디(ID)와 비밀번호를 부여
받은 자를 말합니다.
③ "회원 아이디(ID)"라 함은 회원의 식별 및 서비스 이용을 위하여 자신이 선정한 문자 및 숫자의 조합을
말합니다.
④ "비밀번호(패스워드)"라 함은 회원이 자신의 비밀보호를 위하여 선정한 문자 및 숫자의 조합을 말합니다.
제 3 조 (이용약관의 효력 및 변경)
① 이 약관은 당 사이트에 게시하거나 기타의 방법으로 회원에게 공지함으로써 효력이 발생합니다.
② 당 사이트는 이 약관을 개정할 경우에 적용일자 및 개정사유를 명시하여 현행 약관과 함께 당 사이트의
초기화면에 그 적용일자 7일 이전부터 적용일자 전일까지 공지합니다. 다만, 회원에게 불리하게 약관내용을
변경하는 경우에는 최소한 30일 이상의 사전 유예기간을 두고 공지합니다. 이 경우 당 사이트는 개정 전
내용과 개정 후 내용을 명확하게 비교하여 이용자가 알기 쉽도록 표시합니다.
제 4 조(약관 외 준칙)
① 이 약관은 당 사이트가 제공하는 서비스에 관한 이용안내와 함께 적용됩니다.
② 이 약관에 명시되지 아니한 사항은 관계법령의 규정이 적용됩니다.
제 2 장 이용계약의 체결
제 5 조 (이용계약의 성립 등)
① 이용계약은 이용고객이 당 사이트가 정한 약관에 「동의합니다」를 선택하고, 당 사이트가 정한
온라인신청양식을 작성하여 서비스 이용을 신청한 후, 당 사이트가 이를 승낙함으로써 성립합니다.
② 제1항의 승낙은 당 사이트가 제공하는 과학기술정보검색, 맞춤정보, 서지정보 등 다른 서비스의 이용승낙을
포함합니다.
제 6 조 (회원가입)
서비스를 이용하고자 하는 고객은 당 사이트에서 정한 회원가입양식에 개인정보를 기재하여 가입을 하여야 합니다.
제 7 조 (개인정보의 보호 및 사용)
당 사이트는 관계법령이 정하는 바에 따라 회원 등록정보를 포함한 회원의 개인정보를 보호하기 위해 노력합니다. 회원 개인정보의 보호 및 사용에 대해서는 관련법령 및 당 사이트의 개인정보 보호정책이 적용됩니다.
제 8 조 (이용 신청의 승낙과 제한)
① 당 사이트는 제6조의 규정에 의한 이용신청고객에 대하여 서비스 이용을 승낙합니다.
② 당 사이트는 아래사항에 해당하는 경우에 대해서 승낙하지 아니 합니다.
- 이용계약 신청서의 내용을 허위로 기재한 경우
- 기타 규정한 제반사항을 위반하며 신청하는 경우
제 9 조 (회원 ID 부여 및 변경 등)
① 당 사이트는 이용고객에 대하여 약관에 정하는 바에 따라 자신이 선정한 회원 ID를 부여합니다.
② 회원 ID는 원칙적으로 변경이 불가하며 부득이한 사유로 인하여 변경 하고자 하는 경우에는 해당 ID를
해지하고 재가입해야 합니다.
③ 기타 회원 개인정보 관리 및 변경 등에 관한 사항은 서비스별 안내에 정하는 바에 의합니다.
제 3 장 계약 당사자의 의무
제 10 조 (KISTI의 의무)
① 당 사이트는 이용고객이 희망한 서비스 제공 개시일에 특별한 사정이 없는 한 서비스를 이용할 수 있도록
하여야 합니다.
② 당 사이트는 개인정보 보호를 위해 보안시스템을 구축하며 개인정보 보호정책을 공시하고 준수합니다.
③ 당 사이트는 회원으로부터 제기되는 의견이나 불만이 정당하다고 객관적으로 인정될 경우에는 적절한 절차를
거쳐 즉시 처리하여야 합니다. 다만, 즉시 처리가 곤란한 경우는 회원에게 그 사유와 처리일정을 통보하여야
합니다.
제 11 조 (회원의 의무)
① 이용자는 회원가입 신청 또는 회원정보 변경 시 실명으로 모든 사항을 사실에 근거하여 작성하여야 하며,
허위 또는 타인의 정보를 등록할 경우 일체의 권리를 주장할 수 없습니다.
② 당 사이트가 관계법령 및 개인정보 보호정책에 의거하여 그 책임을 지는 경우를 제외하고 회원에게 부여된
ID의 비밀번호 관리소홀, 부정사용에 의하여 발생하는 모든 결과에 대한 책임은 회원에게 있습니다.
③ 회원은 당 사이트 및 제 3자의 지적 재산권을 침해해서는 안 됩니다.
제 4 장 서비스의 이용
제 12 조 (서비스 이용 시간)
① 서비스 이용은 당 사이트의 업무상 또는 기술상 특별한 지장이 없는 한 연중무휴, 1일 24시간 운영을
원칙으로 합니다. 단, 당 사이트는 시스템 정기점검, 증설 및 교체를 위해 당 사이트가 정한 날이나 시간에
서비스를 일시 중단할 수 있으며, 예정되어 있는 작업으로 인한 서비스 일시중단은 당 사이트 홈페이지를
통해 사전에 공지합니다.
② 당 사이트는 서비스를 특정범위로 분할하여 각 범위별로 이용가능시간을 별도로 지정할 수 있습니다. 다만
이 경우 그 내용을 공지합니다.
제 13 조 (홈페이지 저작권)
① NDSL에서 제공하는 모든 저작물의 저작권은 원저작자에게 있으며, KISTI는 복제/배포/전송권을 확보하고
있습니다.
② NDSL에서 제공하는 콘텐츠를 상업적 및 기타 영리목적으로 복제/배포/전송할 경우 사전에 KISTI의 허락을
받아야 합니다.
③ NDSL에서 제공하는 콘텐츠를 보도, 비평, 교육, 연구 등을 위하여 정당한 범위 안에서 공정한 관행에
합치되게 인용할 수 있습니다.
④ NDSL에서 제공하는 콘텐츠를 무단 복제, 전송, 배포 기타 저작권법에 위반되는 방법으로 이용할 경우
저작권법 제136조에 따라 5년 이하의 징역 또는 5천만 원 이하의 벌금에 처해질 수 있습니다.
제 14 조 (유료서비스)
① 당 사이트 및 협력기관이 정한 유료서비스(원문복사 등)는 별도로 정해진 바에 따르며, 변경사항은 시행 전에
당 사이트 홈페이지를 통하여 회원에게 공지합니다.
② 유료서비스를 이용하려는 회원은 정해진 요금체계에 따라 요금을 납부해야 합니다.
제 5 장 계약 해지 및 이용 제한
제 15 조 (계약 해지)
회원이 이용계약을 해지하고자 하는 때에는 [가입해지] 메뉴를 이용해 직접 해지해야 합니다.
제 16 조 (서비스 이용제한)
① 당 사이트는 회원이 서비스 이용내용에 있어서 본 약관 제 11조 내용을 위반하거나, 다음 각 호에 해당하는
경우 서비스 이용을 제한할 수 있습니다.
- 2년 이상 서비스를 이용한 적이 없는 경우
- 기타 정상적인 서비스 운영에 방해가 될 경우
② 상기 이용제한 규정에 따라 서비스를 이용하는 회원에게 서비스 이용에 대하여 별도 공지 없이 서비스 이용의
일시정지, 이용계약 해지 할 수 있습니다.
제 17 조 (전자우편주소 수집 금지)
회원은 전자우편주소 추출기 등을 이용하여 전자우편주소를 수집 또는 제3자에게 제공할 수 없습니다.
제 6 장 손해배상 및 기타사항
제 18 조 (손해배상)
당 사이트는 무료로 제공되는 서비스와 관련하여 회원에게 어떠한 손해가 발생하더라도 당 사이트가 고의 또는 과실로 인한 손해발생을 제외하고는 이에 대하여 책임을 부담하지 아니합니다.
제 19 조 (관할 법원)
서비스 이용으로 발생한 분쟁에 대해 소송이 제기되는 경우 민사 소송법상의 관할 법원에 제기합니다.
[부 칙]
1. (시행일) 이 약관은 2016년 9월 5일부터 적용되며, 종전 약관은 본 약관으로 대체되며, 개정된 약관의 적용일 이전 가입자도 개정된 약관의 적용을 받습니다.