• 제목/요약/키워드: International standard

검색결과 3,952건 처리시간 0.035초

다분류 SVM을 이용한 DEA기반 벤처기업 효율성등급 예측모형 (The Prediction of DEA based Efficiency Rating for Venture Business Using Multi-class SVM)

  • 박지영;홍태호
    • Asia pacific journal of information systems
    • /
    • 제19권2호
    • /
    • pp.139-155
    • /
    • 2009
  • For the last few decades, many studies have tried to explore and unveil venture companies' success factors and unique features in order to identify the sources of such companies' competitive advantages over their rivals. Such venture companies have shown tendency to give high returns for investors generally making the best use of information technology. For this reason, many venture companies are keen on attracting avid investors' attention. Investors generally make their investment decisions by carefully examining the evaluation criteria of the alternatives. To them, credit rating information provided by international rating agencies, such as Standard and Poor's, Moody's and Fitch is crucial source as to such pivotal concerns as companies stability, growth, and risk status. But these types of information are generated only for the companies issuing corporate bonds, not venture companies. Therefore, this study proposes a method for evaluating venture businesses by presenting our recent empirical results using financial data of Korean venture companies listed on KOSDAQ in Korea exchange. In addition, this paper used multi-class SVM for the prediction of DEA-based efficiency rating for venture businesses, which was derived from our proposed method. Our approach sheds light on ways to locate efficient companies generating high level of profits. Above all, in determining effective ways to evaluate a venture firm's efficiency, it is important to understand the major contributing factors of such efficiency. Therefore, this paper is constructed on the basis of following two ideas to classify which companies are more efficient venture companies: i) making DEA based multi-class rating for sample companies and ii) developing multi-class SVM-based efficiency prediction model for classifying all companies. First, the Data Envelopment Analysis(DEA) is a non-parametric multiple input-output efficiency technique that measures the relative efficiency of decision making units(DMUs) using a linear programming based model. It is non-parametric because it requires no assumption on the shape or parameters of the underlying production function. DEA has been already widely applied for evaluating the relative efficiency of DMUs. Recently, a number of DEA based studies have evaluated the efficiency of various types of companies, such as internet companies and venture companies. It has been also applied to corporate credit ratings. In this study we utilized DEA for sorting venture companies by efficiency based ratings. The Support Vector Machine(SVM), on the other hand, is a popular technique for solving data classification problems. In this paper, we employed SVM to classify the efficiency ratings in IT venture companies according to the results of DEA. The SVM method was first developed by Vapnik (1995). As one of many machine learning techniques, SVM is based on a statistical theory. Thus far, the method has shown good performances especially in generalizing capacity in classification tasks, resulting in numerous applications in many areas of business, SVM is basically the algorithm that finds the maximum margin hyperplane, which is the maximum separation between classes. According to this method, support vectors are the closest to the maximum margin hyperplane. If it is impossible to classify, we can use the kernel function. In the case of nonlinear class boundaries, we can transform the inputs into a high-dimensional feature space, This is the original input space and is mapped into a high-dimensional dot-product space. Many studies applied SVM to the prediction of bankruptcy, the forecast a financial time series, and the problem of estimating credit rating, In this study we employed SVM for developing data mining-based efficiency prediction model. We used the Gaussian radial function as a kernel function of SVM. In multi-class SVM, we adopted one-against-one approach between binary classification method and two all-together methods, proposed by Weston and Watkins(1999) and Crammer and Singer(2000), respectively. In this research, we used corporate information of 154 companies listed on KOSDAQ market in Korea exchange. We obtained companies' financial information of 2005 from the KIS(Korea Information Service, Inc.). Using this data, we made multi-class rating with DEA efficiency and built multi-class prediction model based data mining. Among three manners of multi-classification, the hit ratio of the Weston and Watkins method is the best in the test data set. In multi classification problems as efficiency ratings of venture business, it is very useful for investors to know the class with errors, one class difference, when it is difficult to find out the accurate class in the actual market. So we presented accuracy results within 1-class errors, and the Weston and Watkins method showed 85.7% accuracy in our test samples. We conclude that the DEA based multi-class approach in venture business generates more information than the binary classification problem, notwithstanding its efficiency level. We believe this model can help investors in decision making as it provides a reliably tool to evaluate venture companies in the financial domain. For the future research, we perceive the need to enhance such areas as the variable selection process, the parameter selection of kernel function, the generalization, and the sample size of multi-class.

문화유산 해석 연구의 통시적 발전과 유산 해석(interpretation)의 개념 (Diachronic Research History and the Concept of Heritage Interpretation)

  • 이나연
    • 헤리티지:역사와 과학
    • /
    • 제53권3호
    • /
    • pp.42-61
    • /
    • 2020
  • 문화유산 해석 연구는 20세기 중반부터 꾸준히 진행되어 왔지만, 그 개념이 매우 모호하며, 다양한 의미로 혼용되어 왔다. 이코모스(ICOMOS)에서 2008년에 채택한 '에나메헌장(The ICOMOS Charter for the Interpretation and Presentation of Cultural Heritage Sites)'에서 해석에 대한 정의가 제시되었지만, 매우 광범위하여 명확한 정의를 내리기 어렵다. 또한 유산 해석은 '현상'에 바탕을 둔 용어이기 때문에 개념 정의가 더욱 어렵다. 지금까지 선행된 유산 해석 연구에서도 주로 유산 해석이 사회적으로 어떠한 역할을 지니는가에 대한 논의가 주를 이뤄왔다. 하지만 문화유산의 사회·철학적 연구가 점차 중요해짐에 따라 문화유산 해석의 개념은 명확하게 제시될 필요가 있다. 따라서 본 연구에서는 문화유산 해석 연구의 발전 과정을 살펴보면서 문화유산 해석의 사회적 역할을 두 가지로 나누어 구분하고, 이를 바탕으로 문화유산 해석의 개념을 도출해 보았다. 본 논문에서 제시한 문화유산 해석의 두 가지 사회적 역할을 살펴보면 근대적 유산 해석과 포용적 유산 해석으로 나눌 수 있다. 문화유산의 근대적 해석은 전통적으로 소수 전문가에 의해 창출된 문화유산의 가치를 대중에게 전달하는 교육적·커뮤니케이션적 역할로 정의할 수 있다. 둘째, 문화유산의 포용적 해석은 문화유산을 둘러싼 다수 이해관계자 간의 서로 다른 유산 해석에 대한 인정과 유산 해석 불일치로 인해 발생한 갈등의 해소 방법을 모색하는 대안적 역할을 갖고 있다. 본 연구에서는 두 유산 해석의 역할이 분명 다른 사회적 배경과 접근으로 발전되었음에도 불구하고, 두 역할의 발생 배경이 불분명하게 중첩되고, 복잡한 사회 현상을 바탕으로 관점의 변화가 일어났다는 것을 확인하였다. 문화유산 해석의 개념은 '해석'이라는 용어로 단순화하기에는 매우 복잡하다. 본 연구에서는 유산 해석을 문화유산에 가치를 부여하는 과정 속 모든 활동을 의미한다고 보았다. 두 유산 해석의 관점은 집단 정체성을 구축하기 위해 의미 부여가 이루어지는 유산의 본질적 특성을 인정하고 있다는 점에서 '해석'의 개념에 부합한다. 하지만 거대 담론을 통해 패권국이나 집권층의 권력을 유지하려는 근대적 해석을 부정하고 새로운 유산 해석의 시각을 제시한 포용적 해석은 '재해석'으로 개념화하는 것이 적합하다.

최근 일본의 의학계 연구규율의 특색 (The Characteristic of Research Regulation in Recent Japanese Medical World)

  • 송영민
    • 의료법학
    • /
    • 제20권2호
    • /
    • pp.173-206
    • /
    • 2019
  • 본 연구는 최근 일본의 임상연구 관련 규율의 특색을 검토한 것이다. 첫째, 우리나라와 같이 일본에서도 그 동안 연구부정에 대해서는 엄벌주의를 취하여 왔지만, 최근 일본에서는 연구윤리정책을 제재가 아닌 교육연수에 의한 연구공정성 확보로 방향을 전환하였다는 점과 2018년 4월부터 시행된 임상연구법은 임상연구에 관한 자금제공 정보의 공표를 의무화하여 임상연구에 따른 자금제공의 투명성을 높인 점 및 의학계 연구의 윤리심사의 집약화 및 피험자를 집중시켜 증례나 우수한 연구자를 모집하여 임상연구·치험을 집약화한 점, 둘째, 그 동안 역학연구에 관한 윤리지침(이하, 「역학지침」이라 함)과 임상연구에 관한 윤리지침(이하, 「임상지침」이라 함)으로 이원화되어 있었던 윤리지침을 인간을 대상으로 하는 의학계 연구에 관한 윤리지침(이하, 「통합지침」이라 함)으로 통합 정비하여 임상연구와 역학연구에 필요한 윤리지침의 중복과 흠결을 보완했다는 점 이외에도 피험자보호를 위한 리스크 평가제도를 둔 점 이외에도 평가의 선결문제인 「침습」 개념을 명확히 했다는 점에서 긍정적인 평가를 받고 있다. 임상연구관련 국제규범상의 공통적인 내용인 「위험과 이익의 평가 문제」는 연구자의 연구가 적절히 고안되었는지를 검사하는 수단이다. 이는 연구윤리위원회가 피험자에게 가해질 위험이 정당화될 수 있는지 여부를 결정하는 방법이며, 장래의 피험자가 임상시험의 참여여부를 결정하는 중요한 기준이 되기도 한다. 그러므로 피험자의 리스크 평가의 선결문제인 「침습」 개념을 명확히 정의한 것은 의미 있는 것이다. 본 연구에서는 특히 최근 일본의 임상시험에서의 연구부정방지 대책에 대한 인식의 전환, 연구심사 및 피험자의 집약화를 통환 연구의 효율성 제고, 피험자 보호를 위한 리스크 평가의 전제가 되는 「침습」 개념의 명확화와 범위의 확장 등에 관한 논점을 중심으로 검토한 것이다.

전이성 폐암에 대한 폐절제술의 성적 (Clinical Outcome of Pulmonary Metastasectomy in Patients with Pulmonary Metastasis)

  • 이영옥;이응배;류경민
    • Journal of Chest Surgery
    • /
    • 제40권10호
    • /
    • pp.674-679
    • /
    • 2007
  • 배경: 완전절제가 가능한 고형암의 폐전이에 대한 절제술은 이미 표준화된 치료방법이며, 1997년 International Resistry of Lung Metastases (IRLM)에서 대규모의 연구를 통해 전이성 폐암에 대한 병기설정 및 예후인자에 관하여 제시한 바 있다. 국내에서도 전이성 폐암에 대한 수술이 꾸준히 증가하고 있으며, 치료방법의 개선에 따른 생존율 역시 좋아지는 추세이다. 이에 경북대학교병원 흉부외과에서는 지난 10년간 전이성 폐암으로 수술을 받은 환자들의 치료결과에 대해서 조사하였다. 대상 및 방법: 1996년 1월부터 2005년 12월까지 전이성 폐암 환자 89명에 대해서 96예의 폐절제술을 시행하였다. 이들의 의무기록을 토대로 생존율 및 예후에 영향을 미치는 임상적, 병리학적 요인에 대하여 분석하였다. 결과: 환자의 평균나이는 $45.9{\pm}17.4$세($10{\sim}75$세)였으며, 남성이 51명, 여성이 38명이었다. 이 중 암종의 폐전이가 55예, 육종인 경우가 30예, 기타 4예였다. 암종 중에서는 대장암이 35예(64%), 육종 중에서는 골육종이 22예(73%)로 가장 많았다. 원발암 치료 후부터 폐절제술까지의 종양자유기간은 평균 $29.6{\pm}27.9$개월($0{\sim}180$개월)이었으며, 원발암과 동시에 발견된 경우는 3예(3.4%)였다. 전체 환자들의 3, 5, 10년 생존율은 각각 52.5%, 32.1%, 20.7%였고 중앙 생존기간은 38개월이었다. 재수술은 15예(16.8%)에서 시행하였다. IRLM 제시에 따른 병기별 5년 생존율은 1기 63.5%, 2기 33.3%, 3기 22.1%, 4기 0%였다. 36개월 미만의 종양자유기간, 양측 폐전이, 5개 이상의 전이병소를 가진 경우 예후가 좋지 않았다(p<0.05). 결론: 완전절제가 가능한 전이성 폐암에 대한 폐절제술은 만족할만한 생존율을 보였으며, 특히 양측의 다발성 전이가 있는 경우 예후가 불량함을 보였다. 하지만 각 종양별로의 치료성적 및 예후에 관한 보다 많은 경험과 추적관찰이 필요하겠다.

긍정적 감성경험에 의한 심박변이도의 변화에 대한 연구 - 2002 한일 월드컵 행사가 한국의 국민 정서와 건강에 미친 영향을 중심으로 - (A Study on the Positive Emotional Effects on Heart Rate Variability - Focused on Effects of '2002 FIFA World Cup' Sports Event on Emotion and General Health of Korean People -)

  • 정기삼;이병채;최환석;김범택;우종민;이쾌희;김민
    • 감성과학
    • /
    • 제9권2호
    • /
    • pp.111-118
    • /
    • 2006
  • 본 논문은 긍정적인 정신적 흥분이 자율신경계에 어떤 영향을 주는 지에 대하여 연구하였다. 2002년 한일 월드컵 기간 중 국민이 경험한 정신적, 신체적 상태의 변화를 자율신경 평가 도구인 심박변이도(HRV)를 통하여 평가하였다. 실험 대상은 월드컵군과 정상 대조군으로 나누어 심박변이도 분석을 실시하였다. 대조군은 수도권 2개 대학병원 건강검진센터에 내원한 건강한 $20{\sim}}30$대 남녀 675명을 대상으로 선정하였고, 월드컵군은 수도권 소재 월드컵 경기장 3개소에서 경기를 관전하기 위하여 대기중인 20-30대 남녀 468명을 대상으로 하였다. 데이터분석은 남녀의 생리학적인 차이를 고려하여 남성군과 여성군으로 나누어 분석하였다. 그 결과, 지금까지 알려져 있던 스트레스 반응과는 다른 경향을 관찰 할 수 있었다. 일반적으로 스트레스 상태에서는 평균 심박수가 증가하는 것 이외에 다른 지표들은 감소하는 경향을 나타낸다. 그러나 긍정 스트레스(eustress) 상태에서 심박수와 SDNN 모두 유의하게 높은 것을 관찰 할 수 있었다(p<0.05). 특히 여성 그룹의 경우, 부정 스트레스(distress) 상태와는 반대로, 모든 주파수분석 파라메타가 유의하게 높게 나타났다(p<0.05, p<0.001). 심박변이도의 감소가 건강 상실의 지표가 된다는 점을 고려해 볼 때, SDNN의 증가와 모든 주파수 파라메타의 증가는 자율신경의 항상성조절 기전이 긍정적으로 작동하고 있음을 의미한다. 따라서 전 세계적인 스포츠 이벤트로 인한 긍정 스트레스상태의 유발이 국민 건강에도 긍정적인 영향을 준다고 할 수 있다.

  • PDF

GML 3.0을 이용한 LBS 멀티미디어 서비스에 관한 연구 (On Method for LBS Multi-media Services using GML 3.0)

  • 정기중;이준우;김남균;홍성학;최병남
    • 한국공간정보시스템학회:학술대회논문집
    • /
    • 한국공간정보시스템학회 2004년도 국내 LBS 기술개발 및 표준화 동향세미나
    • /
    • pp.169-181
    • /
    • 2004
  • SK 텔레콤은 2002년 국내 최초로 모바일 벡터 지도 서비스를 위해 OGC (OpenGIS Consortium) 국제 표준을 기반으로 하여, LBS/GIS 서비스 시스템들에 대한 하부 공통 프레임웍으로써의 GIMS 시스템을 기 구축 한바 있다 그러나 서비스 컨텐츠들이 점차 다양화 되어지고, 이러한 컨텐츠들을 실현하기 위해 시스템에 요구되어지는 사항들이 늘어나게 되면서, 좀더 확장성이 높고 기능적 측면, 효율성 측면에서의 요구 사항들을 만족시킬 수 있는 시스템으로의 고도화가 요구되었다. 본 연구는 GML 2.0기반의 GIMS 시스템을 GML 3.0기반 멀티미디어 서비스 고도화를 위해 보다 풍부한 형태의 지리 데이터를 지원할 수 있는 시스템 기반을 마련하고, 이를 통해 다양한 응용 서비스 컨텐츠들이 쉽고 자유롭게 위치 및 지리 데이터와 연동될 수 있는 기반을 마련하는 것을 목표로 하였다. GML 3.0에서 모바일 LBS 멀티미디어 서비스를 위해 애니메이션, 이벤트처리, 맵 스타일 지원을 위한 필요한 스타일, 3D 부분과 텔레메틱스 서비스를 위한 위상(Topology) 세부 사양을 채택하였으며, MS(Mobile Station)로의 자료전송을 최적화하기 위한 스키마 및 전송 프로토콜을 개발하였고 이에 기반한 시스템을 구성, 개발하였다. GML 3.0을 이용한 기존 GIMS의 고도화는 기존 연구 및 시스템에 구현, 적용되었던, 내부 구조적인 측면에서나 서비스 측면에서 혁신적인 기틀을 마련하게 되었다. GIMS에 대한 접근을 단일화하고 용이하게 하기 위한 GIMS 통합 인터페이스가 구현되었고, GIMS 내부의 서비스 컴포넌트인 WFS, WMS들에 대한 기능 확장 및 개선이 이루어졌다 가능한 창조 모델로 이용될 수 있을 것으로 생각된다.}94,\;29.4{\pm}30.3,\;45.1{\pm}44$로 Mel 10군과 Mel 30군이 유의적인 감소를 보였으나(p<0.05) 이들 두 군 간의 차이는 나타나지 않았다. 이상의 결과로, 랫트에서 복강수술 후 melatonin 10mg/kg투여가 복강 내 유착 방지에 효과적이라고 생각된다.-1}{\cdot}yr^{-1}$로서 두 생태계에 축적되었다.여한 3,5,7군에서 PUFA 함량이 증가한 반면, SFA 함량은 감소하여 P/S 비율, n-3P/n-6P 비율은 증가하는 경향이었으며 이는 간장의 인지질, 콜레스테롤 에스테르, 총 지질의 지방산조성에서도 같은 경향을 볼 수 있었다.X>$(C_{18:2})$와 n-3계 linolenic acid$(C_{18:3})$가 대부분을 차지하였다. 야생 돌복숭아 과육 중의 지방산 조성은 포화지방산이 16.74%, 단불포화지방산 17.51% 및 다불포화지방산이 65.73%의 함유 비율을 보였는데, 이 중 다불포화지방산인 n-6계 linoleic acid$(C_{18:2})$와 n-3계 linolenic acid$(C_{18:3})$가 지질 구성 총 지방산의 대부분을 차지하는 함유 비율을 나타내었다.했다. 하강하는 약 4일간의 기상변화가 자발성 기흉 발생에 영향을 미친다고 추론할 수 있었다. 향후 본 연구에서 추론된 기상변화와 기흉 발생과의 인과관계를 확인하고 좀 더 구체화하기 위한 연구가 필요할 것이다.게 이루어질 수 있을 것으로 기대된다.는 초과수익률이 상승하지만, 이후로는 감소하므로, 반전거래전략을 활용

  • PDF

증기화광산란 검출기를 이용한 콩 함유 수용성 탄수화물의 분석 (Determination of Soluble Carbohydrates in Soybean Seeds Using High Performance Liquid Chromatography with Evaporative Light Scattering Detection)

  • 김경하;황영선;안경근;김기쁨;김민지;홍승범;문중경;정명근
    • 한국식품영양과학회지
    • /
    • 제43권7호
    • /
    • pp.1062-1067
    • /
    • 2014
  • 콩 함유 수용성 탄수화물의 동시분석 시 증기화광산란검출법(HPLC/ELSD) 및 굴절율검출법(HPLC/RID)의 분석 효율성, 정밀성 및 재현성을 상호 비교, 평가하여 콩 함유 수용성 탄수화물의 효율적 분석방법을 제공하고자 하였다. HPLC/ELSD 분석법 적용 시 콩 함유 수용성 탄수화물의 정량한계(LOQ)를 확인한 결과 5.6~7.6 mg/kg 범위를 나타낸 반면, RID는 16.2~33.9 mg/kg 범위를 나타내어 HPLC/ELSD 분석법이 RID 분석법 대비 감도가 향상된 양상을 확인하였고, intra-day(n=10) 및 inter-day(n=5) 분석재현성 평가에서도 피크의 머무름 시간(Rt.) 및 면적(peak area) 모두 최대 2.5% 미만의 변이계수를 나타내어 높은 분석 재현성을 확인할 수 있었다. 또한 농도별 표준시약을 이용하여 검량식의 직선성을 확인한 결과 모든 성분이 고도의 직선성($R^2$ >0.999)이 유지되어 정량적 분석이 가능함을 확인하였다. 콩 함유 수용성 탄수화물의 함량을 HPLC/ELSD 및 RID 방법으로 상호 비교한 결과 HPLC/ELSD 분석법을 적용하였을 경우 RID 분석법 대비 각 수용성 탄수화물의 함량이 더 높게 평가됨을 확인할 수 있었다.

COATED PARTICLE FUEL FOR HIGH TEMPERATURE GAS COOLED REACTORS

  • Verfondern, Karl;Nabielek, Heinz;Kendall, James M.
    • Nuclear Engineering and Technology
    • /
    • 제39권5호
    • /
    • pp.603-616
    • /
    • 2007
  • Roy Huddle, having invented the coated particle in Harwell 1957, stated in the early 1970s that we know now everything about particles and coatings and should be going over to deal with other problems. This was on the occasion of the Dragon fuel performance information meeting London 1973: How wrong a genius be! It took until 1978 that really good particles were made in Germany, then during the Japanese HTTR production in the 1990s and finally the Chinese 2000-2001 campaign for HTR-10. Here, we present a review of history and present status. Today, good fuel is measured by different standards from the seventies: where $9*10^{-4}$ initial free heavy metal fraction was typical for early AVR carbide fuel and $3*10^{-4}$ initial free heavy metal fraction was acceptable for oxide fuel in THTR, we insist on values more than an order of magnitude below this value today. Half a percent of particle failure at the end-of-irradiation, another ancient standard, is not even acceptable today, even for the most severe accidents. While legislation and licensing has not changed, one of the reasons we insist on these improvements is the preference for passive systems rather than active controls of earlier times. After renewed HTGR interest, we are reporting about the start of new or reactivated coated particle work in several parts of the world, considering the aspects of designs/ traditional and new materials, manufacturing technologies/ quality control quality assurance, irradiation and accident performance, modeling and performance predictions, and fuel cycle aspects and spent fuel treatment. In very general terms, the coated particle should be strong, reliable, retentive, and affordable. These properties have to be quantified and will be eventually optimized for a specific application system. Results obtained so far indicate that the same particle can be used for steam cycle applications with $700-750^{\circ}C$ helium coolant gas exit, for gas turbine applications at $850-900^{\circ}C$ and for process heat/hydrogen generation applications with $950^{\circ}C$ outlet temperatures. There is a clear set of standards for modem high quality fuel in terms of low levels of heavy metal contamination, manufacture-induced particle defects during fuel body and fuel element making, irradiation/accident induced particle failures and limits on fission product release from intact particles. While gas-cooled reactor design is still open-ended with blocks for the prismatic and spherical fuel elements for the pebble-bed design, there is near worldwide agreement on high quality fuel: a $500{\mu}m$ diameter $UO_2$ kernel of 10% enrichment is surrounded by a $100{\mu}m$ thick sacrificial buffer layer to be followed by a dense inner pyrocarbon layer, a high quality silicon carbide layer of $35{\mu}m$ thickness and theoretical density and another outer pyrocarbon layer. Good performance has been demonstrated both under operational and under accident conditions, i.e. to 10% FIMA and maximum $1600^{\circ}C$ afterwards. And it is the wide-ranging demonstration experience that makes this particle superior. Recommendations are made for further work: 1. Generation of data for presently manufactured materials, e.g. SiC strength and strength distribution, PyC creep and shrinkage and many more material data sets. 2. Renewed start of irradiation and accident testing of modem coated particle fuel. 3. Analysis of existing and newly created data with a view to demonstrate satisfactory performance at burnups beyond 10% FIMA and complete fission product retention even in accidents that go beyond $1600^{\circ}C$ for a short period of time. This work should proceed at both national and international level.

PM10 질량농도 측정을 위한 시료채취기의 비교 연구 (A Comparison Study of Aerosol Samplers for PM10 Mass Concentration Measurement)

  • 박주면;구자건;정태영;권동명;유종익;서용칠
    • 대한환경공학회지
    • /
    • 제31권2호
    • /
    • pp.153-160
    • /
    • 2009
  • PM10(공기역학 직경${\leq}$10 ${\mu}m$) 시료채취기는 사람이 부유 먼지에 잠재적으로 노출되는 정도를 정량화하고 정부의 규제에 대응하기 위한 목적으로 사용된다. 본 연구는 동일한 PM10 분리한계 직경을 가지지만 다른 기울기를 가지는 미국 환경청의 PM10 시료채취 기준과 미국산업위생전문가협의회/유럽표준위원회/국제표준기구의 흉곽성 PM10 시료채취 기준을 이론과 실험을 통해 비교 평가하고자 수행되었다. 이를 위해 미국 환경청의 기준을 따르는 4개의 PM10 시료채취기와 흉곽성 PM10 기준과 일치하는 1개의 RespiCon 시료채취기를 비교 평가 수단으로 사용하였으며, 1개의 DustTrak 측정기를 PM10의 실시간 질량농도를 확인하기 위하여 사용하였다. 6개 시료채취기를 다양한 크기 분포를 가지는 비산재를 이용하여 입자 발생 챔버안에서 실험하였다. 이론적 질량농도는 측정된 비산재의 입자크기 분포 특성(기하평균 = 6.6 ${\mu}m$, 기하표준편차= 1.9)을 각 시료채취 기준에 적용하여 계산하였다. 챔버 실험을 통하여 측정된 질량농도 결과는 흉곽성 PM10 시료채취 기준을 가지는 RespiCon 시료채취기가 미국 환경청의 PM10 기준을 가지는 PM10 시료채취기보다 상대적으로 작은 질량농도를 측정함으로써 이론적 질량농도와 일치하였다. 전체적 챔버 실험 결과는 PM10 시료채취기를 기준 시료채취기로 사용하였을 때, (1) RespiCon 시료채취기는 PM10 시료채취기로 포집된 PM10 먼지 질량농도에 비해 평균 60% 정도 낮게 측정한 것을 의미하는 정규화계수 1.6으로 나타났으며 (2) PM10 유입구를 사용한 DustTrak 실시간 채취기는 2.1의 보정계수를 가지는 것으로 분석되었다.

KODISA 연구윤리의 표절 판단기준과 글로벌 학술지 가이드라인 (The Standard of Judgement on Plagiarism in Research Ethics and the Guideline of Global Journals for KODISA)

  • 황희중;김동호;윤명길;이정완;이종호
    • 유통과학연구
    • /
    • 제12권6호
    • /
    • pp.15-20
    • /
    • 2014
  • Purpose - In general, researchers try to abide by the code of research ethics, but many of them are not fully aware of plagiarism, unintentionally committing the research misconduct when they write a research paper. This research aims to introduce researchers a clear and easy guideline at a conference, which helps researchers avoid accidental plagiarism by addressing the issue. This research is expected to contribute building a climate and encouraging creative research among scholars. Research design, data, methodology & Results - Plagiarism is considered a sort of research misconduct along with fabrication and falsification. It is defined as an improper usage of another author's ideas, language, process, or results without giving appropriate credit. Plagiarism has nothing to do with examining the truth or accessing value of research data, process, or results. Plagiarism is determined based on whether a research corresponds to widely-used research ethics, containing proper citations. Within academia, plagiarism goes beyond the legal boundary, encompassing any kind of intentional wrongful appropriation of a research, which was created by another researchers. In summary, the definition of plagiarism is to steal other people's creative idea, research model, hypotheses, methods, definition, variables, images, tables and graphs, and use them without reasonable attribution to their true sources. There are various types of plagiarism. Some people assort plagiarism into idea plagiarism, text plagiarism, mosaic plagiarism, and idea distortion. Others view that plagiarism includes uncredited usage of another person's work without appropriate citations, self-plagiarism (using a part of a researcher's own previous research without proper citations), duplicate publication (publishing a researcher's own previous work with a different title), unethical citation (using quoted parts of another person's research without proper citations as if the parts are being cited by the current author). When an author wants to cite a part that was previously drawn from another source the author is supposed to reveal that the part is re-cited. If it is hard to state all the sources the author is allowed to mention the original source only. Today, various disciplines are developing their own measures to address these plagiarism issues, especially duplicate publications, by requiring researchers to clearly reveal true sources when they refer to any other research. Conclusions - Research misconducts including plagiarism have broad and unclear boundaries which allow ambiguous definitions and diverse interpretations. It seems difficult for researchers to have clear understandings of ways to avoid plagiarism and how to cite other's works properly. However, if guidelines are developed to detect and avoid plagiarism considering characteristics of each discipline (For example, social science and natural sciences might be able to have different standards on plagiarism.) and shared among researchers they will likely have a consensus and understanding regarding the issue. Particularly, since duplicate publications has frequently appeared more than plagiarism, academic institutions will need to provide pre-warning and screening in evaluation processes in order to reduce mistakes of researchers and to prevent duplicate publications. What is critical for researchers is to clearly reveal the true sources based on the common citation rules and to only borrow necessary amounts of others' research.