• 제목/요약/키워드: Python 3

검색결과 221건 처리시간 0.024초

Computational Optimization of Bioanalytical Parameters for the Evaluation of the Toxicity of the Phytomarker 1,4 Napthoquinone and its Metabolite 1,2,4-trihydroxynapththalene

  • Gopal, Velmani;AL Rashid, Mohammad Harun;Majumder, Sayani;Maiti, Partha Pratim;Mandal, Subhash C
    • 대한약침학회지
    • /
    • 제18권2호
    • /
    • pp.7-18
    • /
    • 2015
  • Objectives: Lawsone (1,4 naphthoquinone) is a non redox cycling compound that can be catalyzed by DT diaphorase (DTD) into 1,2,4-trihydroxynaphthalene (THN), which can generate reactive oxygen species by auto oxidation. The purpose of this study was to evaluate the toxicity of the phytomarker 1,4 naphthoquinone and its metabolite THN by using the molecular docking program AutoDock 4. Methods: The 3D structure of ligands such as hydrogen peroxide ($H_2O_2$), nitric oxide synthase (NOS), catalase (CAT), glutathione (GSH), glutathione reductase (GR), glucose 6-phosphate dehydrogenase (G6PDH) and nicotinamide adenine dinucleotide phosphate hydrogen (NADPH) were drawn using hyperchem drawing tools and minimizing the energy of all pdb files with the help of hyperchem by $MM^+$ followed by a semi-empirical (PM3) method. The docking process was studied with ligand molecules to identify suitable dockings at protein binding sites through annealing and genetic simulation algorithms. The program auto dock tools (ADT) was released as an extension suite to the python molecular viewer used to prepare proteins and ligands. Grids centered on active sites were obtained with spacings of $54{\times}55{\times}56$, and a grid spacing of 0.503 was calculated. Comparisons of Global and Local Search Methods in Drug Docking were adopted to determine parameters; a maximum number of 250,000 energy evaluations, a maximum number of generations of 27,000, and mutation and crossover rates of 0.02 and 0.8 were used. The number of docking runs was set to 10. Results: Lawsone and THN can be considered to efficiently bind with NOS, CAT, GSH, GR, G6PDH and NADPH, which has been confirmed through hydrogen bond affinity with the respective amino acids. Conclusion: Naphthoquinone derivatives of lawsone, which can be metabolized into THN by a catalyst DTD, were examined. Lawsone and THN were found to be identically potent molecules for their affinities for selected proteins.

풍수해 대비 오픈소스 기반 공간분석 도구 개발 (Development of an Open Source-based Spatial Analysis Tool for Storm and Flood Damage)

  • 김민준;이창규;황수연;함정수;최진무
    • 대한원격탐사학회지
    • /
    • 제37권5_3호
    • /
    • pp.1435-1446
    • /
    • 2021
  • 태풍으로 인한 풍수해는 매년 한반도에 많은 피해를 주고 있다. 재난 발생 시 피해가 최소화 되도록 신속한 의사 결정을 위해서는 예상되는 피해정보와 대피방안 등에 대한 사전 분석이 요구된다. 본 연구에서는 재난단계에 따라 필요한 정보를 제공할 수 있는 분석 모듈을 개발하고자 하였다. 태풍 대비단계에서 활용할 수 있도록 북상 중인 태풍경로와 유사한 과거태풍경로 및 과거피해정보를 확인할 수 있는 기능, 고립 위험 지역을 추출하는 기능, 저수지 붕괴 지역을 추출하는 기능을 개발하였다. 대응 및 복구 초기단계에서 활용할 수 있도록 현 침수심을 고려한 예상침수범위 추출 기능, 인구, 건물, 농지 등에 예상되는 피해정보 분석 기능, 대피정보를 제공하는 기능도 포함하였다. 또한 분석결과 표출을 위해 자동화된 웹 지도 작성 방법을 제시하였다. 분석기능은 파이썬 오픈소스 기반으로 개발하여 모듈화했으며, 웹 표출 기능은 자바스크립트 기반으로 구현하였다. 본 연구에서 개발된 도구들은 풍수해 대비 모니터링과 초기대응 단계에서 신속한 의사결정을 위해 효율적으로 활용될 수 있을 것이다.

교사교육을 위한 공공 빅데이터 수집 및 스프레드시트 활용 기초 데이터과학 교육 사례 연구 (A Case Study of Basic Data Science Education using Public Big Data Collection and Spreadsheets for Teacher Education)

  • 허경
    • 정보교육학회논문지
    • /
    • 제25권3호
    • /
    • pp.459-469
    • /
    • 2021
  • 본 논문에서는 현장 교사 및 예비교사를 위한 기초 데이터과학 실습 교육 사례를 연구하였다. 본 논문에서는 기초 데이터과학 교육을 위해, 스프레드시트 SW를 데이터 수집 및 분석 도구로 사용하였다. 이후 데이터 가공, 예측 가설 및 예측 모델 검증을 위한 통계학을 교육하였다. 또한, 수천명 단위의 공공 빅데이터를 수집 및 가공하고, 모집단 예측 가설 및 예측 모델을 검증하는 교육 사례를 제안하였다. 이와 같은 데이터과학의 기초 교육내용을 담아, 스프레드시트 도구를 활용한 34시간 17주 교육 과정을 제시하였다. 데이터 수집, 가공 및 분석을 위한 도구로서, 스프레드시트는 파이썬과 달리, 프로그래밍 언어 및 자료구조에 대한 학습 부담이 없고, 질적 데이터와 양적 데이터에 대한 가공 및 분석 이론을 시각적으로 습득할 수 있는 장점이 있다. 본 교육 사례 연구의 결과물로서, 세가지 예측 가설 검증 사례들을 제시하고 분석하였다. 첫 번째로, 양적 공공데이터를 수집하여 모집단의 그룹별 평균값 차이 예측 가설을 검증하였다. 두 번째로, 질적 공공데이터를 수집하여 모집단의 질적 데이터 내 연관성 예측 가설을 검증하였다. 세 번째로, 양적 공공데이터를 수집하여 모집단의 양적 데이터 내 상관성 예측 가설 검증에 따른 회귀 예측 모델을 검증하였다. 그리고 본 연구에서 제안한 교육 사례의 효과성을 검증하기 위해, 예비교사와 현장교사의 만족도분석을 실시하였다.

데이터 마이닝 기법을 활용한 군용 항공기 비행 예측모형 및 비행규칙 도출 연구 (A Study on the Development of Flight Prediction Model and Rules for Military Aircraft Using Data Mining Techniques)

  • 유경열;문영주;정대율
    • 한국정보시스템학회지:정보시스템연구
    • /
    • 제31권3호
    • /
    • pp.177-195
    • /
    • 2022
  • Purpose This paper aims to prepare a full operational readiness by establishing an optimal flight plan considering the weather conditions in order to effectively perform the mission and operation of military aircraft. This paper suggests a flight prediction model and rules by analyzing the correlation between flight implementation and cancellation according to weather conditions by using big data collected from historical flight information of military aircraft supplied by Korean manufacturers and meteorological information from the Korea Meteorological Administration. In addition, by deriving flight rules according to weather information, it was possible to discover an efficient flight schedule establishment method in consideration of weather information. Design/methodology/approach This study is an analytic study using data mining techniques based on flight historical data of 44,558 flights of military aircraft accumulated by the Republic of Korea Air Force for a total of 36 months from January 2013 to December 2015 and meteorological information provided by the Korea Meteorological Administration. Four steps were taken to develop optimal flight prediction models and to derive rules for flight implementation and cancellation. First, a total of 10 independent variables and one dependent variable were used to develop the optimal model for flight implementation according to weather condition. Second, optimal flight prediction models were derived using algorithms such as logistics regression, Adaboost, KNN, Random forest and LightGBM, which are data mining techniques. Third, we collected the opinions of military aircraft pilots who have more than 25 years experience and evaluated importance level about independent variables using Python heatmap to develop flight implementation and cancellation rules according to weather conditions. Finally, the decision tree model was constructed, and the flight rules were derived to see how the weather conditions at each airport affect the implementation and cancellation of the flight. Findings Based on historical flight information of military aircraft and weather information of flight zone. We developed flight prediction model using data mining techniques. As a result of optimal flight prediction model development for each airbase, it was confirmed that the LightGBM algorithm had the best prediction rate in terms of recall rate. Each flight rules were checked according to the weather condition, and it was confirmed that precipitation, humidity, and the total cloud had a significant effect on flight cancellation. Whereas, the effect of visibility was found to be relatively insignificant. When a flight schedule was established, the rules will provide some insight to decide flight training more systematically and effectively.

A Study on Deep Learning Model for Discrimination of Illegal Financial Advertisements on the Internet

  • Kil-Sang Yoo; Jin-Hee Jang;Seong-Ju Kim;Kwang-Yong Gim
    • 한국컴퓨터정보학회논문지
    • /
    • 제28권8호
    • /
    • pp.21-30
    • /
    • 2023
  • 인터넷 불법금융광고는 인터넷 카페, 블로그 등을 통해 통장매매, 신용카드·휴대폰결제현금화 및 개인신용정보매매 등 불법금융행위를 목적으로 한다. 금융감독당국의 노력에도 불구하고 불법금융행위는 줄어들지 않고 있다. 본 연구는 인터넷 불법금융광고 게시글에 파이썬 딥러닝 기반 텍스트 분류기법을 적용해 불법여부를 탐지하는 모델을 제안한다. 텍스트 분류기법으로 주로 사용되는 합성곱 신경망(CNN: Convolutional Neural Network), 순환 신경망(RNN: Recurrent Neural Network), 장단기 메모리(LSTM: Long-Short Term Memory) 및 게이트 순환 유닛(GRU: Gated Recurrent Unit)을 활용한다. 그동안 수작업으로 심사한 불법확인 결과를 기초 데이터로 이용한다. 한국어 자연어처리와 딥러닝 모델의 하이퍼파라미터 조절을 통해 최적의 성능을 보이는 모델을 완성하였다. 본 연구는 그동안 이뤄지지 않았던 인터넷 불법금융광고 판별을 위한 딥러닝 모델을 제시하였다는데 큰 의미가 있다. 또한 딥러닝 모델에서 91.3~93.4% 수준의 정확도를 보임으로써 불법금융광고 탐지에 딥러닝 모델을 실제 적용하여 불법금융광고 근절에 기여할 수 있기를 기대해 본다.

챗GPT를 활용한 기록관리 메타데이터 추출 사례연구 (A Case Study on Metadata Extractionfor Records Management Using ChatGPT)

  • 김민지;강성희;이해영
    • 한국기록관리학회지
    • /
    • 제24권2호
    • /
    • pp.89-112
    • /
    • 2024
  • 기록관리에서 메타데이터는 기록을 구성하는 필수 요소 중 하나로 기록물을 적절하게 관리하고 이해하도록 하는데 매우 중요한 역할을 한다. 기록관리 업무에서 메타데이터 요소들의 자동 부여가 불가능할 경우에는 기록전문가가 메타데이터 값을 직접 입력해야 한다. 이러한 업무의 불편함을 개선하기 위해 본 연구에서는 신기술인 챗GPT를 활용하여 기록관리 메타데이터 요소의 추출 방안을 제시하고자 하였다. 챗GPT 기술을 활용하기 위해 파이썬 프로그램과 랭체인 라이브러리를 이용하여 PDF 문서를 제시하고 질문을 통해 기록물의 메타데이터를 추출해보았고, 챗GPT 온라인 서비스를 통해 여러 건의 PDF 문서를 첨부하여 기록물의 메타데이터 요소를 추출해보았다. 그 결과 챗GPT-3.5 turbo를 사용한 랭체인에서는 보안상으로는 안전한 추출 방법이긴 하나 메타데이터의 정확한 요소를 얻기에는 다소 한계가 있었고, 챗GPT-4 온라인 서비스에서는 보안상 중요 문서를 첨부할 수 없지만 비교적 정확한 결과를 추출하였다. 이를 통해 기록관리에서의 메타데이터 추출을 위한 챗GPT 기술 활용의 가능성을 타진할 수 있었고, 챗GPT 관련 기술의 발달에 따라 좀 더 안전하고 정확한 결과 추출이 가능해질 것이다. 이러한 챗GPT의 장점을 활용함으로써 기록관에서 기록 및 메타데이터의 관리적 측면에서 업무의 효율성 및 생산성을 증대시키는데 도움을 줄 수 있을 것이라 기대한다.

2012년 신 개정 정보 교육과정의 '문제 해결 방법과 절차' 영역을 위한 수업 모형 개발 (Development of Teaching Model for 'Problem-solving methods and procedures' section in the 2012's revised Informatics curriculum)

  • 현태익;최재혁;이종희
    • 한국컴퓨터정보학회논문지
    • /
    • 제17권8호
    • /
    • pp.189-201
    • /
    • 2012
  • 이 연구는 일반계고등학교 신 개정 정보 교육과정의 '문제 해결 방법과 절차' 영역의 효과적인 교수 학습을 위한 수업 모형을 개발하고 그것의 효과성을 검증하는데 목적이 있다. 중학교에서 이 영역을 학습하지 못한 일반계 고등학생들을 위해 중학교 교육과정을 포함할 필요가 있고, 학습자의 발달 단계에 알맞은 프로그래밍 언어를 채택하여 인지적 부담을 줄일 필요가 있다. 재미있게 프로그래밍 할 수 있는 퍼즐을 학습 예제로 사용할 필요가 있다. 연구 수행을 위한 연구 방법은 ADDIE 모형에 따라 수행한다. 수업 모형의 프로그래밍 언어로는 파이썬을 선택한다. 이 수업 모형의 효과성을 평가하고자 컴퓨터 부 학생들을 대상으로 수업을 진행하였고, 컴퓨터교육과 예비 교사들이 모의수업을 하였다. 예비교사의 75%가 수업 모형에 만족하였다. 2012년 3월부터 23시간동안 일반계고등학교 정보 교과 수업에 적용하였다. 수업 전 후에 문제해결력 향상 여부를 알아보기 위해 PSI 검사를 하고, 중간고사 정보 점수와 비교하여 약간의 정상관관계가 있다고 분석하였다. 따라서 개발한 수업 모형이 위 영역의 교수 학습에 효과가 있다고 분석한다. 그러므로 정보 교사들의 교수 학습 수업 모형의 지표가 되고, 예비 교사의 교육 자료로 활용하는 것을 제안한다.

심층 신경망을 이용한 영상 내 파프리카 인식 알고리즘 연구 (A Study on the Recognition Algorithm of Paprika in the Images using the Deep Neural Networks)

  • 화지호;이봉기;이대원
    • 한국농업기계학회:학술대회논문집
    • /
    • 한국농업기계학회 2017년도 춘계공동학술대회
    • /
    • pp.142-142
    • /
    • 2017
  • 본 연구에서는 파프리카를 자동 수확하기 위한 시스템 개발의 일환으로 파프리카 재배환경에서 획득한 영상 내에 존재하는 파프리카 영역과 비 파프리카 영역의 RGB 정보를 입력으로 하는 인공신경망을 설계하고 학습을 수행하고자 하였다. 학습된 신경망을 이용하여 영상 내 파프리카 영역과 비 파프리카 영역의 구분이 가능 할 것으로 사료된다. 심층 신경망을 설계하기 위하여 MS Visual studio 2015의 C++, MFC와 Python 및 TensorFlow를 사용하였다. 먼저, 심층 신경망은 입력층과 출력층, 그리고 은닉층 8개를 가지는 형태로 입력 뉴런 3개, 출력 뉴런 4개, 각 은닉층의 뉴런은 5개로 설계하였다. 일반적으로 심층 신경망에서는 은닉층이 깊을수록 적은 입력으로 좋은 학습 결과를 기대 할 수 있지만 소요되는 시간이 길고 오버 피팅이 일어날 가능성이 높아진다. 따라서 본 연구에서는 소요시간을 줄이기 위하여 Xavier 초기화를 사용하였으며, 오버 피팅을 줄이기 위하여 ReLU 함수를 활성화 함수로 사용하였다. 파프리카 재배환경에서 획득한 영상에서 파프리카 영역과 비 파프리카 영역의 RGB 정보를 추출하여 학습의 입력으로 하고 기대 출력으로 붉은색 파프리카의 경우 [0 0 1], 노란색 파프리카의 경우 [0 1 0], 비 파프리카 영역의 경우 [1 0 0]으로 하는 형태로 3538개의 학습 셋을 만들었다. 학습 후 학습 결과를 평가하기 위하여 30개의 테스트 셋을 사용하였다. 학습 셋을 이용하여 학습을 수행하기 위해 학습률을 변경하면서 학습 결과를 확인하였다. 학습률을 0.01 이상으로 설정한 경우 학습이 이루어지지 않았다. 이는 학습률에 의해 결정되는 가중치의 변화량이 너무 커서 비용 함수의 결과가 0에 수렴하지 않고 발산하는 경향에 의한 것으로 사료된다. 학습률을 0.005, 0.001로 설정 한 경우 학습에 성공하였다. 학습률 0.005의 경우 학습 횟수 3146회, 소요시간 20.48초, 학습 정확도 99.77%, 테스트 정확도 100%였으며, 학습률 0.001의 경우 학습 횟수 38931회, 소요시간 181.39초, 학습 정확도 99.95%, 테스트 정확도 100%였다. 학습률이 작을수록 더욱 정확한 학습이 가능하지만 소요되는 시간이 크고 국부 최소점에 빠질 확률이 높았다. 학습률이 큰 경우 학습 소요 시간이 줄어드는 반면 학습 과정에서 비용이 발산하여 학습이 이루어지지 않는 경우가 많음을 확인 하였다.

  • PDF

빅데이터 분석을 이용한 세종시 건설 계획에 관한 여론 변화 (A Changes of Opinion according to the Sejong City Construction Plan Using Media Big Data Analysis)

  • 조성수;이상호
    • 한국콘텐츠학회논문지
    • /
    • 제20권8호
    • /
    • pp.19-33
    • /
    • 2020
  • 본 연구의 목적은 빅데이터 분석 기법을 이용하여 세종시 건설 계획에 대한 여론 변화를 분석하는 것이다. 연구 자료는 세종시 건설 계획과 관련된 한겨레와 동아일보, 한국일보 등 언론사의 신문기사이다. 세종시 건설 계획은 신행정수도, 행정중심복합도시, 세종시 수정안 등 3개 시기로 구분되었다. 분석 방법은 파이썬과 Gephi 0.9.2 프로그램을 활용한 빈도분석, 감성분석, 사회연결망분석이다. 세종시 건설에 따라 각 신문사의 쟁점에 대한 변화가 있었다. 첫째, 빈도분석 결과, 한겨레의 키워드는 세종시 건설 시기에 따라 찬성-찬성-반대의 특성을 나타내고 있었다. 동아일보는 반대-반대-찬성의 입장을 갖는 것으로 분석되었다. 한국일보는 반대-찬성-반대 경향을 갖는 것으로 분석되었다. 둘째, 감성분석 결과, 각 언론사는 논조의 특성이 변화되고 있었다. 한겨레는 긍정-긍정-부정 논조 특성을 보이고 있었고, 동아일보는 부정 - 부정 - 긍정으로 변화되었다. 한국일보는 부정-긍정-부정으로 변화되었다. 셋째, 사회연결망분석 결과는 다음과 같다. 각 언론사는 세종시 건설 시기에 진보와 보수, 중도 등 정치적, 이념적 특성에 따라 변화를 보이고 있었다. 한겨레는 지역균형발전에 초점을 맞추고 있었으며, 동아일보는 보수의 의견을 대변하고 있었다. 한국일보는 세종시 건설 시기에 여·야가 대립하는 이슈에 대해 부각 시키고 있었다.

CNN 기반 공조 덕트 청소 로봇의 교차점 검출 알고리듬 개발 (Development of a CNN-based Cross Point Detection Algorithm for an Air Duct Cleaning Robot)

  • 이사랑;노은솔;홍석무
    • 한국산학기술학회논문지
    • /
    • 제21권8호
    • /
    • pp.1-8
    • /
    • 2020
  • 건물 내부 공기 순환을 위한 공조 덕트는 장기간 사용 시 오염물질이 내부에 쌓여 인력 또는 로봇이 투입되어 청소가 주기적으로 수행된다. 청소는 작업시간과 인건비 문제를 해결하기 위해 최근 원격 조정으로 로봇을 작동시키는 방법이 사용되고 있다. 하지만 완전 자동화가 아니라 인력 의존적이며 청소 시간 단축에도 한계가 있다. 본 연구는 공조 덕트 청소 로봇 자율 주행을 위해 교차점 검출 알고리듬 개발에 대한 것이다. 자율 주행은 청소 로봇에 장착된 카메라 영상에서 교차점 검출 알고리듬을 통해 추출된 점과 중심점 사이의 거리 및 각도를 계산하여 로봇을 제어하도록 구성된다. 교차점 검출을 위한 데이터는 3D CAD 프로그램을 이용한 공조 덕트 내부 이미지를 Python을 이용해 교차점 좌표 및 두 경계선 각도를 추출하여 생성했다. 검출 알고리듬은 딥러닝 중 CNN 모델이 학습에 사용됐으며 학습 모델은 입력이미지에서 교차점 정보를 추출하며 학습 모델 정확도는 면적과 거리를 이용해 판단했다. 알고리듬 검증을 위해 청소 로봇을 제작했으며 로봇은 몸체, Raspberry Pi, 카메라 및 초음파 센서를 포함한 제어부, 모터와 바퀴를 포함한 구동부로 구성된다. 알고리듬을 탑재한 로봇 청소기 주행 영상을 통해 알고리듬을 검증했다. 향후 공조 덕트뿐만 아니라 에스컬레이터 등 다양한 환경에서 적용 가능할 것으로 기대된다.