• 제목/요약/키워드: python

검색결과 679건 처리시간 0.024초

Computational Optimization of Bioanalytical Parameters for the Evaluation of the Toxicity of the Phytomarker 1,4 Napthoquinone and its Metabolite 1,2,4-trihydroxynapththalene

  • Gopal, Velmani;AL Rashid, Mohammad Harun;Majumder, Sayani;Maiti, Partha Pratim;Mandal, Subhash C
    • 대한약침학회지
    • /
    • 제18권2호
    • /
    • pp.7-18
    • /
    • 2015
  • Objectives: Lawsone (1,4 naphthoquinone) is a non redox cycling compound that can be catalyzed by DT diaphorase (DTD) into 1,2,4-trihydroxynaphthalene (THN), which can generate reactive oxygen species by auto oxidation. The purpose of this study was to evaluate the toxicity of the phytomarker 1,4 naphthoquinone and its metabolite THN by using the molecular docking program AutoDock 4. Methods: The 3D structure of ligands such as hydrogen peroxide ($H_2O_2$), nitric oxide synthase (NOS), catalase (CAT), glutathione (GSH), glutathione reductase (GR), glucose 6-phosphate dehydrogenase (G6PDH) and nicotinamide adenine dinucleotide phosphate hydrogen (NADPH) were drawn using hyperchem drawing tools and minimizing the energy of all pdb files with the help of hyperchem by $MM^+$ followed by a semi-empirical (PM3) method. The docking process was studied with ligand molecules to identify suitable dockings at protein binding sites through annealing and genetic simulation algorithms. The program auto dock tools (ADT) was released as an extension suite to the python molecular viewer used to prepare proteins and ligands. Grids centered on active sites were obtained with spacings of $54{\times}55{\times}56$, and a grid spacing of 0.503 was calculated. Comparisons of Global and Local Search Methods in Drug Docking were adopted to determine parameters; a maximum number of 250,000 energy evaluations, a maximum number of generations of 27,000, and mutation and crossover rates of 0.02 and 0.8 were used. The number of docking runs was set to 10. Results: Lawsone and THN can be considered to efficiently bind with NOS, CAT, GSH, GR, G6PDH and NADPH, which has been confirmed through hydrogen bond affinity with the respective amino acids. Conclusion: Naphthoquinone derivatives of lawsone, which can be metabolized into THN by a catalyst DTD, were examined. Lawsone and THN were found to be identically potent molecules for their affinities for selected proteins.

생성적 적대 신경망(Generative Adversarial Network)을 이용하여 획득한 18F-FDG Brain PET/CT 인공지능 영상의 비교평가 (Comparative Evaluation of 18F-FDG Brain PET/CT AI Images Obtained Using Generative Adversarial Network)

  • 김종완;김정열;임한상;김재삼
    • 핵의학기술
    • /
    • 제24권1호
    • /
    • pp.15-19
    • /
    • 2020
  • 본 연구는 최근에 활발히 연구되고 있는 딥러닝 기술인 생성적 적대 신경망(GAN)을 핵의학 영상에 적용하여 잠재적으로 유용성이 있는지 확인해보고자 하였다. 본원에서 18F-FDG Brain PET/CT검사를 진행한 30명의 환자를 대상으로 하였고 List모드로 15분 검사한 후 이를 1, 2, 3, 4, 5분 초기획득시간 이미지로 재구성하였다. 이 중 25명의 환자를 GAN모델의 학습을 위한 트레이닝 이미지로 사용하고 5명의 환자를 학습된 GAN모델의 검증을 위한 테스트 이미지로 사용하였다. 학습된 GAN모델에 입력으로 1, 2, 3, 4, 5분의 초기획득 이미지를 넣고 출력으로 15분 인공지능 표준획득 이미지를 획득한 후 이를 기존의 15분 표준획득시간 검사 이미지와 비교 평가하였다. 평가에는 정량화된 이미지 평가방법인 평균제곱오차, 최대신호 대 잡음비, 구조적 유사도 지수를 이용하였다. 평가 결과 초기획득시간 이미지에서 1에서 5분으로 갈수록 실제 표준획득시간 이미지에 가까운 평균제곱오차, 최대신호 대 잡음비, 구조적 유사도 지수 수치를 나타내었다. 이러한 연구를 통해 앞으로 인공지능 기술이 핵의학 분야에서 의료영상의 획득시간 단축과 관련하여 중요한 영향을 미칠 수 있을 것으로 사료된다.

풍수해 대비 오픈소스 기반 공간분석 도구 개발 (Development of an Open Source-based Spatial Analysis Tool for Storm and Flood Damage)

  • 김민준;이창규;황수연;함정수;최진무
    • 대한원격탐사학회지
    • /
    • 제37권5_3호
    • /
    • pp.1435-1446
    • /
    • 2021
  • 태풍으로 인한 풍수해는 매년 한반도에 많은 피해를 주고 있다. 재난 발생 시 피해가 최소화 되도록 신속한 의사 결정을 위해서는 예상되는 피해정보와 대피방안 등에 대한 사전 분석이 요구된다. 본 연구에서는 재난단계에 따라 필요한 정보를 제공할 수 있는 분석 모듈을 개발하고자 하였다. 태풍 대비단계에서 활용할 수 있도록 북상 중인 태풍경로와 유사한 과거태풍경로 및 과거피해정보를 확인할 수 있는 기능, 고립 위험 지역을 추출하는 기능, 저수지 붕괴 지역을 추출하는 기능을 개발하였다. 대응 및 복구 초기단계에서 활용할 수 있도록 현 침수심을 고려한 예상침수범위 추출 기능, 인구, 건물, 농지 등에 예상되는 피해정보 분석 기능, 대피정보를 제공하는 기능도 포함하였다. 또한 분석결과 표출을 위해 자동화된 웹 지도 작성 방법을 제시하였다. 분석기능은 파이썬 오픈소스 기반으로 개발하여 모듈화했으며, 웹 표출 기능은 자바스크립트 기반으로 구현하였다. 본 연구에서 개발된 도구들은 풍수해 대비 모니터링과 초기대응 단계에서 신속한 의사결정을 위해 효율적으로 활용될 수 있을 것이다.

LDA 토픽모델링을 활용한 인공지능 관련 국가R&D 연구동향 분석 (A Study on Analysis of national R&D research trends for Artificial Intelligence using LDA topic modeling)

  • 양명석;이성희;박근희;최광남;김태현
    • 인터넷정보학회논문지
    • /
    • 제22권5호
    • /
    • pp.47-55
    • /
    • 2021
  • 특정 주제분야에 대한 연구동향 분석은 대부분 논문, 특허 등 문헌정보를 대상으로 한 키워드 추출을 통해 토픽모델링 기법을 적용하여 주요 연구주제와 연도별 추이 등을 살펴보는 방식을 활용하고 있다. 본 논문에서는 국가과학기술지식정보서비스(NTIS)에서 제공하는 인공지능 관련 국가연구개발사업 과제정보를 대상으로 LDA(Latent Dirichlet Allocation) 토픽모델링 기법을 활용하여 연구주제와 관련된 토픽들을 추출·분석하여 국가연구개발사업에 대한 연구주제와 투자방향에 대하여 분석하고자 한다. NTIS는 국가연구개발사업·과제정보를 비롯하여, 논문, 특허, 보고서 등 연구를 통해 생성된 주요 연구개발성과에 이르기까지 방대한 양의 국가R&D 정보를 제공하고 있다. 본 논문에서는 NTIS 통합검색에서 인공지능 키워드와 관련된 분류 검색을 수행하여 검색결과를 확인하고, 최근 3개년 과제정보를 다운로드 받아 기초데이터를 구축하였다. 파이썬에서 제공하는 LDA 토픽모델링 라이브러리를 활용하여 기초데이터 (연구목표, 연구내용, 기대효과, 키워드 등)를 대상으로 관련 토픽과 주제어를 추출하고 분석하여 연구투자방향에 대한 인사이트를 도출하였다.

모순 문제 해결을 위한 의사결정트리 기반 나비 알고리즘의 개발과 적용 (Development and Application of the Butterfly Algorithm Based on Decision Making Tree for Contradiction Problem Solving)

  • 현정석;고예준;김융결;전승재;박찬정
    • 컴퓨터교육학회논문지
    • /
    • 제22권1호
    • /
    • pp.87-98
    • /
    • 2019
  • 모순에 대한 일반적인 생각은 모순을 해결 가능성이 전혀 없는 공집합이나 논리적으로 틀린 것이다. 두 가지 대안 중에서 어느 쪽도 바람직하지 못한 결과를 초래하는 딜레마는 그 안에 숨어 있는 모순을 해결해야 하므로 해결이 어렵다. 하지만 이런 특성으로 인해 역설적으로 모순 해결은 혁신적이고 창의적인 문제 해결로 간주 되어왔다. 문제의 해법을 모순 해결의 관점에서 분석하는 트리즈(TRIZ)는 그동안 컴퓨터보다는 인간의 관점에서 문제 해결 방법으로 사용되었다. 트리즈처럼 모순 해결 중심으로 문제를 분석하는 나비 모형은 문제 해결의 자동화 관점에서 기호 논리학을 이용하여 모순 문제의 유형을 분석하였다. 모순문제유형별 구체적 해결전략을 적용하기 위해 본 연구에서는 의사결정트리 기반의 나비 알고리즘을 설계하였다. 본 연구는 파이선 tkInter를 바탕으로 주어진 모순 문제의 구체적 해결전략을 찾아 사용자들에게 제시하는 시각화 도구를 개발하였다. 개발한 도구를 검증하기 위하여 중학교 3학년 학생들이 나비 알고리즘을 학습한 후, 나무지지대의 모순 문제를 분석하도록 하였다. 학생들이 새로운 해결책을 찾아 발명대회에 참가하여 대상을 받았다. 본 연구에서 개발한 의사결정트리 기반 나비 알고리즘은 문제 해결 초기에 문제의 해결공간을 체계적으로 줄여주어 시행착오 없이 모순 문제를 해결하는데 도움을 줄 수 있다.

자동 균열 조사기법의 정확도 평가를 위한 조사선 기반의 지표 제안 (Scanline Based Metric for Evaluating the Accuracy of Automatic Fracture Survey Methods)

  • 김진언;송재준
    • 터널과지하공간
    • /
    • 제29권4호
    • /
    • pp.230-242
    • /
    • 2019
  • 신속한 암반 및 암석 균열 조사를 위해서는 자동화된 조사기법이 필요하다. 그러나 자동 조사기법의 균열 지도가 수동으로 조사한 것과 얼마나 일치하는지 표기하는 단일 지표가 없어서 그 정확도를 평가하는데 어려움이 있다. 따라서 본 연구에서는 균열 지도 간의 일치도를 단일 값으로 표현하는 조사선 교차 일치도 (Scanline Intersection Similarity, SIS)라는 지표를 새롭게 제안하였다. 제안된 지표는 두 균열 지도의 균열 빈도를 다수의 조사선 상에서 비교하여 이들 간의 기하학적 일치도를 도출한다. 해당 지표의 적용성을 검토하기 위해 컴퓨터 비전 (Computer Vision) 분야에서 널리 사용하는 일치도 지표인 Intersection Over Union (IoU)과 비교분석하였다. IoU는 균열의 미시적 형태 차이를 과대평가하는 반면에, 제안된 지표의 경우 미시적 형태 차이보다 경사와 같은 거시적 형태 차이를 더 민감하게 반영하였다. 따라서 균열의 거시적 형태가 중요한 암반 공학적 관점에서, 제안된 지표가 IoU 보다 균열 지도의 일치도 지표로써 적합하였다. 더 나아가 제안된 지표를 딥러닝(Deep Learning)을 이용한 균열 조사기법에 적용해본 결과, 해당 기법의 정확도가 조사선 교차 일치도로 0.674 임을 확인하였다.

Machine Learning Model to Predict Osteoporotic Spine with Hounsfield Units on Lumbar Computed Tomography

  • Nam, Kyoung Hyup;Seo, Il;Kim, Dong Hwan;Lee, Jae Il;Choi, Byung Kwan;Han, In Ho
    • Journal of Korean Neurosurgical Society
    • /
    • 제62권4호
    • /
    • pp.442-449
    • /
    • 2019
  • Objective : Bone mineral density (BMD) is an important consideration during fusion surgery. Although dual X-ray absorptiometry is considered as the gold standard for assessing BMD, quantitative computed tomography (QCT) provides more accurate data in spine osteoporosis. However, QCT has the disadvantage of additional radiation hazard and cost. The present study was to demonstrate the utility of artificial intelligence and machine learning algorithm for assessing osteoporosis using Hounsfield units (HU) of preoperative lumbar CT coupling with data of QCT. Methods : We reviewed 70 patients undergoing both QCT and conventional lumbar CT for spine surgery. The T-scores of 198 lumbar vertebra was assessed in QCT and the HU of vertebral body at the same level were measured in conventional CT by the picture archiving and communication system (PACS) system. A multiple regression algorithm was applied to predict the T-score using three independent variables (age, sex, and HU of vertebral body on conventional CT) coupling with T-score of QCT. Next, a logistic regression algorithm was applied to predict osteoporotic or non-osteoporotic vertebra. The Tensor flow and Python were used as the machine learning tools. The Tensor flow user interface developed in our institute was used for easy code generation. Results : The predictive model with multiple regression algorithm estimated similar T-scores with data of QCT. HU demonstrates the similar results as QCT without the discordance in only one non-osteoporotic vertebra that indicated osteoporosis. From the training set, the predictive model classified the lumbar vertebra into two groups (osteoporotic vs. non-osteoporotic spine) with 88.0% accuracy. In a test set of 40 vertebrae, classification accuracy was 92.5% when the learning rate was 0.0001 (precision, 0.939; recall, 0.969; F1 score, 0.954; area under the curve, 0.900). Conclusion : This study is a simple machine learning model applicable in the spine research field. The machine learning model can predict the T-score and osteoporotic vertebrae solely by measuring the HU of conventional CT, and this would help spine surgeons not to under-estimate the osteoporotic spine preoperatively. If applied to a bigger data set, we believe the predictive accuracy of our model will further increase. We propose that machine learning is an important modality of the medical research field.

아파트 단지의 보행효율성에 관한 연구 - 단지 내 보행로를 중심으로 - (An Study of Pedestrian Efficiency in Apartment Complexes - Focused on Pedestrian Path in Apartment Complexes -)

  • 양동우;유상균
    • 대한건축학회논문집:계획계
    • /
    • 제34권11호
    • /
    • pp.85-94
    • /
    • 2018
  • This study aims to investigate how easy pedestrians get around within/through the "Apartment Complexes (AC), " a common style of high-rise multi-family housing in Korea. Over the past six decades, the AC has been the most conventional way to provide standardized housing efficiently to address the problems of the shortage of housing and the substandard housing, due to the explosion of urban population with the rapid industrialization. The AC is a huge chunk of homeogenous multi-family housing, mostly condos with decent infrastructure, including parks, pedestrian passages, schools, ect. Both in the new town development and urban renewal programs have utilized the advantages of the AC. Since the design principals of AC tend to adopt the "protective design" to prevent cars and pedestrians coming outside from passing it, it has been criticised for dissecting the continuity of socioeconomic context in neighborhoods. The neo-traditional planning urbanists, including Jane Jacobs, emphasize that smaller blocks and grid road newtworks are the key in improving social, cultural, and economic vitality of the neighborhoods, because these design concepts allow more pedestrians and different types of people to be mixed in a neighborhood. In this study, we first adopted objective measures for pedestrian accessibility and pedestrian efficiency. These measures were used to calculate the lengths of shortest paths from residential buildings to the edges of AC. We tested the difference in shortest paths between the current pedestrian networks of AC and hypothetical grid networks on the AC, and the relative difference is considered as the pedestrian efficiency, using the network analysis function of Geographic Information Systems (GIS) and Python programming. We found from the randomly selected 30 ACs that the existing non-grid road networks in ACs are worse than the hypothesized grid networks, in terms of pedestrian efficiency. In average, pedestrians in AC with the conventional road networks have to walk than 25%, 26%, and 27% longer than the networks of $125{\times}45m$, $100{\times}45m$, and $75{\times}45m$, respectively. With the t-test analysis, we found the pedestrian efficiency of AC with the conventional network is lower than grid-networks. Many new urbanists stress, easiness of walking is one of the most import elements for community building and social bonds. With the findings from the objective measures of pedestrian accessibility and efficiency, the AC would have limitations to attract people outside into the AC itself, which would increase dis-connectivity with adjacent areas.

교사교육을 위한 공공 빅데이터 수집 및 스프레드시트 활용 기초 데이터과학 교육 사례 연구 (A Case Study of Basic Data Science Education using Public Big Data Collection and Spreadsheets for Teacher Education)

  • 허경
    • 정보교육학회논문지
    • /
    • 제25권3호
    • /
    • pp.459-469
    • /
    • 2021
  • 본 논문에서는 현장 교사 및 예비교사를 위한 기초 데이터과학 실습 교육 사례를 연구하였다. 본 논문에서는 기초 데이터과학 교육을 위해, 스프레드시트 SW를 데이터 수집 및 분석 도구로 사용하였다. 이후 데이터 가공, 예측 가설 및 예측 모델 검증을 위한 통계학을 교육하였다. 또한, 수천명 단위의 공공 빅데이터를 수집 및 가공하고, 모집단 예측 가설 및 예측 모델을 검증하는 교육 사례를 제안하였다. 이와 같은 데이터과학의 기초 교육내용을 담아, 스프레드시트 도구를 활용한 34시간 17주 교육 과정을 제시하였다. 데이터 수집, 가공 및 분석을 위한 도구로서, 스프레드시트는 파이썬과 달리, 프로그래밍 언어 및 자료구조에 대한 학습 부담이 없고, 질적 데이터와 양적 데이터에 대한 가공 및 분석 이론을 시각적으로 습득할 수 있는 장점이 있다. 본 교육 사례 연구의 결과물로서, 세가지 예측 가설 검증 사례들을 제시하고 분석하였다. 첫 번째로, 양적 공공데이터를 수집하여 모집단의 그룹별 평균값 차이 예측 가설을 검증하였다. 두 번째로, 질적 공공데이터를 수집하여 모집단의 질적 데이터 내 연관성 예측 가설을 검증하였다. 세 번째로, 양적 공공데이터를 수집하여 모집단의 양적 데이터 내 상관성 예측 가설 검증에 따른 회귀 예측 모델을 검증하였다. 그리고 본 연구에서 제안한 교육 사례의 효과성을 검증하기 위해, 예비교사와 현장교사의 만족도분석을 실시하였다.

셀슈머(Sell-sumer)로 진화한 인플루언서의 새로운 유형과 소셜미디어에서의 세일즈 전략 (Sell-sumer: The New Typology of Influencers and Sales Strategy in Social Media)

  • 신하진;김수림;홍만의;황봄님;양희동
    • 지식경영연구
    • /
    • 제22권4호
    • /
    • pp.217-235
    • /
    • 2021
  • 전 세계 인구의 49%가 소셜미디어 플랫폼을 사용하면서 소셜미디어 내에서의 소통과 콘텐츠 공유가 그 어느때보다 활발해지고 있다. 이러한 환경 속에서 1인미디어 시장이 빠른 속도로 성장하고 여론을 형성하면서 셀슈머(Sell-summer)라는 새로운 트렌드가 등장했다. 본 연구는 인플루언서의 상업적/비상업적 키워드의 주제 집중도와 상업적 포스팅의 비율이 매출에 미치는 영향 분석하여 제품 카테고리별 인플루언서의 새로운 유형을 정의하였다. 이는 소셜미디어 내에서 활동하는 인플루언서가 셀슈머로 변모하며 구사하는 새로운 세일즈 전략에 도움이 될 것으로 희망한다. 본 연구의 방법은 파이썬 환경에서 인플루언서의 상업적/비상업적 포스팅으로 분류하고, 이를 KoNLPy를 이용하여 텍스트 마이닝 한 후 FastText 기반 단어 간의 유사도를 계산하였다. 그 결과, 인플루언서의 상업적 포스팅의 키워드 주제 집중도가 높을수록(narrow) 매출이 높아진다는 것을 확인하였다. 또한, 군집분석을 통해 제품 카테고리별 인플루언서 유형을 4가지로 분류하고 매출에 따른 집단 간의 차이가 유의함을 확인하였다. 즉, 본 연구의 시사점은 소셜미디어에서 활동하는 인플루언서들과 이를 마케팅 도구로 활용하고자 하는 마케터들에게 소셜미디어 세일즈 전략의 실증적인 해법을 제시할 수 있을 것이다.