• 제목/요약/키워드: Learning Analytics

검색결과 168건 처리시간 0.02초

Big Data and Knowledge Generation in Tertiary Education in the Philippines

  • Fadul, Jose A.
    • Journal of Contemporary Eastern Asia
    • /
    • 제13권1호
    • /
    • pp.5-18
    • /
    • 2014
  • This exploratory study investigates the use of a computational knowledge engine (WolframAlpha) and social networking sites (Gmail, Yahoo and Facebook) by 200 students at De La Salle-College of Saint Benilde, their "friends" and their "friends of friends" during the 2009 through 2013 school years, and how this appears to have added value in knowledge generation. The primary aim is to identify what enhances productiveness in knowledge generation in Philippine Tertiary Education. The phenomenological approach is used, therefore there are no specific research questions or hypotheses proposed in this paper. Considering that knowledge generation is a complex phenomenon, a stochastic modelling approach is also used for the investigation that was developed specifically to study un-deterministic complex systems. A list of salient features for knowledge generation is presented as a result. In addition to these features, various problem types are identified from literature. These are then integrated to provide a proposed framework of inclusive (friendly) and innovative social networks, for knowledge generation in Philippine tertiary education. Such a framework is necessarily multidisciplinary and useful for problem-solving in a globalized and pluralist reality. The implementation of this framework is illustrated in the three parts of the study: Part 1: Online lessons, discussions, and examinations in General Psychology, Introduction to Sociology, and Life and Works of Jose Rizal, for the author's students in De La Salle-College of Saint Benilde; Part 2: Facebook Report analytics of students and teachers, their friends and their friends of friends via WolframAlpha; and Part 3: Social Network Analysis of the people and groups influencing the courses' scope-and-sequence in the new General Education Curriculum for Tertiary Schools and Institutions in the Philippines.

초.중.고 수학교과서 해석영역의 연계성에 관한 연구 (A Study on Articulation of the Analysis part in Elementary, Middle and High School Mathematics Textbooks)

  • 송순희;김윤영
    • 한국수학교육학회지시리즈A:수학교육
    • /
    • 제37권1호
    • /
    • pp.87-99
    • /
    • 1998
  • Mathematics education is very important in future because mathematics is the basis of every study, for example, natural and social science, etc. Our nation wide curriculum has been revised six times since 1948. In 1992, the sixth revision was enforced and we are using the revised textbook now. This study aims at helping of continuous investigation for educational curriculum and textbook, and aims at efficient teaching by preventing unnecessary repetition and excessive gap in real field by analyzing the articulation of Analytics part in school textbook from elementary to high school. This thesis consists of the followings. 1.Investigation of the principles and natures of articulation along with curriculum course and notice the articulation based on the analysing tools. 2.Importance of learning functions. 3.To get the propriety, formation of 8 judging group and classification of content materials in function chapters by the judges based on the analyzing tools. 4.Analysis of presentation method and terminologies in the first concepts, suggestion teaching method to reduce gap and help of understanding on first concepts in the study of function. As a result 'development' consists of 55.8% of the total and it is higher than 'duplication' and 'gap'. To be specific in periods, between elementary school and middle school 'development' takes 64.5% and this shows an acceptable articulation in the period. While 39.4% of 'gap' in articulation between middle school and high school looks high compared with 'gap' between the previous periods. The item suggested with the 'gap' is the 'definition of function', 'value of function', 'parallel translation', 'exponential and logarithmic function'. It is observed that these materials is suddenly appeared in high school.

  • PDF

Digital Epidemiology: Use of Digital Data Collected for Non-epidemiological Purposes in Epidemiological Studies

  • Park, Hyeoun-Ae;Jung, Hyesil;On, Jeongah;Park, Seul Ki;Kang, Hannah
    • Healthcare Informatics Research
    • /
    • 제24권4호
    • /
    • pp.253-262
    • /
    • 2018
  • Objectives: We reviewed digital epidemiological studies to characterize how researchers are using digital data by topic domain, study purpose, data source, and analytic method. Methods: We reviewed research articles published within the last decade that used digital data to answer epidemiological research questions. Data were abstracted from these articles using a data collection tool that we developed. Finally, we summarized the characteristics of the digital epidemiological studies. Results: We identified six main topic domains: infectious diseases (58.7%), non-communicable diseases (29.4%), mental health and substance use (8.3%), general population behavior (4.6%), environmental, dietary, and lifestyle (4.6%), and vital status (0.9%). We identified four categories for the study purpose: description (22.9%), exploration (34.9%), explanation (27.5%), and prediction and control (14.7%). We identified eight categories for the data sources: web search query (52.3%), social media posts (31.2%), web portal posts (11.9%), webpage access logs (7.3%), images (7.3%), mobile phone network data (1.8%), global positioning system data (1.8%), and others (2.8%). Of these, 50.5% used correlation analyses, 41.3% regression analyses, 25.6% machine learning, and 19.3% descriptive analyses. Conclusions: Digital data collected for non-epidemiological purposes are being used to study health phenomena in a variety of topic domains. Digital epidemiology requires access to large datasets and advanced analytics. Ensuring open access is clearly at odds with the desire to have as little personal data as possible in these large datasets to protect privacy. Establishment of data cooperatives with restricted access may be a solution to this dilemma.

Ensemble-based deep learning for autonomous bridge component and damage segmentation leveraging Nested Reg-UNet

  • Abhishek Subedi;Wen Tang;Tarutal Ghosh Mondal;Rih-Teng Wu;Mohammad R. Jahanshahi
    • Smart Structures and Systems
    • /
    • 제31권4호
    • /
    • pp.335-349
    • /
    • 2023
  • Bridges constantly undergo deterioration and damage, the most common ones being concrete damage and exposed rebar. Periodic inspection of bridges to identify damages can aid in their quick remediation. Likewise, identifying components can provide context for damage assessment and help gauge a bridge's state of interaction with its surroundings. Current inspection techniques rely on manual site visits, which can be time-consuming and costly. More recently, robotic inspection assisted by autonomous data analytics based on Computer Vision (CV) and Artificial Intelligence (AI) has been viewed as a suitable alternative to manual inspection because of its efficiency and accuracy. To aid research in this avenue, this study performs a comparative assessment of different architectures, loss functions, and ensembling strategies for the autonomous segmentation of bridge components and damages. The experiments lead to several interesting discoveries. Nested Reg-UNet architecture is found to outperform five other state-of-the-art architectures in both damage and component segmentation tasks. The architecture is built by combining a Nested UNet style dense configuration with a pretrained RegNet encoder. In terms of the mean Intersection over Union (mIoU) metric, the Nested Reg-UNet architecture provides an improvement of 2.86% on the damage segmentation task and 1.66% on the component segmentation task compared to the state-of-the-art UNet architecture. Furthermore, it is demonstrated that incorporating the Lovasz-Softmax loss function to counter class imbalance can boost performance by 3.44% in the component segmentation task over the most employed alternative, weighted Cross Entropy (wCE). Finally, weighted softmax ensembling is found to be quite effective when used synchronously with the Nested Reg-UNet architecture by providing mIoU improvement of 0.74% in the component segmentation task and 1.14% in the damage segmentation task over a single-architecture baseline. Overall, the best mIoU of 92.50% for the component segmentation task and 84.19% for the damage segmentation task validate the feasibility of these techniques for autonomous bridge component and damage segmentation using RGB images.

모바일 부동산중개 애플리케이션의 품질요인이 사용자 만족, 지속적 사용 및 구전의도에 미치는 영향 (An Exploratory Study on the Effects of Mobile Proptech Application Quality Factors on the User Satisfaction, Intention of Continuous Use, and Words-of-Mouth)

  • 김재영 ;김호림
    • 경영정보학연구
    • /
    • 제22권3호
    • /
    • pp.15-30
    • /
    • 2020
  • 부동산 산업에도 빅데이터 분석, 머신러닝 및 가상현실(virtual reality, VR)과 같은 4차산업혁명 관련 최신기술이 접목되며 기술에 의한 산업의 변화가 진행 중이다. 프롭테크(proptech)는 부동산(property)에 디지털 기술(technology)이 결합한 새로운 용어이다. 본 연구는 국내에서 잘 알려져 있고, 현재 다수의 사업이 진행되고 있는 모바일 부동산중개 애플리케이션을 대상으로 품질요소(시스템 품질, 서비스 품질, 인터페이스 품질, 정보 품질)를 종합적인 관점에서 도출하고 분석하는 것을 목표로 하였다. 연구의 수행은 온라인 및 오프라인을 통한 설문조사를 진행하였으며, 총 161개의 표본이 통계분석에 사용되었다. 결과적으로 시스템 품질 및 서비스 품질을 제외한 나머지 품질요인들은 사용자 만족, 지속적 사용 및 구전의도에 대한 주된 영향요인으로 도출되었다. 본 연구의 결과는 주로 부동산 중개서비스, P2P 대출, 광고 플랫폼을 비롯하여 대부분 아파트에 집중되어 있는 국내 프롭테크 기업들이 유럽, 미국, 중국 등 에서와 같이 다양한 분야에서의 프롭테크 산업으로 성장하기 위해서는 추가적 연구가 필요함을 보여주고 있다.

자연어 처리 기법을 활용한 충돌사고 원인 제공 비율 예측 모델 개발 (Collision Cause-Providing Ratio Prediction Model Using Natural Language Processing Analytics)

  • 윤익현;박혜인;이창희
    • 해양환경안전학회지
    • /
    • 제30권1호
    • /
    • pp.82-88
    • /
    • 2024
  • 현대 해양 산업은 기술적 발전을 통해 신속한 발전을 이루고 있다. 이러한 발전을 주도하는 주요 기술 중 하나는 데이터 처리 기술이며, 이 중 자연어 처리 기법은 사람의 언어를 기계가 이해하고 처리할 수 있도록 하는 기술이다. 본 연구는 자연어 처리 기법을 통해 해양안전심판원의 재결서를 분석하여 이미 재결이 이루어진 선박 충돌사고의 원인 제공 비율을 학습한 후, 새로운 재결서를 입력하면 원인 제공 비율을 예측하는 모델을 개발하고자 하였다. 이 모델은 사고 당시 적용되는 항법과 원인 제공 비율에 영향을 주는 핵심 키워드의 가중치를 이용하여 사고의 원인 제공 비율을 계산하는 방식으로 구성하였다. 이 연구는 이러한 방식을 통해 제작한 모델의 정확도를 분석하고, 모델의 실무 적용 가능성을 검토함과 동시에 충돌사고 재발 방지 및 해양사고 당사자들의 분쟁 해결에 기여할 것으로 기대한다.

캐드 교육을 위한 YUKA와 CLO의 패턴 제도 기능 비교: 스커트패턴을 중심으로 (Comparison of Pattern Design Functions in YUKA and CLO for CAD Education: Focusing on Skirt Patterns)

  • 최영림
    • 한국의류산업학회지
    • /
    • 제26권1호
    • /
    • pp.65-77
    • /
    • 2024
  • This study aimed to propose effective ways to integrate CLO into educational settings by conducting a comparative analysis of pattern functions in YUKA and CLO, specifically focusing on skirt prototypes and variations. CLO, being a 3D virtual sample CAD tool, is mainly used in education to facilitate the creation of 3D virtual clothing. In order to explore the applicability of CLO's pattern functions in pattern education, CAD education experts were asked to produce two types of skirt prototypes and two skirt variations. Subsequently, in-depth interviews were conducted. In addition, the skirt pattern creation process was recorded on video and used for comparative analysis of YUKA and CLO pattern functions. The comparison revealed that CLO provides the pattern tools necessary for drafting skirt prototypes. The learning curve for acquiring the skills necessary for drafting and transforming skirt prototypes was found to be relatively shorter for CLO compared to YUKA. In addition, due to CLO's surface-based pattern drawing method, it is difficult to move or copy only specific parts of the outline, and there are some limitations in drawing right angle lines. In the pattern transformation process, CLO's preview function proved to be advantageous, and it was highly rated on user convenience due to the intuitive UI. Thus, CLO shows promise for pattern drafting education and is deemed to have high scalability as it is directly linked to 3D virtual clothing.

디지털 인문학에서 비정형 데이터 분석을 이용한 사조 분류 방법 (Mining Intellectual History Using Unstructured Data Analytics to Classify Thoughts for Digital Humanities)

  • 서한솔;권오병
    • 지능정보연구
    • /
    • 제24권1호
    • /
    • pp.141-166
    • /
    • 2018
  • 최근 디지털 인문학 (Digital humanities) 연구분야의 등장으로 정보기술을 활용하여 인문학 연구의 효율성 제고에 기여하고 있다. 특히 인문학 연구에서 특정한 인물 혹은 문서가 어떠한 사상 (idea)을 담고 있는지와 다른 사상과의 어떤 연결성을 가지는지를 자동적인 방법으로 분석하는 것은 지성사(intellectual history)를 파악하는 데 중요한 도전이 될 것이다. 본 연구의 목적은 책이나 논문, 기사와 같은 비정형 데이터 (unstructured data)에 포함된 주장을 파악하고 이를 다른 주장이나 사상과 어떠한 관련이 있는지를 자동으로 분석하는 방법을 제안하는 것이다. 특히 본 연구에서는 주장과 주장 사이의 영향관계를 밝히는 히스토리 마이닝 (History Mining)이라는 방법도 제안하였다. 이를 위해 딥러닝 기법 (deep learning method)을 포함한 분류알고리즘 기법 (classification algorithm)을 활용하였다. 본 연구가 제안하는 방법론의 성능을 검증하기 위하여 철학 사조 중에서 대표적으로 대비되는 경험주의와 합리주의 관련 철학자들을 선정하고 관련된 저서 혹은 인터넷 상의 글을 수집하였다. 분류 알고리즘의 성능은 Recall, Precision, F-Score 및 Elapsed Time으로 측정하였으며 DNN, Random Forest, 그리고 앙상블 등이 우수한 성능을 보였다. 선정된 분류 알고리즘으로 특정 철학자의 글에 대해 합리주의 혹은 경험주의로 분류하였으며, 그 철학자의 활동 연도를 고려하여 히스토리 맵을 생성할 수 있었다.

영재학교 수학과 교육과정 분석 -내용 영역과 교과 역량을 중심으로- (An Analysis on the Mathematics Curriculum of Gifted High School - Focusing on Content Area and Subject Competency-)

  • 이은경;전영주
    • 한국학교수학회논문집
    • /
    • 제21권1호
    • /
    • pp.1-18
    • /
    • 2018
  • 본 연구의 목적은 국내 유일의 수학영재 전일제 교육기관인 영재학교의 수학과 교육과정 분석을 통해 우리나라 수학영재교육의 현황을 파악하고 영재 교육과정 개선을 위한 시사점을 제공하는데 있다. 이를 위해 정규 수학과 교육과정의 내용 체계와 2015 개정 교육과정이 제시하고 있는 수학교과 역량을 규준으로 분석기준을 추출하였으며, 이를 토대로 각 영재학교의 수학과 교육과정을 대상으로 분석하였다. 그 결과 첫째, 내용 영역은 해석학과 대수학 영역에 편중되어 있는 것으로 나타났다. 둘째, 교과 역량은 문제 해결 역량이 가장 강조되고 있는 반면 정보처리와 의사소통 역량은 상대적으로 적게 강조되고 있다. 셋째, 기하학 영역은 일반 고등학교 교육과정의 수준으로만 다루고 있다. 넷째, 강의교재의 경우, 대부분 대학교재를 사용하고 있으며 영재학교 자체 제작 교재는 극히 일부분 사용하고 있는 것으로 조사되었다. 다섯째, 교육과정 압축과 상급학년 내용 학습으로 이루어진 속진 위주의 교육과정을 운영하고 있다는 결론과 시사점을 얻었다.

심층인공신경망(DNN)과 다각도 상황 정보 기반의 서울시 도로 링크별 교통 혼잡도 예측 (Prediction of Traffic Congestion in Seoul by Deep Neural Network)

  • 김동현;황기연;윤영
    • 한국ITS학회 논문지
    • /
    • 제18권4호
    • /
    • pp.44-57
    • /
    • 2019
  • 여러 대도시에서 교통 혼잡 문제를 해결하기 위해 정확한 교통 흐름을 예측하는 다양한 연구가 진행되었다. 대부분의 연구가 과거의 교통 흐름 패턴이 미래에도 반복될 것이라는 가정하에 예측 모델을 개발하였으나 교통사고 등과 같은 뜻하지 않은 비반복적 교통 패턴을 예측하는 데에는 신뢰성이 낮게 나타났다. 이런 문제를 해결하기 위한 대안으로 지능형 교통 시스템(ITS)을 통해 얻은 빅데이터와 인공지능을 접목한 교통 흐름 예측 연구가 진행되어 왔다. 하지만 시계열 분석에 일반적으로 사용되는 알고리즘인 RNN의 경우, 단기 예측에 최적화되어 장기 예측 정확도가 낮다는 단점을 가지고 있다. 이런 문제를 해결하기 위해 본 논문에서는 기온과 강수량 등의 기상 정보 외에도 각종 외부 요인들을 고려하여 장기적 시점에서 교통 혼잡도를 예측하는 '심층 인공 신경망 모델'을 제안하였다. TOPIS 자료를 이용한 사례 연구 결과 서울시 주요 도로 링크의 교통 혼잡도를 90%에 가까운 정확도로 예측이 가능하였다. 추후 교통사고나 도로 공사와 같은 도로에 영향을 미치는 이벤트 데이터를 추가로 확보할 수 있다면 정확도는 더욱 높아질 것으로 예상된다.