• 제목/요약/키워드: Big Four

검색결과 625건 처리시간 0.023초

뇌졸중 환자의 작업수행과 운동기능을 위한 Lee Silverman Voice Treatment-BIG(LSVT-BIG) 프로그램의 임상적용에 대한 사례연구 (A Case Study on the Clinical Application of Lee Silverman Voice Treatment-BIG (LSVT-BIG) Program for Occupational Performance and Motor Functions of Stroke Patients)

  • 정선아;홍덕기
    • 재활치료과학
    • /
    • 제9권3호
    • /
    • pp.63-75
    • /
    • 2020
  • 목적 : 본 연구는 Lee Silverman Voice Treatment-BIG(LSVT-BIG) 프로그램이 뇌졸중 환자의 작업수행과 운동기능에 미치는 변화를 알아보고 임상적용 가능성을 확인하고자 하였다. 연구방법 : 뇌졸중 환자 2명을 대상으로 LSVT-BIG 프로그램을 4주 동안 주 4일, 회당 1시간, 총 16회기를 실시하였다. 중재 전·후의 변화를 비교하기 위해 캐나다 작업수행 측정(COPM), Berg 균형 척도(BBS), Time Up and Go(TUG), 기능적 뻗기 검사(FRT), 뇌졸중 상지기능 검사(MFT)를 사용하여 측정하였다. 자료 분석은 중재 전·후의 점수 변화를 비교하였다. 결과 : 대상자 2명 모두 중재 전·후로 작업수행의 수행도 및 만족도는 증가하였다. TUG의 수행시간은 대상자마다 각 0.91, 8.42초로 감소하여 보행 속도가 증가하였다. FRT 거리변화에서 대상자는 환측과 건측 모두에서 증가를 보였고, BBS 점수는 대상자마다 각 3점, 6점 증가하였다. 또한 MFT 점수에서 대상자 A는 건측에서만 1점 향상을 보였고, 대상자 B는 건측에서 1점, 환측에서 3점 향상된 점수를 보였다. 결론 : LSVT-BIG 프로그램이 뇌졸중 환자의 새로운 중재기법으로써의 임상적용 가능성을 확인하였다. 향후에는 LSVT-BIG 프로그램 효과에 대한 보완 연구가 필요할 것이다.

ESG Analysis in China and Korea Using Big Data Analysis - Perspectives on ESG Management in Asian Countries -

  • Yun-Pyo Hong;Sang-Hak Lee;Gi-Hwan Ryu
    • International journal of advanced smart convergence
    • /
    • 제13권3호
    • /
    • pp.117-124
    • /
    • 2024
  • ESG is currently a global topic, meaning environmental, social, and governance, which are three important measures of socially responsible management. It is also having a great influence on improving competitiveness in the global market and enhancing corporate image. In this study, ESG in Korea was analyzed through big data, and four central keywords of ESG management in China based on Chinese data were derived. These four keywords are environment, management, corporate event, and quality certification. In addition, we want to understand the ESG perspective of China by studying ESG cases in China. Through this, we will be able to compare and analyze the differences between ESG approaches and key points between Korea and China.

원천 데이터 품질이 빅데이터 분석결과의 유용성과 활용도에 미치는 영향 (An Empirical Study on the Effects of Source Data Quality on the Usefulness and Utilization of Big Data Analytics Results)

  • 박소현;이국희;이아연
    • Journal of Information Technology Applications and Management
    • /
    • 제24권4호
    • /
    • pp.197-214
    • /
    • 2017
  • This study sheds light on the source data quality in big data systems. Previous studies about big data success have called for future research and further examination of the quality factors and the importance of source data. This study extracted the quality factors of source data from the user's viewpoint and empirically tested the effects of source data quality on the usefulness and utilization of big data analytics results. Based on the previous researches and focus group evaluation, four quality factors have been established such as accuracy, completeness, timeliness and consistency. After setting up 11 hypotheses on how the quality of the source data contributes to the usefulness, utilization, and ongoing use of the big data analytics results, e-mail survey was conducted at a level of independent department using big data in domestic firms. The results of the hypothetical review identified the characteristics and impact of the source data quality in the big data systems and drew some meaningful findings about big data characteristics.

Research on Big Data Integration Method

  • Kim, Jee-Hyun;Cho, Young-Im
    • 한국컴퓨터정보학회논문지
    • /
    • 제22권1호
    • /
    • pp.49-56
    • /
    • 2017
  • In this paper we propose the approach for big data integration so as to analyze, visualize and predict the future of the trend of the market, and that is to get the integration data model using the R language which is the future of the statistics and the Hadoop which is a parallel processing for the data. As four approaching methods using R and Hadoop, ff package in R, R and Streaming as Hadoop utility, and Rhipe and RHadoop as R and Hadoop interface packages are used, and the strength and weakness of four methods are described and analyzed, so Rhipe and RHadoop are proposed as a complete set of data integration model. The integration of R, which is popular for processing statistical algorithm and Hadoop contains Distributed File System and resource management platform and can implement the MapReduce programming model gives us a new environment where in R code can be written and deployed in Hadoop without any data movement. This model allows us to predictive analysis with high performance and deep understand over the big data.

토지주택분야 정보 현황과 빅데이터 연계활용 방안 (Utilizing Spatial Big Data for Land and Housing Sector)

  • 정연우;유종훈
    • 토지주택연구
    • /
    • 제7권1호
    • /
    • pp.19-29
    • /
    • 2016
  • 본 논문은 우리나라의 빅데이터 정책과 활용사례 조사, 공간 빅데이터의 토지주택 활용분야를 제시함으로써 토지주택분야의 미래 사업을 발굴하고, 정부정책에 선제적으로 대응하기 위한 공간 빅데이터 기반 활용분야를 제안하였다. 연구결과, 첫째, 우리나라의 빅데이터 관련 정책과 사례를 살펴보았다. 우리나라는 정부3.0 추진위원회를 중심으로 정부부처의 각 정보를 빅데이터 기반 체계로 구축하고 있으며, 국토교통부에서는 국가공간정보 플랫폼을 통한 빅데이터의 적극적 활용, 일자리 창출을 지원하기 위하여 2013년부터 공간 빅데이터 체계 구축을 추진 중이다. 둘째, LH에서 구축 및 운영하고 있는 정보시스템을 중심으로 국토정보의 현황과 토지주택분야에서의 활용방안을 살펴보았다. 먼저, 정보시스템은 크게 공사업무지원, 통계조회, 부동산정보조회, 온라인민원, 국가정책지원 분야로 구분되며, 주요 활용분야 도출의 기본방향으로는 국토정보(DB), 활용수요(업무영역), 수익창출(사업모델) 측면을 고려하였다. 이러한 기본방향 설정 후 접근방법으로서 업무분야와 업무절차 측면에서 살펴본 결과, 지역개발사업 후보지 선정, 임대주택 운영 및 관리, 토지비축 우선순위 설정, 도시재생 우선순위 설정 등 4개의 활용분야를 도출하였다. 셋째, 도출한 4개의 활용분야에서 공간 빅데이터 활용체계를 구현하기 위하여 필요한 데이터와 적용방법, 각 활용분야별 분석절차를 제시하였으며, 공간 빅데이터 활용방안을 구현하기 위하여 LH에 요구되는 개선사항과 향후 검토방향을 제시하였다.

A Strategy Study on Sensitive Information Filtering for Personal Information Protect in Big Data Analyze

  • Koo, Gun-Seo
    • 한국컴퓨터정보학회논문지
    • /
    • 제22권12호
    • /
    • pp.101-108
    • /
    • 2017
  • The study proposed a system that filters the data that is entered when analyzing big data such as SNS and BLOG. Personal information includes impersonal personal information, but there is also personal information that distinguishes it from personal information, such as religious institution, personal feelings, thoughts, or beliefs. Define these personally identifiable information as sensitive information. In order to prevent this, Article 23 of the Privacy Act has clauses on the collection and utilization of the information. The proposed system structure is divided into two stages, including Big Data Processing Processes and Sensitive Information Filtering Processes, and Big Data processing is analyzed and applied in Big Data collection in four stages. Big Data Processing Processes include data collection and storage, vocabulary analysis and parsing and semantics. Sensitive Information Filtering Processes includes sensitive information questionnaires, establishing sensitive information DB, qualifying information, filtering sensitive information, and reliability analysis. As a result, the number of Big Data performed in the experiment was carried out at 84.13%, until 7553 of 8978 was produced to create the Ontology Generation. There is considerable significan ce to the point that Performing a sensitive information cut phase was carried out by 98%.

A Study on Security Event Detection in ESM Using Big Data and Deep Learning

  • Lee, Hye-Min;Lee, Sang-Joon
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제13권3호
    • /
    • pp.42-49
    • /
    • 2021
  • As cyber attacks become more intelligent, there is difficulty in detecting advanced attacks in various fields such as industry, defense, and medical care. IPS (Intrusion Prevention System), etc., but the need for centralized integrated management of each security system is increasing. In this paper, we collect big data for intrusion detection and build an intrusion detection platform using deep learning and CNN (Convolutional Neural Networks). In this paper, we design an intelligent big data platform that collects data by observing and analyzing user visit logs and linking with big data. We want to collect big data for intrusion detection and build an intrusion detection platform based on CNN model. In this study, we evaluated the performance of the Intrusion Detection System (IDS) using the KDD99 dataset developed by DARPA in 1998, and the actual attack categories were tested with KDD99's DoS, U2R, and R2L using four probing methods.

Keyword Analysis of COVID-19 in News Big Data : Focused on 4 Major Daily Newspapers

  • Kwon, Seong-Wook
    • 한국컴퓨터정보학회논문지
    • /
    • 제25권12호
    • /
    • pp.101-107
    • /
    • 2020
  • 본 논문은 장기전에 접어든 코로나19와 관련한 국내 주요 4개 일간지의 뉴스 빅데이터(빅카인즈)를 활용하여 진보와 보수신문의 정치적 성향 등에 따른 주요 키워드를 비교 분석하는 것을 목적으로 한다. 이를 위해 2020년 1월 20일부터 9월 15일까지 보도된 93,917건의 뉴스를 4단계로 구분하여 4개 신문사의 주요 키워드를 워드클라우드로 구현하여 분석하였다. 분석 결과, 보수신문은 진보신문보다 '정부', '대통령', '사태', '마스크' 키워드를 더 많이 언급함으로써 정부의 대응과 비판, 중국의 책임 등에 주목하였으며, 진보신문은 질병의 심각성과 위험 상황 발생을 강조하는 키워드를 많이 사용하는 것으로 나타났다. 조선일보는 대규모 집단감염 발생(2.18~5.15)기에 다양한 키워드의 사용으로 다양성을 나타내기도 하였으며 특히, 중앙일보가 코로나19와 같은 감염병 보도와 관련해서는 정부 정책을 비판하는 키워드를 사용하기도 하지만 진보신문이 사용하는 질병의 심각성과 위험한 상황 발생을 강조하는 키워드도 함께 사용한다는 점을 밝혀냈다.

특허분석을 통한 빅데이터 분석 플랫폼 기술 개발 동향 (Big Data Analysis Platform Technology R&D Trend through Patent Analysis)

  • 노승민
    • 디지털융복합연구
    • /
    • 제12권9호
    • /
    • pp.169-175
    • /
    • 2014
  • 모바일 SNS, 스마트 기기의 급성장과 ICT(통신기술) 패러다임의 변화는 라이프 스타일의 변화와 함께 데이터가 폭발적으로 증가하는 결과를 초래하였다. 한편, 대용량의 데이터의사용은 비용이나 기술적 측면에서 많은 어려움을 초래하였다. 그러나, 빅데이터는 하둡과 같은 효율적인 빅데이터 처리 플랫폼 기술의 등장으로 주목을 받기 시작하였다. 본 논문에서는 주요 시장 국의 특허 분석을 통해 빅데이터 플랫폼 연구 및 개발 동향을 살펴보고자 한다. 특히, 2010년 12월을 기준으로 4개국에 출원 및 등록되어 있는 2,568건을 대상으로 분석을 진행하였다.

공공 빅데이터 플랫폼 성과평가 모형 (Performance Measurement Model for Open Big Data Platform)

  • 이규엽;박상철;류성열
    • 지식경영연구
    • /
    • 제21권4호
    • /
    • pp.243-263
    • /
    • 2020
  • 본 연구는 공공데이터 개방에 있어 공공데이터 제공자의 데이터 기여 측면과 공공데이터 사용자의 데이터 활용 측면을 고려하여 공공데이터 플랫폼 성과측정을 위한 프레임워크를 개발하였다. 본 연구는 NIST(2018)의 빅데이터 참조 아키텍처와 Neely et al.(2001)의 성과 프리즘을 기반으로 공공 빅데이터 플랫폼 성과평가 모형의 5개 영역을 제시하였다. 구체적으로, 공공데이터 플랫폼 성과평가 영역은 이해관계자 기여, 빅데이터 거버넌스 역량, 빅데이터 서비스 역량, 빅데이터 정보기술(IT) 역량, 그리고 이해관계자 만족으로 구성된다. 본 연구에서 제시한 공공 빅데이터 플랫폼 성과평가 모형의 5개 영역과 24개 평가지표에 대한 측정 문항은 총 75개 항목으로 구성되었다.