DOI QR코드

DOI QR Code

A Study on the Development and Validation of Digital Literacy Measurement for Middle School Students

  • Received : 2023.08.11
  • Accepted : 2023.09.08
  • Published : 2023.09.30

Abstract

The purpose of this study is to develop and validate a scale for measuring digital literacy by identifying the factors consisting of digital literacy and extracting items for each factor. Preliminary items for the Delphi study were developed through the analysis of previous literature and the deliberation of the research team. As a result of two rounds of the expert Delphi study, 65 items were selected for the main survey. The validation of the items was carried out in the process of exploratory and confirmatory factor analyses, reliability test, and criterion validity test using the data collected in the main survey. As a result, a 4-factor structure composed of 31 questions(factor 1: digital technology & data literacy- 9 questions, factor 2: digital content & media literacy- 8 questions, factor 3: digital communication & community literacy- 9 questions, factor 4: digital wellness literacy - 5 questions) was confirmed. Also, the goodness of fit indices of the model were found to be good and the result of reliability test revealed the scale had a very appropriate level of Cronbach's alpha(α=.956). In addition, a statistically significantly positive correlations(p<.001) were found between digital literacy and internet self-efficacy and between digital literacy and self-directed learning ability, which were predicted in the existing evidence, therefore the criterion validity of the developed scale was secured. Finally, practical and academic implications of the study are provided and future study and limitations of the study are discussed.

본 연구의 목적은 디지털 리터러시의 구성요인을 확인하고 요인별 문항들을 추출하여 디지털 리터러시 측정을 위한 척도를 개발, 타당화하는 것이다. 선행연구 분석과 연구진의 숙의을 통하여 예비문항들을 개발하여 2차례에 걸쳐 전문가 델파이 조사를 실시한 결과, 본조사를 위한 65개의 문항이 선정되었다. 문항의 타당화 작업은 본조사로 수집된 데이터에 대한 탐색적, 확인적 요인분석과 신뢰도 검사 및 준거타당도 검증의 과정으로 진행되었다. 그 결과, 31문항으로 구성된 4요인 구조(1요인: 디지털 테크놀로지 & 데이터 리터러시-9문항, 2요인: 디지털 콘텐츠 & 미디어 리터러시-8문항, 3요인: 디지털 커뮤니케이션 & 공동체(Community) 리터러시-9문항, 4요인: 디지털 웰니스 리터러시-5문항)를 확인하였으며, 모델의 적합도 지수들이 양호한 것으로 나타났고, 척도의 신뢰도 Cronbach's alpha도 .956으로 매우 적절한 수준으로 평가되었다. 또한, 기존 근거에서 디지털 리터러시와 상관관계에 있을 것으로 예측되었던 인터넷자기효능감과 자기주도학습능력이 통계적으로 유의미한 정적 상관관계(p<.001)로 나타나 개발된 척도의 준거타당도가 확보되었다. 마지막으로, 연구의 실천적, 학문적 함의와 후속연구에 대한 제언 및 한계점이 제공되었다.

Keywords

I. Introduction

“디지털 전환(Digital Transformation)”의 대변혁의 시기를 맞이하면서 디지털 환경이 교육을 비롯하여 다양한 분야의 중요한 소통과 참여의 공간으로 성장함에 따라 인류가 미래사회를 살아가기 위한 ‘생존스킬(Survival skills)’[1][2] 또는 핵심역량으로서 디지털 리터러시가 강조되고 있다[3][4].

포스트 코로나 시대가 도래하고 있는 상황에서 대면 교육과 비대면 교육의 병행 교육, 교실에서의 디지털 기기 및 AI를 활용한 교육이 가속화되고 있는 즈음, 학생들의 학업 성취도의 편차를 좌우하는 자기주도학습과 급변하는 학습 환경에 대한 적응력은, 디지털 기기와 관련 도구들(앱, 플랫폼, 프로그램 등)에 대한 적정 수준의 이해도와 활용 역량을 근간으로 한다[5]고 해도 과언이 아니다. 이러한 맥락에서 디지털 리터러시는 학습격차를 줄이기 위해 고려해야 하는 필수역량이라고 볼 수 있다. 이러한 지점에 대한 방증들은 전세계적으로 나타나고 있으며, 특히 미국의 P21위원회와 The OECD Learning Compass 2030에서 미래 사회를 위한 필수역량으로 디지털 리터러시를 지목하고 있는 것에서도 알 수 있다[6][7].

디지털 리터러시의 중요성이 커지고 그 개념이 학습뿐만 아니라 삶의 전반에 관한 것으로 확장됨에 따라, 정부에서도 “110대 국정과제” 중 국민의 디지털 리터러시 향상과 직접 관련이 있는 12개의 과제를 제시하며 능동적으로 대처하고 있다[8]. 이 보고서에서 연구진들은, 전국민의 디저털 리터러시 향상을 위해 새 정부의 국가 비전인 “다시 도약하는 대한민국, 함께 잘 사는 국민의 나라”와 연계하여, “디지털 혁신 국가로의 도약, 함께 누리는 디지털 시민”이라는 비전을 제시하며 시민의 디지털 리터러시의 전반적인 향상을 통한 국가의 혁신을 꾀하자는 미래의 국가상을 제안하였다.

110대 국정과제 중 12개의 디지털 리터러시 향상을 목표로 한 과제 중 학생들의 디지털 리터러시 증진과 관련된 두가지의 과제를 살펴보면 다음과 같다.

[국정과제 81] 「디지털, AI 등 역량을 갖춘 신산업신기술 분야의 핵심 인재 적기 양성」

(초・중등 SW・AI 교육 필수화) 체계적 디지털 기반 교육을 위한 교육과정 전면 개정, 에듀테크 활용 활성화 및 신기술 적용 교육 콘텐츠 개발, SW・AI 전문 인재 양성을 위한 영재학교 운영 및 마이스터고 지정 확대

[국정과제 82] 「AI 등 신기술을 활용한 교육 혁신으로 미래 핵심 역량을 갖춘 인재 양성」

「학생 개개인을 위한 국가 책임의 학습 지원과 진로・경력관리 시스템 구축」 중 (모든 학생을 인재로 키우는 교육과정 개편) 개별학교에서 개설이 어려운 과목을 개방 운영하는 ‘(가칭) 온라인 고교’ 신설 추진, 학교 내 교육과정 다양화와 더불어 다양한 학교 유형을 마련하는 고교체제 개편 검토 (학습・경력관리 플랫폼 구축) 학생의 진로 탐색부터 학습이력-취업 경력까지 관리 가능한 개인별 포트폴리오인 ‘(가칭) 마이포트폴리오’ 플랫폼 구축

위의 두 국정과제의 성공적인 이행을 위해서는 학생 교육의 다양한 주체(교사, 학부모, 학생 등)들의 적정한 수준의 디지털 리터러시의 함양이 필요하다. 무엇보다 학생들의 디지털 리터러시의 적정 수준을 담보하는 것은 국가 정책의 성공적 실현과 더불어 학생의 학업성취 및 디지털 소외 극복, 그리고 디지털의 선용과 직접적으로 연결되어 있어 그들의 디지털 리터러시 향상을 위한 교육은 아무리 강조해도 지나치지 않다고 할 수 있다. 이 보고서[8]가 발간되기 이전부터 교육부의 예산으로 교과 교육과정과 연계한 디지털 리터러시의 프레임워크 및 지표 개발, 그리고 교육 가이드라인 개발 연구가 이루어지고 있었다[9]. 또한, 교육부와 시도교육청은 물론 방송통신위원회와 과학기술정보통신부 등의 여러 부처 및 관련 산하기관 주도 하에 다양한 명칭으로(정보 교육, 소프트웨어 교육, 인터넷 리터러시 교육, 미디어 교육, 미디어 윤리 교육 등) 교육과정들이 실시되고 있었다[10]. 그러나 기존의 교육 커리큘럼들에서는 디지털에 대한 이해와 활용 능력과 콘텐츠의 비판적 평가와 활용/생성, 그리고 그와 관련된 윤리 교육에 주로 초점이 맞춰져 있어, 세계적인 디지털 리터러시의 개념 변화 추세인 디지털화된 정보를 재구성하며 이를 기반으로 소통하는 능력 및 디지털 세상에서 공동체를 이루며 살아가는 시민성[1] 함양에 대한 콘텐츠가 다소 부족했던 경향이 있었다. 이에 본 연구는 전술(前述)된 디지털 리터러시의 부족했던 개념에 대한 보완이 최대한 반영된 측정도구의 개발을 위해 관련 선행 연구들의 디지털 리터러시에 대한 개념 및 정의들을 분석하고 비판/창의적으로 반영한 후 연구진의 심도있는 논의를 통해 조작적 정의를 도출, 타당화 과정을 거쳐 신뢰롭고 타당한 측정도구의 개발을 목적으로 한다.

II. Related Works

본 연구와 관련하여 선행연구들의 흐름을 살펴보면, 초기 국내의 디지털 리터러시와 관련된 연구자들은 디지털 리터러시의 개념 정의 및 개념구성 요인들을 정립, 규명하려고 노력하였다[11][12][13]. 비교적 근래에 들어서는, 이러한 선행연구들을 통해 정립된 디지털 리터러시의 개념과 구성요인을 바탕으로 디지털 리터러시를 측정하기 위한 지표 및 도구 개발과 관련된 연구들이 출현하는 경향을 보였다[14][15][16][17].

디지털 리터러시의 개념은 “컴퓨터를 활용하여 정보를 이해하고 이를 적절히 사용하는 능력”[18]으로 최초 정의된 이후, 기술이 진보함에 따라 ICT 리터러시의 개념 등으로 확장되는 흐름을 보여왔다. 한편, 초기의 컴퓨터 자체에 대한 이해와 활용 능력을 강조하는 개념 정의는 디지털 세상에서 만나는 사람들과의 상호작용, 협력, 공유, 그리고 공존의 가치를 포함한 사회적 관계 속에서의 윤리 규범적 측면이 더해져[19][20][21] 그 개념의 폭이 더욱 풍부해졌다. 이렇게 디지털 공간에서의 타인과의 관계와 소통을 강조하는 최근의 개념 확장의 경향은 디지털 공동체(Community)와 디지털 시민성[22][23]의 개념들을 포괄하는 양상을 보이고 있다.

본 연구에서는 위에서 살펴본 기존의 국내외 문헌에 대한 고찰과 분석을 토대로 연구진의 숙의 과정을 통해 디지털 리터러시를 "디지털 기술과 미디어를 활용하여 디지털 데이터, 정보, 콘텐츠를 탐색, 소비, 분석, 활용, 관리, 생산하고, 건강한 디지털 시민으로서 지혜롭게 소통하고 관계를 맺으며, 개인과 사회의 발전을 균형 있게 도모하는 역량"으로 정의하고 델파이 조사를 위한 문항을 개발하였다. 이렇게 개발된 문항들을 활용하여 1, 2차에 걸친 전문가 델파이 조사를 거쳐 질문항목들을 정제하고 설문을 위한 측정도구를 개발한 후, 중학교 1학년을 대상으로 타당화를 위한 설문조사 과정을 거쳐 통계적으로 검증된 디지털 리터러시 측정도구를 개발하였다.

III. Method

1. Research Participants

1.1 The Stage of Measurement Development

델파이 조사 기법은 전문가들의 견해를 유도하고 종합하여 그들의 직관을 객관화하여 예측하는 방법으로 과정의 반복 및 환류와 통제된 피드백, 익명성, 통계적 기법을 통한 결론 제시의 절차를 통해 집단적 합의를 도출하는 연구 방법이다. 전문가 패널은 패널의 대표성, 해당 주제에 대한 전문적 지식, 최소 인원 10명 이상의 적정 인원수를 고려해야 한다. 이러한 델파이 조사는 특정 연구 분야의 특수성을 적절히 반영한 지표 또는 방향성 제시에 있어 매우 효과적이다[24 재인용]. 연구의 실증적 접근방법을 위하여 전문가 패널은 현재 디지털 리터러시 관련 연구와 교육 분야에 종사하는 전문가의 범주 내에서 구성하였다. 11명의 전문가가 최종적으로 참여에 동의하여 1, 2차 델파이 조사에 모두 연속으로 참여하였다. 참여자의 구성은 교수 2명, 연구원 3명, 강사 2명, 교사 4명이었고, 각 패널의 최종 응답자 현황은 Table 1과 같다.

Table 1. Delphi Study Participants

CPTSCQ_2023_v28n9_177_t0001.png 이미지

1.2 The Stage of Main Survey with the measurement developed

본조사에 참여한 중학생들은 1학년으로, 서울 15개 학교, 284명, 광주 2개 학교, 33명, 대전 2개 학교, 31명, 총 348명이었으며, 조사대상자의 성비는 남학생이 180명으로 51.7%, 여학생 168명으로 48.3%로 비교적 균등하게 나타났다.

2. Data Collection

1차와 2차에 걸친 델파이 조사는 이메일을 통해 1차는 2023년 2월 21일부터 2월 26일까지, 2차는 2023년 3월 4일부터 3월 8일까지 진행되었으며, 본조사는 Questionpro 사이트를 통한 온라인 설문으로 2023년 7월 5일부터 7월 17일까지 진행되었다. 델파이 조사에 사용된 예비 측정도구는 5점 척도(1=전혀 아니다, 2=아니다, 3=보통이다, 4=그렇다, 5=매우 그렇다)로 응답하도록 구성되었고, 2차 델파이 조사 후 도출되어 본조사에 사용된 측정도구는 총 65개 문항으로 구성되었다. 본조사를 위한 디지털리터러시 측정도구의 항목 구성은 아래 Table 2와 같다.

Table 2. Survey instrument

CPTSCQ_2023_v28n9_177_t0002.png 이미지

3. The scales to confirm criterion validity

3.1 Internet Self-efficacy Scale

연구 대상자들의 인터넷자기효능감을 측정하기 위해 장은우[25]가 개발한 인터넷자기효능감 척도를 사용하였으며 5개의 문항에 대해 5점 척도로 응답하도록 구성되었다. 문항의 예로는 ‘나는 인터넷과 관련된 하드웨어나 소프트웨어 관련 용어들을 이해하는데 자신이 있다’, ‘나는 인터넷을 통해서 필요한 정보를 찾아낼 자신이 있다’ 등이 있으며 본 연구에서의 내적 일치도(Cronbach’s alpha)는 .898로 나타났다.

3.2 Self-directed Learning Ability Scale

조사 참여자들의 자기주도학습능력을 측정하기 위해 곽은미와 동료들[26]이 개발한 자기주도학습능력 척도를 수정하여 사용하였으며 8개의 문항에 대해 5점 척도로 응답하도록 구성되었다. 문항의 예로는 ‘나의 학습의 진전 사항을 점검할 수 있다’, ‘다른 사람들과 상호작용을 통해 더 많은 것들을 배운다’ 등이 있으며 본 연구에서의 내적 일치도(Cronbach’s alpha)는 .910로 나타났다.

4. Data Analysis

1, 2차 델파이 조사의 자료는 SPSS 22.0 및 Microsoft Excel을 활용하여 분석하여, 문항별 평균 점수와 CVR 지수를 기준으로 문항의 삭제, 존치 여부를 판단하였다. 그러나, 이 수치들을 절대적인 기준으로 보지는 않았으며, 연구진의 철학을 반영하여 꼭 필요한 문항은 사용된 단어, 문구 및 어미의 수정을 통하여 보완하여 보존하기도 하였다. 조사 결과는 연구참여자들과 공유되어 응답자 개개인의 의사와 전체 참여자들의 의사 간에 의견의 일치 혹은 의견의 상이함을 구별할 수 있도록 하였다.

본조사에서 수집된 자료를 바탕으로 디지털 리터러시 측정을 위한 요인들을 도출하기 위해 SPSS 22.0을 활용하여 탐색적 요인분석(Exploratory factor analysis)을 실시하였다. 요인분석 모형은 주성분 모형(Principal components model)을 채택했으며, 요인추출을 위해서 주성분 요인분석 방법(Principal components analysis method)을 사용하였다. 회전방식으로는 직교회전 방법인 Varimax 방식을 채택하였다. 탐색적 요인분석을 통해 도출된 측정모형의 적합성을 검증하기 위해 확인적 요인분석(Confirmatory factor analysis)을 실시하였다. 확인적 요인분석을 위해서 AMOS 29.0을 사용하였으며, 분석 방법으로는 측정변수 간의 다변량 정규분포를 가정한 최대우도법(Maximum likelihood method)을 사용하였다. 또한 요인분석의 결과로 선정된 문항들이 각 척도를 구성하는 문항으로서 내적합치도를 보이는지 확인하기 위해 신뢰도를 분석하였다. 마지막으로, 준거타당도 검증을 위해 기존 근거들에 의해 디지털 리터러시와 통계적으로 상관관계가 있을 것으로 예측되는 인터넷자기효능감[27][28][25][29]과 자기주도학습능력[30][31][32]을 측정하는 척도들과의 통계적 관련성을 분석하였다.

IV. Results

Tak[33]은 조사대상자수가 적어도 200개 이상이거나 대상자 수와 측정변수의 비율이 5:1 이상이면 비교적 안정적인 탐색적 요인분석이 가능하다고 하였고, Tabachnick과 Fidell[34]은 조금 더 보수적으로 적어도 300개의 표본이 필요하다고 제안하면서 연구대상자의 수와 측정변수의 비율은 5:1이 적당하다고 주장하였다[35 재인용]. 따라서 본 연구에 사용된 측정도구의 측정변수의 수(65개)와 최종분석에 활용된 표본의 수(N=348)를 감안하였을 때 탐색적 연구에 적합한 조사대상자의 규모를 갖추고 있는 것으로 나타났다.

요인분석에 앞서, KMO의 표본 적합도(Kaiser-Meyer-Olkin measure of samplingadequacy)와 Bartlett의 구형성 검정을 통하여 측정도구가 요인분석을 실시하기에 적합한지를 살펴보았다. 표본의 적절성을 측정하는 KMO값이 .965로 나타나 변수들간에 적절한 상관관계가 있으며 측정변수들 저변에 적정 수준 이상의 공통적인 잠재요인이 존재함이 확인되었다. Bartlett의 유의도 검증 결과도 16304.843(p<.001)으로 요인분석에 적합한 행렬로 판명되었다.

탐색적 요인분석의 모형으로는 주성분 분석(Principal component analysis)과 직교회전의 하나인 베리맥스(Varimax) 방법을 사용하였다. 그 근거는 다음과 같다. 이미 개발된 요인구조의 타당성에 대한 탐색적 요인분석을 시도할 때 적용하는 공통요인법(Common factor method)에 비하여, 주성분 분석법(Principal component method)은 척도를 개발하거나 측정변수들의 분산을 최대한 설명하여 정보의 손실을 최소화하기 위해 사용된다[36]. 또한, 본 연구와 같이 개발하고 있는 측정도구에 대한 타당화 연구가 전무한 상태에서는 요인 간이나 요인 내의 상관관계를 파악하는 것보다는 변수의 독립성을 가정하여 구조를 파악하는 직교회전이 사각회전보다 적합하다고[37] 사료되어 베리맥스(Varimax) 방법을 적용하였다.

탐색적 요인분석 결과, 스크리 도표에서 고유값(Eigen values) 1 이상의 요인을 향하여 그래프가 급강하하여 완화되는 지점에 요인의 수가 4, 5에 분포되어 있다는 것에 근거하여 요인수를 4, 5개로 고정하여 문항의 반복제거과정(Iterative elimination process)과 재분석 과정을 병행하며 척도의 개선 작업을 수행하였다.

5개의 요인으로 고정하여 분석하였을 때, 본조사에 사용된 측정도구에서 구분된 7영역의 문항들이 지나치게 산재되게 분포되어, 4개 요인으로 고정하여 분석을 진행하였다. 문항의 선택에 사용된 기준은 다음과 같다. 1) 공통성 0.3 및 요인적재량 0.4 이상인 문항들[38], 2) 두 개의 요인에 동시에 유의하게 적재된 요인부하치의 차이가 적어도 .10 이상[39], 3) 한 요인에 3개 이상의 문항 구성[40][41], 그리고 4) 50~60%의 누적 분산비율의 범위의 충족[38].

4개 요인으로 고정된 척도에 대해 확인적 요인분석을 실시하였다. 확인적 요인분석 결과 TLI와 CFI의 보수적인 기준인 0.9 이상[42]의 기준을 충족하지 못해 비교적 모형이 안정적이지 못한 것으로 판명되었다. 이에 공통성 0.5 이상과 요인적재치 0.5 이상[43]의 보수적인 기준을 적용해 다시 탐색적 요인분석을 실시하여 1요인 10문항, 2요인 5문항, 3요인 15문항, 4요인 4문항, 총 34문항으로 구성된 측정도구가 잠정 개발되었다. 다시, TLI와 CFI 지수를 0.9 이상의 기준으로 설정하고 확인적 요인분석을 실시했으나 그 수치들이 기준치에 미달되었다. 이에 탐색적 요인분석시 각 요인에서 요인적재치가 가장 낮았던 한 문항들을 동시에(4항목씩) 제거해 나가면서 TLI와 CFI 지수가 0.9를 상회할 때까지 지속적으로 확인적 요인분석을 수행하였고, 최종적으로 도출된 문항(21개)들은 Table 3과 같다.

Table 3. 21 items extracted from 1st factor analyses

CPTSCQ_2023_v28n9_177_t0003.png 이미지

연구진은 이 단계에서 측정도구가 본래 측정하고자 하는 디지털 리터러시의 개념을 잘 담아내고 있는지 내용타당도에 대한 논의를 하였다. 그 결과 세부 요인 3(디지털 콘텐츠 리터러시)의 영역이 사라진 부분에 대한 문제의식을 공유하였고, 측정도구가 지나치게 슬림화된 원인으로 TLI와 CFI 지수의 기준(0.9 이상)을 너무 보수적으로 설정했다는 결론을 내렸다. 일단, 최초 분류된 영역이었던 7영역이 분석 과정에서 1요인(디지털 테크놀로지 & 데이터 리터러시), 2요인(디지털 콘텐츠 & 미디어 리터러시), 3요인(디지털 커뮤니케이션 & 커뮤니티 리터러시)/ 4요인(디지털 웰니스 리터러시)으로 명료하게 묶여나갔던 부분은 긍정적으로 평가하였다. 척도의 적정 수준의 내용타당도 확보를 위한 지속적인 논의를 통해 합의된 의견들을 반영하여, 최종 도출된 21개 문항에서 사라진 세부 영역인 디지털 콘텐츠 리터러시 영역을 복원하기 위해 기존의 문항들에서 해당 영역의 3개의 항목을 다시 재투입시키고, 나머지 영역들의 문항들을 보완하여 총 31개 문항(Table 4)의 측정도구로 재구성한 후, TLI와 CFI 지수의 기준을 0.8 이상[44]으로 완화하여 확인적 요인분석을 재실시하였다. 그 결과(Table 5), RMSEA, TLI, CFI 지수 모두 통상기준을 충족하는 31개 항목으로 구성된 디지털 리터러시의 측정도구의 문항구성을 최종적으로 확정하였다.

Table 4. Final 31 items selected after the discussion about content validity

CPTSCQ_2023_v28n9_177_t0004.png 이미지

Table 5. Confirmatory factor analysis results of final 31 items

CPTSCQ_2023_v28n9_177_t0007.png 이미지

이렇게 개발된 척도에 대하여 각 요인 간의 상관관계를 분석한 결과(Table 6) 각 요인은 통계적으로 유의미한 수준(p<.001)으로 상관을 보였다. 또한, 전체 척도와 각 요인들의 신뢰도 분석 결과(Table 7), 일반적인 권장수준인 0.7을 상회하여 (Nunnally, 1978) 양호한 수준으로 판명되었다.

Table 6. Correlations among factors(***p<.001)

CPTSCQ_2023_v28n9_177_t0005.png 이미지

Table 7. Chronbach’s alpha of the scale

마지막으로, 개발된 척도의 준거타당도 검증을 위해 개발된 디지털 리터러시 측정도구와 선행연구들을 통해 통계적으로 정적 상관관계를 보일 것으로 예측되는 개념인 인터넷자기효능감와 자기주도학습능력과의 통계적인 유의미성을 검증하였다.

Table 8에서 보는 바와 같이 디지털 리터러시는 인터넷자기효능감과 정적인 상관관계를 보였고(r=.802, p<.001) 또한, 자기주도학습능력과의 관계에서도 정적인 상관관계(r=.832, p<.001)를 보여 본 연구를 통해 개발된 디지털 리터러시 측정도구의 준거타당도가 확보되었다.

Table 8. Correlations between digital literacy and internet self-efficacy and between digital literacy and self-directed learning ability(***p<.001)

CPTSCQ_2023_v28n9_177_t0008.png 이미지

일련의 과정을 통해 최종 31개 문항으로 개발된 디지털 리터러시 측정도구는 상기(上記)된 결과들에서 보여지는 바와 같이 그 신뢰도와 타당도가 검증되었다.

V. Conclusions

본 연구의 목적은 선행 연구들의 디지털 리터러시에 대한 개념 및 정의들의 고찰과 연구진의 심도 있는 논의 과정을 통해 조작적 정의를 도출하여 전문가 델파이 조사와 타당화를 위한 설문조사 과정을 거쳐 신뢰도와 타당도가 확보된 측정도구를 개발하는 데 있다. 2차에 걸친 전문가 델파이 조사를 통해 정제된 문항으로 348명의 중학교 1학년생을 대상으로 본조사를 실시하여 탐색적 요인 분석과 확인적 요인분석의 과정을 거친 결과, 모델 적합도를 확인할 수 있는 RMSEA, TLI, CFI 값이 모두 기준을 충족하여 해당 모델의 요인 간의 구조가 적합한 것으로 판명되었다. 최종적으로 개발된 디지털 리터러시 측정 도구는 총 31개 문항으로, 4개 요인, 7개 영역(Figure 1.)(디지털 테크놀로지 리터러시 5문항, 디지털 데이터 리터러시 4문항, 디지털 콘텐츠 리터러시 3문항, 디지털 미디어 리터러시 5문항, 디지털 커뮤니케이션 리터러시 5문항, 디지털 공동체(Community) 리터러시 4문항, 디지털 웰니스 리터러시 5문항)으로 구성되었으며 이에 대한 신뢰도와 타당도를 검증하였다.

CPTSCQ_2023_v28n9_177_f0001.png 이미지

Fig. 1.

그동안 디지털 리터러시의 개념을 측정하고자 하는 시도는 주로 디지털에 대한 이해와 활용 능력과 콘텐츠의 비판적 평가와 활용/생성, 그리고 그와 관련된 윤리 교육 연구에 초점이 맞추어졌다. 따라서, 논리에 근거한 비판적 사고를 넘어 수치를 활용한 디지털 데이터 리터러시, 디지털 세상에서의 소통에 필요한 태도와 능력의 개념을 포함하는 디지털 커뮤니케이션 리터러시, 디지털 시민성과 관련된 디지털 공동체(Community) 리터러시, 그리고 개인정보 보호를 넘어 자신의 디지털 정체성을 관리하고 신체·정신 건강을 도모하는 디지털 웰니스 리터러시 등 디지털 기술(Skills)이나 윤리를 초월하여 디지털 사회에서 필요한 종합적인 역량을 측정하는 포괄적인 디지털 리터러시 척도는 아직까지 존재하지 않았다. 다시 말하자면, 기존의 연구자들은 디지털 리터러시를 “디지털 역량”을 중심으로 정의하였던데 반해, 본 연구에서는 “디지털 시대에 필요한 역량”으로 정의하였던 것이 기존 연구들과의 차별점이라 할 수 있다. 이러한 맥락에서, 본 연구에서 개발된 디지털 리터러시 척도는 디지털 리터러시의 각 요인의 구성에 대한 객관적 이해와 더불어 교육 현장의 실천적 측면에서 학생들이 어떠한 디지털 역량을 가져야 하는지에 대한 통찰을 제공할 것이다.

또한, 본 연구는 디지털 리터러시의 명확한 개념과 구성요인을 제시함으로써 교육 현장에서 교사와 학생, 그리고 학부모를 대상으로 하는 디지털 리터러시와 관련된 교육 및 훈련 프로그램 개발의 촉진을 가져올 것이다. 따라서 교육 현장과 관련된 이해당사자(Stakeholders)들은 본 연구에서 개발된 디지털 리터러시 측정도구를 기반으로 보다 쉽고 효과적으로 디지털 리터러시를 구성하는 다양한 요소들(디지털 테크놀로지, 데이터, 콘텐츠, 미디어, 커뮤니케이션, 공동체(Community), 웰니스 리터러시)을 포함하는 세부적인 교육 콘텐츠를 개발할 수 있을 것이며, 해당 프로그램들의 효과를 확인하는 효과성 평가에 있어서도 폭넓은 활용이 가능할 것이다. 이와 더불어, 디지털 리터러시와 관련된 다양한 변인들(예, 인구사회학적 변인, 학업 성취 관련 변인, 디지털 역량 관련 변인, 학교 환경 변인 등) 간의 관련성을 확인하는 후속 연구로 이어질 수 있을 것이다. 한편, 이러한 후속 연구들의 확산과 디지털 리터러시 교육이 주는 긍정적인 효과와 관련된 근거(Evidence)들의 생성은 디지털 리터러시의 주제와 연관된 지속적인 학술적 논의(콘퍼런스와 세미나 등의 개최 등)를 촉진시킬 것이다. 이러한 흐름은 정책입안자들의 디지털 리터러시와 관련된 교육 및 연구의 중요성에 대한 공감대 형성에 기여하여, 국가 차원의 근거에 기반한(Evidence-based) 디지털 리터러시 증진과 관련된 정책 추진(예, 정부 차원의 국민 디지털 리터러시 함양 교육 및 프로그램/ 인식개선 캠페인 실시 등) 및 관련 연구에 대한 지원(예산 배정 및 인력 확충 등) 등의 미래지향적 투자에 긍정적인 영향을 미칠 것이다.

본 연구는 전술한 고무적인 함의들이 있지만 다음의 한계점이 있다. 중학교 1학년을 대상으로 타당성 평가가 이루어져 연구결과를 일반화하는데 한계가 있다는 것이다. 따라서 다양한 학년을 아우르는 중학생 표본을 대상으로 한 후속 연구가 뒤따라야 할 것이며 지속적으로 척도의 요인구조를 재확인할 필요가 있다.

References

  1. Y. Eshet-Alkalai, "Digital literacy: A conceptual framework for survival skills in the digital era," Journal of Educational Multimedia and Hypermedia, Vol. 13, No. 1, pp. 93-106, Jan. 2004.
  2. Y. Eshet-Alkali, and Y. Amichai-Hamburger, "Experiments in digital literacy," CyberPsychology & Behavior, Vol. 7, No. 4, pp. 421-429, Sep. 2004.
  3. KERIS, "Trends of education curriculum and program operation of digital literacy in overseas," RM2017-1, 2017.
  4. S. Shin, and S. Lee, "A Study on Development and Validity Verification of a Measurement Tool for Digital Literacy for University Students," The Journal of Learner-Centered Curriculum and Instruction, Vol. 19, No. 7, pp. 749-768, Jan.
  5. Y. Jeong, J. Yoo, and C. Kim, "Establishment of Elementary Information Curriculum to Solve the Learning Gap between Students," Journal of The Korean Association of Information Education, Vol. 25, No. 1, pp. 33-40, Feb. 2021. https://doi.org/10.14352/jkaie.2021.25.1.33
  6. D. Kim, "A Literature Review for Exploring Research Trends of Media, Digital, Information, & ICT Literacy in Korea," Journal of Education & Culture, Vol. 26, No. 3, pp. 93-119, Jun. 2020.
  7. Battelle for Kids, "Framework for 21st century learning," 2019. Retrieved from http://static.battelleforkids.org/documents/p21/P21_Framework_Brief.pdf.
  8. KEDI, "Pan-governmental digital literacy improvement plan," CRR2022-13, 2023.
  9. KERIS, "A study on the development of guidelines for digital literacy education linked to the curriculum," CR2023-1, 2023.
  10. NARS, "Overseas cases and implications of media literacy in the digital age," NARS analysis of pending issues 90, 2019.
  11. J. Kim, S. Suh, and H. Ok, "Toward a Theoretical Exploration of a Concept of Digital Literacy Attitude," Korean Language Education,Vol. 0, No. 150, pp. 263-294, Sep. 2015.
  12. J. Park, "A Study on the Development of Conceptualization Model for Reading, Information, ICT, and Digital Literacy," Journal of Korean Library and Information Science Society, Vol. 49, No. 2, pp. 267-300, Jun. 2018. https://doi.org/10.16981/kliss.49.2.201806.267
  13. KERIS, "Identification of Operational definition and sub-factors of digital literacy for activation of knowledge and information competency in the 21st century," RM2006-78, 2006.
  14. J. Kang, H. Song, and H. Kim, "Development and Application of the Diagnostic Instruments for Measuring Digital Literacy in the Smart Society," Journal of Korean Association for Regional Information Society, Vol. 17, No. 3, pp. 143-173, Sep. 2014.
  15. G. Yang, S. Suh, and H. Ok, "Development of Self Assessment Tool for Digital Literacy Competence," Journal of Digital Convergence, Vol. 18, No. 7, pp. 1-8, Jul. 2020.
  16. S. Lee, and D. Kang, "Development and Verification of Digital Literacy Test Tool for Elementary School Students," Journal of The Korean Association of information Education, Vol. 25, No. 1, pp. 59-69, Feb. 2021. https://doi.org/10.14352/jkaie.2021.25.1.59
  17. M. Jeong, J. Kim, and H. Hwang, "A Study on Development and Validation of Digital Literacy Measurement Tool," Journal of Internet Computing and Services, Vol. 22, No. 4, pp. 51-63, Aug. 2021.
  18. P. Gilster, "Digital Literacy," New York: John Wiley & Sons, 1997.
  19. A. Ferrari, "Digital competence in practice: An analysis of frameworks(Report EUR25351 EN)," Publications Office of the European Union, 2012. Retrieved from http://ftp.jrc.es/EURdoc/JRC68116.pdf
  20. KERIS, "A research on the development of digital literacy index for supporting the enhancement of knowledge information competency,' CR2006-13, 2006.
  21. KERIS, "A study on the development of a performance-based digital literacy assessment tool," RR2022-6, 2022.
  22. J. Yang, "Digital Citizenship for the Preservation of Personal Rights: A Focus on Teaching Digital Literacy," Journal of Media and Defamation Law, Vol. 3, No. 2, pp. 85-125, Aug. 2017.
  23. B. A. Buchholz, J. Dehart, and G. Moorman, "Digital citizenship during a global pandemic: moving beyond digital literacy," Journal of Adolescent & Adult Literacy, Vol. 64, No. 1, pp. 11-17, Jul. 2020.
  24. H. C. Kim, I. Park, and M. Kim, "Establishing the Definitions of Metaverse and Metaverse Literacy and Developing the framework for Metaverse Literacy," Journal of The Korea Society of Computer and Information, Vol. 28, No. 3, pp. 197-208, Mar. 2023.
  25. E. Jang, "The effects of Internet Access, Utilization and Cognitive factors on Digital Literacy," Master's thesis, Seoul National University, 2014.
  26. E. Gwak, J. Lee, and J. Woo, "A Study on the Reliability and Validity of the Korean Version of Self-directed Learning Instrument," Journal of Korean Academy of Fundamentals of Nursing, Vol. 26, No. 1, pp. 12-22, Mar. 2019. https://doi.org/10.7739/jkafn.2019.26.1.12
  27. M. Kim, "Influence on media literacy of adolescents' experience in media education and their personal inclination," Master's thesis, Kyung Hee University, 2017.
  28. M. Lee, "The Relationship Between Learning Self-Efficacy and Online Class Satisfaction of Middle School Students in the COVID-19 Situation: Mediating Effect of Digital Literacy," Youth Facilities and Environment, Vol. 20, No. 3, pp. 41-50, Sep. 2022. https://doi.org/10.55063/KIYFE.2022.20.3.4
  29. S. Livingstone, and E. Helsper, "Balancing opportunities and risks in teenagers' use of the internet: the role of online skills and internet self-efficacy," New Media & Society, Vol. 12, No. 2, pp. 309-329, Mar. 2010. doi:10.1177/1461444809342697
  30. S. Kwon, "A study on the digital literacy competence and the preference of online class types of Korean university students," The Journal of Learner-Centered Curriculum and Instruction, Vol. 21, No. 1, pp. 1023-1046, Jan. 2021.
  31. S. Lee, J. Kim, W. Baek, and S. Park, "Youth readers and non-readers research," Publication Industry Promotion Agency of Korea, 2019.
  32. H. Kim, and J. Kim, "The Structural Relationship among Digital Information Usage Ability, Social Support, Self Directed Learning Ability, and Learning Immersion of Early Adult Learners: Focusing on the Untact Learning Environment," Journal of Fisheries and Marine Sciences Education, Vol. 33, No. 2, pp. 492-503, Apr. 2021. https://doi.org/10.13000/JFMSE.2021.4.33.2.492
  33. J. K. Tak, "Psychological testing: An understanding of development and evaluation method(2nd edition)," Seoul: Hakjisa, 2007.
  34. B. G. Tabachnick, and L. S. Fidell, "Using multivariate statistics(5th edition)," Boston, MA: Pearson/Allyn & Bacon, 2007.
  35. H. C. Kim, "A Validation Study on the Korean Version of Mental Health Literacy Scale (MHLS-K) in a Sample of University Students," Mental Health & Social Work, Vol. 47, No. 2, pp. 35-66, Jun. 2019.
  36. J. Sung, "Development of a Scale to Measure Stress in Parents of Adolescents," Journal of Korean Academy of Psychiatric and Mental Health Nursing, Vol. 22, No. 3, pp. 216-229, Sep. 2013. https://doi.org/10.12934/jkpmhn.2013.22.3.216
  37. H. Kang, "A Guide on the Use of Factor Analysis in the Assessment of Construct Validity," Journal of Korean Academy of Nursing, Vol. 43, No. 5, pp. 587-594, Oct. 2013. https://doi.org/10.4040/jkan.2013.43.5.587
  38. J. E. Hair. Jr., R. E. Anderson, R. L. Tatham, and W. C. Black, "Multivariate data analysis(6th edition)," Upper Saddle River, New Jersey: Prentice Hall, 2006.
  39. J. Floyd, and F. Widaman, "Factor analysis in the development and refinement of clinical assessment instruments," Psychological assessment, Vol. 7, No. 3, pp. 286-299, Sep. 1995. https://doi.org/10.1037//1040-3590.7.3.286
  40. C. B. Crawford, "Determining the Number of Interpretable Factors," Psychological Bulletin, Vol. 82, No. 2, pp. 226-237, Mar. 1975. https://doi.org/10.1037/h0076374
  41. S. Lee, "The basic of factor analysis(2nd edition)," Paju: Kyoyookgwahaksa, 2010.
  42. B. Bae, "Structural Equation Modeling Principles and Practices using AMOS 19," Seoul: Chungram, 2011.
  43. J. J. Song, "In: SPSS/AMOS statistical analysis method(2nd edition)," Paju: 21Century, 2015.
  44. R. P. Bagozzi, and Y. Yi, "On the Evaluation of Structural Equation Models," Journal of the Academy of Marketing Science, vol. 16, no. 1, pp. 74-94. Mar. 1988. https://doi.org/10.1177/009207038801600107