• 제목/요약/키워드: ethical considerations

검색결과 83건 처리시간 0.018초

A Study on Strategic Development Approaches for Cyber Seniors in the Information Security Industry

  • Seung Han Yoon;Ah Reum Kang
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권4호
    • /
    • pp.73-82
    • /
    • 2024
  • 2017년 UN에서는 전 세계적으로 60세 이상 인구는 모든 젊은 연령층보다 빠르게 증가하고 있으며, 2050년까지 60세 이상 인구는 아프리카를 제외한 전 세계 인구의 최소 25%를 구성할 것으로 예상하였다. 세계는 전반적으로 고령화로 인해 일을 할 수 있는 인구의 증가율이 감소하고 있으며, 청년층은 힘들고 어려운 직업을 선호하지 않고 있다. 이론적으로는 인공지능을 겸비한 AI가 모든 분야에서 사람을 대신할 수 있다고 하지만 윤리적인 판단 등 현실 세계의 정보보호 분야에서는 사람의 판단과 노하우가 절대적으로 필요하다. 이에, 본 논문에서는 IT 종사자 중 50대 이상 퇴직자 또는 전직을 희망하는 사람을 대상으로 재교육을 통해 현업으로 유입시키는 방법을 제안하고자 한다. 연구를 위해 수요 부분의 정부·공공기관 21곳과 공급 부분의 보안관제전문업체 9곳을 대상으로 설문하였으며 설문 결과 공급(78%)와 수요(90%) 모두가 절대적으로 필요하다는 데 의견을 모았다. 향후 이 연구 결과를 토대로 현장에 적용한다면 인구 저출산 100세 시대에 정보보호분야 시니어의 전략적 육성으로 대한민국 정보보호산업의 초석이 될 신규시장을 발굴할 수 있을 것이다.

여헌(旅軒) 장현광(張顯光)의 교육관 탐구 - 성리학적 본질의 심화 - (Quest for Yeoheon Jang Hyeon-gwang's View on Education - Deepening of the intrinsic nature in accordance with the Neo-Confucianistic thought)

  • 신창호
    • 동양고전연구
    • /
    • 제33호
    • /
    • pp.31-56
    • /
    • 2008
  • 여헌 장현광은 조선시대 여타의 유학자에 비해 철저하게 성리학의 본질을 충실하게 탐구하고, 심도 있게 학설을 확장시킨 학자이다. 여헌은 성리학적 교육의 기본 체계인 "대학"과 "중용"에 의거하여 자신의 학설을 강화한다. 이러한 사유의 전개에 근거하여 여헌의 교육사상은 세 측면에서 조명해 볼 수 있다. 첫째, 여헌은 교육의 기준으로서 성인군주론(聖人君主論)을 심화한다. 그것은 본질적으로 존천리알인욕(存天理?人欲)을 추구하며, 도덕적 각성과 덕치주의를 강조한다. 둘째, 여헌은 교육의 양식으로서 성경(誠敬)의 공부론을 강조한다. 여헌은 마음에 성(誠)과 경(敬)을 세울 것을 강조하고, 두 가지의 차별성을 인정하면서도 동일한 맥락에서 이해한다. 셋째, 여헌은 교육의 방법으로서 분합(分合)의 조화를 주창한다. 여헌은 그의 독특한 리기경위설(理氣經緯說)을 통해, 역(易)의 논리에 따라 어느 한쪽으로 치우치거나 지나치지 않는 중용의 관점을 유지한다. 이러한 여헌의 교육적 사유는 현대 교육적 의미에서 볼 때, 교육의 표준을 도덕의 확립에 두고, 교육의 양식과 방법에서 중용적 통찰을 고려하는 아이디어를 제공한다. 요컨대, 여헌의 교육사상은 일관성을 지닌 전통 성리학의 교육적 지혜를 담고 있는데, 현대 교육의 기준 혼란, 내용의 비체계화, 방법적 치우침에 대한 균형 감각의 중요성을 재검토하는 데 주요한 시사점을 준다.

생성형 AI의 의료적 활용과 개인정보보호 (A Study on the Medical Application and Personal Information Protection of Generative AI)

  • 이수경
    • 의료법학
    • /
    • 제24권4호
    • /
    • pp.67-101
    • /
    • 2023
  • 생성형 AI의 활용은 교육계를 넘어서 이미 의료계에서도 의료 기기에 임상 소프트웨어 등의 도입 등으로 연구되고 있다. 생성형 AI는 대규모 대화형 언어모델을 활용하여 방대한 데이터를 이해하고 자료를 선별하는 시간과 에너지를 줄여주면서 사용자와 끊임없는 대화를 통한 정보의 전달이 가능하다. 바로 이러한 점이 인류에게 생성형 AI가 혁신적인 기술의 등장으로 인정받고 있는 점이기도 하다. 그러나 반면 사용자에게 제공되는 컨텐츠의 정합성은 출처나 근거 없이 사용자에게 판단의 영역으로 맡겨지고 있다. 그러나 이 글에서는 생성형 AI를 활용함에 있어서 가장 직접적으로 발생할 수 있는 쟁점을 우선적으로 살펴보기로 한다. 따라서 이 글에서는 생성형 AI의 대표적인 프로그램인 Chat GPT의 발전과 이용자의 활용에 대비하여 특히 개인정보 보호의 쟁점에 대하여 논의하였다. 이를 위하여 먼저 생성형 AI의 기술적인 특성을 살펴본 뒤에 발생 가능한 민사적 쟁점 가운데에서도 개인정보 보호에 관한 문제를 우선적으로 살펴보았다. 생성형 AI는 그 자체로서 학습 데이터의 편향이나 출처 없는 결과값의 제공 등 여러 문제점이 제기되고 있으나, 이러한 문제점은 윤리적 문제를 내포하는 것으로 당장 임상 소프트웨어로서 의료기기에서 활용될 경우 개인정보 보호법제와 보건의료데이터의 활용 가이드로 환자 혹은 이용자의 개인정보를 보호할 수 있을 것인가에 대한 의문에 대한 논의가 시급하다고 판단되었다. 우리나라의 개인정보 보호법제는 특히 보건의료데이터의 활용에서 특정 개인의 개인정보를 가명처리하고 비식별조치를 취하는 데에 적절한 프로세스를 갖추고 있는 것으로 보이나, 생성형 AI이 소프트웨어로서 의료기기에 적용되었을 경우에도 이 법제로서 개인정보 보호의 목적을 이루기에는 어려운 점이 있다. 임상 소프트웨어에서 활용될 생성형 AI의 기능을 대비하기 위해서는 생성형 AI에 걸맞는 개인정보 보호의 법제가 필요할 것으로 보인다.