• 제목/요약/키워드: 원본

검색결과 1,141건 처리시간 0.022초

Contract-based Access Control Method for NFT Use Rights

  • Jeong, Yoonsung;Ko, Deokyoon;Seo, Jungwon;Park, Sooyong;Kim, Seong-Jin;Kim, Bum-Soo;Kim, Do-Young
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권11호
    • /
    • pp.1-11
    • /
    • 2022
  • 본 논문에서는 블록체인 환경에서 상호간 데이터를 안전하게 공유하기 위한 NFT 기반의 접근 제어 방안을 제안한다. 기존의 블록체인에 기록되는 모든 데이터는 기술 특성상 누구나 접근할 수 있기 때문에 민감한 데이터를 공유하는 경우에는 인가받은 사람 외에는 접근을 제어할 필요가 있다. 이를 위해서 제안하는 방안에서는 각 데이터를 NFT로 발행하고, 컨트랙트를 통해 데이터에 대한 접근을 제어한다. 또, 기존의 NFT가 가지는 단일 소유권의 한계를 극복하기 위해 소유권과 사용권으로 개념을 분리하여 사용자간 데이터를 안전하게 공유할 수 있도록 한다. 소유권은 원본 NFT로 발행하고, 사용권은 사본 NFT로 발행하여 관리하며, NFT로 발행되는 모든 데이터는 암호화된 후 업로드가 진행되기 때문에 반드시 접근 제어가 이루어지는 스마트 컨트랙트를 통해서만 데이터의 공유가 가능하다. 이러한 접근 방안을 검증하기 위해 BIM(Building Information Modeling) 데이터 거래라는 가상의 시나리오를 설정하고, 접근 제어가 필요한 32가지 함수 호출 시나리오를 만족하는 스마트 컨트랙트를 구성하였다. 또한, 무차별 대입을 통한 복호화 공격 가능성을 고려하여 이에 대한 안정성을 평가하였다. 이를 통해 블록체인 환경에서 안전하게 개인 간 데이터를 공유할 수 있음을 확인하였다.

NECT CT에서 DLIR 재구성기법 적용 시 화질분석 (Image Quality Analysis when applying DLIR Reconstruction Techniques in NECT CT)

  • 윤준;김현주
    • 한국방사선학회논문지
    • /
    • 제16권4호
    • /
    • pp.387-394
    • /
    • 2022
  • 갑상샘이 포함된 인체모형 팬텀을 이용하여 임상에서 많이 적용하는 NECK CT 프로토콜 중 관전압을 변화 적용하여 스캔 후 Raw data를 이용하여 FBP, ASIR-V, DLIR 재구성기법 적용 영상 획득하여 120 kVp FBP 재구성 영상 기준 DLIR 재구성기법의 유용성을 알아보았다. 그 결과 DLIR 재구성기법 적용 시 CTDIvol 이 감소하였으며, 특히 동일 관전압에서 FBP 적용보다 ASIR-V, DLIR 재구성 시 낮은 선량에서도 기준 스캔 조건으로 획득한 화질에 도달하였다. 또한, SNR, CNR 분석결과 DLIR 재구성 영상이 SNR, CNR 값이 높게 분석되었고, SSIM분석결과 100 kVp, DLIR 재구성 영상이 SSIM 지수가 1에 근사하게 측정되어 원본 영상에 대한 재구성 영상의 유사도가 높은 것으로 분석되었다(p>0.05). 본 연구결과를 활용하여 임상 영상 평가를 시행하여 보완하고 다양한 해부학적 구조에 적용 가능한 알고리즘을 추가 개발한다면 검사 선량을 현재 보다 낮추면서 화질을 유지할 수 있어 임상 적용 시 유용할 것으로 생각된다.

고려 시대 인삼과 의약서에 대한 기록 (Records on Ginseng and Medical Book during the Goryeo Dynasty)

  • 이성동
    • 인삼문화
    • /
    • 제5권
    • /
    • pp.21-31
    • /
    • 2023
  • 우리나라의 특산품인 고려인삼은 삼국시대 이래 가장 중요한 수출품 중 하나였다. 그러나 고려 시대까지 우리 역사에서 인삼에 관한 기록은 그리 많지 않다. 본 고에서는 고려 시대의 인삼에 관한 국제 수교 및 교역 기록과 당시 출판된 것으로 알려진 의약서에 대하여 정리하였다. 고려시대에는 주변 국가인 발해, 송, 왜, 후진, 원나라와 외교적 예물로 또는 교역품으로 인삼이 활발하게 거래되었다. 주로 고려에서 주변 국가로 인삼이 수출되었지만 발해와 거란으로부터는 인삼을 외교적 예물로 받기도 하였다. 아라비아 상인은 고려의 대표적 국제무역항이었던 벽란항에 와서 인삼을 교역하였다. 몽골 침입 이후 원나라의 인삼 요구량이 지나치게 많아서 큰 사회적 문제가 되기도 하였다. 고려시대에는 『제중입효방』, 『어의촬요방』, 『향약고방』, 『삼화자향약방』, 『향약혜민경험방』, 『향약구급방』, 『비예백요방』 등 여러 의약서가 출판되었다. 『향약구급방』은 조선시대에 중간된 것이 전해지고 있으나 나머지 책들의 원본은 현재 전해지지 않고 있다. 최근 후대의 여러 의약서에 인용된 것들을 연구하여 그 일부가 복원되기도 하였다. 궁중에서 사용되었던 의약서에는 인삼을 포함한 처방의 비중이 높았던 반면 주로 평민을 위한 『향약구급방』에는 인삼 처방이 한 건도 수재(收載) 되지 않았다. 이는 당시 인삼이 매우 귀하고 고가이어서 평민이 접하기는 어려웠기 때문으로 생각된다.

음성 비식별화 모델과 방송 음성 변조의 한국어 음성 비식별화 성능 비교 (Comparison of Korean Speech De-identification Performance of Speech De-identification Model and Broadcast Voice Modulation)

  • 김승민;박대얼;최대선
    • 스마트미디어저널
    • /
    • 제12권2호
    • /
    • pp.56-65
    • /
    • 2023
  • 뉴스와 취재 프로그램 같은 방송에서는 제보자의 신원 보호를 위해 음성을 변조한다. 음성 변조 방법으로 피치(pitch)를 조절하는 방법이 가장 많이 사용되는데, 이 방법은 피치를 재조절하는 방식으로 쉽게 원본 음성과 유사하게 음성 복원이 가능하다. 따라서 방송 음성 변조 방법은 화자의 신원 보호를 제대로 해줄 수 없고 보안상 취약하기 때문에 이를 대체하기 위한 새로운 음성 변조 방법이 필요하다. 본 논문에서는 Voice Privacy Challenge에서 비식별화 성능이 검증된 Lightweight 음성 비식별화 모델을 성능 비교 모델로 사용하여 피치 조절을 사용한 방송 음성변조 방법과 음성 비식별화 성능 비교 실험 및 평가를 진행한다. Lightweight 음성 비식별화 모델의 6가지 변조 방법 중 비식별화 성능이 좋은 3가지 변조 방법 McAdams, Resampling, Vocal Tract Length Normalization(VTLN)을 사용하였으며 한국어 음성에 대한 비식별화 성능을 비교하기 위해 휴먼 테스트와 EER(Equal Error Rate) 테스트를 진행하였다. 실험 결과로 휴먼 테스트와 EER 테스트 모두 VTLN 변조 방법이 방송 변조보다 더 높은 비식별화 성능을 보였다. 결과적으로 한국어 음성에 대해 Lightweight 모델의 변조 방법은 충분한 비식별화 성능을 가지고 있으며 보안상 취약한 방송 음성 변조를 대체할 수 있을 것이다.

고전 필사본 유랑과 도서관으로의 귀환 (The Wandering of Classic Manuscripts and Their Return to the Library)

  • 윤희윤
    • 한국도서관정보학회지
    • /
    • 제53권4호
    • /
    • pp.1-23
    • /
    • 2022
  • 기록은 인간의 삶과 지식 세계에 대한 수상인 동시에 지문이다. 기록의 대명사로 간주되는 책은 인류 역사를 추적하는 통로이자 그것을 음미하는 창이다. 그리고 책의 가장 원시적인 형태는 고대 그리스·로마의 고전이고, 압권은 필사본이다. 그것은 파피루스 두루마리, 양피지, 종이 등에 기록한 원본과 그것을 번역·중역한 사본을 총칭한다. 장구한 지식문화사를 반추하면 서양 필사본은 자연적 재해뿐만 아니라 인위적 문화반달리즘과 비블리오코스트로 인하여 시공간을 유동하는 강물처럼 이합집산을 계속해 왔다. 이에 본 연구는 고대 그리스에서 중세 르네상스 시대까지 서양 필사본의 유량과 도서관 보존을 추적하였다. 그 결과, 왕조와 제국, 군주와 재상, 장군과 정복자, 귀족과 부유층, 성직자와 학자를 불문하고 고전 필사본을 수집하고 번역하는데 혈안이었다. 고대 그리스·로마의 석학들이 파피루스와 양피지에 지식과 지혜를 기록하지 않았으면, 중세 비잔티움 제국·이슬람 제국이 고전을 수집·번역하고 재생산하지 않았으면, 책 사냥꾼들이 고전을 추적하지 않았으면, 르네상스 인문주의자들이 지적 엑소더스를 통해 고전을 복원·재해석하지 않았으면, 그리고 역사도서관이 사력을 다해 고전과 번역본을 수집·보존하지 않았으면, 현대인은 고전 지식을 접할 수 없었을 것이다. 그럼에도 불구하고 고전 필사본의 추적은 역사적 유동, 지리적 유랑, 언어적 변용으로 인해 많은 난제와 모순이 중첩되어 있는 아포리아다. 새로운 필사본이 발견·해석되면 수정과 보완이 불가피하므로 후속연구를 통한 고전 필사본의 유랑과 귀환에 대한 추적은 계속되어야 한다.

관련 동영상 정보를 활용한 YouTube 가짜뉴스 탐지 기법 (Fake News Detection on YouTube Using Related Video Information)

  • 김준호;신용준;안현철
    • 지능정보연구
    • /
    • 제29권3호
    • /
    • pp.19-36
    • /
    • 2023
  • 정보통신기술의 발전으로 인해 누구나 쉽게 정보를 생산, 유포할 수 있게 되면서, 이를 악용하여 의도적으로 유포하는 거짓 정보인 가짜뉴스가 새로운 문제로 대두되기 시작하였다. 초기에 텍스트 방식으로 주로 전파되던 가짜뉴스는 점차 진화하여 이제는 멀티미디어 형식으로 퍼지고 있다. 유튜브는 2005년에 설립된 이후 세계 최고의 동영상 플랫폼으로 성장하면서 전 세계 사람들이 대부분 이용하고 있다. 하지만 유튜브는 가짜뉴스가 퍼지는 주요 창구가 되며 사회적인 문제를 일으키고 있다. 유튜브의 가짜뉴스를 탐지하기 위하여 다양한 학자들이 연구를 진행해 왔다. 가짜뉴스 탐지 연구에는 콘텐츠 기반의 접근과 배경정보 기반의 접근이 존재하는데 기존 가짜뉴스 연구와 유튜브의 가짜뉴스 탐지 연구를 살펴보면 콘텐츠 기반의 접근이 다수를 차지하고 있다. 본 연구에서는 콘텐츠 기반의 가짜뉴스 탐지가 아닌 배경정보 기반의 가짜뉴스 탐지기법을 제안하는데, 그 중에서도 유튜브에서 제공하는 관련 동영상 정보를 활용하여 가짜뉴스를 탐지하는 방법을 제안하고자 한다. 구체적으로 관련 동영상에서 얻은 정보와 원본 동영상에서 얻은 정보를 임베딩 기술인 Doc2vec을 이용하여 벡터화 한 후, 딥러닝 네트워크인 합성곱 신경망(CNN)을 통하여 가짜뉴스를 판별하고자 하였다. 실증분석 결과 제안 기법은 기존의 콘텐츠 기반으로 유튜브 가짜뉴스를 탐지하는 접근에 비해 보다 우수한 예측 성능을 보임을 확인하였다. 이러한 본 연구의 제안 기법은 파급력이 높은 유튜브 상에서 유포되는 가짜뉴스의 전파를 사전에 예방함으로써, 우리사회를 보다 안전하고 신뢰할 수 있도록 만드는데 기여할 수 있을 것으로 기대한다.

분산 환경에 질의 최적화를 위한 XQuery 질의 재작성 (XQuery Query Rewriting for Query Optimization in Distributed Environments)

  • 박종현;강지훈
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권3호
    • /
    • pp.1-11
    • /
    • 2009
  • XQuery가 XML 데이터를 위한 표준 질의어로 제안되면서, XQuery를 효율적으로 처리하기 위한 연구는 새로운 연구의 주제가 되었고, 몇몇 연구자들은 XQuery 질의를 최적화하기 위한 방법을 제안하고 있다. 그러나 앞선 대부분의 연구들은 XML 데이터 관리 시스템에 특화된 최적화 규칙만을 정의하고 있을 뿐 어떠한 시스템에서도 일반적으로 사용할 수 있는 최적화 방법과는 거리가 멀다. 또한 앞선 몇몇 연구에서는 XML 스키마 또는 DTD와 같은 미리 정의된 XML데이터의 구조정보를 이용하여 최적화하는 방법을 제안하고 있다. 그러나 현재 모든 응용이 XML 데이터를 위한 구조정보를 포함하고 있지는 않은 것이 현실이다. 그러므로 본 논문에서는 XQuery 질의의 특성을 파악하고 XQuery 질의 자체만을 이용한 최적화 방법들을 제안한다. 본 논문에서는 XQuery질의의 특성들을 고려한 세 가지 XQuery질의를 최적화 방법을 제안한다. 첫 번째 방법은 XQuery질의에 존재하는 불필요한 표현을 제거하는 것이고, 두 번째 방법은 질의 재배치를 이용한 최적화 방법이다. 마지막으로 세 번째 방법은 XQuery가 For절에 의해서 중첩된다는 점을 고려하여 For절에 의해서 발생하는 불필요한 반복을 최소화하는 방법이다. 성능 평가를 통해 논문에서 제안한 방법들에 의해 재작성 된 질의의 처리시간은 원본 질의의 처리 시간보다 뛰어나다는 것을 알 수 있다. 또한 각 방법들은 독립적으로 수행될 수 있으므로 XQuery 엔진의 필요에 따라 개별적으로 사용이 가능하다.

언어 정보가 반영된 문장 점수를 활용하는 삭제 기반 문장 압축 (Deletion-Based Sentence Compression Using Sentence Scoring Reflecting Linguistic Information)

  • 이준범;김소언;박성배
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권3호
    • /
    • pp.125-132
    • /
    • 2022
  • 문장 압축은 원본 문장의 중요한 의미는 유지하면서 길이가 축소된 압축 문장을 생성하는 자연어처리 태스크이다. 문법적으로 적절한 문장 압축을 위해, 초기 연구들은 사람이 정의한 언어 규칙을 활용하였다. 또한 시퀀스-투-시퀀스 모델이 기계 번역과 같은 다양한 자연어처리 태스크에서 좋은 성능을 보이면서, 이를 문장 압축에 활용하고자 하는 연구들도 존재했다. 하지만 언어 규칙을 활용하는 연구의 경우 모든 언어 규칙을 정의하는 데에 큰 비용이 들고, 시퀀스-투-시퀀스 모델 기반 연구의 경우 학습을 위해 대량의 데이터셋이 필요하다는 문제점이 존재한다. 이를 해결할 수 있는 방법으로 사전 학습된 언어 모델인 BERT를 활용하는 문장 압축 모델인 Deleter가 제안되었다. Deleter는 BERT를 통해 계산된 perplexity를 활용하여 문장을 압축하기 때문에 문장 압축 규칙과 모델 학습을 위한 데이터셋이 필요하지 않다는 장점이 있다. 하지만 Deleter는 perplexity만을 고려하여 문장을 압축하기 때문에, 문장에 속한 단어들의 언어 정보를 반영하여 문장을 압축하지 못한다. 또한, perplexity 측정을 위한 BERT의 사전 학습에 사용된 데이터가 압축 문장과 거리가 있어, 이를 통해 측정된 perplexity가 잘못된 문장 압축을 유도할 수 있다는 문제점이 있다. 이를 해결하기 위해 본 논문은 언어 정보의 중요도를 수치화하여 perplexity 기반의 문장 점수 계산에 반영하는 방법을 제안한다. 또한 고유명사가 자주 포함되어 있으며, 불필요한 수식어가 생략되는 경우가 많은 뉴스 기사 말뭉치로 BERT를 fine-tuning하여 문장 압축에 적절한 perplexity를 측정할 수 있도록 하였다. 영어 및 한국어 데이터에 대한 성능 평가를 위해 본 논문에서 제안하는 LI-Deleter와 비교 모델의 문장 압축 성능을 비교 실험을 진행하였고, 높은 문장 압축 성능을 보임을 확인하였다.

데이터 불균형과 측정 오차를 고려한 생분해성 섬유 인장 강신도 예측 모델 개발 (The Development of Biodegradable Fiber Tensile Tenacity and Elongation Prediction Model Considering Data Imbalance and Measurement Error)

  • 박세찬;김덕엽;서강복;이우진
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권12호
    • /
    • pp.489-498
    • /
    • 2022
  • 최근 노동 집약적인 성격의 섬유 산업에서는 인공지능을 통해 섬유 방사 공정에 들어가는 비용을 줄이고 품질을 최적화하려고 시도 하고 있다. 그러나 섬유 방사 공정은 데이터 수집에 필요한 비용이 크고 체계적인 데이터 수집 및 처리 시스템이 부족하여 축적된 데이터양이 적다. 또 방사 목적에 따라 특정한 변수에만 변화를 준 데이터만을 우선으로 수집하여 데이터 불균형이 발생하며, 물성 측정 환경의 차이로 인해 동일 방사 조건에서 수집된 샘플 간에도 오차가 존재한다. 이러한 데이터 특성들을 고려하지 않고 인공지능 모델에 활용할 경우 과적합과 성능 저하 등의 문제가 발생할 수 있다. 따라서 본 논문에서는 방사 공정 데이터 특성을 고려한 이상치 처리 기법과 데이터 증강 기법을 제안한다. 그리고 이를 기존 이상치 처리 기법 및 데이터 증강 기법과 비교하여 제안한 기법이 방사 공정 데이터에 더 적합함을 보인다. 또 원본 데이터와 제안한 기법들로 처리된 데이터를 다양한 모델에 적용하여 비교함을 통해 제안한 기법들을 사용한 모델들이 그렇지 않은 모델들에 비해 인장 강신도 예측 모델의 성능이 개선됨을 보인다.

증강현실 시각화를 위해 K-최근접 이웃을 사용한 BIM 메쉬 경량화 알고리즘 (BIM Mesh Optimization Algorithm Using K-Nearest Neighbors for Augmented Reality Visualization)

  • 빠 빠 윈 아웅;이동환;박주영;조민건;박승희
    • 대한토목학회논문집
    • /
    • 제42권2호
    • /
    • pp.249-256
    • /
    • 2022
  • 최근 BIM (Building Information Modeling)과 AR (Augmented Reality)을 결합한 실시간 시각화 기술이 건설관리 의사 결정 및 처리 효율성을 높이는 데 도움이 된다는 것을 보여주기 위한 다양한 연구가 활발히 진행되고 있다. 그러나, 대용량 BIM 데이터는 AR에 적용할 경우 데이터 전송 문제, 이미지 단절, 영상 끊김 등과 같은 다양한 문제가 발생함으로 3차원(3D) 모델의 메쉬 최적화를 통해 시각화의 효율성을 향상시켜야 한다. 대부분의 기존 메쉬 경량화 방법은 복잡하고 경계가 많은 3D 모델의 메쉬를 적절하게 처리할 수 없다. 이에 본 연구에서는 고성능 AR 시각화를 위해 BIM 데이터를 재구성하기 위한 k-최근접이웃(KNN) 분류 프레임워크 기반 메쉬 경량화 알고리즘을 제안하였다. 제안 알고리즘은 선정된 BIM 모델을 삼각형 중심 개념 기반의 Unity C# 코드로 경량화하였고 모델의 데이터 세트를 활용하여 정점 사이의 거리를 정의할 수 있는 KNN로 분류되었다. 그 결과 전체 모델과 각 구조의 경량화 메쉬 점 및 삼각형 개수가 각각 약 56 % 및 약 42 % 감소됨을 확인할 수 있었다. 결과적으로, 원본 모델과 비교했을 때 경량화한 모델은 시각적인 요소 및 정보 손실이 없었고, 따라서, AR 기기 활용 시 고성능 시각화를 향상시킬 수 있을 것으로 기대된다.