• 제목/요약/키워드: deep similarity

검색결과 223건 처리시간 0.021초

심층 학습 기반의 수기 일회성 암호 인증 시스템 (Handwritten One-time Password Authentication System Based On Deep Learning)

  • 리준;이혜영;이영준;윤수지;배병일;최호진
    • 인터넷정보학회논문지
    • /
    • 제20권1호
    • /
    • pp.25-37
    • /
    • 2019
  • 심층 학습 및 온라인 생체 인식 기반 인증의 급속한 개발에 영감을 받아, 본 논문에서는 심층 학습을 기반으로 필체 인식 및 작성자 검증을 수행하는 수기 일회성 암호 인증 시스템을 제안한다. 본 논문에서는 수기로 작성된 숫자를 인식할 수 있는 합성곱 신경망과, 입력된 필체와 실제 사용자의 필체 사이 유사성을 계산할 수 있는 Siamese 신경망을 설계한다. 본 논문에서는 작성자 검증을 위한 NIST Speical Database 19 제 2판의 첫 번째 응용 사례를 제시한다. 본 논문이 제안하는 시스템은 네 장의 입력 이미지를 기반으로 한 숫자 인식 작업에서 98.58%, 작성자 검증 작업에서 93%의 정확도를 달성했다. 본 논문의 저자들은 제안한 필체 기반 생체 인식기술이 FIDO 프레임워크 기반의 다양한 온라인 인증 서비스에 활용될 수 있을 것이라 예상한다.

Stochastic Non-linear Hashing for Near-Duplicate Video Retrieval using Deep Feature applicable to Large-scale Datasets

  • Byun, Sung-Woo;Lee, Seok-Pil
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권8호
    • /
    • pp.4300-4314
    • /
    • 2019
  • With the development of video-related applications, media content has increased dramatically through applications. There is a substantial amount of near-duplicate videos (NDVs) among Internet videos, thus NDVR is important for eliminating near-duplicates from web video searches. This paper proposes a novel NDVR system that supports large-scale retrieval and contributes to the efficient and accurate retrieval performance. For this, we extracted keyframes from each video at regular intervals and then extracted both commonly used features (LBP and HSV) and new image features from each keyframe. A recent study introduced a new image feature that can provide more robust information than existing features even if there are geometric changes to and complex editing of images. We convert a vector set that consists of the extracted features to binary code through a set of hash functions so that the similarity comparison can be more efficient as similar videos are more likely to map into the same buckets. Lastly, we calculate similarity to search for NDVs; we examine the effectiveness of the NDVR system and compare this against previous NDVR systems using the public video collections CC_WEB_VIDEO. The proposed NDVR system's performance is very promising compared to previous NDVR systems.

Automatic space type classification of architectural BIM models using Graph Convolutional Networks

  • Yu, Youngsu;Lee, Wonbok;Kim, Sihyun;Jeon, Haein;Koo, Bonsang
    • 국제학술발표논문집
    • /
    • The 9th International Conference on Construction Engineering and Project Management
    • /
    • pp.752-759
    • /
    • 2022
  • The instantiation of spaces as a discrete entity allows users to utilize BIM models in a wide range of analyses. However, in practice, their utility has been limited as spaces are erroneously entered due to human error and often omitted entirely. Recent studies attempted to automate space allocation using artificial intelligence approaches. However, there has been limited success as most studies focused solely on the use of geometric features to distinguish spaces. In this study, in addition to geometric features, semantic relations between spaces and elements were modeled and used to improve space classification in BIM models. Graph Convolutional Networks (GCN), a deep learning algorithm specifically tailored for learning in graphs, was deployed to classify spaces via a similarity graph that represents the relationships between spaces and their surrounding elements. Results confirmed that accuracy (ACC) was +0.08 higher than the baseline model in which only geometric information was used. Most notably, GCN was able to correctly distinguish spaces with no apparent difference in geometry by discriminating the specific elements that were provided by the similarity graph.

  • PDF

딥러닝을 이용한 법률 분야 한국어 의미 유사판단에 관한 연구 (Deep Learning Based Semantic Similarity for Korean Legal Field)

  • 김성원;박광렬
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권2호
    • /
    • pp.93-100
    • /
    • 2022
  • 기존의 데이터 검색 방법으로는 키워드 중심의 검색 방법이 주로 사용되나, 이는 전문적인 용어가 많이 쓰이는 법률 분야의 검색 방법으로는 적합하지 않다. 이에 대해 본 논문에서는 법률 분야의 효과적인 데이터 검색 방안을 제안한다. 법률 도메인의 자연어처리 분야에서 문장 간의 유사성을 판단하는 데 최적화된 임베딩 방법에 관하여 서술한다. 법률문장을 TF-IDF를 이용하여 키워드 기반으로 임베딩하거나 Universal Sentence Encoder를 이용하여 의미 기반으로 임베딩을 한 후, BERT모델을 결합하여 법률 분야에서 문장 간 유사성을 검사하여 데이터를 검색하는 최적의 방안을 제안한다.

3차원 뇌 자기공명 영상의 비지도 학습 기반 비강체 정합 네트워크 (Unsupervised Non-rigid Registration Network for 3D Brain MR images)

  • 오동건;김보형;이정진;신영길
    • 한국차세대컴퓨팅학회논문지
    • /
    • 제15권5호
    • /
    • pp.64-74
    • /
    • 2019
  • 비강체 정합은 임상적 필요성은 높으나 계산 복잡도가 높고, 정합의 정확성 및 강건성을 확보하기 어려운 분야이다. 본 논문은 비지도 학습 환경에서 3차원 뇌 자기공명 영상 데이터에 딥러닝 네트워크를 이용한 비강체 정합 기법을 제안한다. 서로 다른 환자의 두 영상을 입력받아 네트워크를 통하여 두 영상 간의 특징 벡터를 생성하고, 변위 벡터장을 만들어 기준 영상에 맞추어 다른 쪽 영상을 변형시킨다. 네트워크는 U-Net 형태를 기반으로 설계하여 정합 시 두 영상의 전역적, 지역적인 차이를 모두 고려한 특징 벡터를 만들 수 있고, 손실함수에 균일화 항을 추가하여 3차원 선형보간법 적용 후에 실제 뇌의 움직임과 유사한 변형 결과를 얻을 수 있다. 본 방법은 비지도 학습을 통해 임의의 두 영상만을 입력으로 받아 단일 패스 변형으로 비강체 정합을 수행한다. 이는 반복적인 최적화 과정을 거치는 비학습 기반의 정합 방법들보다 빠르게 수행할 수 있다. 실험은 50명의 뇌를 촬영한 3차원 자기공명 영상을 가지고 수행하였고, 정합 전·후의 Dice Similarity Coefficient 측정 결과 평균 0.690으로 정합 전과 비교하여 약 16% 정도의 유사도 향상을 확인하였다. 또한, 비학습 기반 방법과 비교하여 유사한 성능을 보여주면서 약 10,000배 정도의 속도 향상을 보여주었다. 제안 기법은 다양한 종류의 의료 영상 데이터의 비강체 정합에 활용이 가능하다.

콘크리트 라이닝 균열 분할 딥러닝 모델 평가 방법 (An evaluation methodology for cement concrete lining crack segmentation deep learning model)

  • 함상우;배수현;이임평;이규필;김동규
    • 한국터널지하공간학회 논문집
    • /
    • 제24권6호
    • /
    • pp.513-524
    • /
    • 2022
  • 터널을 비롯한 여러 가지 기반시설물에 발생한 콘크리트 균열을 영상과 딥러닝 기반으로 자동 탐지하는 연구가 최근 활발히 이루어지고 있다. 이러한 연구성과를 실제 현장에 적용하려면 딥러닝 모델의 신뢰성을 설명할 수 있어야한다. 본 연구에서는 선형성이 강한 균열의 기하적인 특성을 고려했을 때 화소 기반으로 계산하는 기존 평가지표가 충분치 않다는 점을 지적하며, 균열 분할 딥러닝 모델의 성능을 더 합리적으로 설명할 수 있는 다른 평가지표를 제시하고 비교 분석한다. 먼저 선형 객체의 유사성을 측정할 수 평가방법을 제시한다. 구체적으로는 기준 데이터에 허용 버퍼(tolerance buffer)를 부여하여 평가하는 방법을 설계, 구현, 검증한다. 실험 결과 본 연구에서 제안하는 방법은 균열 분할 딥러닝 모델 평가시 기존 대비 과대평가 또는 과소평가 문제를 해결할 수 있었으며, 화소 기반 성능 평가 지표에 비해 균열 분할 딥러닝 모델의 성능을 더 잘 설명할 것으로 기대한다.

Deep Learning-Based Computed Tomography Image Standardization to Improve Generalizability of Deep Learning-Based Hepatic Segmentation

  • Seul Bi Lee;Youngtaek Hong;Yeon Jin Cho;Dawun Jeong;Jina Lee;Soon Ho Yoon;Seunghyun Lee;Young Hun Choi;Jung-Eun Cheon
    • Korean Journal of Radiology
    • /
    • 제24권4호
    • /
    • pp.294-304
    • /
    • 2023
  • Objective: We aimed to investigate whether image standardization using deep learning-based computed tomography (CT) image conversion would improve the performance of deep learning-based automated hepatic segmentation across various reconstruction methods. Materials and Methods: We collected contrast-enhanced dual-energy CT of the abdomen that was obtained using various reconstruction methods, including filtered back projection, iterative reconstruction, optimum contrast, and monoenergetic images with 40, 60, and 80 keV. A deep learning based image conversion algorithm was developed to standardize the CT images using 142 CT examinations (128 for training and 14 for tuning). A separate set of 43 CT examinations from 42 patients (mean age, 10.1 years) was used as the test data. A commercial software program (MEDIP PRO v2.0.0.0, MEDICALIP Co. Ltd.) based on 2D U-NET was used to create liver segmentation masks with liver volume. The original 80 keV images were used as the ground truth. We used the paired t-test to compare the segmentation performance in the Dice similarity coefficient (DSC) and difference ratio of the liver volume relative to the ground truth volume before and after image standardization. The concordance correlation coefficient (CCC) was used to assess the agreement between the segmented liver volume and ground-truth volume. Results: The original CT images showed variable and poor segmentation performances. The standardized images achieved significantly higher DSCs for liver segmentation than the original images (DSC [original, 5.40%-91.27%] vs. [standardized, 93.16%-96.74%], all P < 0.001). The difference ratio of liver volume also decreased significantly after image conversion (original, 9.84%-91.37% vs. standardized, 1.99%-4.41%). In all protocols, CCCs improved after image conversion (original, -0.006-0.964 vs. standardized, 0.990-0.998). Conclusion: Deep learning-based CT image standardization can improve the performance of automated hepatic segmentation using CT images reconstructed using various methods. Deep learning-based CT image conversion may have the potential to improve the generalizability of the segmentation network.

방사선 조사선량의 최소화를 위한 생성적 적대 신경망을 활용한 복부 엑스선 영상 최적화 연구 (Optimization of Abdominal X-ray Images using Generative Adversarial Network to Realize Minimized Radiation Dose)

  • 김상우;임재동
    • 한국방사선학회논문지
    • /
    • 제17권2호
    • /
    • pp.191-199
    • /
    • 2023
  • 본 연구는 높은 관전압과 낮은 관전류로 인한 복부 영상 노이즈 발생을 BSRGAN (Deep Bline Image Super-Resolution Generative Adversarial)기법으로 보정하고, 최소화된 방사선량을 가진 촬영 조건을 제시하는 것을 목표로 하였다. 먼저 각 촬영 조건에 따른 입사표면 선량(entrance surface doses, ESD)을 측정하였고, 해당 촬영 조건들의 복부 영상을 획득한 후 그 획득한 모든 복부 영상들은 BSRGAN 기법을 통해 재구성하였다. 영상 분석방법으로는 복부의 기준 촬영 조건인 80 kVp, 320 mA의 영상과 비교 분석하였고, 그 방법으로는 평균제곱오차(mean squared error, MSE), 최대 신호 대 잡음비(peak signal-to-noise ratio, PSNR), 그리고 구조적 유사도 지수 측정(structural similarity index measure, SSIM)을 사용하였다. 또한, BSRGAN 기법으로 재구성된 복부 영상효과를 검증하기 위해 절편 신호강도 분석은 실행되었다. MSE가 가장 낮은 조사조건은 90 kVp, 125 mA와 100 kVp, 100 mA (약 0.285)이었고, PSNR은 37.694와 SSIM은 0.999로 나타났다. 그 촬영 조건들은 ESD를 약 52 ~ 53%를 감소시켰다. 게다가, 최적화된 조건들의 신호 강도의 변화는 기준 복부 영상보다 오히려 감소하였다. 이 결과는 방사선량을 크게 줄임과 동시에 기준 복부 영상과 유사한 영상을 획득할 수 있음을 의미하며, 이는 방사선방호의 원리인 ALARA 개념을 충분히 반영할 수 있음을 시사한다.

Development and Validation of a Deep Learning System for Segmentation of Abdominal Muscle and Fat on Computed Tomography

  • Hyo Jung Park;Yongbin Shin;Jisuk Park;Hyosang Kim;In Seob Lee;Dong-Woo Seo;Jimi Huh;Tae Young Lee;TaeYong Park;Jeongjin Lee;Kyung Won Kim
    • Korean Journal of Radiology
    • /
    • 제21권1호
    • /
    • pp.88-100
    • /
    • 2020
  • Objective: We aimed to develop and validate a deep learning system for fully automated segmentation of abdominal muscle and fat areas on computed tomography (CT) images. Materials and Methods: A fully convolutional network-based segmentation system was developed using a training dataset of 883 CT scans from 467 subjects. Axial CT images obtained at the inferior endplate level of the 3rd lumbar vertebra were used for the analysis. Manually drawn segmentation maps of the skeletal muscle, visceral fat, and subcutaneous fat were created to serve as ground truth data. The performance of the fully convolutional network-based segmentation system was evaluated using the Dice similarity coefficient and cross-sectional area error, for both a separate internal validation dataset (426 CT scans from 308 subjects) and an external validation dataset (171 CT scans from 171 subjects from two outside hospitals). Results: The mean Dice similarity coefficients for muscle, subcutaneous fat, and visceral fat were high for both the internal (0.96, 0.97, and 0.97, respectively) and external (0.97, 0.97, and 0.97, respectively) validation datasets, while the mean cross-sectional area errors for muscle, subcutaneous fat, and visceral fat were low for both internal (2.1%, 3.8%, and 1.8%, respectively) and external (2.7%, 4.6%, and 2.3%, respectively) validation datasets. Conclusion: The fully convolutional network-based segmentation system exhibited high performance and accuracy in the automatic segmentation of abdominal muscle and fat on CT images.

Intelligent missing persons index system Implementation based on the OpenCV image processing and TensorFlow Deep-running Image Processing

  • Baek, Yeong-Tae;Lee, Se-Hoon;Kim, Ji-Seong
    • 한국컴퓨터정보학회논문지
    • /
    • 제22권1호
    • /
    • pp.15-21
    • /
    • 2017
  • In this paper, we present a solution to the problems caused by using only text - based information as an index element when a commercialized missing person indexing system indexes missing persons registered in the database. The existing system could not be used for the missing persons inquiry because it could not formalize the image of the missing person registered together when registering the missing person. To solve these problems, we propose a method to extract the similarity of images by using OpenCV image processing and TensorFlow deep - running image processing, and to process images of missing persons to process them into meaningful information. In order to verify the indexing method used in this paper, we constructed a Web server that operates to provide the information that is most likely to be needed to users first, using the image provided in the non - regular environment of the same subject as the search element.