• 제목/요약/키워드: IOU

검색결과 51건 처리시간 0.021초

현대 중국어 모음 'o'의 음가 고찰 및 발음지도 제언

  • 김선화
    • 중국학논총
    • /
    • 제63호
    • /
    • pp.29-45
    • /
    • 2019
  • 现代汉语普通话中单元音'o'在不同韵母中的音值有差别, 但对此专家议论纷纷, 对学汉语的学生, 教汉语的老师是个难点之一. 本论文对'o'的音值和与'o'结合的二合复元韵母, 三合复元韵母进行考察, 寻找不同韵母中的'o'的正确的音值. 本论文把韩国教材里的关于'o'的说明进行分析, 再对中国学者的解释进行对照检查. 分析调查结果说明, 'o'是不同韵母中的音值不一样, 单元音'o'的实际音值是[o]和[ɔ]之间, 'ou'和'iou'的'o'的实际音值可以说是[o]或[ə]. 对于'ou', 'iou', 'uo'的'o'的音值, 有的韩国学者主张跟韩国语中[오]比较接近, 还有的学者主张跟韩国语中[어]更接近. 本论文还对怎样教好韵母'o'的发音提出方案.

High Accuracy Vision-Based Positioning Method at an Intersection

  • Manh, Cuong Nguyen;Lee, Jaesung
    • Journal of information and communication convergence engineering
    • /
    • 제16권2호
    • /
    • pp.114-124
    • /
    • 2018
  • This paper illustrates a vision-based vehicle positioning method at an intersection to support the C-ITS. It removes the minor shadow that causes the merging problem by simply eliminating the fractional parts of a quotient image. In order to separate the occlusion, it firstly performs the distance transform to analyze the contents of the single foreground object to find seeds, each of which represents one vehicle. Then, it applies the watershed to find the natural border of two cars. In addition, a general vehicle model and the corresponding space estimation method are proposed. For performance evaluation, the corresponding ground truth data are read and compared with the vision-based detected data. In addition, two criteria, IOU and DEER, are defined to measure the accuracy of the extracted data. The evaluation result shows that the average value of IOU is 0.65 with the hit ratio of 97%. It also shows that the average value of DEER is 0.0467, which means the positioning error is 32.7 centimeters.

Denoising 3D Skeleton Frames using Intersection Over Union

  • Chuluunsaikhan, Tserenpurev;Kim, Jeong-Hun;Choi, Jong-Hyeok;Nasridinov, Aziz
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.474-475
    • /
    • 2021
  • The accuracy of real-time video analysis system based on 3D skeleton data highly depends on the quality of data. This study proposes a methodology to distinguish noise in 3D skeleton frames using Intersection Over Union (IOU) method. IOU is metric that tells how similar two rectangles (i.e., boxes). Simply, the method decides a frame as noise or not by comparing the frame with a set of valid frames. Our proposed method distinguished noise in 3D skeleton frames with the accuracy of 99%. According to the result, our proposed method can be used to track noise in 3D skeleton frames.

Automatically Diagnosing Skull Fractures Using an Object Detection Method and Deep Learning Algorithm in Plain Radiography Images

  • Tae Seok, Jeong;Gi Taek, Yee; Kwang Gi, Kim;Young Jae, Kim;Sang Gu, Lee;Woo Kyung, Kim
    • Journal of Korean Neurosurgical Society
    • /
    • 제66권1호
    • /
    • pp.53-62
    • /
    • 2023
  • Objective : Deep learning is a machine learning approach based on artificial neural network training, and object detection algorithm using deep learning is used as the most powerful tool in image analysis. We analyzed and evaluated the diagnostic performance of a deep learning algorithm to identify skull fractures in plain radiographic images and investigated its clinical applicability. Methods : A total of 2026 plain radiographic images of the skull (fracture, 991; normal, 1035) were obtained from 741 patients. The RetinaNet architecture was used as a deep learning model. Precision, recall, and average precision were measured to evaluate the deep learning algorithm's diagnostic performance. Results : In ResNet-152, the average precision for intersection over union (IOU) 0.1, 0.3, and 0.5, were 0.7240, 0.6698, and 0.3687, respectively. When the intersection over union (IOU) and confidence threshold were 0.1, the precision was 0.7292, and the recall was 0.7650. When the IOU threshold was 0.1, and the confidence threshold was 0.6, the true and false rates were 82.9% and 17.1%, respectively. There were significant differences in the true/false and false-positive/false-negative ratios between the anterior-posterior, towne, and both lateral views (p=0.032 and p=0.003). Objects detected in false positives had vascular grooves and suture lines. In false negatives, the detection performance of the diastatic fractures, fractures crossing the suture line, and fractures around the vascular grooves and orbit was poor. Conclusion : The object detection algorithm applied with deep learning is expected to be a valuable tool in diagnosing skull fractures.

해사대학 여학생들이 인식한 진로장벽이 진로결정수준에 미치는 영향에 관한 연구 (A Study on the Effect of Career Barriers Perceived by Women at Maritime University on the Career Decision Level)

  • 박유진;김승연
    • 해양환경안전학회지
    • /
    • 제28권5호
    • /
    • pp.764-772
    • /
    • 2022
  • 해운·항만 산업분야는 전통적으로 남성 중심으로 운영되어 온 산업으로, 여성 해기사의 진출 범위가 늘어나고 있지만 여전히 여성 종사자의 비율은 낮은 수준이다. 그러나 본 산업분야의 여성들이 겪는 진로발달 상의 어려움을 설명하고 이를 개선하기 위해 개인이 속한 사회문화적 맥락이나 환경적 요인을 포괄적으로 설명할 수 있는 진로장벽 및 진로결정수준에 대한 연구가 아직 수행되지 않고 있는 실정이다. 이에 따라 본 연구는 M대학교 해사대학에 재학 중인 여학생들을 대상으로 진로장벽 요인을 도출하고, 진로장벽이 진로결정수준에 어떠한 영향을 미치는지를 조사였다. 해사대학 여학생들이 인식하는 진로장벽 요인으로 성차별(GD), 진로 미결정 및 준비 부족(IOU), 직장-가정 갈등(WFC), 개인특성 부족(LPQ), 기대보다 낮은 직업 전망(LOE)이 도출되었다. 도출된 진로장벽 요인이 진로결정수준에 어떤 영향을 미치는지를 분석한 결과, 진로 미결정 및 준비 부족(IOU)이 진로결정수준에 유의한 부의 영향을 미치는 것으로 나타났다. 성차별(GD), 직장-가정 갈등(WFC), 개인특성 부족(LPQ), 기대보다 낮은 직업 전망(LOE)은 진로결정수준에 유의한 영향을 미치지 않는 것으로 나타났다. 본 연구를 통해 도출된 결론은 진로장벽을 극복하고 진로결정수준을 향상시키기를 원하는 해사대학 여학생들을 대상으로 하는 진로지도 및 상담을 위한 중요한 자료로 활용될 수 있을 것이다.

CT 영상 기반 근감소증 진단을 위한 AI 영상분할 모델 개발 및 검증 (Development and Validation of AI Image Segmentation Model for CT Image-Based Sarcopenia Diagnosis)

  • 이충섭;임동욱;노시형;김태훈;고유선;김경원;정창원
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제12권3호
    • /
    • pp.119-126
    • /
    • 2023
  • 근감소증은 국내는 2021년 질병으로 분류되었을 만큼 잘 알려져 있지 않지만 고령화사회에 진입한 선진국에서는 사회적 문제로 인식하고 있다. 근감소증 진단은 유럽노인근감소증 진단그룹(EWGSOP)과 아시아근감소증진단그룹(AWGS)에서 제시하는 국제표준지침을 따른다. 최근 진단방법으로 절대적 근육량 이외에 신체수행평가로 보행속도 측정과 일어서기 검사 등을 통하여 근육 기능을 함께 측정할 것을 권고하고 있다. 근육량을 측정하기 위한 대표적인 방법으로 DEXA를 이용한 체성분 분석 방법이 임상에서 정식으로 실시하고 있다. 또한 MRI 또는 CT의 복부 영상을 이용하여 근육량을 측정하는 다양한 연구가 활발하게 진행되고 있다. 따라서 본 논문에서는 근감소증 진단을 위해서 비교적 짧은 촬영시간을 갖는 CT의 복부영상기반으로 AI 영상 분할 모델을 개발하고 다기관 검증한 내용을 기술한다. 우리는 CT 영상 중에 요추의 L3 영역을 분류하여 피하지방, 내장지방, 근육을 자동으로 분할할 수 있는 인공지능 모델을 U-Net 모델을 사용하여 개발하였다. 또한 모델의 성능평가를 위해서 분할영역의 IOU(Intersection over Union)를 계산하여 내부검증을 진행했으며, 타 병원의 데이터를 활용하여 동일한 IOU 방법으로 외부검증을 진행한 결과를 보인다. 검증 결과를 토대로 문제점과 해결방안에 대해서 검증하고 보완하고자 했다.

딥러닝을 이용한 화재 발생 예측 이미지 분할 (Image Segmentation for Fire Prediction using Deep Learning)

  • 김태훈;박종진
    • 한국인터넷방송통신학회논문지
    • /
    • 제23권1호
    • /
    • pp.65-70
    • /
    • 2023
  • 본 논문에서는 화재로부터 실시간으로 화염과 연기를 감지하고 분할하기 위해 딥러닝 모델을 사용하였다. 이를 위해 의미론적 분할에서 우수한 성능을 보이는 U-NET을 사용하고 다중 클래스를 이용하여 화재의 불꽃과 연기를 구분 하였다. 제안된 기법을 이용하여 학습한 결과, 손실 오차와 정확도 값이 각각 0.0486과 0.97996으로 매우 양호하였다. 객체 감지에 사용되는 IOU 값도 0.849로 매우 좋았다. 학습된 모델을 이용하여 학습에 사용하지 않은 화재 이미지를 예측한 결과, 화재의 불꽃과 연기가 잘 감지되고 분할되었으며, 연기의 색상도 잘 구분되었다. 제안된 기법을 이용하여 화재 예측 및 감지 시스템 구축 등에 사용될 수 있다.

Artificial intelligence in colonoscopy: from detection to diagnosis

  • Eun Sun Kim;Kwang-Sig Lee
    • The Korean journal of internal medicine
    • /
    • 제39권4호
    • /
    • pp.555-562
    • /
    • 2024
  • This study reviews the recent progress of artificial intelligence for colonoscopy from detection to diagnosis. The source of data was 27 original studies in PubMed. The search terms were "colonoscopy" (title) and "deep learning" (abstract). The eligibility criteria were: (1) the dependent variable of gastrointestinal disease; (2) the interventions of deep learning for classification, detection and/or segmentation for colonoscopy; (3) the outcomes of accuracy, sensitivity, specificity, area under the curve (AUC), precision, F1, intersection of union (IOU), Dice and/or inference frames per second (FPS); (3) the publication year of 2021 or later; (4) the publication language of English. Based on the results of this study, different deep learning methods would be appropriate for different tasks for colonoscopy, e.g., Efficientnet with neural architecture search (AUC 99.8%) in the case of classification, You Only Look Once with the instance tracking head (F1 96.3%) in the case of detection, and Unet with dense-dilation-residual blocks (Dice 97.3%) in the case of segmentation. Their performance measures reported varied within 74.0-95.0% for accuracy, 60.0-93.0% for sensitivity, 60.0-100.0% for specificity, 71.0-99.8% for the AUC, 70.1-93.3% for precision, 81.0-96.3% for F1, 57.2-89.5% for the IOU, 75.1-97.3% for Dice and 66-182 for FPS. In conclusion, artificial intelligence provides an effective, non-invasive decision support system for colonoscopy from detection to diagnosis.

MPLS기반의 Opotical VPN 제공을 위한 기술적 이슈 (Technical Issues iou Optical VPN provisioning based on MPLS)

  • 김진영;이현태
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2001년도 춘계종합학술대회
    • /
    • pp.550-555
    • /
    • 2001
  • 최근 Internet의 가장 보편적이고 저렴한 Backbone Network 기술이다. 이러한 Internet의 전달 능력은 그대로 이용하면서 보안이 우수한 가상 사설망(VPN)을 구축하는 기술에 대한 수요가 증가하고 있다. 본 논문에서는 MPLS 기반의 터널링을 이용한 VPN망 구축 방안과 광 경로(Lightpath)를 갖는 Optical VPN에서 고려해야할 사항에 대해 제시하였다.

  • PDF

Deeplab V3+를 활용한 kidney 탐색 (Kidney Search with Deeplab V3+)

  • 김성중;유재천
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2020년도 제61차 동계학술대회논문집 28권1호
    • /
    • pp.57-58
    • /
    • 2020
  • 본 논문은 영상분할 기법 중 DeepLab V3+를 적용하여 초음파 영상속에서 특정 장기, 혹은 기관을 발견하고자한다. 그와 동시에 찾아진 Object의 area를 mIOU 기반으로 초음파 영상속에서의 DeepLab V3+의 성능을 확인하고자 한다.

  • PDF