• Title/Summary/Keyword: Contrastive Language-Image Pre-training

Search Result 2, Processing Time 0.017 seconds

Figure Identification Method By KoNLPy And Image Object Analysis (KoNLPy와 이미지 객체 분석을 통한 그림 식별 방법)

  • Jihye Kim;Mikyeong Moon
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.07a
    • /
    • pp.697-698
    • /
    • 2023
  • 최근 딥 러닝 분야의 기술이 발달하면서 Chat GPT, Google Bard와 같은 자연어 처리 기술이 확대되고 있고 이미지 객체를 분석하는 CLIP, BLIP와 같은 기술도 발전되고 있다. 그러나 전시회와 같은 예술 분야는 딥 러닝 기술 기반의 이미지 데이터 활용이 제한적이다. 본 논문은 전시회장에서의 그림 내부의 객체 데이터를 분석하기 위해 이미지 객체 분석 기술을 사용하고 자연어 처리 기반으로 관람객이 특정 그림에 대한 질문을 입력하면 해당 그림을 식별하는 방법을 제시한다. 이를 통해 관람객이 원하는 그림을 선별하여 관람할 수 있도록 한다.

  • PDF

Wildfire Detection Method based on an Artificial Intelligence using Image and Text Information (이미지와 텍스트 정보를 활용한 인공지능 기반 산불 탐지 방법)

  • Jae-Hyun Jun;Chang-Seob Yun;Yun-Ha Park
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.24 no.5
    • /
    • pp.19-24
    • /
    • 2024
  • Global climate change is causing an increase in natural disasters around the world due to long-term temperature increases and changes in rainfall. Among them, forest fires are becoming increasingly large. South Korea experienced an average of 537 forest fires over a 10-year period (2013-2022), burning 3,560 hectares of forest. That's 1,180 soccer fields(approximately 3 hectares) of forest burning every year. This paper proposed an artificial intelligence based wildfire detection method using image and text information. The performance of the proposed method was compared with YOLOv9-C, RT-DETR-Res50, RT-DETR-L, and YOLO-World-S methods for mAP50, mAP75, and FPS, and it was confirmed that the proposed method has higher performance than other methods. The proposed method was demonstrated as a forest fire detection model of the early forest fire detection system in the Gangwon State, and it is planned to be advanced in the direction of fire detection that can include not only forest areas but also urban areas in the future.