• 제목/요약/키워드: Computing Objects

검색결과 533건 처리시간 0.027초

RGB-D 정보를 이용한 2차원 키포인트 탐지 기반 3차원 인간 자세 추정 방법 (A Method for 3D Human Pose Estimation based on 2D Keypoint Detection using RGB-D information)

  • 박서희;지명근;전준철
    • 인터넷정보학회논문지
    • /
    • 제19권6호
    • /
    • pp.41-51
    • /
    • 2018
  • 최근 영상 감시 분야에서는 지능형 영상 감시 시스템에 딥 러닝 기반 학습 방법이 적용되어 범죄, 화재, 이상 현상과 같은 다양한 이벤트들을 강건하게 탐지 할 수 있게 되었다. 그러나 3차원 실세계를 2차원 영상으로 투영시키면서 발생하는 3차원 정보의 손실로 인하여 폐색 문제가 발생하기 때문에 올바르게 객체를 탐지하고, 자세를 추정하기 위해서는 폐색 문제를 고려하는 것이 필요하다. 따라서 본 연구에서는 기존 RGB 정보에 깊이 정보를 추가하여 객체 탐지 과정에서 나타나는 폐색 문제를 해결하여 움직이는 객체를 탐지하고, 탐지된 영역에서 컨볼루션 신경망을 이용하여 인간의 관절 부위인 14개의 키포인트의 위치를 예측한다. 그 다음 자세 추정 과정에서 발생하는 자가 폐색 문제를 해결하기 위하여 2차원 키포인트 예측 결과와 심층 신경망을 이용하여 자세 추정의 범위를 3차원 공간상으로 확장함으로써 3차원 인간 자세 추정 방법을 설명한다. 향후, 본 연구의 2차원 및 3차원 자세 추정 결과는 인간 행위 인식을 위한 용이한 데이터로 사용되어 산업 기술 발달에 기여 할 수 있다.

SegNet과 ResNet을 조합한 딥러닝에 기반한 횡단보도 영역 검출 (Detection of Zebra-crossing Areas Based on Deep Learning with Combination of SegNet and ResNet)

  • 량한;서수영
    • 한국측량학회지
    • /
    • 제39권3호
    • /
    • pp.141-148
    • /
    • 2021
  • 본 논문은 SegNet과 ResNet을 조합한 딥러닝을 이용하여 횡단보도를 검출하는 방법을 제안한다. 시각 장애인의 경우 횡단보도가 어디에 있는지 정확히 아는 게 안전한 교통 시스템에서 중요하다. 딥러닝에 의한 횡단보도 검출은 이 문제에 대한 좋은 해결책이 될 수 있다. 로봇 시각 기반 보조 기술은 지난 몇년 동안 카메라를 사용하는 특정 장면에 초점을 두고 제안되어 왔다. 이러한 전통적인 방법은 비교적 긴 처리 시간으로 의미있는 결과를 얻었으며 횡단보도 인식을 크게 향상시켰다. 그러나 전통적인 방법은 지연 시간이 길고 웨어러블 장비에서 실시간을 만족시킬 수 없다. 본 연구에서 제안하는 방법은 취득한 영상에서 횡단보도를 빠르고 안정적으로 검출하기 위한 모델을 제안한다. 모델은 SegNet과 ResNet을 기반으로 개선되었으며 3단계로 구성된다. 첫째, 입력 영상을 서브샘플링하여 이미지 특징을 추출하고 ResNet의 컨벌루션 신경망을 수정하여 새로운 인코더로 만든다. 둘째, 디코딩 과정에서 업샘플링 네트워크를 통해 특징맵을 원영상 크기로 복원한다. 셋째, 모든 픽셀을 분류하고 각 픽셀의 정확도를 계산한다. 이 실험의 결과를 통하여 수정된 시맨틱 분할 알고리즘의 적격한 정확성을 검증하는 동시에 결과 출력 속도가 비교적 빠른 것으로 파악되었다.

스마트 항로표지 시스템에서 해상 객체 감지 가속화를 위한 방법에 관한 연구 (A Study on Methods for Accelerating Sea Object Detection in Smart Aids to Navigation System)

  • 전호석;송현학;권기원;김영진;임태호
    • 인터넷정보학회논문지
    • /
    • 제23권5호
    • /
    • pp.47-58
    • /
    • 2022
  • 최근 몇 년 사이 바다 신호등 역할을 하는 항로표지 시설이 디지털화되면서 단순한 표지판 기능을 넘어 해양 정보 수집, 감독, 관제 등 다양한 기능을 제공하는 방향으로 발전하고 있다. 국내에서도 울산항과 부산항이 부표 일부에 카메라를 설치하고 영상정보를 수집하여 충돌을 감독하는 등 선도 기술 적용을 주도하고 있다. 그러나, 이 첨단기술은 장기간 배터리 운용이 필요하고 관리·유지 등이 해양 특성에 지장을 받기 때문에 주요 기능을 수행하는 것이 어렵다. 이러한 문제들은 육상시설과 해양시설의 특성 차이를 극복하기 위한, 해양 분야의 풍부한 연구의 필요성을 제기한다. 본 연구에서는 표지 주변을 지나가는 해양 객체를 영상정보로 분석해 자동으로 알림을 줄 수 있는 시스템을 제안한다. 기존 시스템들은 표지와 해양 객체가 충돌하면 센서를 기반으로 객체를 포착해 서버로 전송하지만, 이 방식은 사고가 발생한 뒤에야 안전사고 대처가 가능해 개선의 여지가 필요하다. 따라서, 제안하는 시스템은 이러한 한계점을 극복하기 위해, 해양 특성을 기반으로 해상 객체 감지 시스템을 설계하였다. 이는 기존의 해양 영상처리 감지 시스템과 유사한 성능을 보였으며, 보다 효율적인 모니터링을 위해 약 5배 빠른 처리 속도를 기록한 해상 안전 시스템을 제안한다.

인공지능 서비스 운영을 위한 시스템 측면에서의 연구 (A Study on the System for AI Service Production)

  • 홍용근
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제11권10호
    • /
    • pp.323-332
    • /
    • 2022
  • AI 기술을 활용한 다양한 서비스가 개발되면서, AI 서비스 운영에 많은 관심이 집중되고 있다. 최근에는 AI 기술도 하나의 ICT 서비스를 보고, 범용적인 AI 서비스 운영을 위한 연구가 많이 진행되고 있다. 본 논문에서는 일반적인 기계학습 개발 절차의 마지막 단계인 기계학습 모델 배포 및 운영에 초점을 두고 AI 서비스 운영을 위한 시스템 측면에서의 연구 결과를 기술하였다. 3대의 서로 다른 Ubuntu 시스템을 구축하고, 이 시스템상에서 서로 다른 AI 모델(RFCN, SSD-Mobilenet)과 서로 다른 통신 방식(gRPC, REST)의 조합으로 2017 validation COCO dataset의 데이터를 이용하여 객체 검출 서비스를 Tensorflow serving을 통하여 AI 서비스를 요청하는 부분과 AI 서비스를 수행하는 부분으로 나누어 실험하였다. 다양한 실험을 통하여 AI 모델의 종류가 AI 머신의 통신 방식보다 AI 서비스 추론 시간에 더 큰 영향을 미치고, 객체 검출 AI 서비스의 경우 검출하려는 이미지의 파일 크기보다는 이미지 내의 객체 개수와 복잡도에 따라 AI 서비스 추론 시간이 더 큰 영향을 받는다는 것을 알 수 있었다. 그리고, AI 서비스를 로컬이 아닌 원격에서 수행하면 성능이 좋은 머신이라고 하더라도 로컬에서 수행하는 경우보다 AI 서비스 추론 시간이 더 걸린다는 것을 확인할 수 있었다. 본 연구 결과를 통하여 서비스 목표에 적합한 시스템 설계와 AI 모델 개발 및 효율적인 AI 서비스 운영이 가능해질 것으로 본다.

재난 현장 물리적 보안을 위한 딥러닝 기반 요구조자 탐지 알고리즘 (Deep Learning Based Rescue Requesters Detection Algorithm for Physical Security in Disaster Sites)

  • 김다현;박만복;안준호
    • 인터넷정보학회논문지
    • /
    • 제23권4호
    • /
    • pp.57-64
    • /
    • 2022
  • 화재, 붕괴, 자연재해 등의 재난 발생으로 건물 내부가 붕괴하는 경우, 기존의 건물 내부의 물리적 보안이 무력해질 확률이 높다. 이때, 붕괴 건물 내의 인명피해와 물적 피해를 최소화하기 위한 물리적 보안이 필요하다. 따라서 본 논문은 기존 연구되었던 장애물을 탐지하고 건물 내 붕괴된 지역을 탐지하는 연구와 인명피해를 최소화하기 위한 딥러닝 기반 객체 탐지 알고리즘을 융합하여 재난 상황의 피해를 최소화하기 위한 알고리즘을 제안한다. 기존 연구에서 단일 카메라만을 활용하여 현재 로봇이 있는 복도 환경의 붕괴 여부를 판단하고 구조 및 수색 작업에 방해가 되는 장애물을 탐지했다. 이때, 붕괴 건물 내 물체는 건물의 잔해나 붕괴로 인해 비정형의 형태를 가지며 이를 장애물로 분류하여 탐지하였다. 또한, 재난 상황에서 자원 중 가장 중요한 요구조자를 탐지하고 인적 피해를 최소화하기 위한 방법을 제안하고 있다. 이를 위해, 본 연구는 공개된 재난 영상과 재난 상황의 이미지 데이터를 수집하여 다양한 딥러닝 기반 객체 탐지 알고리즘을 통해 재난 상황에서 요구조자를 탐지하는 정확도를 구했다. 본 연구에서 재난 상황에 요구조자를 탐지하는 알고리즘을 분석한 결과 YOLOv4 알고리즘의 정확도가 0.94로 실제 재난 상황에서 활용하기 가장 적합하다는 것을 증명하였다. 본 논문을 통해 재난 상황의 효율적인 수색과 구조에 도움을 주며 붕괴된 건물 내에서도 높은 수준의 물리적 보안을 이룰 수 있을 것이다.

A modified U-net for crack segmentation by Self-Attention-Self-Adaption neuron and random elastic deformation

  • Zhao, Jin;Hu, Fangqiao;Qiao, Weidong;Zhai, Weida;Xu, Yang;Bao, Yuequan;Li, Hui
    • Smart Structures and Systems
    • /
    • 제29권1호
    • /
    • pp.1-16
    • /
    • 2022
  • Despite recent breakthroughs in deep learning and computer vision fields, the pixel-wise identification of tiny objects in high-resolution images with complex disturbances remains challenging. This study proposes a modified U-net for tiny crack segmentation in real-world steel-box-girder bridges. The modified U-net adopts the common U-net framework and a novel Self-Attention-Self-Adaption (SASA) neuron as the fundamental computing element. The Self-Attention module applies softmax and gate operations to obtain the attention vector. It enables the neuron to focus on the most significant receptive fields when processing large-scale feature maps. The Self-Adaption module consists of a multiplayer perceptron subnet and achieves deeper feature extraction inside a single neuron. For data augmentation, a grid-based crack random elastic deformation (CRED) algorithm is designed to enrich the diversities and irregular shapes of distributed cracks. Grid-based uniform control nodes are first set on both input images and binary labels, random offsets are then employed on these control nodes, and bilinear interpolation is performed for the rest pixels. The proposed SASA neuron and CRED algorithm are simultaneously deployed to train the modified U-net. 200 raw images with a high resolution of 4928 × 3264 are collected, 160 for training and the rest 40 for the test. 512 × 512 patches are generated from the original images by a sliding window with an overlap of 256 as inputs. Results show that the average IoU between the recognized and ground-truth cracks reaches 0.409, which is 29.8% higher than the regular U-net. A five-fold cross-validation study is performed to verify that the proposed method is robust to different training and test images. Ablation experiments further demonstrate the effectiveness of the proposed SASA neuron and CRED algorithm. Promotions of the average IoU individually utilizing the SASA and CRED module add up to the final promotion of the full model, indicating that the SASA and CRED modules contribute to the different stages of model and data in the training process.

자기 지도 학습 기반의 언어 모델을 활용한 다출처 정보 통합 프레임워크 (Multi-source information integration framework using self-supervised learning-based language model)

  • 김한민;이정빈;박규동;손미애
    • 인터넷정보학회논문지
    • /
    • 제22권6호
    • /
    • pp.141-150
    • /
    • 2021
  • 인공지능(Artificial Intelligence) 기술을 활용하여 인공지능 기반의 전쟁 (AI-enabled warfare)가 미래전의 핵심이 될 것으로 예상한다. 자연어 처리 기술은 이러한 AI 기술의 핵심 기술로 지휘관 및 참모들이 자연어로 작성된 보고서, 정보 및 첩보를 일일이 열어확인하는 부담을 줄이는데 획기적으로 기여할 수 있다. 본 논문에서는 지휘관 및 참모의 정보 처리 부담을 줄이고 신속한 지휘결심을 지원하기 위해 언어 모델 기반의 다출처 정보 통합 (Language model-based Multi-source Information Integration, LAMII) 프레임워크를 제안한다. 제안된 LAMII 프레임워크는 자기지도 학습법을 활용한 언어 모델에 기반한 표현학습과 오토인코더를 활용한 문서 통합의 핵심 단계로 구성되어 있다. 첫 번째 단계에서는, 자기지도 학습 기법을 활용하여 구조적으로 이질적인 두 문장간의 유사 관계를 식별할 수 있는 표현학습을 수행한다. 두 번째 단계에서는, 앞서 학습된 모델을 활용하여 다출처로부터 비슷한 내용 혹은 토픽을 함양하는 문서들을 발견하고 이들을 통합한다. 이 때, 중복되는 문장을 제거하기 위해 오토인코더를 활용하여 문장의 중복성을 측정한다. 본 논문의 우수성을 입증하기 위해, 우리는 언어모델들과 이의 성능을 평가할 때 활용되는 대표적인 벤치마크 셋들을 함께 활용하여 이질적인 문장간의 유사 관계를 예측의 비교 실험하였다. 실험 결과, 제안된 LAMII 프레임워크가 다른 언어 모델에 비하여 이질적인 문장 구조간의 유사 관계를 효과적으로 예측할 수 있음을 입증하였다.

객체 식별 및 추적을 위한 히스토그램 기반 특이값 분해 (Histogram-Based Singular Value Decomposition for Object Identification and Tracking)

  • 강예연;박정민;고훈준;정경용
    • 인터넷정보학회논문지
    • /
    • 제24권5호
    • /
    • pp.29-35
    • /
    • 2023
  • CCTV는 범죄 예방, 공공 안전 강화, 교통 관리 등 다양한 목적으로 사용된다. 그러나 카메라의 범위와 해상도가 향상됨에 따라 영상에서 개인의 신상정보가 노출되는 위험성이 있다. 따라서 영상에서 개인 정보를 보호함과 동시에 개인을 식별할 수 있는 새로운 기술의 필요성이 존재한다. 본 논문에서는 객체 식별 및 추적을 위한 히스토그램 기반 특이값 분해를 제안한다. 제안하는 방법은 객체의 색상 정보를 이용하여 영상에 존재하는 서로 다른 객체를 구분한다. 객체 인식을 위하여 YOLO와 DeepSORT를 이용해 영상에 존재하는 사람을 탐지 및 추출한다. 탐지된 사람의 위치 정보를 이용해 흑백 히스토그램으로 색상 값을 추출한다. 추출한 색상 값 중 유의미한 정보만을 추출하여 사용하기 위해 특이값 분해를 이용한다. 특이값 분해를 이용할 때 결과에서 상위 특이값의 평균을 이용함으로 객체 색상 추출의 정확도를 높인다. 특이값 분해를 이용해 추출한 색상 정보를 다른 영상에 존재하는 색상과 비교하며 서로 다른 영상에 존재하는 동일 인물을 탐지한다. 색상 정보 비교를 위해 유클리드 거리를 이용하며 정확도 평가는 Top-N을 이용한다. 평가 결과 흑백 히스토그램과 특이값 분해를 사용하여 동일 인물을 탐지할 때 최대 100%에서 최소 74%를 기록하였다.

분산 객체 컴퓨팅 환경에서 실시간 협약 및 적응 스트림 서비스를 위한 QoS 통합 플랫폼의 구축 (The Construction of QoS Integration Platform for Real-time Negotiation and Adaptation Stream Service in Distributed Object Computing Environments)

  • 전병택;김명희;주수종
    • 한국정보처리학회논문지
    • /
    • 제7권11S호
    • /
    • pp.3651-3667
    • /
    • 2000
  • 최근 인터넷 기반의 분산 멀티미디어 환경에서 가장 성장하는 기술로는 스트림 서비스 기술과 분산 객체 기술을 꼽을 수 있다. 특히, 분산 객체 기술에 스트림 서비스 기술을 통합하려는 연구들이 진행되고 있다. 이 기술들은 다양한 스트림 서비스 관리 모델과 프로토콜의 연구에서 적용되고 있다. 그러나, 기존에 제시된 관리 모델들은 스트림 전송의 서비스 질(QoS)에 대한 지원이 미흡하다. 또한, 서비스 질에 관련된 기능들이 특정 응용 서비스의 부속 모듈로 개발됨에 따라, 확장이나 재사용을 지원할 수 없는 문제점을 나타내고 있다. 이를 해결하기 위해 본 논문에서는 분산 객체 기술을 적용하여 확장 및 재사용이 용이하고 스티림의 서비스의 질을 보장하는 QoS 통합 플랫폼을 제안했다. 제안된 플랫폼의 구조는 사용자 제어 모듈, QoS 관리 모듈 및 스트림 객체의 세가지 컴포넌트로 구성된다. 스트림 객체는 TCP/IP 상에서 RTP 패킷을 송·수신 기능을 한다. 사용자 제어 모듈은 CORBA 객체를 이용하여 스트림 객체들을 제어한다. QoS 관리 모듈은 사용자 제어 모듈간에 서비스 질을 유지하는 관리 기능을 한다. QoS xd합 플랫폼의 구축을 위해 관련 모듈들을 독립적으로 구현하고, 이들이 CORBA 환경에서 플랫폼 독립성, 상호운용성, 이식성을 갖도록 그들간에 인터페이스들을 IDL로 정의하였다. 제안된 플랫폼의 구현을 위해 Solaris 2.5/2.7에 호환되는 OrbixWeb 3.1c, 자바언어와 Java Media Framework API 2.0, Mini-SQL1.0.16 및 관련 이미지 캡쳐보드 및 영상카메라를 사용하였다. 본 플랫폼의 기능검증을 위한 결과로서, 플랫폼 상에서 스트림 서비스가 진행되는 동안, 클라이언트와 서버의 GUI를 통해 위에서 기술한 모듈들의 수행결과와 QoS 제어 과정으로부터 얻어지는 수치적 데이터를 보였다.

  • PDF

그래픽 하드웨어 가속을 이용한 실시간 색상 인식 (Real-time Color Recognition Based on Graphic Hardware Acceleration)

  • 김구진;윤지영;최유주
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제14권1호
    • /
    • pp.1-12
    • /
    • 2008
  • 본 논문에서는 야외 및 실내에서 촬영된 차량 영상에 대해 실시간으로 차량 색상을 인식할 수 있는 GPU(Graphics Processing Unit) 기반의 알고리즘을 제시한다. 전처리 과정에서는 차량 색상의 표본 영상들로부터 특징벡터를 계산한 뒤, 이들을 색상 별로 조합하여 GPU에서 사용할 참조 텍스쳐(Reference texture)로 저장한다. 차량 영상이 입력되면, 특징벡터를 계산한 뒤 GPU로 전송하고, GPU에서는 참조 텍스쳐 내의 표본 특징리터들과 비교하여 색상 별 유사도를 측정한 뒤 CPU로 전송하여 해당 색상명을 인식한다. 분류의 대상이 되는 색상은 가장 흔히 발견되는 차량 색상들 중에서 선택한 7가지 색상이며, 검정색, 은색, 흰색과 같은 3가지의 무채색과 빨강색, 노랑색, 파랑색, 녹색과 같은 4가지의 유채색으로 구성된다. 차량 영상에 대한 특징벡터는 차량 영상에 대해 HSI(Hue-Saturation-Intensity) 색상모델을 적용하여 색조-채도 조합과 색조-명도 조합으로 색상 히스토램을 구성하고, 이 중의 채도 값에 가중치를 부여함으로써 구성한다. 본 논문에서 제시하는 알고리즘은 다양한 환경에서 촬영된 많은 수의 표본 특징벡터를 사용하고, 색상 별 특성을 뚜렷이 반영하는 특징벡터를 구성하였으며, 적합한 유사도 측정함수(likelihood function)를 적용함으로써, 94.67%에 이르는 색상 인식 성공률을 보였다. 또한, GPU를 이용함으로써 대량의 표본 특징벡터의 집합과 입력 영상에 대한 특징벡터 간의 유사도 측정 및 색상 인식과정을 병렬로 처리하였다. 실험에서는, 색상 별로 1,024장씩, 총 7,168장의 차량 표본 영상을 이용하여 GPU에서 사용하는 참조 텍스쳐를 구성하였다. 특징벡터의 구성에 소요되는 시간은 입력 영상의 크기에 따라 다르지만, 해상도 $150{\times}113$의 입력 영상에 대해 측정한 결과 평균 0.509ms가 소요된다. 계산된 특징벡터를 이용하여 색상 인식의 수행시간을 계산한 결과 평균 2.316ms의 시간이 소요되었고, 이는 같은 알고리즘을 CPU 상에서 수행한 결과에 비해 5.47배 빠른 속도이다. 본 연구에서는 차량만을 대상으로 하여 색상 인식을 실험하였으나, 일반적인 피사체의 색상 인식에 대해서도 제시된 알고리즘을 확장하여 적용할 수 있다.