• 제목/요약/키워드: Object identification

검색결과 417건 처리시간 0.03초

RUP 기반의 컴포넌트 식별 방법에 관한 연구 (Study about Component Identification Method Based On RUP)

  • 최미숙;윤용익;박재년
    • 정보처리학회논문지D
    • /
    • 제9D권1호
    • /
    • pp.91-102
    • /
    • 2002
  • 사용자의 요구사항 변경에 따른 반영, 빠른 시스템 구축, 유지 보수 단계의 효율적인 시스템 관리, 소프트웨어의 수정 용이성, 저렴한 비용 등은 컴포넌트 기반 시스템 구축이 필수적인 사항으로 여겨지고 있다. 이러한 컴포넌트 기반 시스템 구축을 위한 기존의 컴포넌트 개발 방법론은 컴포넌트 식별을 위하여 객체를 추출하는 부분이 비효율적이고 시스템 컴포넌트를 추출하기 위한 방법이 제시되어 있지 않다. 또한 시스템의 전체 도메인을 중심으로 비즈니스 컴포넌트 식별을 위한 절차와 방법만을 제시하고 있다. 그리고 컴포넌트 식별을 위하여 대부분 개발자의 직관과 경험에 의존하는 문제점이 있다. 따라서 본 논문에서는 객체를 추출하는 비효율적인 부분을 개선하기 위하여 요구 사항 분석단계부터 객체를 추출하는 단계까지 RUP(Rational Unified Process)를 적용한다. 또한 시스템 컴포넌트를 식별하기 위한 방법과 절차를 제안하고 시스템의 전체 도메인을 중심으로 비즈니스 컴포넌트를 식별하는 것이 아니라 추출된 시스템 컴포넌트를 중심으로 비즈니스 컴포넌트를 추출한다. 개발자의 직관과 경험에 의존하여 컴포넌트를 식별하는 문제점을 보완하기 위하여 응집척도와 결합철도를 제안하고 적용한다. 본 논문에서 제안하는 컴포넌트 식별 방법은 객체 식별의 용이성, 컴포넌트의 기능적 재사용성, 추적성 그리고 컴포넌트의 독립성을 중심으로 좀 더 효율적으로 컴포넌트를 식별한다.

개인정보보호를 위한 다중 유형 객체 탐지 기반 비식별화 기법 (Multi-type object detection-based de-identification technique for personal information protection)

  • 길예슬;이효진;류정화;이일구
    • 융합보안논문지
    • /
    • 제22권5호
    • /
    • pp.11-20
    • /
    • 2022
  • 인터넷과 웹 기술이 모바일 장치 중심으로 발전하면서 이미지 데이터는 사람, 텍스트, 공간 등 다양한 유형의 민감정보를 담고 있다. 이러한 특성과 더불어 SNS 사용이 증가하면서 온라인 상의 개인정보가 노출되고 악용되는 피해 규모가 커지고 있다. 그러나 개인정보보호를 위한 다중 유형 객체 탐지 기반의 비식별화 기술에 관한 연구는 미흡한 상황이다. 이에 본 논문은 기존의 단일 유형 객체 탐지 모델을 병렬적으로 이용하여 다중 유형의 객체를 탐지 및 비식별화하는 인공지능 모델을 제안한다. Cutmix 기법을 통해 사람과 텍스트 객체가 함께 존재하는 이미지를 생성하여 학습 데이터로 구성하고, 사람과 텍스트라는 다른 특징을 가진 객체에 대한 탐지 및 비식별화를 수행하였다. 제안하는 모델은 두 가지 객체가 동시에 존재할 때 0.724의 precision과 0.745의 mAP@.5 를 달성한다. 또한, 비식별화 수행 후 전체 객체에 대해 mAP@.5 가 0.224로, 0.4 이상의 감소폭을 보였다.

3차원 직선교 모델 객체의 인식을 통한 고유 명칭부여 알고리즘 개발 (Development of Unique Naming Algorithm for 3D Straight Bridge Model Using Object Identification)

  • 박준원;박상일;김봉근;윤영철;이상호
    • 한국전산구조공학회논문집
    • /
    • 제27권6호
    • /
    • pp.557-564
    • /
    • 2014
  • 본 연구에서는 3차원 직선교 모델의 객체인식을 통해 각 객체별 고유 명칭을 부여하는 알고리즘을 제시한다. 3차원 객체의 수치적 인식을 위해 국부 좌표계 상의 솔리드 객체 도심 좌표를 활용하였으며, 객체의 분류, 부재의 구분, 교량 방향 인식 등을 수행하여 객체특성집합을 정의하였다. 이를 통해 경간정보, 부재정보, 객체의 순서정보를 포함한 객체별 고유 명칭을 부여하였고, 트러스 교량 모델 및 서로 다른 좌표계를 갖는 교량모델에 적용하여 각 부재별 객체특성집합을 이용한 명칭의 부여의 적합성을 검토하였다. 또한 실제 교량의 3차원 모델을 대상으로 제안된 방법론을 통해 객체특성집합 정의 및 객체별 명칭을 부여하였고, 이를 매개로 모바일 장치용 모듈과 로컬 서버용 모듈에 적용하였다. 객체인식을 통한 명칭부여 알고리즘을 활용한 방법과 기존 현장점검 방식의 비교를 통해 기존 유지관리 현장점검 업무를 효과적으로 개선할 수 있음을 확인하였다.

A Study on Image Labeling Technique for Deep-Learning-Based Multinational Tanks Detection Model

  • Kim, Taehoon;Lim, Dongkyun
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제14권4호
    • /
    • pp.58-63
    • /
    • 2022
  • Recently, the improvement of computational processing ability due to the rapid development of computing technology has greatly advanced the field of artificial intelligence, and research to apply it in various domains is active. In particular, in the national defense field, attention is paid to intelligent recognition among machine learning techniques, and efforts are being made to develop object identification and monitoring systems using artificial intelligence. To this end, various image processing technologies and object identification algorithms are applied to create a model that can identify friendly and enemy weapon systems and personnel in real-time. In this paper, we conducted image processing and object identification focused on tanks among various weapon systems. We initially conducted processing the tanks' image using a convolutional neural network, a deep learning technique. The feature map was examined and the important characteristics of the tanks crucial for learning were derived. Then, using YOLOv5 Network, a CNN-based object detection network, a model trained by labeling the entire tank and a model trained by labeling only the turret of the tank were created and the results were compared. The model and labeling technique we proposed in this paper can more accurately identify the type of tank and contribute to the intelligent recognition system to be developed in the future.

손가락 Pointing에 의한 물체의 3차원 위치정보 인식 및 인식된 물체 추적 로봇 시스템 (3D Object Location Identification Using Finger Pointing and a Robot System for Tracking an Identified Object)

  • 곽동기;황순철;옥서원;임정세;김동환
    • 한국생산제조학회지
    • /
    • 제24권6호
    • /
    • pp.703-709
    • /
    • 2015
  • In this work, a robot aimed at grapping and delivering an object by using a simple finger-pointing command from a hand- or arm-handicapped person is introduced. In this robot system, a Leap Motion sensor is utilized to obtain the finger-motion data of the user. In addition, a Kinect sensor is also used to measure the 3D (Three Dimensional)-position information of the desired object. Once the object is pointed at through the finger pointing of the handicapped user, the exact 3D information of the object is determined using an image processing technique and a coordinate transformation between the Leap Motion and Kinect sensors. It was found that the information obtained is transmitted to the robot controller, and that the robot eventually grabs the target and delivers it to the handicapped person successfully.

Realization for Image Searching Engine with Moving Object Identification and Classification

  • Jung, Eun-Suk;Ryu, Kwang-Ryol;Sclabassi, Robert J.
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2007년도 추계종합학술대회
    • /
    • pp.301-304
    • /
    • 2007
  • A realization for image searching engine with moving objects identification and classification is presented in this paper. The identification algorithm is applied to extract difference image between input image and the reference image, and the classification is used the region segmentation. That is made the database for the searching engine. The experimental result of the realized system enables to search for human and animal at time intervals to use a surveillant system at inside environment.

  • PDF

연상 메모리를 사용한 3차원 물체(항공기)인식 (Associative Memories for 3-D Object (Aircraft) Identification)

  • 소성일
    • 정보와 통신
    • /
    • 제7권3호
    • /
    • pp.27-34
    • /
    • 1990
  • The $(L,\psi)$ feature description on the binary boundary air craft image is introduced of classifying 3-D object (aircraft) identification. Three types for associative matrix memories are employed and tested for their classification performance. The fast association involved in these memories can be implemented using a parallel optical matrix-vector operation. Two associative memories are based on pseudoinverse solutions and the third one is interoduced as a paralell version of a nearest-neighbor classifier. Detailed simulation results for each associative processor are provided.

  • PDF

계층적 군집화 기반 Re-ID를 활용한 객체별 행동 및 표정 검출용 영상 분석 시스템 (Video Analysis System for Action and Emotion Detection by Object with Hierarchical Clustering based Re-ID)

  • 이상현;양성훈;오승진;강진범
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.89-106
    • /
    • 2022
  • 최근 영상 데이터의 급증으로 이를 효과적으로 처리하기 위해 객체 탐지 및 추적, 행동 인식, 표정 인식, 재식별(Re-ID)과 같은 다양한 컴퓨터비전 기술에 대한 수요도 급증했다. 그러나 객체 탐지 및 추적 기술은 객체의 영상 촬영 장소 이탈과 재등장, 오클루전(Occlusion) 등과 같이 성능을 저하시키는 많은 어려움을 안고 있다. 이에 따라 객체 탐지 및 추적 모델을 근간으로 하는 행동 및 표정 인식 모델 또한 객체별 데이터 추출에 난항을 겪는다. 또한 다양한 모델을 활용한 딥러닝 아키텍처는 병목과 최적화 부족으로 성능 저하를 겪는다. 본 연구에서는 YOLOv5기반 DeepSORT 객체추적 모델, SlowFast 기반 행동 인식 모델, Torchreid 기반 재식별 모델, 그리고 AWS Rekognition의 표정 인식 모델을 활용한 영상 분석 시스템에 단일 연결 계층적 군집화(Single-linkage Hierarchical Clustering)를 활용한 재식별(Re-ID) 기법과 GPU의 메모리 스루풋(Throughput)을 극대화하는 처리 기법을 적용한 행동 및 표정 검출용 영상 분석 시스템을 제안한다. 본 연구에서 제안한 시스템은 간단한 메트릭을 사용하는 재식별 모델의 성능보다 높은 정확도와 실시간에 가까운 처리 성능을 가지며, 객체의 영상 촬영 장소 이탈과 재등장, 오클루전 등에 의한 추적 실패를 방지하고 영상 내 객체별 행동 및 표정 인식 결과를 동일 객체에 지속적으로 연동하여 영상을 효율적으로 분석할 수 있다.

센서패턴잡음을 이용한 DIBR 기반 입체영상의 카메라 판별 (Camera Identification of DIBR-based Stereoscopic Image using Sensor Pattern Noise)

  • 이준희
    • 한국군사과학기술학회지
    • /
    • 제19권1호
    • /
    • pp.66-75
    • /
    • 2016
  • Stereoscopic image generated by depth image-based rendering(DIBR) for surveillance robot and camera is appropriate in a low bandwidth network. The image is very important data for the decision-making of a commander and thus its integrity has to be guaranteed. One of the methods used to detect manipulation is to check if the stereoscopic image is taken from the original camera. Sensor pattern noise(SPN) used widely for camera identification cannot be directly applied to a stereoscopic image due to the stereo warping in DIBR. To solve this problem, we find out a shifted object in the stereoscopic image and relocate the object to its orignal location in the center image. Then the similarity between SPNs extracted from the stereoscopic image and the original camera is measured only for the object area. Thus we can determine the source of the camera that was used.

Automatic identification and analysis of multi-object cattle rumination based on computer vision

  • Yueming Wang;Tiantian Chen;Baoshan Li;Qi Li
    • Journal of Animal Science and Technology
    • /
    • 제65권3호
    • /
    • pp.519-534
    • /
    • 2023
  • Rumination in cattle is closely related to their health, which makes the automatic monitoring of rumination an important part of smart pasture operations. However, manual monitoring of cattle rumination is laborious and wearable sensors are often harmful to animals. Thus, we propose a computer vision-based method to automatically identify multi-object cattle rumination, and to calculate the rumination time and number of chews for each cow. The heads of the cattle in the video were initially tracked with a multi-object tracking algorithm, which combined the You Only Look Once (YOLO) algorithm with the kernelized correlation filter (KCF). Images of the head of each cow were saved at a fixed size, and numbered. Then, a rumination recognition algorithm was constructed with parameters obtained using the frame difference method, and rumination time and number of chews were calculated. The rumination recognition algorithm was used to analyze the head image of each cow to automatically detect multi-object cattle rumination. To verify the feasibility of this method, the algorithm was tested on multi-object cattle rumination videos, and the results were compared with the results produced by human observation. The experimental results showed that the average error in rumination time was 5.902% and the average error in the number of chews was 8.126%. The rumination identification and calculation of rumination information only need to be performed by computers automatically with no manual intervention. It could provide a new contactless rumination identification method for multi-cattle, which provided technical support for smart pasture.