• Title/Summary/Keyword: 비전처리데이터

Search Result 196, Processing Time 0.024 seconds

Implementation of Traffic Light Recognition System based on Image for Autonomous Driving (자율주행을 위한 이미지 기반 신호등 인지시스템 구현)

  • Gyeongmin Kim;Minhyoung Yoon;Byeongseok Ryu;YoungGyun Kim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2024.05a
    • /
    • pp.447-449
    • /
    • 2024
  • 본 논문에서 다양한 환경적 요인에서 촬영한 이미지 데이터를 활용하여 신호등 위치의 정확한 탐지 및 신호등의 색상 인식을 통해 교통 신호를 판별하는데 사용되는 컴퓨터 비전 기반의 신호등 인식 시스템 알고리즘을 제안하였다. 이를 통해 기존에 신호를 인식하던 LiDAR 및 RADAR 센서를 대신해 카메라를 사용함으로써 자율주행 차의 제작비용 감소를 기대할 수 있다. 또한 다양한 환경의 이미지 데이터를 통해 실험을 진행하였고 이러한 실험결과를 분석하고 적용함으로써 악천후에서의 효과적인 신호등 인식 시스템을 구축하는데 기여하고자 한다.

A Proposal for Development of Tangram Game Using Vision System and Raspberry Pie (비전시스템과 라즈베리파이를 활용한 칠교놀이 게임 개발 제안)

  • Lee, Myeong-Cheol;Kim, Nu-Ri;Kim, Hyun-Woo;Lee, Kang-Hee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2019.07a
    • /
    • pp.427-428
    • /
    • 2019
  • 칠교놀이는 해외에서는 Tangram이라고 불리며 아주 예전부터 전해져 내려오는 세계적인 놀이이다. 친구와 여럿이서 놀이를 할 수 있을 뿐만아니라 혼자서도 즐길 수 있다. 칠교놀이는 특히 창의력 향상에 도움을 주는데 이번 논문에서는 혼자서 쉽게 칠교놀이를 즐길 수 있도록 비전시스템과 라즈베리파이를 이용해서 칠교를 카메라로 인식해 성공하면 보상으로 사탕을 지급하는 놀이를 개발해 보았다. 자판기에 동전을 넣으면, 게임을 시작해서 칠교놀이의 문제를 하나씩 맞출 때 마다 사탕 한 개가 지급되는 방식으로 4차산업혁명 시대에 걸맞는 재미있는 칠교놀이 게임을 만들어 보았다. 본 논문은 OPENCV라이브러리와 라즈베리파이 GPIO라이브러리를 사용하였다. 사용한 부품은 웹캠, 초음파 센서, 서보모터이다. 라즈베리파이를 서버로 설정하고, PC를 클라이언트로 설정하여 서로 데이터를 주고 받을 수 있게 하였다. 라즈베리파이에 OPENCV를 설치하지 않은 이유는 OPENCV가 꽤 높은 사양이 필요하다고 판단하여 비전영상처리는 PC(클라이언트)에서 진행하고, 게임의 진행상황(정답의 여부)을 라즈베리파이(서버)에 보내는 방식으로 정하였다. 반대로 라즈베리파이에서도 동전의 투입 유무를 판단하여 PC(클라이언트)에 게임 시작 신호를 보내는 방식으로 설정하였다. 언어는 라즈베리파이와 PC둘다 Pythond으로 구현하였다.

  • PDF

A Bio-Inspired Modeling of Visual Information Processing for Action Recognition (생체 기반 시각정보처리 동작인식 모델링)

  • Kim, JinOk
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.3 no.8
    • /
    • pp.299-308
    • /
    • 2014
  • Various literatures related computing of information processing have been recently shown the researches inspired from the remarkably excellent human capabilities which recognize and categorize very complex visual patterns such as body motions and facial expressions. Applied from human's outstanding ability of perception, the classification function of visual sequences without context information is specially crucial task for computer vision to understand both the coding and the retrieval of spatio-temporal patterns. This paper presents a biological process based action recognition model of computer vision, which is inspired from visual information processing of human brain for action recognition of visual sequences. Proposed model employs the structure of neural fields of bio-inspired visual perception on detecting motion sequences and discriminating visual patterns in human brain. Experimental results show that proposed recognition model takes not only into account several biological properties of visual information processing, but also is tolerant of time-warping. Furthermore, the model allows robust temporal evolution of classification compared to researches of action recognition. Presented model contributes to implement bio-inspired visual processing system such as intelligent robot agent, etc.

Image Segmentation Based on the Fuzzy Clustering Algorithm using Average Intracluster Distance (평균내부거리를 적용한 퍼지 클러스터링 알고리즘에 의한 영상분할)

  • You, Hyu-Jai;Ahn, Kang-Sik;Cho, Seok-Je
    • The Transactions of the Korea Information Processing Society
    • /
    • v.7 no.9
    • /
    • pp.3029-3036
    • /
    • 2000
  • Image segmentation is one of the important processes in the image information extraction for computer vision systems. The fuzzy clustering methods have been extensively used in the image segmentation because it extracts feature information of the region. Most of fuzzy clustering methods have used the Fuzzy C-means(FCM) algorithm. This algorithm can be misclassified about the different size of cluster because the degree of membership depends on highly the distance between data and the centroids of the clusters. This paper proposes a fuzzy clustering algorithm using the Average Intracluster Distance that classifies data uniformly without regard to the size of data sets. The Average Intracluster Distance takes an average of the vector set belong to each cluster and increases in exact proportion to its size and density. The experimental results demonstrate that the proposed approach has the g

  • PDF

Expansion of An HPC Cluster Over SSH Tunnel (SSH 터널을 이용한 HPC 클러스터의 확장)

  • Park, Pil-Seong;Kumar, Harshit
    • 한국IT서비스학회:학술대회논문집
    • /
    • 2009.11a
    • /
    • pp.539-543
    • /
    • 2009
  • 실시간으로 데이터를 처리하여 빠른 서비스를 제공하기 위해 PC 클러스터가 널리 사용되고 있다. 본 논문에서는 PC 클러스터의 한 종류인 HPC 클러스터에 전용 노드를 추가하는 대신, 방화벽 외부의 네트워크 상에 존재하는 비전용 노드의 유휴시간을 활용하도록 클러스터를 확장하여 성능을 향상시키는 경우 발생하는 NFS 등의 보안 문제를 SSH 터널링을 사용하여 해결하는 방안을 제시하고 암호화된 NFS의 성능을 실험하였다.

  • PDF

Analysis of Research Trends in Deep Learning-Based Video Captioning (딥러닝 기반 비디오 캡셔닝의 연구동향 분석)

  • Lyu Zhi;Eunju Lee;Youngsoo Kim
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.13 no.1
    • /
    • pp.35-49
    • /
    • 2024
  • Video captioning technology, as a significant outcome of the integration between computer vision and natural language processing, has emerged as a key research direction in the field of artificial intelligence. This technology aims to achieve automatic understanding and language expression of video content, enabling computers to transform visual information in videos into textual form. This paper provides an initial analysis of the research trends in deep learning-based video captioning and categorizes them into four main groups: CNN-RNN-based Model, RNN-RNN-based Model, Multimodal-based Model, and Transformer-based Model, and explain the concept of each video captioning model. The features, pros and cons were discussed. This paper lists commonly used datasets and performance evaluation methods in the video captioning field. The dataset encompasses diverse domains and scenarios, offering extensive resources for the training and validation of video captioning models. The model performance evaluation method mentions major evaluation indicators and provides practical references for researchers to evaluate model performance from various angles. Finally, as future research tasks for video captioning, there are major challenges that need to be continuously improved, such as maintaining temporal consistency and accurate description of dynamic scenes, which increase the complexity in real-world applications, and new tasks that need to be studied are presented such as temporal relationship modeling and multimodal data integration.

Transformer-based Self-Referential In-loop Filtering (트랜스포머 기반 자기 참조 인루프 필터링)

  • Lee, Jung-Kyung;Kim, Nayoung;Kang, Je-Won
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.06a
    • /
    • pp.71-73
    • /
    • 2022
  • 다양한 미디어 서비스의 발전으로 비디오의 방대한 데이터를 효과적으로 압축할 수 있는 비디오 부호화 표준은 지속적인 발전을 하고 있다. 압축된 데이터를 다시 영상으로 복원하는 비디오 부복호화 과정에서 영상 데이터의 손실이 일어나고 그에 따른 다양한 형태의 열화가 나타나 영상의 화질을 저하한다. 이러한 열화들을 제거하여 원본 이미지에 가깝게 만들기 위해서 인루프 필터 과정을 비디오 부호화 표준에서 포함하고 있다. 이에 최근 영상처리 및 컴퓨터 비전 분야에서는 널리 사용되는 인공 신경망을 적용하여 효과적인 필터링을 하는 방법을 제시한다. 본 논문에서는 비디오 부호화 시 인루프 필터링에서 자기 참조를 통한 화질 개선 방법에 대해 연구하였다. 이를 위하여 트랜스포머 기반의 화질 개선 네트워크를 제안하고 기존 부호화 방법과 비교하였다. 인루프 필터링을 통해 화질을 향상하여 주관적 화질을 개선할 뿐만 아니라 객관적 부호화 효율을 증가시키는 방법을 개발하였다.

  • PDF

The Method to Reduce the Driving Time of Gentry (겐트리 구동시간의 단축 방법)

  • Kim, Soon Ho;Kim, Chi Su
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.7 no.11
    • /
    • pp.405-410
    • /
    • 2018
  • When more parts are mounted in the same time in a surface mount equipment, the total output will increase and will improve productivity. In this paper, we propose a method to reduce the gantry drive time from the suction to the mounting of the component to improve the productivity of the surface mount equipment. The method was to find a way to get the maximum velocity in front of the camera during the vision inspection. In this paper, we have developed a stop-motion, fly1-motion, and fly2-motion drive time calculation algorithms for vision inspection and calculated the driving time of 3 methods and compared them. As a result, the fly1-motion method shortened the time by 13% and the fly2-motion method shortened the time by 18% than the stop-motion method.

Real-time Hand Gesture Recognition System based on Vision for Intelligent Robot Control (지능로봇 제어를 위한 비전기반 실시간 수신호 인식 시스템)

  • Yang, Tae-Kyu;Seo, Yong-Ho
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.13 no.10
    • /
    • pp.2180-2188
    • /
    • 2009
  • This paper is study on real-time hand gesture recognition system based on vision for intelligent robot control. We are proposed a recognition system using PCA and BP algorithm. Recognition of hand gestures consists of two steps which are preprocessing step using PCA algorithm and classification step using BP algorithm. The PCA algorithm is a technique used to reduce multidimensional data sets to lower dimensions for effective analysis. In our simulation, the PCA is applied to calculate feature projection vectors for the image of a given hand. The BP algorithm is capable of doing parallel distributed processing and expedite processing since it take parallel structure. The BP algorithm recognized in real time hand gestures by self learning of trained eigen hand gesture. The proposed PCA and BP algorithm show improvement on the recognition compared to PCA algorithm.

A Design and Implementation of Missing Person Identification System using face Recognition

  • Shin, Jong-Hwan;Park, Chan-Mi;Lee, Heon-Ju;Lee, Seoung-Hyeon;Lee, Jae-Kwang
    • Journal of the Korea Society of Computer and Information
    • /
    • v.26 no.2
    • /
    • pp.19-25
    • /
    • 2021
  • In this paper proposes a method of finding missing persons based on face-recognition technology and deep learning. In this paper, a real-time face-recognition technology was developed, which performs face verification and improves the accuracy of face identification through data fortification for face recognition and convolutional neural network(CNN)-based image learning after the pre-processing of images transmitted from a mobile device. In identifying a missing person's image using the system implemented in this paper, the model that learned both original and blur-processed data performed the best. Further, a model using the pre-learned Noisy Student outperformed the one not using the same, but it has had a limitation of producing high levels of deflection and dispersion.