• 제목/요약/키워드: Network Camera

검색결과 641건 처리시간 0.033초

다중이동물체 인식을 위한 분산형 지능형네트워크 디바이스로 구현된 공간지능화 (A Study on ISpace with Distributed Intelligent Network Devices for Multi-object Recognition)

  • 진태석;김현덕
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2007년도 추계종합학술대회
    • /
    • pp.950-953
    • /
    • 2007
  • 본 논문에서는 인간과 환경사이의 물리적 또는 심리적 인터액션을 통한 인간중심의 적절한 서비스를 제공하는 공간지능화(iSpace: Intelligent Space) 구현하고자 네트웍 센서 인식공간을 소개하고 있다. 영상 데이터 처리 및 정보 네트웍 기능을 갖는 다수의 컬러 CCD 카메라를 iSpace 공간에 분산 배치하였다. iSpace내의 정보획득을 위한 네트웍 센서를 분산 지능형 네트웍 디바이스(DIND: Distributed Intelligent Network Devices)라고 명명하고 있으며, 각 DIND는 일종의 클라이언트 역할을 수행하도록 하였으며, DIND는 카메라 센서를 이용하는 이른바 카메라 네트워크를 구성한 것으로 이를 통해 실내 환경을 인식하고 모델링 하며 공간 내 거주자의 의도를 인식하기 위한 시스템을 구축하였다.

  • PDF

A Novel Method for Robots to Provide First Aid to Injured People Inside the Mines Using GIS Technology

  • Eman Galaleldin Ahmed Kalil
    • International Journal of Computer Science & Network Security
    • /
    • 제23권8호
    • /
    • pp.1-8
    • /
    • 2023
  • The artificial intelligence of robot is the weakness of digital intelligence of a person who able to train, self-realize and to develop competences, creative, professional and behavioral skills. A new methodology proposed for managing robots inside the mines using an electronic system designed for driving robots to injured people in seas, mines or wells who can not be reached by human force. This paper also explains the concept of managing and remote-controlling the process of searching and helping the injured. The user controls the robot through an application that receives all the reports that the robot sends from the injured person. The robot's tasks are to take a sample of the blood of the injured person, examine it, and measure the percentage of oxygen underground and send it to the user who directs the robot to pump a specific percentage of oxygen to the injured person. The user can also communicate with the person The patient and determine his condition through the camera connected to the robot equipped with headphones to communicate with the injured and the user can direct the camera of the robot and take x-rays from the injured.

웨이블릿변환과 신경회로를 이용한 동영상의 실시간 전송 (Transmission of Moving Image on the Internet Using Wavelet Transform and Neural Network)

  • 김정하;이학노;남부희
    • 제어로봇시스템학회논문지
    • /
    • 제10권11호
    • /
    • pp.1077-1081
    • /
    • 2004
  • In this Paper we discuss an algorithm for a real-time transmission of moving color image on the TCP/IP network using wavelet transform and neural network. The Image frames received from the camera are two-level wavelet-transformed in the server, and are transmitted to the client on the network. Then, the client performs the inverse wavelet-transform using only the received pieces of each image frame within the prescribed time limit to display the moving images. When the TCP/IP network is busy, only a fraction of each image frame will be delivered. When the line is free, the whole frame of each image will be transferred to the client. The receiver warns the sender of the condition of traffic congestion in the network by sending a special short frame for this specific purpose. The sender can respond to this information of warning by simply reducing the data rate which is adjusted with a neural network or fuzzy logic. In this way we can send a stream of moving images adaptively adjusting to the network traffic condition.

무선 영상보안시스템 구현에 관한 연구 (A study on the implementation of the wireless video security system)

  • 김영민;김명환;김선형
    • 벤처창업연구
    • /
    • 제7권1호
    • /
    • pp.99-104
    • /
    • 2012
  • 본 논문은 무선 영상보안시스템 구현에 관한 것으로서, 적외선센서를 이용하여 외부의 상황변화를 감지하였을 경우 Zigbee 네트워크를 이용하여 보안영역의 센서 정보를 서버에 송신한다. 서버에서는 상황을 판단하여 긴급 상황일 경우 IP 네트워크를 통하여 보안 영역의 카메라를 촬영 하도록 팬틸터로 명령어를 전송한다. 해당 카메라의 영상과 보안영역의 정보를 사용자의 스마트폰으로 전송하며 사용자는 스마트폰을 이용하여 카메라를 제어하여 상황을 확인함으로서, 소규모 카메라 보안시스템으로도 보다 많은 보안영역을 감시할 수 있도록 설계하였다. 최종적으로 실시간으로 긴급 상황에 대해 파악과 대처가 가능한 무선네트워크 기반의 영상보안시스템에 대하여 연구 및 구현을 통하여 검증하였다.

  • PDF

비측정용 디지털 카메라의 효율적인 자체 검정을 위한 대상지 구성 (A Photogrammetric Network and Object Field Design for Efficient Self-Calibration of Non-metric Digital Cameras)

  • 오재홍;어양담;이창노
    • 한국측량학회지
    • /
    • 제24권3호
    • /
    • pp.281-288
    • /
    • 2006
  • 최근 비 측정용 디지털 카메라의 화소수가 급증하고, 카메라 단가 또한 저렴해져 문화재 및 시설물의 3차원 공간 측량 등에도 이를 활용할 수 있게 되었다. 그러나 비 측정용 카메라를 측량용으로 활용하기 위해서는, 카메라 자체검정을 통해 내부 표정요소를 정확히 계산해내야 한다. 이를 위해서는 적절한 검정 대상지의 구성 및 촬영계획이 선행되어야 한다. 본 연구에서는 지상기준점 수, 사진의 수, 기준점의 차원(2차원 및 3차원)등의 조건에 따른 카메라 자체 검정 정확도에 대하여 분석하였다. 실험 결과, 근거리 사진측량을 위한 자체검정 대상지 구축 시 수직사진을 포함하는 3장 이상의 사진으로 안정된 정확도를 얻을 수 있음을 알 수 있었고, 3차원 복원을 목적으로 하는 경우, 평면상의 지상기준점 10점으로도 높은 정회도의 결과를 얻을 수 있음을 알 수 있었다.

왜곡된 전 방향 영상에서의 좌표 변환 및 보정 (Coordinates Transformation and Correction Techniques of the Distorted Omni-directional Image)

  • 차선희;박용민;차의영
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2005년도 춘계종합학술대회
    • /
    • pp.816-819
    • /
    • 2005
  • 본 논문에서는 카타디옵트릭 카메라를 사용할 때 발생하는 공간 왜곡 문제를 해결하기 위해 3차원 포물면 좌표 변환 함수와 신경회로망을 이용한 좌표 변환 및 보정 기법을 제안한다. 본 연구에서 사용하는 포물면 거울을 이용한 카타디옵트릭 카메라는 360$^{\circ}$의 전 방향 영상을 얻을 수 있으나, 렌즈의 외형에 의해 영상이 왜곡되어 나타나는 특징을 가지고 있다. 따라서 3차원 공간상에서 왜곡 영상에서의 좌표를 실제 거리 좌표로 변환하기 위해 포물면 거울 초점과 이미지 상의 좌표를 포물면 거울 위로 투영시킨 좌표를 이용한 좌표 변환 함수를 사용한다. 이 과정에서 발생하는 오차를 BP(Back propagation) 신경망 알고리즘으로 수정한다.

  • PDF

Volume Control using Gesture Recognition System

  • Shreyansh Gupta;Samyak Barnwal
    • International Journal of Computer Science & Network Security
    • /
    • 제24권6호
    • /
    • pp.161-170
    • /
    • 2024
  • With the technological advances, the humans have made so much progress in the ease of living and now incorporating the use of sight, motion, sound, speech etc. for various application and software controls. In this paper, we have explored the project in which gestures plays a very significant role in the project. The topic of gesture control which has been researched a lot and is just getting evolved every day. We see the usage of computer vision in this project. The main objective that we achieved in this project is controlling the computer settings with hand gestures using computer vision. In this project we are creating a module which acts a volume controlling program in which we use hand gestures to control the computer system volume. We have included the use of OpenCV. This module is used in the implementation of hand gestures in computer controls. The module in execution uses the web camera of the computer to record the images or videos and then processes them to find the needed information and then based on the input, performs the action on the volume settings if that computer. The program has the functionality of increasing and decreasing the volume of the computer. The setup needed for the program execution is a web camera to record the input images and videos which will be given by the user. The program will perform gesture recognition with the help of OpenCV and python and its libraries and them it will recognize or identify the specified human gestures and use them to perform or carry out the changes in the device setting. The objective is to adjust the volume of a computer device without the need for physical interaction using a mouse or keyboard. OpenCV, a widely utilized tool for image processing and computer vision applications in this domain, enjoys extensive popularity. The OpenCV community consists of over 47,000 individuals, and as of a survey conducted in 2020, the estimated number of downloads exceeds 18 million.

딥러닝 SW 기술을 이용한 임베디드형 융합 CCTV 카메라 (Convergence CCTV camera embedded with Deep Learning SW technology)

  • 손경식;김종원;임재현
    • 한국융합학회논문지
    • /
    • 제10권1호
    • /
    • pp.103-113
    • /
    • 2019
  • 차량 번호판 인식 카메라는 차량 번호판 내 문자와 숫자의 인식을 위하여 대상 차량의 이미지 취득을 목적으로 하는 전용 카메라를 말하며 대부분 단독 사용보다는 서버와 영상 분석 모듈과 결합된 시스템의 일부로 적용된다. 그러나 차량 번호판 인식을 위한 시스템 구축을 위해서는 취득 영상 관리 및 분석 지원을 위한 서버와 문자, 숫자의 추출 및 인식을 위한 영상 분석 모듈을 함께 구성하여야 하므로 구축을 위한 설비가 필요하고 초기 비용이 많이 든다는 문제점이 있다. 이에 본 연구에서는 카메라의 기능을 차량 번호판 인식에만 한정하지 않고 방범 기능을 함께 수행할 수 있도록 확장하고 카메라 단독으로도 두가지 기능 수행이 가능한 Edge Base의 임베디드형 융합 카메라를 개발한다. 임베디드형 융합 카메라는 선명한 영상 취득 및 빠른 데이터 전송을 위해 고해상도 4K IP 카메라를 탑재하고 오픈소스 신경망 알고리즘 기반의 다중 객체 인식을 위한 딥러닝 SW인 YOLO를 적용하여 차량 번호판 영역을 추출한 후 차량 번호판 내의 문자와 숫자를 검출하고 검출 정확도와 인식 정확도를 검증하여 CCTV 방범 기능과 차량 번호 인식 기능이 가능한지를 확인 하였다.

Implementation of an Embedded System for Image Tracking Using Web Camera (ICCAS 2005)

  • Nam, Chul;Ha, Kwan-Yong;;Kim, Hie-Sik
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.1405-1408
    • /
    • 2005
  • An embedded system has been applied to many fields including households and industrial sites. In the past, user interface products with simple functions were commercialized .but now user demands are increasing and the system has more various applicable fields due to a high penetration rate of the Internet. Therefore, the demand for embedded system is tend to rise In this paper, we Implementation of an embedded system for image tracking. This system is used a fixed IP for the reliable server operation on TCP/IP networks. A real time broadcasting of video image on the internet was developed by using an USB camera on the embedded Linux system. The digital camera is connected at the USB host port of the embedded board. all input images from the video camera is continuously stored as a compressed JPEG file in a directory at the Linux web-server. And each frame image data from web camera is compared for measurement of displacement Vector. That used Block matching algorithm and edge detection algorithm for past speed. And the displacement vector is used at pan/tilt motor control through RS232 serial cable. The embedded board utilized the S3C2410 MPU Which used the ARM 920T core form Samsung. The operating system was ported to embedded Linux kernel and mounted of root file system. And the stored images are sent to the client PC through the web browser. It used the network function of Linux and it developed a program with protocol of the TCP/IP.

  • PDF

딥러닝 기반 카메라 모델 판별 (Camera Model Identification Based on Deep Learning)

  • 이수현;김동현;이해연
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제8권10호
    • /
    • pp.411-420
    • /
    • 2019
  • 멀티미디어 포렌식 분야에서 영상을 촬영한 카메라 모델 판별을 위한 연구가 지속되어 왔다. 점점 고도화되는 범죄 중에 불법 촬영 등의 범죄는 카메라가 소형화됨에 따라 피해자가 알아차리기 어렵기 때문에 높은 범죄 발생 건수를 차지하고 있다. 따라서 특정 영상이 어느 카메라로 촬영되었는지를 특정할 수 있는 기술이 사용된다면 범죄자가 자신의 범죄 행위를 부정할 때, 범죄 혐의를 입증할 증거로 사용될 수 있을 것이다. 본 논문에서는 영상을 촬영한 카메라 모델 판별을 위한 딥러닝 모델을 제안한다. 제안하는 모델은 4개의 컨볼루션 계층과 2개의 전연결 계층으로 구성되었으며, 데이터 전처리를 위한 필터로 High Pass Filter를 사용하였다. 제안한 모델의 성능 검증을 위하여 Dresden Image Database를 활용하였고, 데이터셋은 순차분할 방식을 적용하여 생성하였다. 제안하는 모델을 3 계층 모델과 GLCM 적용 모델 등 기존 연구들과 비교 분석을 수행하여 우수성을 보였고, 최신 연구 결과에서 제시하는 수준의 98% 정확도를 달성하였다.