• Title/Summary/Keyword: RGB 영상

Search Result 723, Processing Time 0.026 seconds

UV Mapping Based Pose Estimation of Furniture Parts in Assembly Manuals (UV-map 기반의 신경망 학습을 이용한 조립 설명서에서의 부품의 자세 추정)

  • Kang, Isaac;Cho, Nam Ik
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.07a
    • /
    • pp.667-670
    • /
    • 2020
  • 최근에는 증강현실, 로봇공학 등의 분야에서 객체의 위치 검출 이외에도, 객체의 자세에 대한 추정이 요구되고 있다. 객체의 자세 정보가 포함된 데이터셋은 위치 정보만 포함된 데이터셋에 비하여 상대적으로 매우 적기 때문에 인공 신경망 구조를 활용하기 어려운 측면이 있으나, 최근에 들어서는 기계학습 기반의 자세 추정 알고리즘들이 여럿 등장하고 있다. 본 논문에서는 이 가운데 Dense 6d Pose Object detector (DPOD) [11]의 구조를 기반으로 하여 가구의 조립 설명서에 그려진 가구 부품들의 자세를 추정하고자 한다. DPOD [11]는 입력으로 RGB 영상을 받으며, 해당 영상에서 자세를 추정하고자 하는 객체의 영역에 해당하는 픽셀들을 추정하고, 객체의 영역에 해당되는 각 픽셀에서 해당 객체의 3D 모델의 UV map 값을 추정한다. 이렇게 픽셀 개수만큼의 2D - 3D 대응이 생성된 이후에는, RANSAC과 PnP 알고리즘을 통해 RGB 영상에서의 객체와 객체의 3D 모델 간의 변환 관계 행렬이 구해지게 된다. 본 논문에서는 사전에 정해진 24개의 자세 후보들을 기반으로 가구 부품의 3D 모델을 2D에 투영한 RGB 영상들로 인공 신경망을 학습하였으며, 평가 시에는 실제 조립 설명서에서의 가구 부품의 자세를 추정하였다. 실험 결과 IKEA의 Stefan 의자 조립 설명서에 대하여 100%의 ADD score를 얻었으며, 추정 자세가 자세 후보군 중 정답 자세에 가장 근접한 경우를 정답으로 평가했을 때 100%의 정답률을 얻었다. 제안하는 신경망을 사용하였을 때, 가구 조립 설명서에서 가구 부품의 위치를 찾는 객체 검출기(object detection network)와, 각 개체의 종류를 구분하는 객체 리트리벌 네트워크(retrieval network)를 함께 사용하여 최종적으로 가구 부품의 자세를 추정할 수 있다.

  • PDF

Optical Design of a Modified Catadioptric Omnidirectional Optical System for a Capsule Endoscope to Image Simultaneously Front and Side Views on a RGB/NIR CMOS Sensor (RGB/NIR CMOS 센서에서 정면 영상과 측면 영상을 동시에 결상하는 캡슐 내시경용 개선된 반사굴절식 전방위 광학계의 광학 설계)

  • Hong, Young-Gee;Jo, Jae Heung
    • Korean Journal of Optics and Photonics
    • /
    • v.32 no.6
    • /
    • pp.286-295
    • /
    • 2021
  • A modified catadioptric omnidirectional optical system (MCOOS) using an RGB/NIR CMOS sensor is optically designed for a capsule endoscope with the front field of view (FOV) in visible light (RGB) and side FOV in visible and near-infrared (NIR) light. The front image is captured by the front imaging lens system of the MCOOS, which consists of an additional three lenses arranged behind the secondary mirror of the catadioptric omnidirectional optical system (COOS) and the imaging lens system of the COOS. The side image is properly formed by the COOS. The Nyquist frequencies of the sensor in the RGB and NIR spectra are 90 lp/mm and 180 lp/mm, respectively. The overall length of 12 mm, F-number of 3.5, and two half-angles of front and side half FOV of 70° and 50°-120° of the MCOOS are determined by the design specifications. As a result, a spatial frequency of 154 lp/mm at a modulation transfer function (MTF) of 0.3, a depth of focus (DOF) of -0.051-+0.052 mm, and a cumulative probability of tolerance (CPT) of 99% are obtained from the COOS. Also, the spatial frequency at MTF of 170 lp/mm, DOF of -0.035-0.051 mm, and CPT of 99.9% are attained from the front-imaging lens system of the optimized MCOOS.

3D Video Quality Improvement for 3D TV using Color Compensation (색상 보정을 통한 3차원 TV의 입체영상 화질 개선)

  • Jung, Kil-Soo;Kang, Min-Sung;Kim, Dong-Hyun;Sohn, Kwang-Hoon
    • Journal of Broadcast Engineering
    • /
    • v.15 no.6
    • /
    • pp.757-767
    • /
    • 2010
  • In this paper, we have studied the color compensation method for 3D that enables 3D color presentation similar to 2D. The color compensation method uses the difference of color presentation in 2D and 3D mode. First, the RGB I/O relationship curve was derived in 2D and 3D mode based on the input RGB color bar images. The relationship was modeled in modified power-law forms. Based on the modeling information, we generated color mapping tables, which can be used for compensating the difference of colors. The proposed color mapping block can be added at the output block of a 3DTV system, where the 2D content can be bypassed but the 3D content RGB data can be processed using the color mapping table. The experimental results show that the proposed method improves color presentation of a 3DTV system using a proper color compensation based on 2D presentation.

A Study on the Application of IHS Transformation Technique for the Enhancement of Remotely Sensed Data Classification (리모트센싱 데이터의 분류향상을 위한 IHS 변환기법 적용)

  • Yeon, Sangho
    • Journal of the Korean Association of Geographic Information Studies
    • /
    • v.1 no.1
    • /
    • pp.109-117
    • /
    • 1998
  • To obtain new information using a single remotely sensed image data is limited to extract various information. Recent trends in the remote sensing show that many researchers integrate and analyze many different forms of remotely sensed data, such as optical and radar satellite images, aerial photograph, airborne multispectral scanner data and land spectral scanners. Korean researchers have not been using such a combined dataset yet. This study intended to apply the technique of integration between optical data and radar data(SAR) and to examine the output that had been obtained through the technique of supervised classification using the result of integration. As a result, we found of better enhanced image classification results by using IHS conversion than by using RGB mixed and interband correlation.

Real-time Face Detection System using YCbCr Information and AdaBoost Algorithm (YCbCr정보와 아다부스트 알고리즘을 이용한 실시간 얼굴검출 시스템)

  • Kim, Hyeong-Gyun;Jung, Gi-Bong
    • Journal of the Korea Society of Computer and Information
    • /
    • v.13 no.5
    • /
    • pp.19-26
    • /
    • 2008
  • In this paper, we converted an RGB into an YCbCr image input from CCD camera and then after compute difference two consecutive images, conduct Glassfire Labeling. We extract an image become ware of motion-change, if the difference between most broad(area) and Area critical value more than critical value. We enforce the detection of facial characteristics to an extracted motion-change images by using AdaBoost algorithm to extract an characteristics.

  • PDF

Vehicle Identification based on Appearance (차량 외형에 따른 차종 식별)

  • Shin, Seong-Yoon;Lee, Hyun-Chang;Ahn, Woo-Young
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2016.07a
    • /
    • pp.101-102
    • /
    • 2016
  • 본 논문에서는 차량의 특징점들 사이의 간격과 크기의 비례식으로 자동차의 차종을 식별하는 방법을 제시한다. 자동차 관련 영상은 그 편의성을 위하여 기본 RGB모델에서 Gray색상 모델로 변환시켜 사용한다. 자동차의 배경 제거는 Canny Edge Direction을 통하여 수행하고 외곽선 검을을 통하여 원하는 특징 점을 얻는다.

  • PDF

Development of the Weather Detection Algorithm using CCTV Images and Temperature, Humidity (CCTV 영상과 온·습도 정보를 이용한 기후검출 알고리즘 개발)

  • Park, Beung-Raul;Lim, Jong-Tea
    • Journal of Korea Multimedia Society
    • /
    • v.10 no.2
    • /
    • pp.209-217
    • /
    • 2007
  • This paper proposed to a detection scheme of weather information that is a part of CCTV Images Weather Detection System using CCTV images and Temperature, Humidity. The previous Partial Weather Detection System uses how to acquire weather information using images on the Road. In the system the contrast and RGB Values using clear images are gained. This information is distributed a input images to cloud, rain, snow and fog images. That is, this information is compared the snow and the fog images for acquisition more correctness information us ing difference images and binary images. Currently, We use to environment sense system, but we suggest a new Weather Detection Algorithm to detect weather information using CCTV images. Our algorithm is designed simply and systematically to detect and separate special characteristics of images from CCTV images. and using temperature & humidity in formation. This algorithm, there is more complex to implement than how to use DB with high overhead of time and space in the previous system. But our algorithm can be implement with low cost' and can be use the system in real work right away. Also, our algorithm can detect the exact information of weather with adding in formation including temperature, humidity, date, and time. At last, this paper s how the usefulness of our algorithm.

  • PDF

Structured lights Calibration for Depth Map Acquisition System (깊이맵 획득을 위한 가시구조광 캘리브레이션)

  • Yang, Seung-Jun;Choo, Hyon-Gon;Cha, Jihun;Kim, Jinwoong
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.11a
    • /
    • pp.242-243
    • /
    • 2011
  • 구조광을 이용하는 깊이 정보 획득 방법에서 코드화된 패턴의 색상 정보는 촬영된 영상으로부터 패턴을 해석하여 패턴의 위상 변화량으로부터 물체의 깊이 정보를 찾기 위함으로 구조광 패턴들이 대상에 정확하게 투영되는 것이 중요하다. 그러나 프로젝터의 특성에 따라 패턴의 RGB 채널들이 종종 좌표에서 어긋나는 현상이 발생하게 된다. 본 논문에서는 프로젝터의 특성에 따른 컬러 구조광의 캘리브레이션을 위한 방법을 제안한다. 제안하는 방법은 시변화 가시구조광 시스템의 캘리브레이션 과정 중에서 투사된 영상으로부터 RGB 패턴 채널을 추출하고, 추출된 패턴으로부터 각 RGB 채널에 대한 히스토그램을 통하여 패턴 채널이 어느 방향으로 번져 나갔는지를 파악하여 원 패턴에 대한 재정렬을 수행한다. 본 논문의 실험결과에 따르면, 기존의 방법에 비해 간단한 방법으로 가시구조광 패턴에 대한 캘리브레션을 수행할 수 있음을 보여준다.

  • PDF

A Study on New RGB Space Transformation for Skin Color Detection (새로운 RGB영역 변환을 이용한 Skin Color Detection에 관한 연구)

  • Chung, Won-Serk;Lee, Hyung-Ji;Chung, Jae-Ho
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2000.10b
    • /
    • pp.915-918
    • /
    • 2000
  • 본 논문에서는 색상정보를 이용한 얼굴 검출 알고리즘에 대해 소개하고자 한다. 여러 개의 얼굴 검출에 적용되는 이 알고리즘은 피부색의 학습 과정과 입력영상에 대한 얼굴 검출 과정으로 크게 두 가지로 나눌 수 있다. 특히 본 연구에서는 피부색이 본 논문에서 제안한 새로운 RGB 영역에서 직선을 이루는 특징을 이용하여 학습 data를 구성한다. 이렇게 구성된 data를 입력영상에 적용함으로써 1차 얼굴 후보영역을 결정한다. 그런 후 1차 후보영역을 세로방향과 가로방향으로 투영시킴으로써 최종 얼굴영역을 찾아낸다. 실험을 통해 이 알고리즘은 기존의 색상정보를 이용한 얼굴 검출 방법에 비해 얼굴개수에 상관없이 높은 검출 성공률을 보여주었다.

  • PDF

Incoming and Outgoing Human Matching Using Similarity Metrics for Occupancy Sensor (점유센서를 위한 유사성 메트릭 기반 입출입 사람 매칭)

  • Jung, Jaejune;Kim, Manbae
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2018.11a
    • /
    • pp.33-35
    • /
    • 2018
  • 기존의 사람간의 유사성 측정 시스템은 적외선 빔이나 열 감지 영상 장치를 통해 측정하였다. 하지만 이와 같은 방법으로 측정하면 2명 이상의 객체를 분류해내는 기술은 제공하지 않는다. 이에 본 논문은 고정된 카메라를 이용하여 각 사람의 피부색과 옷차림 등의 RGB 정보를 이용한 사람 유사성 측정 기법을 제안한다. RGB카메라 영상을 통하여 객체의 RGB 히스토그램을 얻은 후 각 객체에 대해 Bhattacharyya metric, Cosine similarity, Jensen difference, Euclidean distance로 histogram similarity를 계산하여 객체 추적 및 유사성 측정을 통해 객체를 분류한다. 제안된 시스템은 C/C++를 기반으로 구현하여, 유사성 측정 성능을 평가하였다.

  • PDF