• 제목/요약/키워드: image Vision

검색결과 2,584건 처리시간 0.026초

합성곱 신경망 기반 맨하탄 좌표계 추정 (Estimation of Manhattan Coordinate System using Convolutional Neural Network)

  • 이진우;이현준;김준호
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제23권3호
    • /
    • pp.31-38
    • /
    • 2017
  • 본 논문에서는 도심 영상에 대해 맨하탄 좌표계를 추정하는 합성곱 신경망(Convolutional Neural Network) 기반의 시스템을 제안한다. 도심 영상에서 맨하탄 좌표계를 추정하는 것은 영상 조정, 3차원 장면 복원 등 컴퓨터 그래픽스 및 비전 문제 해결의 기본이 된다. 제안하는 합성곱 신경망은 GoogLeNet[1]을 기반으로 구성한다. 합성곱 신경망을 훈련하기 위해 구글 스트리트 뷰 API로 영상을 수집하고 기존 캘리브레이션 방법으로 맨하탄 좌표계를 계산하여 데이터셋을 생성한다. 장면마다 새롭게 합성곱 신경망을 학습해야하는 PoseNet[2]과 달리, 본 논문에서 제안하는 시스템은 장면의 구조를 학습하여 맨하탄 좌표계를 추정하기 때문에 학습되지 않은 새로운 장면에 대해서도 맨하탄 좌표계를 추정한다. 제안하는 방법은 학습에 참여하지 않은 구글 스트리트 뷰 영상을 검증 데이터로 테스트하였을 때 $3.157^{\circ}$의 중간 오차로 맨하탄 좌표계를 추정하였다. 또한, 동일 검증 데이터에 대해 제안하는 방법이 기존 맨하탄 좌표계 추정 알고리즘[3]보다 더 낮은 중간 오차를 보이는 것을 확인하였다.

Line Histogram Intensity를 이용한 이동로봇의 장애물 회피 알고리즘 (The Obstacle Avoidance Algorithm of Mobile Robot using Line Histogram Intensity)

  • 류한성;최중경;구본민;박무열;방만식
    • 한국정보통신학회논문지
    • /
    • 제6권8호
    • /
    • pp.1365-1373
    • /
    • 2002
  • 본 논문에서는 자율 이동로봇이 장애물을 회피하며 목표하는 지점까지의 경로를 구성하여 찾아가는 알고 리즘을 제안하고자 한다. 시스템의 구성은 로봇에 탑재된 CCD카메라로부터 획득한 영상신호를 RF 무선 모듈을 이용하여 PC로 보내고 PC에서 영상 처리 과정을 거친 후, 장애물로 인식되는 지역을 회피하도록 제어 신호를 이동로봇으로 전송하는 것이다. 이동로봇에 탑재된 CCD카메라에서 획득한 영상 정보는 매 샘플링 시간마다 캡쳐하여 PC로 전송하고 호스트는 화면에서 장애물의 유무를 판별한 후 좌 혹은 우로 회전하여 장애물을 피해 나가도록 하며 로봇이 이동한 거리를 PC로 전송하는 시스템을 구현하여 초기에 지정한 목표지점까지 로봇이 갈 수 있도록 간략한 경로를 계획하여 추적해 나가도록 한다. 먼저 로봇으로부터 전송되어진 영상은 호스트PC에서 다음과 같은 영상처리과정을 거치도록 한다. 먼저 Original영상을 입력받아서 3X3 mask Sobel 연산자를 사용한다. 그리하면 윤곽선이 추출된다. 여기서 추출된 윤곽정보는 처리가 용이하도록 NOR Converter를 거치도록 한다 마지막으로 이 영상의 경계값을 찾는다. 처음에 획득한 영상은 깨끗한 환경에서 얻어진 것이 아니라 주변에 여러 가지 기구나 명암대비가 뚜렷하지 못한 조건들로 되어 있다. 어떤 장애물이라도 가까이서 획득한 영상으로 보게 되면 색상이 단일한 색상으로 나타난다. 즉, 멀리 있는 영상정보나 장애물이 없는 영상 정보 쪽에 히스토그램이 넓게 분포되기 마련이다. 이런 이유로 마지막에 Convert를 처리한 영상의 경계치를 229로 둔다. 그러면 거의 흰색에 가까우면서도 약간의 그레이 레벨만 가진다 하더라도 흑백 대비를 뚜렷하게 만들어 준다. 즉, 불순 성분을 받아들이기 위하여 경계값을 높이는 것이다. 다음으로 처리된 영상의 좌표를 (0, 0)에서 (0, 197)까지의 히스토그램 분포를 스캔한다. 그러면 장애물이 있는 부분의 히스토그램의 분포는 거의 변동이 없이 나타난다. 이러한 특성을 이용하여 장애물이 있는 곳을 찾아내고 이것을 회피하기 위한 알고리즘을 세웠다

센서 융합을 이용한 이동 로봇의 물체 검출 방법 (Object Detection Method on Vision Robot using Sensor Fusion)

  • 김상훈
    • 정보처리학회논문지B
    • /
    • 제14B권4호
    • /
    • pp.249-254
    • /
    • 2007
  • 본 논문에서는 초음파 및 적외선 센서와 무선 카메라를 장착한 소형 이동 로봇의 물체 검출 방법을 제시한다. 전방 물체의 존재 여부를 판단하기 위해, 초음파 센서는 초음파 발생 신호의 귀환시간, 적외선 센서는 감지한 적외선 아날로그신호의 양, 카메라는 영상 데이터 중 물체의 특징 등을 추출하여 그 결과를 융합함으로써 물체의 유무 또는 이동 로봇과 물체와의 거리를 판단하여 로봇의 움직임을 제어하는데 사용한다. 초음파와 적외선 센서는 물체의 유무와 물체의 대략의 거리를 예측하는 1차 센서로 사용되며 거리 계산결과와 실제 거리 값과의 오차는 5%이내이다. 영상처리에 의해 2차의 섬세한 물체 검출 및 추적을 수행하여 최종적으로 센서 융합에 의한 물체 검출율을 개선하였다. 영상처리방법은 물체와 배경 및 유사잡음들과의 강인한 분리를 위하여 고유색상정보와 움직임 정보 등의 사전정보를 활용하였으며, 형태의 변화가 수반되는 경우에도 유연한 대처능력을 갖도록 하기 위해 시그니처를 이용한 영역분할 방법을 통해 모든 후보영역내의 물체의 존재를 확인하고 목표 물체영역만을 검출하였다. 세가지 센서에 의한 대상 물체 검출 결과의 합은 최종적인 검출을 결정하는데 확률적 근거로 활용되며 각 개별 센서를 사용한 경우보다 최소 7% 이상의 검출율이 개선되었다.

칠성화(七星畵)의 그래픽체계 분석 (Graphic system analysis on the Chil Sung Hwa(seven stars picture))

  • 나윤화
    • 디자인학연구
    • /
    • 제11권
    • /
    • pp.22-29
    • /
    • 1995
  • 본 논문에서는 시각 조형적인 입장에서의 '칠성 화(七星畵)'를 대한(大韓)민족 고유의 시각전달체계의 한 심벌(symbol)로서 이해하였다. 또한 그것에 대한 그래픽분석을 통해 토속적인 민족의 정서를 단순하고 그래픽한 선과 색채로써 수학적인 그리드(grid)안에 규격있게 표현하였음을 분석하였다. 이에 칠성 화를 조상의 시각 조형물로서 커뮤니케이션 디자인의 한 분야로 정착시키는 데 기여하고자 함이 본 연구의 주된 목적이다. 이에 그래픽 측면 구조분석의 구체적 내용을 요약하면 1) 동양의 수학적 사고와 공간 구성은 기본적으로 동양의 공(空)과 허(虛)로 일컬어지는 0(zero)의 개념과 수학의 무한(無限)의 수(數)개념을 설명하였으며, 이것을 근거로 음양론(陰陽論)을 기초로 한 대칭 개념의 발전으로 대각선 전개 법을 유추하여 방위개념에 의거한 공간분할 방식을 설명하였다. 2) 비례분석에서는 황금 분할비 구형을 기준하여 현대적 레이아웃에 있어 시각중심 위치를 잡고 분석하였는데 이에 칠성화의 존상(尊像)의 미간중심을 그 비례 중심적으로 지정하였다. 3) 수학적 구조 분석은 균형있는 배열 및 그 형태법칙에 어떠한 통일된 원칙을 찾기 위한 방법으로 황금 분할 비에 의거하여 분할한 그리드를 적용시켜 그 위에 주(主)인물과 부(副)인물의 기본적인 움직임에 인체모듈(module)에 기준한 형태법칙을 유추 분석하였다. 이에 칠성화의 경우 만다라(曼茶羅) 도형의 기본 분할 방법과 그 맥을 같이 하여 두 가지 유형으로 분석하였다.

  • PDF

불법 주정차 무인 자동 단속을 위한 환경 변화에 강건한 적응적 배경영상 모델링 알고리즘 (Algorithm of Generating Adaptive Background Modeling for crackdown on Illegal Parking)

  • 주성일;전영민;최형일
    • 한국컴퓨터정보학회논문지
    • /
    • 제13권6호
    • /
    • pp.117-125
    • /
    • 2008
  • 실시간 입력영상 분석에 의한 객체 추적은 사람의 시각이 요구되는 여러 응용분야에서 관심 있는 주제 중 하나이다. 객체를 추적하기 위해서는 객체 검지가 선행 된다. 실외 환경에서 안정적인 객체 검지 성능의 달성은 태양의 남중고도 변화에 따른 빛과 그림자의 변화, 자연현상 등의 다양한 환경변화를 수용하는 효과적인 적응적 배경영상 생성 방법이 필요하다. 본 논문에서는 불법 주정차 무인 자동 단속 응용에 효과적으로 활용 가능한 환경 변화에 강건한 적응적 배경영상 생성과 이동 객체의 정지 여부를 판단하는 방법을 제안한다. 본 논문에서 제안하는 적응적 배경영상 생성 방법은 먼저, 초기 배경영상을 생성 후, 생성된 초기 배경영상과 입력영상 프레임 간의 차연산 기법으로 객체를 검지하고, 객체 검지 결과로 이동객체를 추적한다. 또한 객체 검지의 결과로부터 얻어진 객체영역을 제외한 입력영상의 영역을 활용하여 배경영상을 갱신한다. 이후 갱신된 배경영상과 입력영상 간의 차연산 방법으로 객체 검지를 수행하고 이후, 추적, 객체영역을 제외한 영역으로 배경영상 갱신의 과정을 반복한다. 실험에서는 제안방법을 가변하는 실제 도로환경에 적용하여 효과적으로 객체 검지가 가능함과 서행하는 객체 또한 효과적으로 검지됨을 보이고 이동 객체의 정지 여부를 판단할 수 있음을 보인다.

  • PDF

거울(mirror)의 이중적인 구조에 대한 연구 - '보는 자'와 '보이는 자'의 관계를 중심으로 - (A Study on Dual Structure in a Mirror - Revolve around the Relations between 'A Person Who sees' and 'A Person Who is Seen' -)

  • 송대섭;이은영
    • 만화애니메이션 연구
    • /
    • 통권41호
    • /
    • pp.429-454
    • /
    • 2015
  • 본 논의의 출발점은 '자신을 본다'는 거울의 시선에 있다. 거울은 시각을 연장하고 자신이 가질 수 없는 상들을 제공하면서, 닮음, 재현, 반성, 실재 등에 대한 여러 의문을 제기하며 자의식을 강화하는 등 수세기 동안 그 의미는 재인식되어 왔다. 이처럼 거울을 본다는 것은 자기상의 또 다른 표면적 존재를 낳아, 거울 자체의 양면성이라는 실체와 허상 간의 모호한 간격으로 인해 지속적인 관심의 대상이다. 오늘날 거울의 반사상에 대한 과도한 열중은 더욱 심화되어 표출된다. 복잡한 이중적인 구조로 채워진 거울의 시선은 보는 자와 보이는 자의 관계로, 주체와 대상, 대상과 주체와의 불분명한 경계를 낳으며, 타인의 시선으로부터 존재하는 모든 국면들과 마주하며 교차적인 세계의 가능성을 열어준다. 더욱이 거울의 반사적 의미는 회화와 문학을 비롯한 여러 가지 미적 표현양식에 다양한 시선으로 떠오르는 모호한 수수께끼의 매체로서, 작가들에게 적지 않게 반영되며 창조적인 담론을 낳았다. 이에 본고에서는 거울의 시선이 세계의 상황 속에 서있는 이중의 영역에 반영된 불투명한 인간의 시선임을 제시하며, 보다 구체적인 접근을 위해 거울의 역사적 흐름을 전개하여 문학, 예술 작품에 투영된 일련의 사례들을 통해 닮음의 반사적 구조를 드러낼 것이다. 이 과정은 보는 자와 보이는 자의 관계, 즉 지각하는 주체와 거울에 반영된 타자의 시선임을 모색해봄으로써, 나와 세계가 상호 얽힘의 교차관계 속에서 자신의 삶이 존재하고 있음을 반추해보는 계기가 될 것이다.

2차원 스마트폰형상에 있어서 상징적 기능으로서 아날로그이미지 및 디지털이미지의 인지특성 연구 (A Study on the Cognitive Characteristics of Analog Image and Digital Image as a Symbolic Function in the Two-Dimensional Smartphone Form)

  • 이진승;김진성
    • 한국HCI학회논문지
    • /
    • 제13권3호
    • /
    • pp.17-33
    • /
    • 2018
  • 사람들은 시각을 통해 대상물의 형상, 크기, 색, 표면 재질 등과 같은 미적기능을 처리하는 것과 동시에 과거의 자신의 경험을 결합시켜 새로운 심리적 해석을 통한 상징적 기능으로서 대상물을 바라보기도 한다. 그렇기 때문에 단순히 사람들이 눈을 통해서 무엇을 보고 있느냐가 중요 한 것이 아니라 눈으로 받아들이고 이해한 것이 사람들에게 어떤 생각과 느낌과 심리적인 영향을 불러오는 것인가를 연구하고 이해하는 것이 매우 중요하다고 할 수 있겠다[15]. 이러한 연구목적의 하나로서 본 연구에서는 상징적 기능으로서 아날로그 이미지와 디지털 이미지의 인지적 특성이 무엇인지를 "형태적 관점"에서 디테일하게 밝혀내려 하였다. 그리고 다섯 가지 가설을 세우고 다음과 같은 실험을 진행하여 가설을 검증하였다. 우리주변에서 가장 많이 사용되고 있는 스마트폰을 2차원형상의 선화(線?)로 단순화하고 그 스마트폰 2차원형상의 가로라인에 R(radius)값이 부여되었을 경우와 런인알(run-in-r; radius)이 부여되었을 경우 그리고 그 도형들의 모서리에 R(radius)굴림이 적용 되었을 경우를 설정하고 12가지 짝(pair)을 이룬 도형의 조합을 실험방법으로 고안하여 피험자들에게 실험을 실시하였다. 그 결과 몇 가지 인간의 특징적인 현상을 발견할 수 있었으며, 특히 어떤 형상에서 사람들은 상징적 기능으로서의 아날로그이미지와 디지털이미지를 심리적으로 강하게 인지하는지를 객관적으로 검증할 수 있었다. 이와 같은 연구를 통해 얻어진 사람들의 생각과 느낌들을 확정된 하나의 가치로서 데이터베이스화 하여 제품디자이너들에게 제공할 수 있다면 소비자들이 원하는 기초적인 감성 디자인으로서 디자인형상에 응용할 수 있을 것으로 생각된다.

  • PDF

단신 : 페달링 시 정량적인 동적 피팅을 위한 실시간 평가 시스템 (Technical-note : Real-time Evaluation System for Quantitative Dynamic Fitting during Pedaling)

  • 이주학;강동원;배재혁;신윤호;최진승;탁계래
    • 한국운동역학회지
    • /
    • 제24권2호
    • /
    • pp.181-187
    • /
    • 2014
  • In this study, a real-time evaluation system for quantitative dynamic fitting during pedaling was developed. The system is consisted of LED markers, a digital camera connected to a computer and a marker detecting program. LED markers are attached to hip, knee, ankle joint and fifth metatarsal in the sagittal plane. Playstation3 eye which is selected as a main digital camera in this paper has many merits for using motion capture, such as high FPS (Frame per second) about 180FPS, $320{\times}240$ resolution, and low-cost with easy to use. The maker detecting program was made by using Labview2010 with Vision builder. The program was made up of three parts, image acquisition & processing, marker detection & joint angle calculation, and output section. The digital camera's image was acquired in 95FPS, and the program was set-up to measure the lower-joint angle in real-time, providing the user as a graph, and allowing to save it as a test file. The system was verified by pedalling at three saddle heights (knee angle: 25, 35, $45^{\circ}$) and three cadences (30, 60, 90 rpm) at each saddle heights by using Holmes method, a method of measuring lower limbs angle, to determine the saddle height. The result has shown low average error and strong correlation of the system, respectively, $1.18{\pm}0.44^{\circ}$, $0.99{\pm}0.01^{\circ}$. There was little error due to the changes in the saddle height but absolute error occurred by cadence. Considering the average error is approximately $1^{\circ}$, it is a suitable system for quantitative dynamic fitting evaluation. It is necessary to decrease error by using two digital camera with frontal and sagittal plane in future study.

중심 구멍이 있는 구면거울과 평면거울을 이용한 가시광용 반사굴절식 전방위 광학계 (Catadioptric Omnidirectional Optical System Using a Spherical Mirror with a Central Hole and a Plane Mirror for Visible Light)

  • 서현진;조재흥
    • 한국광학회지
    • /
    • 제26권2호
    • /
    • pp.88-97
    • /
    • 2015
  • 전방위 광학계는 360도의 방위각과 지평선 위와 아래의 수직화각에 대한 상을 동시에 결상이 가능한 광학계이다. 본 논문에서는 제작을 쉽게 하면서 크기가 작아지도록 하기 위해서 가운데에 구멍이 뚫려있는 옵스큐레이션(obscuration)을 갖는 구면거울 1장과 평면거울 1장으로 이루어진 거울계 및 이 거울계에서 반사하여 구면거울의 옵스큐레이션을 통과한 시야각 범위 안의 광을 결상하는 구면렌즈 3개와 하나의 구면 이중렌즈로 구성된 결상렌즈계를 사용하는 가시광용 반사굴절식 전방위 광학계를 설계하고 제작하여 전방위 영상을 실제로 결상하였다. 그리고 자동차 앞, 뒷번호판의 영상을 보고 이 전방위 광학계의 통과 공간주파수를 측정하고, ISO 12233 차트의 영상으로부터 전방위 광학계의 수직화각을 측정하여 광학계의 성능을 평가하였다. 이 결과 전방위 광학계의 수직화각은 $+53^{\circ}{\sim}-17^{\circ}$이며, 방위각은 $360^{\circ}$이고, 3 m 거리에서 자동차 앞번호판의 숫자를 구별할 수 있었는데, 이는 135 lp/mm의 통과 공간주파수에 해당한다.

Landsat 8 기반 SPARCS 데이터셋을 이용한 U-Net 구름탐지 (U-Net Cloud Detection for the SPARCS Cloud Dataset from Landsat 8 Images)

  • 강종구;김근아;정예민;김서연;윤유정;조수빈;이양원
    • 대한원격탐사학회지
    • /
    • 제37권5_1호
    • /
    • pp.1149-1161
    • /
    • 2021
  • 컴퓨터 비전 기술이 위성영상에 적용되면서, 최근 들어 딥러닝 영상인식을 이용한 구름 탐지가 관심을 끌고 있다. 본연구에서는 SPARCS (Spatial Procedures for Automated Removal of Cloud and Shadow) Cloud Dataset과 영상자료증대 기법을 활용하여 U-Net 구름탐지 모델링을 수행하고, 10폴드 교차검증을 통해 객관적인 정확도 평가를 수행하였다. 512×512 화소로 구성된 1800장의 학습자료에 대한 암맹평가 결과, Accuracy 0.821, Precision 0.847, Recall 0.821, F1-score 0.831, IoU (Intersection over Union) 0.723의 비교적 높은 정확도를 나타냈다. 그러나 구름그림자 중 14.5%, 구름 중 19.7% 정도가 땅으로 잘못 예측되기도 했는데, 이는 학습자료의 양과 질을 보다 더 향상시킴으로써 개선 가능할 것으로 보인다. 또한 최근 각광받고 있는 DeepLab V3+ 모델이나 NAS(Neural Architecture Search) 최적화 기법을 통해 차세대중형위성 1, 2, 4호 등의 구름탐지에 활용 가능할 것으로 기대한다.