• 제목/요약/키워드: 좌표변환계산

검색결과 214건 처리시간 0.023초

인물 사진을 위한 자동 톤 균형 알고리즘 (Flesh Tone Balance Algorithm for AWB of Facial Pictures)

  • 배태욱;이성학;이정욱;송규익
    • 한국통신학회논문지
    • /
    • 제34권11C호
    • /
    • pp.1040-1048
    • /
    • 2009
  • 본 논문에서는 인물 영상에 대한 새로운 자동 톤 균형 알고리즘을 제안하였다. 일반적인 백색 균형 (White balance) 알고리즘은 무채색 영역 또는 물리적 반사율을 알고 있는 피사체에 대해 RGB 출력 신호의 비율이 동일하도록 보정하는 방법을 사용한다. 본 논문에서는 사진 속 얼굴색을 기준 조명하에서의 피부색 좌표와 일치 되도록 RGB의 채널 이득을 조절한다. 실험을 위해 카메라 이미지 센서의 전달 특성을 분석하고 기준 조명하에서의 평균 얼굴 색도를 측정하여 카메라 출력 RGB을 계산한다. 마지막으로 임의의 조명하에서 촬영된 인물 영상에 대해 얼굴 부분의 RGB 출력 비율이 기준 얼굴색에 대한 비율이 되도록 R 채널과 B 채널의 이득을 조정하여 색도 보정을 했다. 입력 삼자극치 XYZ는 카메라 전달 행렬에 의해 카레라 출력 RGB로부터 계산된다. 그리고 입력 삼자극치 XYZ는 sRGB 전달 행렬을 이용하여 기준 컬러 공간(sRGB)으로 변환된다. RGB 데이터는 감마 보정 후 디스플레이를 위해 8 bit 데이터로 인코딩되어진다. 알고리즘은 맥베스 컬러 차트 (Macbeth color chart)의 light skin color인 평균 얼굴색과 실제로 측정된 다양한 얼굴색의 평균색에 적용되어졌다.

노광 광학계의 왜곡수차 측정에 관한 연구 (Direct Measurement of Distortion of Optical System of Lithography)

  • 주원돈;이지훈;채성민;김혜정;정미숙
    • 한국광학회지
    • /
    • 제23권3호
    • /
    • pp.97-102
    • /
    • 2012
  • 일반적으로 왜곡을 측정하는 방법으로 패턴의 전체 이미지를 분석하여 왜곡을 평가하는 방법을 이용하고 있으나 정확도가 높지 않아 카메라 등의 광학계에 많이 적용되고 있다. 1um이하의 정확도를 요구하는 왜곡수차를 측정하는 방법으로는 고가의 정밀 스테이지를 이용하여 마스크의 이미지 위치를 정확히 측정하는 방법이 주로 이용된다. 본 논문에서는 정확도가 요구되지 않는 매뉴얼 스테이지를 이용하여 왜곡을 정확히 측정하는 방법을 연구 하였다. 주요 아이디어로는 CCD나 CMOS를 이용하여 마스크 이미지를 일부 중첩되도록 분할측정하고 인접중첩영역의 이미지를 통합하여 마스크 이미지 위치를 정확히 계산하는 것이다. 마스크 이미지의 정확한 위치정보를 얻기 위해 Canny Edge Detection 기법을 사용하였으며 이렇게 확보된 위치정보로부터 좌표변환과 최소자승법을 사용하여 정확한 왜곡수차를 계산하는 과정을 연구하였다.

눈 영상비를 이용한 운전자 상태 경고 시스템 (A Driver's Condition Warning System using Eye Aspect Ratio)

  • 신문창;이원영
    • 한국전자통신학회논문지
    • /
    • 제15권2호
    • /
    • pp.349-356
    • /
    • 2020
  • 본 논문은 교통사고 방지를 위한 운전자의 눈 영상비를 이용한 상태 경고시스템의 설계에 대해 소개하고 있다. 제안하는 운전자 상태 경고 시스템은 눈 인식을 위한 카메라, 카메라를 통해 들어오는 정보를 처리하는 라즈베리파이, 그리고 그 정보를 통해 운전자에게 경고를 줄 때 필요한 부저와 진동기로 구성되어 있다. 운전자의 눈을 인식하기 위해서 기울기 방향성 히스토그램 기술과 딥러닝 기반의 얼굴 표지점 추정 기법을 사용하였다. 동작을 시작하면, 시스템은 눈 주변의 6개의 좌표를 통해 눈 영상비를 계산한다. 그리고 눈을 뜬 상태와 감은 상태의 눈 영상비를 각각 계산한 후 이 두 값으로부터 눈의 상태를 판단하는데 사용하는 문턱 값을 설정한다. 문턱 값이 운전자의 눈 크기에 적응하면서 설정되기 때문에 시스템은 최적의 문턱 값을 사용하여 운전자의 상태를 판단할 수 있다. 또한 낮은 조도에서도 눈을 인식할 수 있도록 회색조 변환 이미지와 LAB모델 이미지를 합성하여 사용하였다.

영상처리 기반 모의 사격 표적지 탄착점 추출 (Extracting the Point of Impact from Simulated Shooting Target based on Image Processing)

  • 이태국;임창균;김강철;김용민
    • 인터넷정보학회논문지
    • /
    • 제11권1호
    • /
    • pp.117-128
    • /
    • 2010
  • 소모적이고 안전사고에 노출된 실탄 사격을 대체할 수 있는 사격 시뮬레이션 시스템과 관련된 연구가 활발히 진행되고 있다. 본 논문에서는 기존의 센서 기반 기술을 이용한 인식 방법을 사용하지 않고 영상처리기반 기술을 이용하여 탄착점을 추출하는 과정을 제시하였다. 이를 위해 모의총기의 총구에 부착된 카메라로부터 획득한 영상 분석을 통해 탄착점 위치를 찾아내고, 그 탄착점의 좌표 값과 과녁과의 매핑을 통한 최종 사격결과를 계산하여 제공할 수 있도록 한다. 이 시스템은 전송된 영상에서 영사영역을 구분하는 단계, 영사영역 내에서 탄착점 위치를 추출하는 단계, 탄착점 위치에 따른 사격결과를 계산하여 사용자에게 제공하는 단계로 나누어진다. 전송된 영상을 이진 영상으로 변환 후 영사영역의 꼭짓점의 위치를 찾고 그 안에 존재하는 탄착점을 추출한다. 구현된 탄착점 추출과정을 단계별로 제시하였으며 모의 사격 시스템을 위한 인터페이스에서 결과를 확인 할 수 있도록 하였다. 실험을 통해 영사영역의 꼭짓점 위치의 정확성을 확인하였으며 탄착점 추출 및 그에 따른 점수 환산결과를 확인할 수 있도록 하였다.

카메라와 라이다의 객체 검출 성능 향상을 위한 Sensor Fusion (Camera and LiDAR Sensor Fusion for Improving Object Detection)

  • 이종서;김만규;김학일
    • 방송공학회논문지
    • /
    • 제24권4호
    • /
    • pp.580-591
    • /
    • 2019
  • 본 논문의 목적은 자율주행을 위하여 카메라와 라이다를 이용하여 객체를 검출하고 각 센서에서 검출된 객체를 late fusion 방식으로 융합을 하여 성능을 향상하는 것을 목적으로 한다. 카메라를 이용한 객체 검출은 one-stage 검출인 YOLOv3을, 검출된 객체의 거리 추정은 perspective matrix를, 라이다의 객체 검출은 K-means 군집화 기반 객체 검출을 각각 이용하였다. 카메라와 라이다 calibration은 PnP-RANSAC을 이용하여 회전, 변환 행렬을 구하였다. 센서 융합은 라이다에서 검출된 객체를 이미지 평면에 옮겨 Intersection over union(IoU)을 계산하고, 카메라에서 검출된 객체를 월드 좌표에 옮겨 거리, 각도를 계산하여 IoU, 거리 그리고 각도 세 가지 속성을 로지스틱 회귀를 이용하여 융합을 하였다. 융합을 통하여 각 센서에서 검출되지 않은 객체를 보완해주어 성능이 약 5% 증가하였다.

경기만 염하수로에서의 잔차류 및 수송량의 대조-소조 변동과 단면 특성 (The Cross-Sectional Characteristic and Spring-Neap Variation of Residual Current and Net Volume Transport at the Yeomha Channel)

  • 이동환;윤병일;우승범
    • 한국해안·해양공학회논문집
    • /
    • 제29권5호
    • /
    • pp.217-227
    • /
    • 2017
  • 경기만 염하수로에서 시 공간적으로 변화하는 총수송량과 잔차류를 산정하고자 소조기와 대조기에 염하수로의 하류(정선-1), 염하수로 중간 지점(정선-2)에서 13시간 동안 단면 유속을 관측하였다. 총수송량은 Eulerian flux와 Stokes drift의 합인 Lagrange flux로 계산하였고, 잔차류는 최소자승법을 이용하여 구하였다. 총수송량과 잔차류의 계산은 관측 시간별, 수평 수직 sigma 좌표계로 변환하여 수행하였다. 변환된 sigma 좌표체계는 z-level 좌표 체계와 비교하였을 때 주 방향 유속 오차가 3~5% 내외로 자료 분석에 무리가 없는 것으로 판단되었다. 분석결과 단면 잔차류는 정선-1에서는 대조기에 주 수로 방향에서 북향, 수로 양 끝 단에서 남향하였으며, 소조기에는 수직적으로 표층에서는 창조, 저층에서는 낙조하는 이층흐름 구조를 보였다. 반면 정선-2에서는 대조, 소조 모두 남향(낙조)하였다. 한편 총수송량은 정선-1에서는 대조 시와 소조 시에 각각 $359m^3s^{-1}$, $248m^3s^{-1}$로 북향(창조), 정선-2에서 대조 시와 소조 시에 각각 $576m^3s^{-1}$, $67m^3s^{-1}$로 남향(낙조)하였다. 정선 별 공간 수송량 차이로 영종도와 강화도 사이의 조간대 지역의 순 유출량을 추정하였으며, 크기는 대조기와 소조기에 각각 $935m^3s^{-1}$, $315m^3s^{-1}$로 나타났다. 이처럼 대 소조기와 공간적 특성에 따라 잔차류와 순 수송량이 변화되는 주된 요인은 순압력구배와 Stokes drift가 복합적으로 작용한 결과이다.

TanDEM-X bistatic SAR 영상의 2-pass 위성영상레이더 차분간섭기법 기반 수치표고모델 생성 방법 개선 (Improvement of 2-pass DInSAR-based DEM Generation Method from TanDEM-X bistatic SAR Images)

  • 채성호
    • 대한원격탐사학회지
    • /
    • 제36권5_1호
    • /
    • pp.847-860
    • /
    • 2020
  • 2-pass DInSAR (Differential Interferometric SAR) 기법을 이용한 DEM 생성 방법은 SAR 영상쌍 간의 정합, 간섭도 생성, 위상 unwrapping, DEM오차 계산, 좌표계 변환 등 복잡한 단계가 필요하다. 이러한 각 단계별 자료처리 정확도는 최종적으로 생성되는 DEM의 성능에 영향을 미치게 된다. 본 연구에서는 TanDEM-X bistatic SAR 영상의 2-pass DInSAR 기법 기반 DEM 생성 방법에 대한 성능 향상을 위한 개선된 방법을 개발하였다. 개발된 DEM 생성 방법은 unwrapped 위상 내의 DEM 오차와 좌표계 변환 시 발생할 수 있는 DEM오차를 현저히 줄일 수 있는 방법이다. 개발된 알고리즘의 성능 분석은 GPS 측량으로부터 생성한 지상기준점(Ground Control Point, GCP)을 이용하여 기존의 방법과 새로 제안된 알고리즘 적용 결과의 수직정확도(Root Mean Square Error, RMSE)를 비교하여 수행하였다. 실제 unwrapped 위상 및 좌표계변환 오차에 대한 보정을 수행하지 않고 생성한 DInSAR 기반 DEM의 고도 오차는 수직정확도는 39.617 m로 관측되었고, 제안한 방법을 통하여 생성한 DEM의 수직정확도는 2.346 m로 향상됨을 확인할 수 있었다. 제안하는 2-pass DInSAR 기법을 통해 reference로 사용한 SRTM 30 m DEM(수직정확도 5.567 m)에 DInSAR로 관측한 SRTM DEM 오차를 보상하여 최종적으로 공간해상도는 약 5배, 수직 정확도는 약 2.4배 향상된 DEM을 생성할 수 있었다. 또한, 제안한 방법을 통하여 생성한 DEM의 공간해상도를 SRTM 30 m DEM과 TanDEM-X 90 m DEM과 일치시키고 수직정확도를 비교한 결과 각각 약 1.7배 및 1.6배 향상되어 제안하는 2-pass DInSAR 기반 DEM 생성 방법으로 보다 정확한 DEM 생성이 가능함을 확인할 수 있었다. 빈번한 형태학적 변화를 갖는 지역에 대한 DEM의 지속적인 업데이트를 위하여 본 연구에서 도출한 방법을 이용한다면 저비용으로 빠른 시간 내에 효과적으로 DEM을 갱신할 수 있을 것이다.

실시간 렌더링 환경에서의 3D 텍스처를 활용한 GPU 기반 동적 포인트 라이트 파티클 구현 (GPU-based dynamic point light particles rendering using 3D textures for real-time rendering)

  • 김병진;이택희
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제26권3호
    • /
    • pp.123-131
    • /
    • 2020
  • 본 연구는 10만 개 이상의 움직이는 파티클 각각이 발광원으로서 존재할 때 라이팅을 위한 실시간 렌더링 알고리즘을 제안한다. 각 라이트의 영향 범위를 동적으로 파악하기 위해 2개의 3D 텍스처를 사용하며 첫 번째 텍스처는 라이트 색상 두 번째 텍스처는 라이트 방향 정보를 가진다. 각 프레임마다 두 단계를 거친다. 첫 단계는 Compute shader 기반으로 3D 텍스처 초기화 및 렌더링에 필요한 파티클 정보를 갱신하는 단계이다. 이때 파티클 위치를 3D 텍스처의 샘플링 좌표로 변환 후 이 좌표를 기반으로 첫 번째 3D 텍스처엔 해당 복셀에 대해 영향을 미치는 파티클 라이트들의 색상 총합을, 그리고 두 번째 3D 텍스처에 해당 복셀에서 파티클 라이트들로 향하는 방향벡터들의 총합을 갱신한다. 두 번째 단계는 일반 렌더링 파이프라인을 기반으로 동작한다. 먼저 렌더링 될 폴리곤 위치를 기반으로 첫 번째 단계에서 갱신된 3D 텍스처의 정확한 샘플링 좌표를 계산한다. 샘플링 좌표는 3D 텍스쳐의 크기와 게임 월드의 크기가 1:1로 대응하므로 픽셀의 월드좌표를 그대로 샘플링 좌표로 사용한다. 샘플링한 픽셀의 색상과 라이트의 방향벡터를 기반으로 라이팅 처리를 수행한다. 3D 텍스처가 실제 게임 월드와 1:1로 대응하며 최소 단위를 1m로 가정하는데 1m보다 작은 영역의 경우 해상도 제한에 의한 계단 현상 등의 문제가 발생한다. 이러한 문제를 개선하기 위한 텍스처 샘플링 시 보간 및 슈퍼 샘플링을 수행한다. 한 프레임을 렌더링하는데 소요된 시간을 측정한 결과 파티클이 라이트의 개수가 262144개일 때 Forward Lighting 파이프라인에서 146ms, deferred Lighting 파이프라인에서 46ms 가 소요되었으며, 파티클 라이트의 개수가 1024576개일 때 Forward Lighting 파이프라인에서 214ms, Deferred Lighting 파이프라인에서 104ms 가 소요되었다.

스테레오 비전 센서 기반 프리팹 강구조물 조립부 형상 품질 평가 (Dimensional Quality Assessment for Assembly Part of Prefabricated Steel Structures Using a Stereo Vision Sensor)

  • 김종혁;전해민
    • 한국전산구조공학회논문집
    • /
    • 제37권3호
    • /
    • pp.173-178
    • /
    • 2024
  • 본 논문에서는 스테레오 비전 센서를 이용한 프리팹 강구조물(PSS: Prefabricated Steel Structures)의 조립부 형상 품질 평가 기법을 소개한다. 스테레오 비전 센서를 통해 모형의 조립부 영상과 포인트 클라우드 데이터를 수집하였으며, 퍼지 기반 엣지 검출, 허프 변환 기반 원형의 볼트 홀 검출 등의 영상처리 알고리즘을 적용하여 조립부 영역의 볼트홀을 검출하였다. 영상 내 추출된 볼트홀 외곽선 위 세 점의 위치 정보에 대응되는 3차원 실세계 위치 정보를 깊이 영상으로부터 획득하였으며, 이를 기반으로 각 볼트홀의 3차원 중심 위치를 계산하였다. 통계적 기법 중 하나인 주성분 분석 알고리즘(PCA: Principal component analysis) 알고리즘을 적용함으로써 3차원 위치 정보를 대표하는 최적의 좌표축을 계산하였다. 이를 통해 센서의 설치 방향 및 위치에 따라 센서와 부재 간 평행이 아니더라도 안정적으로 볼트홀 간의 거리를 계측하도록 하였다. 각 볼트홀의 2차원 위치 정보를 기반으로 볼트홀의 순서를 정렬하였으며, 정렬된 볼트홀의 위치 정보를 바탕으로 인접한 볼트홀 간의 각 축의 거리 정보를 계산하여 조립부 볼트홀 위치 중심의 형상 품질을 분석하였다. 측정된 볼트홀 간의 거리 정보는 실제 도면의 거리 정보와의 절대오차와 상대오차를 계산하여 성능 비교를 진행하였으며, 중앙값 기준 1mm 내의 절대오차와 4% 이내의 상대오차의 계측 성능을 확인하였다.

특징점 매칭 개선 및 강인추정을 통한 이종해상도 위성영상 자동영상정합 (Automated Image Matching for Satellite Images with Different GSDs through Improved Feature Matching and Robust Estimation)

  • 반승환;김태정
    • 대한원격탐사학회지
    • /
    • 제38권6_1호
    • /
    • pp.1257-1271
    • /
    • 2022
  • 최근 많은 수의 지구관측용 광학위성이 개발되어 위성영상에 대한 수요가 증가하고 있다. 따라서, 위성영상의 활발한 활용을 위해서 신속한 전처리 과정이 요구된다. 위성영상 정합은 두 영상을 하나의 특정한 좌표계로 변환하여 등록하는 기술로서 원격탐사 분야에서 영상정합 기술은 서로 다른 대역의 영상을 정렬하거나, 두 위성영상 간의 상대적인 위치 오차를 수정하는데 사용된다. 본 논문에서는 서로 다른 Ground Sample Distance (GSD)를 가지는 위성영상 간의 자동 영상정합 방법을 제안하였다. 제안방법은 개선된 특징점 매칭방법과 강인한 변환모델 추정기법을 기반으로 하며, 다음과 같이 5가지 처리과정으로 구성된다: 중첩 영역 계산, 개선된 특징점 탐지, 특징점 매칭, 강인한 변환모델 추정, 영상 리샘플링. 특징점 탐지를 위해서 중첩영역을 추출하여 두 영상의 GSD가 유사하도록 영상 리샘플링을 수행하였다. 특징점 매칭 단계에서는, Oriented FAST and Rotated BRIEF (ORB) 알고리즘을 사용하여 영상정합 성능을 향상시켰다. 영상정합 실험은 KOMPSAT-3A와 RapidEye영상을 실험대상으로 수행되었으며 제안방법의 성능검증은 정성적, 정량적 두 가지 방법으로 수행되었다. 영상정합의 재투영오차는 RapidEye GSD를 기준으로 1.277 (8.3 m)에서 1.608 (10.452 m)의 픽셀 정확도를 보였다. 즉, 결론적으로, 제안방법을 통해 이종해상도 위성영상의 영상정합 가능성을 확인하였다.