• 제목/요약/키워드: Time-of-Flight Camera

검색결과 74건 처리시간 0.03초

고속충돌 시험용 지능형 다중 카메라 시스템 개발 (Development of Intelligent Multiple Camera System for High-Speed Impact Experiment)

  • 정동택;박치영;진두한;김태연;이주연;이인석
    • 대한기계학회논문집A
    • /
    • 제37권9호
    • /
    • pp.1093-1098
    • /
    • 2013
  • 방탄소재로서 사파이어 재료가 대두되고 있지만 고속 충돌관련 동적거동 및 파괴특성에 관한 연구는 부족한 실정이다. 탄자와 취성세라믹재료간의 상호작용을 연구하기 위해서는 고화질의 초고속 연속영상이 필수적이다. 본 연구에서는 고속충돌 및 관통 현상을 순차적으로 촬영할 수 있는 장치를 개발하였다. 이 장치는 속도측정장치, 마이크로프로세서를 사용한 카메라 구동장치 그리고 다수의 CCD카메라로 이루어져있다. 선형배열센서를 사용한 속도측정장치는 직경 1-2 mm 탄자의 마하 3 속도를 측정할 수 있다. 발사된 탄자가 속도측정장치를 통과하면 속도와 시간이 측정되고 탄자가 비행하는 동안 카메라 구동장치가 정확한 충돌시간을 계산하여 다수의 카메라에 순차적으로 트리거 신호를 보내서 충돌 전후의 형상을 순차적으로 촬영한다. 정확한 충돌시간 예측을 못하면 고해상도의 사진촬영이 거의 불가능하다. 본 연구에서 개발된 정밀 촬영장치를 사용하여 고해상도의 영상을 확보할 수 있었다.

호흡 방법에 따른 한국무용 외발뛰기 동작의 운동역학적 분석 (The Biomechanical Analysis of a One-Legged Jump in Traditional Korean Dance According to Breathing Method)

  • 안주연;이경옥
    • 한국운동역학회지
    • /
    • 제25권2호
    • /
    • pp.199-206
    • /
    • 2015
  • Objective : The purpose of this study was to conduct a biomechanical analysis of a one-legged jump in a traditional Korean dance (Wae Bal Ddwigi) according to breathing method. Method : Participants for this study were 10 dancers with experience for at least 10 years in traditional Korean dance. Independent variables for this test were two different types of breathing methods. Dependent variables were ground reaction force and lower extremity kinematic variables. The jumping movement was divided into three separate stages, take off, flight, and landing. The subjects were asked a questionnaire regarding the degree of impact force and stability of landing posture after the experiment. The Kistler Force Plate (9281B, Switzerland) was used to measure ground reaction force. A digital camera was used to look into angles of each joint of the lower part of body. SPSS was used for statistical analysis via the dependent t-test(p<.05). Results : There were significant differences in jumping according to breathing method. The inhalation & exhalation method yielded significantly longer flight times combined with greater ground reaction force. The breath-holding method required more core flexion during landing, increasing movement at the hips and shoulders. Conclusion : Consequently, there was more flexion at the knee to compensate for this movement. As a result, landing time was significantly higher for breath-holding.

PID 제어 UAV를 이용한 발화 감지 시스템의 구현 (PID Controled UAV Monitoring System for Fire-Event Detection)

  • 최정욱;김보성;유제민;최지훈;이승대
    • 한국전자통신학회논문지
    • /
    • 제15권1호
    • /
    • pp.1-8
    • /
    • 2020
  • 사람의 손길이 닿지 않는 곳에 위험 상황이 발생하였다면 무인 비행체를 활용하여 그 상황의 규모와 위치를 파악하여 더 큰 피해를 줄일 수 있다. 이러한 점에서 착안하여 본 논문에서는 무인 비헹체가 원활한 호버링을 수행할 수 있도록 Beta Flight를 사용하여 Roll, Pitch, Yaw의 최솟값과 최댓값을 설정한 후 센서의 작동을 감지하여 기체의 기울기의 변화에 따라 센서의 PID 값을 설정하여 수평이 유지될 수 있도록 오차를 최소화하여 안전한 호버링을 할 수 있도록 하였다. 또한, 카메라는 Open CV를 활용하여 라즈베리파이 프로그램을 설치한 후 HSV 색상표를 활용하여 화원과 가장 가까운 색인 붉은색을 제외한 나머지 부분을 흑백 처리하는 필터링을 씌워 공중에서 감지한 영상을 실시간으로 수신할 수 있도록 하였다. 최종적으로 0.5~5m 높이에서 호버링이 가능하였으며 5m 높이에서 반지름이 5cm 인 붉은색 원을 인식할 수 있음을 확인하였다.

움직이는 관찰자용 3차원 디스플레이 방법 (3D Display Method for Moving Viewers)

  • 허경무;김명신
    • 전자공학회논문지CI
    • /
    • 제37권4호
    • /
    • pp.37-45
    • /
    • 2000
  • 본 논문에서는 관찰자의 위치가 변하더라도 이를 실시간 추적하여 관찰자의 시점에 정확히 대응하는 입체영상을 구현할 수 있는 방법을 제안하였다. 즉 고성능의 하드웨어 장비가 아닌, 일반적으로 사용되는 개인용 컴퓨터에서도 인간의 두 눈을 찾아내고 관찰자의 움직임을 추적할 수 있도록 하는 알고리즘을 제안하였으며, 또한 관찰자의 위치에 따라 달라지는 물체의 모습을 표현해 주기 위해 유한한 다수의 입력 영상 정보를 이용하여 입체 영상을 제작하고 관찰자의 위치 이동에 정확히 대응하는 영상을 디스플레이하는 방법을 제안하였다. 본 논문에서 제안한 방법을 통해 평균 0.39초의 짧은 시간내에 약 97.5%까지 정확히 두 눈의 위치를 찾을 수 있었으며, Fl6 모델을 사용하여 여러 관찰자의 시점에 대응하는 3차원 디스플레이 실험 결과를 보임으로써 본 방법의 우수함을 보였다. 그리고 실제 로봇을 이용하여 좌우 카메라로 얻은 좌우 영상과 인벤터를 통해 버퍼에서 렌더링되는 스테레오 영상과의 유사도를 측정하여, 관찰자의 시점에 대응하여 렌더링되는 3차원 영상이 최적의 시점 대응 영상임을 확인하였다.

  • PDF

이동통신망을 활용한 무인비행장치 기반 이미지 획득, 전처리, 전송 시스템 (UAV-based Image Acquisition, Pre-processing, Transmission System Using Mobile Communication Networks)

  • 박종홍;안일엽
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.594-596
    • /
    • 2022
  • 본 논문은 무인비행장치에 탑재된 카메라를 통해 획득한 고화질의 이미지를 무인비행장치 상에서 전처리를 하여 이동통신망을 통해 서버로 전송하기 위한 시스템 및 기법에 관한 것이다. 기존의 이미지 획득 서비스용 무인비행장치의 경우, 무인비행장치에 탑재된 카메라의 외부저장장치에 획득한 이미지를 저장하고, 비행이 완료된 이후에 저장장치를 직접 옮기는 방식으로 이미지를 확인하였다. 이러한 방식의 경우, 외부저장장치를 통해 직접적으로 이미지 데이터를 확인하기 전에는 이미지 획득이나 전처리가 제대로 수행되었는지 확인할 수 없다는 한계점이 존재한다. 또한 해당 데이터는 외부저장장치에만 저장되기 때문에 데이터의 공유가 번거롭다는 단점이 존재한다. 본 논문에서는 위와 같은 문제점을 해결하기 위하여, 원격에서 이미지를 실시간으로 확인 가능한 시스템을 제안한다. 더 나아가, 무인비행장치에서의 촬영을 통한 이미지 획득 외에 지오태깅과 같은 전처리와 이동통신망을 통한 전송까지 수행이 가능한 시스템 및 방법을 제안한다.

  • PDF

드론 LiDAR에 기반한 매핑 시스템의 고속도로 건설 현장 적용 사례 (Example of Application of Drone Mapping System based on LiDAR to Highway Construction Site)

  • 신승민;권오성;반창우
    • 한국산업융합학회 논문집
    • /
    • 제26권6_3호
    • /
    • pp.1325-1332
    • /
    • 2023
  • Recently, much research is being conducted based on point cloud data for the growth of innovations such as construction automation in the transportation field and virtual national space. This data is often measured through remote control in terrain that is difficult for humans to access using devices such as UAVs and UGVs. Drones, one of the UAVs, are mainly used to acquire point cloud data, but photogrammetry using a vision camera, which takes a lot of time to create a point cloud map, is difficult to apply in construction sites where the terrain changes periodically and surveying is difficult. In this paper, we developed a point cloud mapping system by adopting non-repetitive scanning LiDAR and attempted to confirm improvements through field application. For accuracy analysis, a point cloud map was created through a 2 minute 40 second flight and about 30 seconds of software post-processing on a terrain measuring 144.5 × 138.8 m. As a result of comparing the actual measured distance for structures with an average of 4 m, an average error of 4.3 cm was recorded, confirming that the performance was within the error range applicable to the field.

The study of environmental monitoring by science airship and high accuracy digital multi-spectral camera

  • Choi, Chul-Uong;Kim, Young-Seop;Nam, Kwang-Woo
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2002년도 Proceedings of International Symposium on Remote Sensing
    • /
    • pp.750-750
    • /
    • 2002
  • The Airship PKNU is a roughly 12 m (32 ft) long blimp, filled with helium, whose two-gasoline power(3hp per engine) are independently radio controlled. The motors and propellers can be tilted and are attached to the gondola through an axle and supporting braces. Four stabilizing fins are mounted at the tail of the airship. To fill in the helium, a valve is placed at the bottom of the hull. The inaugural flight was on jul. 31.2002 at the Pusan, S.korea Most environment monitoring system\ problem use satellite image. But, Low resolution satellite image (multi-spectral) : 1km ∼ 250 m ground resolutions is lows. So, detail information acquisition is hard at the complex terrain. High resolution satellite image (black and white) 30m : The ground resolution is high. But it is high price, visit cycle and delivery time is long So. We want make high accuracy airship photogrammetry system. This airship can catch picture Multi. spectral Aerial photographing (visible, Near infrared and thermal infrared), and High resolution (over 6million pixel). It can take atmosphere datum (Temperature (wet bulb, dew point, general), Pressure (static, dynamic), Humidity, wind speed). this airship is very Quickness that aircraft install time is lower than 30 minutes, it is compact and that conveyance is easy. High-capacity save image (628 cut per 1time (over 6million and 4band(R,G,B,NIR)) and this airship can save datum this High accuracy navigatin (position and rotate angle) by DGPS tech. and Gyro system. this airship will do monitor about red-tide, sea surface temperate, and CH-A, SS and etc.

  • PDF

GPS/INS에 의한 항공사진측량의 블럭조정 (Block Adjustment with GPS/INS in Aerial Photogrammetry)

  • 박운용;이강원;이재원;정공운
    • 한국측량학회지
    • /
    • 제22권3호
    • /
    • pp.285-291
    • /
    • 2004
  • GPS 및 GPS/INS를 이용한 항공사진측량 방법에서는 항공기에 탑재한 GPS 및 GPS/INS로 촬영 순간의 노출점의 위치와 회전각을 정확히 결정함으로써 외부표정요소 결정을 위한 지상기준점 측량을 생략하거나 또는 최소한의 기준점만을 사용하여 외부표정요소를 결정할 수 있으며, 이에 따라 지형도 제작에 대한 시간과 경비를 크게 절감할 수 있다. 본 연구에서는 수원에 실험지역을 설치하여 전통적 항공사진측량방법과 GPS 및 GPS/INS 항공 사진측량방법을 동시에 수행하고 세 방법의 결과를 비교하여 이들 방법들 간의 정확도를 평가하고자 하였다. 연구결과 전통적 항공사진측량에 비하여 GPS 및 GPS/INS 항공사진측량의 다양한 장점을 확인할 수 있었다. 특히, 외부표정에 필요한 지상기준점의 수는 약 70%~80%이상 절감할 수 있었다.

UAV를 이용한 경관분석 및 활용방안에 관한 기초연구 (Study of the UAV for Application Plans and Landscape Analysis)

  • 김승민
    • 한국전통조경학회지
    • /
    • 제32권3호
    • /
    • pp.213-220
    • /
    • 2014
  • 본 연구는 최근 급속한 기술발전이 이루어지고 있는 (UAV)를 활용하여 지형분석에 적용하기 위한 실험적 연구로 드론과 자동 경로비행에 필요한 시스템을 구축하였다. 구축된 시스템을 이용하여 경로비행의 안정성을 검토하였으며, Waypoint를 이용한 경로비행 촬영을 실시하여 유용성을 검증한 결과는 다음과 같다. 첫째, 9.3ha에 달하는 면적에 대해 경로비행을 실시한 결과 준비시간을 포함하여 실측시간이 총40여분 소요되었으며, 지상부에서 인가한 고도와 속도를 일정하게 유지하는 것을 알 수 있었다. 또한 경로비행 시 지상부에서 설정한 Waypoint 지점에서 정확하게 촬영임무를 수행하여, multicopter를 이용한 사진실측의 효율성을 확인하였다. 둘째, 일반 실측용 무인항공기에 비해 가볍고 저렴한 multicopter와 디지털카메라를 이용하여 촬영의 기동성과 경제성을 확인하였으며, 촬영된 사진데이터의 정합과 DEM, DXF파일의 추출을 통해 수치지형도 보다 정밀한 지형분석이 가능하여 multicopter를 이용한 지형실측의 가능성을 확인하였다. 셋째, 하천내부에 대한 고해상 정사영상사진(20Cm급)을 제작함으로써 하천변일대에 대한 식생과 지형의 변화 등에 대한 분석이 가능한 것을 확인하였다. 또한 촬영지점의 GPS좌표에 대한 데이터베이스를 통해 미세지형의 변화 등과 같은 경관변화와 하천변 일대 또는 수림지 등에 대한 식생변화 등을 지속적으로 모니터링 할 수 있는 기반이 마련 될 수 있을 것으로 판단된다. 넷째, 정사영상분석을 통해 만들어진 DEM은 지형분석 및 가시권 분석 등과 같은 경관분석에서 보다 심도 있는 연구에 활용될 수 있을 것이다. 특히 현재 정부에서 추진 중인 '3차원 국토공간 정보 구축사업'과 연계하여 역사문화자원에 대한 3차원 지형정보 제공 등에도 널리 활용 될 수 있을 것으로 판단된다. 본 연구는 UAV를 이용한 지형분석 및 활용방안에 대한 연구로 도시 및 하천 등 다양한 지형에 대한 분석이 가능할 뿐만 아니라 사적 및 명승 등의 경관관리에 대한 연구와 DSM구축에 따른 가시권 분석 등의 역사문화자원에 대한 관리에도 폭넓게 활용 될 수 있을 것으로 판단된다.

드론과 이미지 분석기법을 활용한 구조물 외관점검 기술 연구 (Study on Structure Visual Inspection Technology using Drones and Image Analysis Techniques)

  • 김종우;정영우;임홍철
    • 한국건축시공학회지
    • /
    • 제17권6호
    • /
    • pp.545-557
    • /
    • 2017
  • 이 연구는 사회 기반 구조물의 노후화에 대한 안전점검 기술분야에서 구조물 외관점검 기술의 효율적 대안에 관한 연구이다. 기존 육안점검 및 조사를 대신하여 산업용 드론과 딥 러닝기반의 이미지 분석 기법을 접목함으로써 막대한 인력과 시간소요 및 비용을 절감하고 높은 구역 및 돔 구조물의 접근 한계를 극복하고자 하였다. 구조물의 0.3mm 이상의 균열 손상을 검지할 수 있는 고 해상도 카메라와 라이다 센서, 임베디드 이미지 프로세서 모듈로 구성된 탑재체를 제작하여 산업용 드론에 탑재하였다. 이를 현장 시험에 적용하여 자동비행항법을 통해 시편의 손상 이미지를 촬영하였다. 또한 균열경을 이용하여 기존 육안 점검 방법으로 백태, 박리박락과 같은 면적형 손상과 선형 손상인 균열의 폭과 길이를 측정하여 최종 이미지 분석 검출 결과와 비교하고자 하였다. 촬영된 이미지 중 80장의 샘플을 골라 이미지 분석 기법을 적용하여 사전처리작업(pre-processing)-분리작업(segmentation)-특징점 추출작업(feature extraction)-분류 작업(Classification)-지도학습작업(supervised learning) 등의 과정을 거쳐 손상을 분리하고, 이를 딥러닝 기반 플랫폼으로 지도학습하여 분석 파라미터를 추출하였다. 지도학습을 수행하지 않은 임의의 이미지 샘플 60장을 신규로 추가하여 추출된 파라미터를 기반으로 이미지 분석을 수행한 결과, 손상 검출율의 90.5%로 나타났다.