• 제목/요약/키워드: 기계시각 시스템

검색결과 142건 처리시간 0.052초

가상현실 기반 안전대응 훈련 시뮬레이터를 위한 훈련평가 시스템의 설계 (Development of training assessment system for emergency response training simulator)

  • 이재경;허영철
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2014년도 추계학술발표대회
    • /
    • pp.1181-1182
    • /
    • 2014
  • 가상현실 기반 훈련 시뮬레이터는 현실에서 재현이 어렵거나 불가능한 상황을 가상공간 상에 구현하여 훈련을 수행할 수 있는 시스템이다. 화학공장, 플랜트 등 대형 기계설비 내에서 발생하는 각종 사고에 대한 대응훈련은 훈련시간 및 비용 증가, 훈련자의 안전 확보가 어렵고 반복적인 훈련 및 평가가 어렵기 때문에 가상현실을 이용한 훈련 시뮬레이터를 통하여 수행되는 것이 바람직하다. 본 논문에서는 대형 기계설비 안전대응 훈련 시뮬레이터의 훈련자 평가 시스템을 설계하였다. 훈련의 정량적인 평가를 위하여 훈련 시나리오 내 임무수행 여부, 수행시간/거리에 대한 평가와 함께 특정 훈련동작에 대한 평가를 실시하기 위하여 모션캡쳐 데이터를 활용한 훈련동작 평가 모듈을 설계하였다. 평가 결과의 시각화를 통해 훈련자 피드백 제공 및 반복적인 훈련 수행을 통한 안전대응 능력 향상이 가능하다.

가상현실 기반 안전대응 훈련 시뮬레이터를 위한 훈련평가 시스템 개발 (Development of training assessment system for emergency response training simulator)

  • 이재경;허영철
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2015년도 추계학술발표대회
    • /
    • pp.1811-1812
    • /
    • 2015
  • 대형화, 복잡화 되어가는 대형 기계설비의 위험상황에 대한 실제 훈련은 소요시간 및 비용 증가, 훈련자 안전 확보의 어려움, 반복적인 훈련 및 평가가 어렵기 때문에 가상현실을 이용한 훈련 시뮬레이터가 대안으로 제시되고 있다. 본 논문에서는 대형 기계설비 안전대응 시뮬레이터에서 수행된 훈련에 대한 훈련자 피드백 및 평가를 위하여 개발된 시스템을 소개한다. 가상현실 기반 훈련 시뮬레이터에서 수행한 훈련결과 데이터를 활용하여 훈련 시나리오 내 임무수행 여부, 수행시간/거리에 대한 정량적 평가와 함께 훈련자의 훈련동작 데이터와 표준동작과의 비교를 통하여 효율적인 훈련을 위한 피드백을 수행할 수 있다. 또한 평가 결과의 시각화를 통해 직관적인 훈련개선이 가능하도록 하였다. 개발된 훈련평가 시스템을 활용하여 효과적인 훈련자 피드백 제공 및 반복적인 훈련 수행을 통한 안전대응 능력 향상이 가능할 것으로 판단된다.

차세대 RNSS 감시국을 위한 고장 검출 알고리즘 개발 방안 (Development Approach of Fault Detection Algorithm for RNSS Monitoring Station)

  • 정다님;이수민;이찬희;김의호;최헌호
    • 한국항행학회논문지
    • /
    • 제28권1호
    • /
    • pp.1-14
    • /
    • 2024
  • 위치, 항법 및 시각정보 서비스를 제공하는 위성항법시스템은 위성시스템, 지상시스템, 사용자시스템으로 구성된다. 지상시스템의 구성요소인 감시국은 위성항법시스템의 서비스 제공 및 고장 검출을 위해, 위성항법 신호를 연속적으로 수집하고 위성의 SIS (signal-in-space) 고장과 수신기 및 다중반사파를 포함한 Local 고장과 같은 신호 이상을 검출하여 수신한 데이터와 검출 결과를 중앙처리국으로 전송하는 역할을 한다. 본 논문에서는 기존 위성항법시스템 감시국의 수신한 위성 신호에 대한 품질 판단 및 고장 검출을 위한 주요 모니터와 측정치 전처리 과정을 소개하고, 이를 활용하여 차세대 지역 위성항법시스템 (RNSS; regional navigation satellite system) 감시국의 구성요소와 아키텍처 및 알고리즘 개발 방안을 제시하였다.

ChatGPT 기반 한국어 Vision-Language Pre-training을 위한 고품질 멀티모달 데이터셋 구축 방법론 (High-Quality Multimodal Dataset Construction Methodology for ChatGPT-Based Korean Vision-Language Pre-training)

  • 성진;한승헌;신종훈;임수종;권오욱
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.603-608
    • /
    • 2023
  • 본 연구는 한국어 Vision-Language Pre-training 모델 학습을 위한 대규모 시각-언어 멀티모달 데이터셋 구축에 대한 필요성을 연구한다. 현재, 한국어 시각-언어 멀티모달 데이터셋은 부족하며, 양질의 데이터 획득이 어려운 상황이다. 따라서, 본 연구에서는 기계 번역을 활용하여 외국어(영문) 시각-언어 데이터를 한국어로 번역하고 이를 기반으로 생성형 AI를 활용한 데이터셋 구축 방법론을 제안한다. 우리는 다양한 캡션 생성 방법 중, ChatGPT를 활용하여 자연스럽고 고품질의 한국어 캡션을 자동으로 생성하기 위한 새로운 방법을 제안한다. 이를 통해 기존의 기계 번역 방법보다 더 나은 캡션 품질을 보장할 수 있으며, 여러가지 번역 결과를 앙상블하여 멀티모달 데이터셋을 효과적으로 구축하는데 활용한다. 뿐만 아니라, 본 연구에서는 의미론적 유사도 기반 평가 방식인 캡션 투영 일치도(Caption Projection Consistency) 소개하고, 다양한 번역 시스템 간의 영-한 캡션 투영 성능을 비교하며 이를 평가하는 기준을 제시한다. 최종적으로, 본 연구는 ChatGPT를 이용한 한국어 멀티모달 이미지-텍스트 멀티모달 데이터셋 구축을 위한 새로운 방법론을 제시하며, 대표적인 기계 번역기들보다 우수한 영한 캡션 투영 성능을 증명한다. 이를 통해, 우리의 연구는 부족한 High-Quality 한국어 데이터 셋을 자동으로 대량 구축할 수 있는 방향을 보여주며, 이 방법을 통해 딥러닝 기반 한국어 Vision-Language Pre-training 모델의 성능 향상에 기여할 것으로 기대한다.

  • PDF

어라운드 뷰 기반의 원격 로봇 제어 시스템 (Remote Robot Control System based on Around View)

  • 김효빈;정우성;전세웅
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2012년도 제46차 하계학술발표논문집 20권2호
    • /
    • pp.449-452
    • /
    • 2012
  • 본 논문에서는 인간이 환경에 대한 상황을 직접적으로 파악할 수 있는 시각 정보를 제공하기 위해 다중 카메라를 이용한 사용자 시각기반 어라운드 뷰를 개발하였다. 4대의 하향식 경사 카메라를 통하여 영상을 획득하고 켈리브레이션한다. 렌즈의 왜곡을 보정하고 호모그라피 행렬을 계산하여 지표면과 수평이 되는 관점으로 영상을 변환한다. 그 결과 사용자에게 종합적 상황정보 획득이 용이하도록 정보화하기 위한 위성 영상 관점의 정보를 획득할 수 있다. 그리고 4대의 카메라를 동시에 사용하기 위한 하드웨어적 한계를 극복하고자 영상처리가 가능한 임베디드 카메라 모듈을 개발하였다. 사용자-로봇 상호작용을 위해 버튼 및 조이스틱과 같은 기계적 입력장치를 사용하지 않고 사용자의 자연스러운 제스처를 통하여 제어 명령을 입력할 수 있는 터치 패드를 사용하여 사용자 인터페이스를 구축하였다. 개발한 시스템은 시 공간적 한계를 극복하고 원격에서 로봇의 상황정보를 획득하여 사용자 친화적인 로봇제어를 할 수 있다. 위의 내용들을 검증하기 위하여 같은 상황 환경에서의 기존의 시스템과 비교 실험을 진행하였고 실험 결과를 통하여 제안한 시스템의 효용성을 검증하였다.

  • PDF

3차원 좌표계 위치 인식을 위한 동적 스테레오 비젼시스템 개발 (The Dynamic Stereo Vision System for Recognizing a Position in the 3-D Coordinates)

  • 서광욱;민병로;김웅;김동우;이창우;이대원
    • 한국농업기계학회:학술대회논문집
    • /
    • 한국농업기계학회 2003년도 동계 학술대회 논문집
    • /
    • pp.478-483
    • /
    • 2003
  • 대상물의 인식 및 위치 검출에는 영상처리기술이 많이 응용되고 있다. 로봇의 작업성능은 대상물의 위치를 얼마나 정확하게 인식하고 검출하느냐가 가장 중요하다. 그러나 작업현장에서 대상물의 배치, 크기 및 형상 등이 일정하지 않고 작업환경 또한 다양하여 외부의 영향을 많기 받기 때문에 정확한 로봇의 시각장치 개발은 매우 중요하다. 영상 시스템을 이용하여 작업하고자 하는 대상체의 3차원 위치 정보를 얻기 위해서 가장 널리 쓰이고 있는 방법이 카메라 2대를 이용할 스테레오 비전이다 하지만 정확한 3차원 정보를 얻기 위해서 세밀한 보정이 필요한 실정이며 보정에 있어서도 두 카메라의 물리적 특성에 의한 오차가 발생한다. (중략)

  • PDF

Vision System을 이용한 사출제품의 길이 측정용 시각검사 System 개발 (The Development of Visual Inspection for Length Measurement of Injection Product Using Vision System)

  • J.Y. Kim;B.S. Oh;S. You
    • 한국정밀공학회지
    • /
    • 제14권11호
    • /
    • pp.126-134
    • /
    • 1997
  • In this study, We made visual inspection system using Vision Board. It is consist of an illuminator (a fluorescent lamp), image input device (CCD (Charge-Coupled Device) camera), image processing system(Vision Board(FARAMVB-02)), image output device (video monitor, printer), and a measuring instrument(TELMN1000). Length measurement by visual inspection system make use of 100mm guage block(instead of calculating distance between a camera and a object). It measured horizontal and vertical length factor from 400mm to 650mm by increasing 50mm. In this place, measured horizontal and vertical length factor made use of length measure- ment of a injection. A measuring instrument used to ompare a measured length of a injection visual inspection system with it. In conclusion, length measurement of a injection compared a measuring instrument with visual inspecion system using length factor of 100mm gauge block. We find that maximum error of length is 0.55mm when it compar with the measuring value of two devices(FARAMVB-02, TELMN1000). Program of visual inspection system is made up Borland C++3.1.

  • PDF

기계시각을 이용한 풋고추 선별기 개발(II) - 자동공급장치와 배출장치 개발 및 시스템 성능평가 - (Development of a Grader for Green Pepper Using Machine Vision (II) - Development of Automatic Feeder and Discharge Unit and Evaluation of System Performance -)

  • 조남홍;박종률;이수희;이영희;조광환;장동일;황헌;최승묵
    • 한국농업기계학회:학술대회논문집
    • /
    • 한국농업기계학회 2003년도 하계 학술대회 논문집
    • /
    • pp.334-340
    • /
    • 2003
  • 풋고추의 재배면적은 시설채소 면적이 증가하면서 연중 생산이 가능하게 되어 급속히 증가하고 있으며 신선 채소류에 대한 선호도가 늘어나면서 풋고추의 소비량이 늘어나고 있다. 2001년 현재 고추의 시설재배 면적은 5,517㏊로써 과채류 시설재배면적의 10%를 차지하고 있다. 재배지역별로는 경남, 전남, 광주, 충남지역이 전체 재배면적의 73%를 차지하고 있으며 풋고추는 시설재배로 대부분이 주산단지로 이루어져 있어 선별작업기계화가 요망되고 있다. 이와 같이 풋고추선별에 대한 기계화 요구도가 높은 반면 아직까지 풋고추의 선별작업은 전적으로 인력에 의존하므로 많은 노동력이 소요되며 작업능률이 낮고 육안에 의존하기 때문에 정확한 크기선별이 곤란한 실정이다. 또한 고추의 선별ㆍ포장에 소요되는 작업노력으로 인하여 주산지별로 선택ㆍ포장 작업의 기계화 요구도가 높다. (중략)

  • PDF

디스플레이형 자판기 사용자 분석을 위한 이중 단계 검출 및 분류 망 (2-Stage Detection and Classification Network for Kiosk User Analysis)

  • 서지원;김미경
    • 한국정보통신학회논문지
    • /
    • 제26권5호
    • /
    • pp.668-674
    • /
    • 2022
  • 시각 정보를 이용한 기계 학습 기술은 주변 상황 인지, 결함 감지, 보안 그리고 사용자 분석과 같이 산업, 서비스 분야에서 활용성이 높아졌다. 그 중 CCTV 영상 분석을 통한 사용자 분석은 시각 정보를 잘 활용하는 실용적인 부분이라고 할 수 있다. 또한 이러한 임베디드 환경에서의 실용성을 높이기 위한 신경 회로망 경량화에 대한 연구가 지속되고 있다. 본 논문에서는 디스플레이형 자판기인 키오스크에서 활용할 수 있는 사람 및 얼굴 검출과 사용자의 나이 및 성별 분류 시스템을 제안한다. 제안하는 모델은 MobileNet, YOLOv2, 생략 연결을 기반으로 설계되었으며, 검출과 분류 망을 개별적으로 학습한 뒤 결합한 2-stage 구조를 띈다. 또한 주의 집중 기법을 사용하여 시스템의 성능을 향상시키고자 하였다. 제안하는 시스템에 대한 구동과 성능 평가는 소형 그래픽 처리 유닛인 Nvidia Jetson Nano에서 진행하였다.

청각 장애인 PM 이용자를 위한 소리 위치 시각화 지능형 제어 시스템 개발 (Development of sound location visualization intelligent control system for using PM hearing impaired users)

  • 조용현;최진영
    • 융합보안논문지
    • /
    • 제22권2호
    • /
    • pp.105-114
    • /
    • 2022
  • 본 논문은 퍼스널 모빌리티(Personal Mobility, PM)를 이용하는 청각 장애인에게 소리가 발생하는 도래각(Direction of Arrival, DOA)을 시각화하는 지능형 제어 시스템을 제시하며 도로에서 발생하는 경보음, 크락션 등 소리로 인한 위험한 상황들을 인지하고 예방하고자 한다. 소리 위치 추정 방법은 GCC-PHAT(Generalized Cross-Correlation Phase Transform) 기반 도착 지연 시간(Time Difference of Arrival, TDOA)을 특징으로 갖는 머신러닝 분류 모델을 사용한다. 도로 상황을 재현한 실험 환경에서 각각 풍속 0, 5.8, 14.2, 26.4km/h의 조건에 따라 학습 데이터를 추출한 후 학습한 4가지 분류 모델들을 Grid search cross validation으로 비교하며 성능이 가장 우수한 MLP(Multi-Layer Perceptron) 모델을 알고리즘으로 적용하였다. 최종적으로 바람이 발생하였을 때 제안된 알고리즘이 평균 90.7%의 정확도를 나타내었으며, 이는 기존의 일반적인 소리 위치 추정기법보다 평균 7.6-11.5% 정도의 성능 향상을 보이는 것이다.