• 제목/요약/키워드: 비젼 시스템

검색결과 387건 처리시간 0.027초

시나리오기반 로봇디자인 프로세스의 개발 (Development of Scenario-based Robot Design Process)

  • 김지훈;오광명;김명석
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.1354-1360
    • /
    • 2006
  • 최근 놀라운 성장을 거듭하고 있는 지능형 로봇(Intelligent Robot) 기술은 기존의 주요 활용 분야였던 산업현장이나 연구실과 같은 전문가적 영역을 넘어서 지능형 엔터테인먼트(Entertainment)로봇이나 청소기 로봇의 예에서 볼 수 있듯이 인간의 주요 일상 생활 공간인 가정이나 공공기관의 서비스 분야로 점차 그 활용 영역을 넓혀가고 있다. 학습 보조 교사 도우미 로봇의 개발은 초등학교 교육 현장이 당면하고있는 각종 현안들을 로봇의 활용을 통해서 해결하고자하는 실용적인 목적에서 출발 했다. 이러한 관점에서 볼때 로봇 디자이너의 역할은 전체 개발 프로세스의 말단부에서 로봇 시스템의 외장(Appearance)을 마무리하는 역할을 넘어서 구체적 로봇시스템의 개발에 선행하여 학습보조 교사 도우미 로봇의 잠재적 활용 주체인 학생, 교사, 학부모의 입장에서 각 주체들의 내재적, 외재적 욕구를 효과적으로 만족 시킬 수있는 활용 시나리오(Application Scenario)를 도출, 개발 프로세스 전반에 걸쳐 각 개발 주체들에게 일관된 비젼(vision)과 이미지(image)를 제시하는것이라고 생각되었다. 본연구에서는 학습보조 교사 도우미 로봇 디자인 과제에 있어서 사용자 관찰(User Observation), 유저 다이어리(User Diary), 포커스그룹 인터뷰(F.G.I)등을 바탕으로 로봇의 역할 모델중심, 서비스 영역 중심, 초등학교 교육이념 구현 중심 등 3가지의 서로 다른 컨셉의 로봇 활용 시나리오(Application Scenario)를 제안하였다. 본 연구 결과는 현재 초기 단계에 있는 로봇 디자인 분야의 현실을 감안할때 전체 로봇 개발 프로세스내에서의 향후 산업 디자인이 수행해야 할 역할을 명확하게 보여준다는 점에서 그 의의가 있으며 관련 분야의 연구 활성화에 기여할 것으로 기대된다.

  • PDF

증강현실을 위한 히스토그램 기반의 손 인식 시스템 (Histogram Based Hand Recognition System for Augmented Reality)

  • 고민수;유지상
    • 한국정보통신학회논문지
    • /
    • 제15권7호
    • /
    • pp.1564-1572
    • /
    • 2011
  • 본 논문에서는 증강현실을 위한 히스토그램 기반의 손 인식 기법을 제안한다. 손동작 인식은 사용자와 컴퓨터 사이의 친숙한 상호작용을 가능하게 한다. 하지만, 비젼 기반의 손동작 인식은 복잡한 손의 형태로 인한 관찰 방향 변화에 따른 입력 영상의 다양함으로 인식에 어려움이 따른다. 따라서 본 논문에서는 손의 형태적인 특징을 이용한 새로운 모델을 제안한다. 제안하는 기법에서 손 인식은 카메라로부터 획득한 영상에서 손 영역을 분리하는 부분과 인식하는 부분으로 구성된다. 카메라로부터 획득한 영상에서 배정을 제거하고 피부색 정보를 이용하여 손 영역을 분리한다. 다음으로 히스토그램을 이용하여 손의 특징점을 구하여 손의 형태를 계산한다. 마지막으로 판별된 손인식 정보를 이용하여 3차원 객체를 제어하는 증강현실 시스템을 구현하였다. 실험을 통해 제안한 기법의 구현 속도가 빠르고 인식률도 91.7%로 비교적 높음을 확인하였다.

룩업 테이블을 이용한 물체의 3-D 형상복원 (Real 3-D Shape Restoration using Lookup Table)

  • 김국세;이정기;송기범;김충원;이준
    • 한국정보통신학회논문지
    • /
    • 제8권5호
    • /
    • pp.1096-1101
    • /
    • 2004
  • 산업현장에서의 3-D 이미지의 활용은 영화, 애니메이션, 산업 디자인, 의학, 그리고 교육과 공학분야에서 많은 영향을 미치고 있다. 90년대부터 두 개의 영상을 이용하여 영상으로부터 깊이 정보를 추출하기 위한 활발한 연구가 진행되기 시작하면서 3-D 정보 획득에 관한 연구가 진행되었다. 3-D 정보를 획득하는 방법으로, Structured Light 기법은 제어할 수 있는 점, 선, 격자, 원모양의 광원을 대상물체에 투사하며, 대상물체에 형성된 실루엣을 시각센서로 3-D 정보를 추출하는 방식이다. 또 다른 Time of flight 방식은 초음파를 이용한 방법과 레이저를 이용한 방법이 있으며, 그 외에도 쌍안비젼, Shape from Shading, Surface from Texture 그리고 Focusing 등의 원리를 이용한 기법이 있다. 이런 방범들은 여러 어려운 점들이 있어 이를 감안하여 손쉽게 3-D 영상 이미지를 얻는 방법으로 3-D 정보를 얻기 위해 본 논문에서는 삼각측량 시스템을 만들어 룩업 테이블을 만든다. 3-D 정보를 가지고 있는 룩업 테이블을 통해 시스템 위에 있는 물체의 이미지 좌표와 대칭을 통해 3-D 정보를 획득하여 영상 이미지를 복원하는 방법을 고찰 연구하였다.

이동 로봇의 강인 위치 추정을 위한 단안 비젼 센서와 레이저 구조광 센서의 베이시안 센서융합 (Bayesian Sensor Fusion of Monocular Vision and Laser Structured Light Sensor for Robust Localization of a Mobile Robot)

  • 김민영;안상태;조형석
    • 제어로봇시스템학회논문지
    • /
    • 제16권4호
    • /
    • pp.381-390
    • /
    • 2010
  • This paper describes a procedure of the map-based localization for mobile robots by using a sensor fusion technique in structured environments. A combination of various sensors with different characteristics and limited sensibility has advantages in view of complementariness and cooperation to obtain better information on the environment. In this paper, for robust self-localization of a mobile robot with a monocular camera and a laser structured light sensor, environment information acquired from two sensors is combined and fused by a Bayesian sensor fusion technique based on the probabilistic reliability function of each sensor predefined through experiments. For the self-localization using the monocular vision, the robot utilizes image features consisting of vertical edge lines from input camera images, and they are used as natural landmark points in self-localization process. However, in case of using the laser structured light sensor, it utilizes geometrical features composed of corners and planes as natural landmark shapes during this process, which are extracted from range data at a constant height from the navigation floor. Although only each feature group of them is sometimes useful to localize mobile robots, all features from the two sensors are simultaneously used and fused in term of information for reliable localization under various environment conditions. To verify the advantage of using multi-sensor fusion, a series of experiments are performed, and experimental results are discussed in detail.

로그폴라 변환과 ZDF를 이용한 이동 물체 추적 스테레오 시스템 (Stereo System for Tracking Moving Object using Log-Polar Transformation and ZDF)

  • Yoon, Jong-Kun;Park, Il-;Lee, Yong-Bum;Chien, Sung-Il
    • 대한전자공학회논문지SP
    • /
    • 제39권1호
    • /
    • pp.61-69
    • /
    • 2002
  • 능동 스테레오 비젼 시스템은 목표물 판별을 위해서 간단한 연산만으로 작은 시차값을 가지는 특징들만을 통과시킴으로써 목표물 위치 측정을 가능케 한다. 그런데 이 간단한 방법은, 복잡한 배경이 포함되거나 시차가 영인 영역에 다른 물체들도 동시에 존재하면 적용이 어렵게 된다. 이러한 문제점들을 해결하기 위하여, 본 논문에서는 시야 중심 영역의 해상도는 높이고 일반적으로 중요도가 낮은 주변의 해상도는 감소시키는 포비에이션 기법을 필터링 방법과 결합시켰다 포비에이트 영상 표현을 위하여 영상 피라미드 또는 로그폴라 변환을 사용하였다. 또한 추적이 수행되는 동안에 스테레오 시차가 작은 값이 유지되도록 투영을 이용하여 스테레오 시차를 추출하였다. 실험 결과는 로그폴라 변환이 복잡한 배경으로부터 목표물을 분리하는 제안된 방법이 영상 피라미드 또는 기존 방법보다 우수하며, 추적성능을 상당히 개선함을 보여주고 있다.

가상현실과 결합된 로봇제어 시스템의 구현방법 (A Development of The Remote Robot Control System with Virtual Reality Interface System)

  • 김우경;김훈표;현웅근
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2003년도 추계종합학술대회
    • /
    • pp.320-324
    • /
    • 2003
  • 최근, 가상현실분야가 매우 다양하게 각 산업분야에서 응용되고 있다. 본 논문에서는 가상환경하에서 인터페이스 조작에 의하여 로봇의 움직임을 제어하였다. 3D Graphic Tool을 사용하여 가상로봇을 생성하고 생성된 가상로봇에 실제로봇의 텍스쳐를 입혀 X파일로 변환시켜 3차원 가상현실에 적용되는 Direct 3D Graphic의 Component들을 사용하여 실제로봇과 동일한 모습을 재현하였다. 또한 조이스틱을 통해서 가상로봇의 움직임을 표현하고 실제로봇을 제어했다. 개발된 로봇은 크게 로봇 제어부와 Host PC에서의 Visual I/F program으로 구성되어 있다. 개발된 로봇의 구동부와 Camera의 구동부는 2자유도를 갖고 있으며 사용자 친화적으로 개발된 조이스틱으로 원격조종된다. 외부 상황은 비젼 시스템과 초음파 센서로 인식되며, 화상 및 센서 데이터, 명령어 둥을 각각 900MHz와 447MHz RF로 통신된다. 사용자는 실제 로봇을 제어하기 위하여 시뮬레이터를 이용하여 로봇 제어 명령을 내리면 로봇을 구동하기 위한 원격 송/수신부에서 447MHz의 특정소출력국용 주파수를 사용하는 모듈을 통해 Half duplex 방식으로 4800bps로 실외 500m까지 제어한다.

  • PDF

Vision-based Real-time Lane Detection and Tracking for Mobile Robots in a Constrained Track Environment

  • Kim, Young-Ju
    • 한국컴퓨터정보학회논문지
    • /
    • 제24권11호
    • /
    • pp.29-39
    • /
    • 2019
  • 실생활에서의 모바일 로봇 응용이 증가하면서 저비용의 자율 주행 기능이 요구되고 있다. 본 논문은 모바일 로봇의 실내 주행 여건을 고려한 제한된 트랙을 가정하고, 제한된 트랙에서 모바일 로봇의 자율 주행을 지원하는 비젼 기반 실시간 차선 검출 및 추적 시스템을 제안한다. 다양한 형태의 차선 처리와 동작 파리미터의 사전 조정 등을 고려하여 다중 동작 모드를 가진 시스템 구조와 상태 기계를 설계하였으며, 파라미터 조정 모드에서 차선 두께의 기하학적 특성을 바탕으로 컬러 필터의 임계값을 동적으로 조정하고, 곡선 트랙의 불안정 입력 모드와 직선 트랙의 안정 입력 모드에서 차선의 기하학적 그리고 시간적 특성을 바탕으로 차선 특징 픽셀을 적응적으로 추출하고 최소제곱법으로 차선 모형을 추정한다. 추정된 차선 모형으로 트랙 중앙선을 산출하고 움직임 모형을 단순화시켜 선형 칼만 필터를 통해 추적한다. 주행 실험에서 저성능의 로봇 구성에서도 실시간 처리를 통해 제한된 트랙에서 정상적으로 자율 주행이 이루어짐을 확인하였다.

굴의 힌지 선 감지를 위한 영상처리 소프트웨어의 개발 (Image Processing Software Development for Detection of Oyster Hinge Lines)

  • 서정덕;후레트 휘튼
    • Journal of Biosystems Engineering
    • /
    • 제22권2호
    • /
    • pp.237-246
    • /
    • 1997
  • 굴 까는 작업을 자동화하기 위한 방법으로 굴의 껍질 안쪽에 붙어 있는 근육질을 제거하고 굴 껍질의 힌지(Hinge)를 절단하는 작업을 필요로 한다. 본 논문에서는 굴을 까는 자동화 기계를 개발하기 위한 연구의 일환으로써 컴퓨터 시각 시스템을 이용하여 굴의 힌지 위치를 판단하는 영상처리 알고리즘을 개발하였다. 본 실험에 사용한 굴들은 컴퓨터 비젼 시스템이 굴의 바깥쪽 힌지표면을 감지할 수 있도록 굴을 물로 씻은 후굴 껍질의 힌지(Hinge)부분을 약간 절단하였다. 칼라 비디오 카메라(color video camera)를 이용하여 굴의 절단된 힌지표면의 영상을 잡은 후 개발한 영상처리 알고리즘을 이용하여 굴의 힌지(hinge)위치를 감지하였다. 영상내의 굴의 힌지(Hinge)와 그 밖의 다른 물체를 구별하기 위하여 4개의 변수 (원형도, 사각형도, 장단축비, 유크리드(Euclidian)거리 )를 이 용하였다. 또한 영상(image)내 의 굴의 힌지(Hinge) 위치를 쉽고 효과적으로 파악하기 위하여 몇 가지 영상처리 즉, 수축-확장, 문턱갑 처리 등의 방법들을 이용하였다.

  • PDF

전방향 환경인식에 기반한 지능형 운전자 보조 시스템 (Intelligent Driver Assistance Systems based on All-Around Sensing)

  • 김삼용;강정관;류영우;오세영;김광수;박상철;김진원
    • 대한전자공학회논문지TC
    • /
    • 제43권9호
    • /
    • pp.49-59
    • /
    • 2006
  • 운전자 보조시스템은 운전자가 좀 더 편리하고 안전하게 주행할 수 있도록 주행 정보나 위험 경보를 주거나 적극적인 개입을 통해서 안전사고를 방지할 수 있는 시스템이다. 차선이탈경보, 전후방 충돌경보와 같이 특정한 기능을 갖는 현재의 운전자 보조시스템은 비젼과 거리 센서의 가격 대비 처리성능의 향상으로 통합된 기능성과 HMI (Human-Machine Interface)를 갖는 지능형 운전자 보조시스템으로 발전할 것이다. 본 논문은 2대의 카메라와 8대의 초음파센서를 각각 차량의 전후방과 주변에 설치하여 주행 중인 차량의 환경정보인 실선과 점선의 차선 정보, 사각을 제거한 전방향의 차량의 위치정보를 추출하여 운전자가 전방향의 주행상황을 쉽게 인지할 수 있는 조감영상과 음성충돌경보를 제공하는 지능형 운전자 보조시스템을 제안한다.

PCA와 HMM을 이용한 실시간 립리딩 시스템의 설계 및 구현 (Design and Implementation of a Real-Time Lipreading System Using PCA & HMM)

  • 이지근;이은숙;정성태;이상설
    • 한국멀티미디어학회논문지
    • /
    • 제7권11호
    • /
    • pp.1597-1609
    • /
    • 2004
  • 립리딩은 잡음 환경에서 저하되는 음성 인식률의 보상과 음성을 청취하기 어려운 상황에서의 음성인식보조 수단으로 많은 연구가 시도되고 있다. 기존 립리딩 시스템은 인위적인 조명 환경이나 얼굴과 입술 추출을 위하여 미리 정해진 제한된 조건에서 실험되어 왔다. 본 논문에서는 화자의 움직임이 허용되고 컬러나 조명과 같은 환경 변화에 제한조건을 완화한 영상을 이용하여 실시간 립리딩 시스템을 구현하였다. 본 논문의 시스템은 범용으로 사용되는 PC 카메라를 통해 입력받은 영상에서 얼굴과 입술 영역을 실시간으로 검출한 후, 립리딩에 필요한 영상정보를 추출하고 이 입술 영상 정보를 이용하여 실시간으로 발성 단어를 인식할 수 있다. 얼굴과 입술 영역 검출을 위하여 조명환경에 독립성을 갖는 색도 히스토그램 모델을 이용하였고 움직이는 화자의 얼굴 추적을 위하여 평균 이동 알고리즘을 이용하였다. 검출된 입술 영역에서 학습과 인식에 필요한 영상 정보를 추출하기 위하여 PCA(Principal Component Analysis)를 사용하였고, 인식 알고리즘으로는 HMM을 이용하였다. 실험 결과 화자종속일 경우 90%의 인식률을 보였으며 잡음이 있는 음성과 합병하여 인식률 실험을 해 본 결과, 음성 잡음비에 따라서 음성 인식률을 약 40~85%까지 향상시킬 수 있었다.

  • PDF