• 제목/요약/키워드: Robot skin

검색결과 60건 처리시간 0.025초

칼만 필터를 이용한 시청각 음원 정위 및 추적 (Audio-Visual Localization and Tracking of Sound Sources Using Kalman Filter)

  • 송민규;김진영;나승유
    • 한국지능시스템학회논문지
    • /
    • 제17권4호
    • /
    • pp.519-525
    • /
    • 2007
  • 최근 로봇 기술 및 응용에 대한 관심이 고조됨에 따라, 로봇의 청각기술에 대한 연구가 활발하다. 본 기술에서는 로봇 탑재용으로 인간 청각기능중 하나인 음원정위 및 추적기술에 대하여 논한다. 음원 정위 및 추적을 위하여 시청각 정보를 이용하였는데, 시각정보로는 얼굴색 기반 얼굴 탐지 정보를 이용하였으며, 양이(binaural) 기반의 음원 추정 정보가 청각 정보로서 활용되었다. 시각과 청각 정보는 Kalman 필터를 이용하여 통합하였다. 실험결과 시청각 음원 추적 기술은 일부 정보의 유실이 있을 때, 효과적으로 활용될 수 있음을 보였다.

로봇 손의 인공 피부형 접촉 센서의 개발 (Development of a Tactile Array Sensor Layered in Artificial Skin for Robot Hand)

  • 임미섭;오상록;이종원
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 1996년도 하계학술대회 논문집 B
    • /
    • pp.1272-1274
    • /
    • 1996
  • This paper presents the development of tactile sensor systems for robot hand which are truly usable, robust, reliable and cheap system. The sensor incorporates multiple sensing subsystems for detecting distributed contact forces and surface characteristics. The fabrication and experimental evaluation of the tactile system and its electric interfaces are described. The results indicate that the system provides reasonable performances for practical applications requiring manipulation with tactile feedback.

  • PDF

C-arm 영상 기반 척추 디스크 내시경 수술을 위한 가이드 바늘 삽입 보조 시스템 (Method for C-arm Based Guide Needle Insertion Assistant System for Endoscopic Disc Surgery)

  • 윤현민;조현철;박규식;신상균;이득희
    • 한국CDE학회논문집
    • /
    • 제20권3호
    • /
    • pp.263-268
    • /
    • 2015
  • Due to an increased sitting time in work, lumbar disc disease is one of the most frequent diseases in modern days, and this occasionally requires surgery for treatment. Endoscopic disc surgery, one of the common disc surgeries, requires a process of inserting a guide needle to the target disc for which the insertion path is manually planned by drawing lines on the patient's skin while monitoring the fluoroscopic view of the lumbar. Such procedure inevitably exposes both surgeon and patient to the fluoroscopy radiation emitted from the c-arm for a long time. To reduce the radiation exposure time, this study proposes a computer assisted method of calculating the 3D guide needle path by using 2D c-arm images of the disc in 3 different angles. Additionally, a method of the guide robot control based on the 3D needle path was developed by implementing the Hand-eye Calibration method to calculate the transformation matrix between the c-arm and robot base coordinate systems. The proposed system was then tested for its accuracy.

손 모양 인식을 이용한 모바일 로봇제어 (Mobile Robot Control using Hand Shape Recognition)

  • 김영래;김은이;장재식;박세현
    • 전자공학회논문지CI
    • /
    • 제45권4호
    • /
    • pp.34-40
    • /
    • 2008
  • 본 논문에서는 손 모양 인식을 이용한 비전기반의 모바일 로봇제어 시스템을 제안한다. 손 모양을 인식하기 위해서는 움직이는 카메라로부터 정확한 손의 경계선을 추출하고 추적하는 것이 필요하다. 이를 위해 본 논문에서는 초기 윤곽선 위치 및 경계에 강건하고, 빠른 물체를 정확히 추적할 수 있는 mean shift를 이용한 활성 윤곽선 모델(ACM) 추적 방법을 개발하였다. 제안된 시스템은 손 검출기, 손 추적기, 손 모양 인식기, 로봇 제어기 4가지 모듈로 구성된다. 손 검출기는 영상에서 피부색 영역으로 정확한 모양을 손으로 추출한 이후 활성 윤곽선 모델(ACM) 과 mean shift를 사용하여 손 영역을 정확히 추적한다. 마지막으로 Hue 모멘트에 이용하여 손의 형태를 인식한다. 제안된 시스템의 적합성을 평가하기 위하여 2족 보행로봇 RCB-1에서 실험이 수행되었다. 실험 결과는 제안된 시스템의 효율성을 증명하였다.

WebRTC를 이용한 육안 검사 및 청진용 원격진료 로봇 시스템 (Telemedicine robot system for visual inspection and auscultation using WebRTC)

  • 박재삼
    • 한국항행학회논문지
    • /
    • 제27권1호
    • /
    • pp.139-145
    • /
    • 2023
  • 의사가 병원에서 환자를 진찰할 때 의사는 환자의 상태를 직접 확인하고 환자와의 대화를 통해 대면 진단을 한다. 그러나 의사가 환자를 직접 진료하기 어려운 경우가 많다. 최근에는 여러 유형의 원격 의료 시스템이 개발되었다. 그러나 현존하는 많은 시스템이 심장질환, 목상태, 피부상태, 귀의 내부상태 등을 관찰할 수 있는 능력이 부족하다. 이러한 문제를 해결하기 위하여 본 논문에서는 환자의 육안 검사와 청진이 가능하도록 실내에서 자율주행이 가능한 대화형 원격진료 로봇 시스템을 개발한다. 개발된 로봇은 WebRTC 플랫폼을 통해 원격 제어가 가능하도록 다관절 로봇팔을 이용해 의사의 관찰 하에 환자에게 다가가 환자의 상태를 확인할 수 있다. 환자로부터 원격으로 얻은 영상 정보, 음성 정보, 환자의 심음 및 기타 데이터를 WebRTC 플랫폼을 통해 의사에게 전송할 수 있다. 개발된 시스템은 의사가 참석할 수 없는 다양한 장소에 적용이 가능하다.

Real time tracking of multiple humans for mobile robot application

  • Park, Joon-Hyuk;Park, Byung-Soo;Lee, Seok;Park, Sung-Kee;Kim, Munsang
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2002년도 ICCAS
    • /
    • pp.100.3-100
    • /
    • 2002
  • This paper presents the method for detection and tracking of multiple humans robustly in mobile platform. The perception of human is performed in real time through the processing of images acquired from a moving stereo vision system. We performed multi-cue integration such as human shape, skin color and depth information to detect and track each human in moving background scene. Human shape is measured by edge-based template matching on distance transformed image. Improving robustness for human detection, we apply the human face skin color in HSV color space. And we could increase the accuracy and the robustness in both detection and tracking by applying random sampling stochastic estimati...

  • PDF

호흡보호구 평가용 얼굴 로봇을 위한 한국인 얼굴 피부의 경도 측정 (The Measurement of Korean Face Skin Rigidity for a Robotic Headform of Respiratory Protective Device Testing)

  • 전은진;이아람;정영제;김희은;유희천
    • 한국의류산업학회지
    • /
    • 제25권2호
    • /
    • pp.248-254
    • /
    • 2023
  • This study aims to measure the skin rigidity of different facial areas among Koreans and propose guidelines for each area's skin rigidity that can be applied with a facial robot for testing respiratory protective devices. The facial skin rigidity of 40 participants, which included 20 men and 20 women, aged 20 to 50, was analyzed. The rigidity measurement was conducted in 13 facial areas, including six areas in contact with the mask and seven non-contact areas, by referring to the facial measurement guidelines of Size Korea. The facial rigidity was measured using the Durometer RX-1600-OO while in a supine position. The measurement procedure involved contacting the durometer vertically with the reference point, repeating the measurement of the same area five times, and using the average of three values whose variability was between 0.4 and 4.2 Shore OO. The rigidity data analysis used precision analysis, descriptive statistics analysis, and mixed-effect ANOVA. The analysis confirmed the rigidity of the 13 measurement areas, with the highest rigidity of the face being at the nose and forehead points, with values of 51.2 and 50.8, respectively, and the lowest rigidity being at the chin and center of the cheek points, with values of 19.2 and 20.7, respectively. Significant differences between gender groups were observed in four areas: the tip of the nose, the point below the chin, the area below the lower jaw, and the inner concha.

하지 화상 환자의 재활치료를 위한 보행보조 로봇훈련의 선행연구 (The Pilot Study of Robot-Assisted Training for the Lower Extremity Rehabilitation of Burn Patients)

  • 조윤수;노민혜;주소영;서정훈
    • 대한화상학회지
    • /
    • 제23권2호
    • /
    • pp.31-36
    • /
    • 2020
  • Purpose: Scar contracture influence the outcome of burn patients significantly. This study aims to investigate the feasibility of robot-assisted training for the lower extremity rehabilitation of burn patients. Methods: This pilot study was conducted on 7 burn patients for 8 weeks between January 2019 and November 2019. Two of 7 patients withdrew from this study because one had skin abrasion on the legs which thigh fastening devices were applied on and the other was not participate in the assessment at 4 weeks after training. Final 5 patients received gait training with SUBAR® and numeric rating scale (NRS), 6-minutes walking test, and range of motion in flexion and extension of knee and ankle joint were evaluated before training, 4 weeks and 12 weeks after training. Results: The subjects had a mean age of 51.8±98 years, mean total burn surface area of 30.8±13.7%, mean duration from injury to 1st assessment of 102.8±39.3 days. Anyone of 5 patients did not have musculoskeletal or cardiovascular side effects such as increased or decreased blood pressure or dizziness. The significant improvement in NRS, gait speed, and range of motion in knee extension and ankle plantarflexion after robotic training (all P<0.05). Conclusion: Robot-assisted training could be feasible for the rehabilitation of burn patients and it could improve muscle strength and range of motion in lower extremities, and gait function.

로봇의 시각시스템을 위한 동영상에서 칼라정보를 이용한 얼굴 추적 (Robot vision system for face tracking using color information from video images)

  • 정행섭;이주신
    • 한국항행학회논문지
    • /
    • 제14권4호
    • /
    • pp.553-561
    • /
    • 2010
  • 본 논문에서는 로봇의 시각시스템에 효과적으로 적용할 수 있는 얼굴 추적 방법을 제안하였다. 제안한 알고리즘은 동영상의 움직임 영역을 검출한 후 얼굴 영역을 추적한다. 동영상의 움직임 검출은 연속되는 2개의 프레임을 사용하여 차영상을 구한 후, 잡음을 제거하기 위한 방법으로 메디안 필터와 침식 및 팽창연산을 사용하여 움직임 영역을 검출한다. 움직임 영역에서 피부색을 추출하기 위하여 표본영상의 칼라 정보를 이용하였다. 칼라정보의 MIN-MAX값을 퍼지화 데이터로 멤버십 함수를 생성한 후, 유사도를 평가하여 피부색 영역과 배경영역을 분리하였다. 얼굴 후보영역에 대하여 CMY 칼라 공간 C 채널에서 눈을 검출하고, YIQ 칼라 공간 Q 채널에서 입을 검출하였다. 지식기반으로 검출된 눈과 입의 특징을 찾아가며 얼굴영역을 추적하였다. 실험영상으로는 10명 각각에 대하여 150프레임의 동영상 총 1,500프레임을 입력받아 실험한 결과, 1,435프레임의 영상에 대하여 움직임 영역이 검출되어 95.7%의 프레임 검출율을 보였으며, 1,401개에 대한 얼굴을 추적 97.6%의 우수한 얼굴 추적결과를 나타내었다.

로봇의 시각시스템을 위한 칼라영상에서 퍼지추론을 이용한 얼굴인식 (Robot vision system for face recognition using fuzzy inference from color-image)

  • 이주신
    • 한국정보전자통신기술학회논문지
    • /
    • 제7권2호
    • /
    • pp.106-110
    • /
    • 2014
  • 본 논문에서는 로봇의 시각시스템에 효과적으로 적용할 수 있는 얼굴인식 방법을 제안하였다. 제안한 알고리즘은 얼굴영상의 색상추출과 특징점을 이용하여 인식한다. 색상추출은 피부색, 눈동자색, 입술색의 차를 이용하였으며, 특징정보는 눈, 코, 입에서 추출된 특징점 사이의 거리, 거리 비율, 각도, 면적의 차를 특징 파라미터로 이용하였다. 특징 파라미터를 퍼지화 데이터로 멤버십 함수를 생성한 후, 유사도를 평가하여 얼굴을 인식하였다. 입력받은 정면 칼라 영상으로 실험한 결과 96%의 인식율을 나타내었다.