• Title/Summary/Keyword: 사물 인지

Search Result 216, Processing Time 0.032 seconds

Grasping a Target Object in Clutter with an Anthropomorphic Robot Hand via RGB-D Vision Intelligence, Target Path Planning and Deep Reinforcement Learning (RGB-D 환경인식 시각 지능, 목표 사물 경로 탐색 및 심층 강화학습에 기반한 사람형 로봇손의 목표 사물 파지)

  • Ryu, Ga Hyeon;Oh, Ji-Heon;Jeong, Jin Gyun;Jung, Hwanseok;Lee, Jin Hyuk;Lopez, Patricio Rivera;Kim, Tae-Seong
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.11 no.9
    • /
    • pp.363-370
    • /
    • 2022
  • Grasping a target object among clutter objects without collision requires machine intelligence. Machine intelligence includes environment recognition, target & obstacle recognition, collision-free path planning, and object grasping intelligence of robot hands. In this work, we implement such system in simulation and hardware to grasp a target object without collision. We use a RGB-D image sensor to recognize the environment and objects. Various path-finding algorithms been implemented and tested to find collision-free paths. Finally for an anthropomorphic robot hand, object grasping intelligence is learned through deep reinforcement learning. In our simulation environment, grasping a target out of five clutter objects, showed an average success rate of 78.8%and a collision rate of 34% without path planning. Whereas our system combined with path planning showed an average success rate of 94% and an average collision rate of 20%. In our hardware environment grasping a target out of three clutter objects showed an average success rate of 30% and a collision rate of 97% without path planning whereas our system combined with path planning showed an average success rate of 90% and an average collision rate of 23%. Our results show that grasping a target object in clutter is feasible with vision intelligence, path planning, and deep RL.

A Way of Advanced Life Safety with State Inference in the Internet of Things (사물인터넷 환경에서 보행자 상태추정을 포함하는 생활안전 보장)

  • Suh, Dong-Hyok;Kim, Sung-Gil
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.11 no.2
    • /
    • pp.237-244
    • /
    • 2016
  • There are two destinations to aware the risk of common life. Recognition of the condition of pedestrian's own and the environmental factor awareness both are beneficial for risk awareness. It is good way of advancing the crime prevention effectivity that including IoT technology at the crime prevention research. The purpose of this research is that advanced way of crime prevention with multi-sensor data fusion of the condition of pedestrian and environmental factors. The 3-axis acceleration sensor is available to recognize the gait and the illumination sensor also useful to infer the road state. This research suggest a novel way of assess these factors and the result is the degree of danger.

Development of Sensor Data-based Motion Prediction Model for Home Co-Robot (가정용 협력 로봇의 센서 데이터 기반 실행동작 예측 모델 개발)

  • Yoo, Sungyeob;Yoo, Dong-Yeon;Park, Ye-Seul;Lee, Jung-Won
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.05a
    • /
    • pp.552-555
    • /
    • 2019
  • 디지털 트윈이란 현실 세계의 물리적인 사물을 컴퓨터 상에 동일하게 가상화 시키는 기술을 의미하는 것으로, 물리적 사물이나 시스템을 모델링하거나 IoT 기술에 접목되어 활용되고 있는 기술이다. 디지털 트윈 기술은 가상의 모델을 무한정 시뮬레이션을 통해 동작을 튜닝하고 환경변화에 대한 대응을 미리 실험하여 리스크를 최소화할 수 있는 장점을 지닌다. 최근 인공지능이나 기계학습에 관련된 기술들이 주목받기 시작하면서, 이와 같은 물리적인 사물의 모델링 작업을 데이터 기반으로 수행하려는 시도가 증가하고 있다. 특히, 산업현장에서 많이 활용되는 인더스트리 4.0 공장 자동화의 핵심인 협력 로봇의 디지털 트윈을 구축하기 위해서는 로봇의 동작을 인지하는 과정이 필수적으로 요구된다. 그러나 현재 협력 로봇의 동작을 인지하기 위한 시도는 미비하며, 센서 데이터를 기반으로 동작을 역으로 예측하는 기술은 더욱 그렇다. 따라서 본 논문에서는 로봇의 동작을 인지하기 위해 가정용 협력 로봇에서 전류 및 관성 데이터를 수집하기 위한 실험 환경을 구축하고, 수집한 센서 데이터를 기반으로 한 동작 예측 모델을 제안하고자 한다. 제안하는 방식은 로봇의 동작 명령어를 조인트 위치 기반으로 분류하고 전류와 위치 센서 값을 사용하여 학습을 통해 예측하는 방식이다. SVM 을 이용하여 학습한 결과, 모델의 성능은 평균적으로 정확도, 정밀도, 및 재현율이 모두 96%로 평가되었다.

사물인터넷 환경에서의 기계학습

  • Im, Jae-Hyeon;Park, Yun-Gi;Gwon, Jin-Man;Seo, Jeong-Uk
    • Information and Communications Magazine
    • /
    • v.33 no.5
    • /
    • pp.48-54
    • /
    • 2016
  • 우리는 물리적인 현실 세계와 디지털의 가상 세계에서 매일 끊임없이 데이터를 양산해내고 있다. 구글, 아마존, MS, IBM 등의 유수 기업들은 이미 데이터를 수집하고 분석하여 특정 사용자나 불특정 다수에게 다양한 서비스를 제공하면서 새로운 형태의 이윤을 창출하고 있다. 가까운 미래에 사물인터넷(Internet of Things)이 본격적으로 활성화된다면 사람뿐만 아니라 모든 사물들이 인터넷을 통해 데이터를 양산하고 서로 교환하는 그야말로 데이터 빅뱅의 시대가 도래할 것으로 예상된다. 이러한 변혁의 시대에 우리는 사물인터넷을 통해 수집되는 수많은 데이터를 어떻게 활용할 것인지에 대해 진지하게 고민하고 연구할 필요가 있다. 본고에서는 사물인터넷을 통해 수집된 데이터를 효과적으로 활용하기 위해 필요한 핵심기술 중 하나인 기계학습(Machine Learning)에 대해 기본 개념, 종류, 평가방법 등을 설명하고 기계학습 알고리즘 중 딥 러닝(Deep Learning)에 대한 기술 동향을 살펴본 후, 사물인터넷에서 기계학습 프레임워크에 대해 간략히 소개한다.

MPEG-IoMT Transaction Process based on Blockchain (블록체인 기반의 MPEG-IoMT 거래 프로세스)

  • Lee, Gyeong-Sik;Kim, Sang-Gyun
    • Broadcasting and Media Magazine
    • /
    • v.23 no.3
    • /
    • pp.78-84
    • /
    • 2018
  • 최근 IoT 산업의 발달로 각 산업의 특색에 맞는 IoT 생태계를 구축하려는 옴직임이 활발하다. 이에 ITU-T, ISO, IEEE 등 여러 국제 표준화 기구에서는 완전 개방적인 사물 인터넷을 위해 공통된 표준의 필요성을 인지하고 활발히 논의 중이다. 특히, MPEG-IoMT(Internet of Media Things)에서는 탈중앙화된 미디어사물인터넷 시스템 구성을 위해 블록체인을 적용하려는 논의가 진행 중이다. 이에 본 투고에서는 블록체인과 MPEG에서 진행 중인 IoMT 프로젝트의 연관성에 대해 설명하고, 블록체인 기반의 미디어사물 간 거래 프로세스를 설명한다.

Interactive Art using a Sensing task of Motion Tracking (모션 트레킹의 센싱화 작업을 이용한 인터랙티브 아트)

  • Lee, Jun-Eui;Bae, Seong-Joon;Kim, Hyeong-Gi
    • 한국HCI학회:학술대회논문집
    • /
    • 2006.02b
    • /
    • pp.442-449
    • /
    • 2006
  • 탈 장르화와 영상의 다양화로 예술에서의 표현의 한계는 극대화 되고 있으며, 디지털 매체를 통한 인터랙션 역시 디지털 아트에서의 보편적인 표현 방법으로 전환 되었다. 예술에서의 상호작용은 보여주는 것에서 참여하는 것으로의 전환을 꿰 하고 있고, 디지털을 기반으로 한 다매체, 다중화가 이를 뒷받침 한다. 상호작용을 위한 디지털 아트 작품을 위해서는 센서를 이용한 표현방법들이 있으나, 기타의 센서도구를 사용치 않고, 단지 카메라로부터 입력된 신호만을 기반으로 영상과 관객의 상호작용을 끌어 낼 수 있다. 이를 위해서는 모션트레킹을 위한 알고리즘을 응용함으로써 사물의 밝기 값에 충족한 데이터를 만들어 낼 수 있고 그에 해당하는 밝기의 변환 값을 이용해 미세한 사물의 변화를 감지 할 수 있는 것이다. 이런 일련의 영상작업을 위해서는 사물의 움직임과 반복성을 얼마만큼 인지하고 감지 해내느냐고 관건인데, 다시 말해 한번 측정한 움직임이 있는 사물의 데이터도 프로그램상에서 계속하여 인지가 되어야 하고, 그 데이터 값을 영상으로 반환하여야 하는데, 이는 영상의 지속적인 변화를 가져 올 수 있다는 걸 의미한다. 따라서 본 논문에서는 모션 트래킹의 기본 알고리즘을 제시하고 영상작품과 인턱래션작품의 변환를 위해 사용된, 센서 대체도구인 웹 캠의 데이터 즉, 색상 값과 밝기 값을 적절하게 활용함으로써 표현의 다양성을 이끌어 내고 디지털 인터랙티브 작품으로써의 제작을 꾀하고자 한다.

  • PDF

Mask R-CNN based Priority Object Image Stitching (Mask R-CNN을 활용한 Priority Object 영상 스티칭)

  • Rhee, Seong Bae;Kim, Kyuheon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.07a
    • /
    • pp.47-50
    • /
    • 2020
  • 최근 Panorama와 360도 영상이 대표되는 몰입형(Immersive) 미디어 콘텐츠의 사용이 증가하고 있다. 몰입형 영상 콘텐츠는 사용자에게 현장감을 제공해야 하지만, 촬영 카메라 간의 시차(Parallax)로 인해 영상 콘텐츠에서 시차 왜곡이 발생할 수 있고, 이는 사용자의 콘텐츠 몰입을 제한하기 때문에 해당 영상 콘텐츠의 제작 기술인 영상 스티칭의 높은 정확도가 요구되고 있다. 지금까지 스티칭 영상의 시차 왜곡을 줄이기 위하여 다중 호모그래피 추정 방법과 Seam Optimization 방법이 제안되었지만, 영상 내 사물 배치에 따라 기술 적용이 제한될 수 있다. 이에 본 논문에서는 Mask R-CNN을 활용하여 사물을 세그먼트화하고, 사물의 종류에 따라 각각 다른 가중치 적용을 통해 시차 왜곡을 방지하며, 영상 내 사물의 배치에 따라 시차 왜곡이 발생할 상황에서는 사용자의 인지 중요도가 낮은 사물로 시차 왜곡을 유도하는 영상 스티칭 방법을 제안한다.

  • PDF

인체 뇌에서 인체 안면을 인지하는 영역에 대한 fMRI 연구

  • 정희창;김정석;최보영;이형구;서태석
    • Proceedings of the KSMRM Conference
    • /
    • 2003.10a
    • /
    • pp.82-82
    • /
    • 2003
  • 목적: 인간은 시각적 자극에 뇌가 반응함으로써 대상을 파악한다. 그리고 대상의 종류에 따라 뇌가 시각적인 정보를 판단하는 영역은 서로 다를 수 있다는 것을 예상할 수 있다. 본 연구에서는 시각적 자극의 대상을 크게 인간의 안면과 사물로 나누고 그 대상에 따라 인지하는 뇌의 영역을 확인하고자 한다.

  • PDF

Distance measurement System from detected objects within Kinect depth sensor's field of view and its applications (키넥트 깊이 측정 센서의 가시 범위 내 감지된 사물의 거리 측정 시스템과 그 응용분야)

  • Niyonsaba, Eric;Jang, Jong-Wook
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2017.05a
    • /
    • pp.279-282
    • /
    • 2017
  • Kinect depth sensor, a depth camera developed by Microsoft as a natural user interface for game appeared as a very useful tool in computer vision field. In this paper, due to kinect's depth sensor and its high frame rate, we developed a distance measurement system using Kinect camera to test it for unmanned vehicles which need vision systems to perceive the surrounding environment like human do in order to detect objects in their path. Therefore, kinect depth sensor is used to detect objects in its field of view and enhance the distance measurement system from objects to the vision sensor. Detected object is identified in accuracy way to determine if it is a real object or a pixel nose to reduce the processing time by ignoring pixels which are not a part of a real object. Using depth segmentation techniques along with Open CV library for image processing, we can identify present objects within Kinect camera's field of view and measure the distance from them to the sensor. Tests show promising results that this system can be used as well for autonomous vehicles equipped with low-cost range sensor, Kinect camera, for further processing depending on the application type when they reach a certain distance far from detected objects.

  • PDF

Development of an Smart-band based on the Arduino for a Hearing-impaired Person (아두이노 기반 청각장애인용 스마트 밴드 개발)

  • Yoon, YeoJin;Kim, Eun-Gyeong;Kim, Seokhoon
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.04a
    • /
    • pp.1214-1216
    • /
    • 2017
  • 사물인터넷 관련 기술들의 다양한 연구개발은 정치 경제 문화 등 사회 각 분야의 진화를 촉진시키는 기반이 되고 있으며, 이러한 현상은 장애인을 포함한 사회적 약자를 위한 각종 제도 및 기기들의 다양한 개발 및 활용을 촉진시키는 기화로도 작용하고 있다. 그러나 아직까지 장애인을 위한 사물인터넷 기반 장비의 개발은 더디게 이루어지고 있는 것이 사실이다. 특히, 청각장애인의 경우 위험을 회피할 수 있는 소리를 사전에 인지할 수 있을 경우, 다른 장애인 대비 매우 높은 확률로 위험을 회피할 수 있음에도 불구하고 아직까지 이에 대한 연구개발이 매우 부족하다. 때문에 본 논문에서는 청각장애인들이 주변의 소리를 사전에 인지/확인할 수 있도록 하여, 발생할 수 있는 위험을 미연에 방지할 수 있는 디바이스의 개발을 제안한다. 제안하는 디바이스는 특정 크기 이상의 소리를 인지할 수 있는 소리 측정센서를 통해 해당 소리를 청각장애인이 인지할 수 있도록 알림을 제공하는 디바이스이며, 아두이노를 기반으로 하고 있기 때문에 기존의 다양한 청각보조기구 대비 매우 저렴하게 개발이 가능하다. 이를 통해, 청각장애인은 소리의 미인지로 발생할 수 있는 사고의 위험을 회피할 수 있으며, 안전한 보행권 및 이동권을 확보할 수 있을 것으로 기대한다.