한국HCI학회:학술대회논문집
- 기타
Domain
- Information/Communication > Information Processing Theory
2007.02a
-
본 논문은 3차원 스캐너로 획득된 실제 얼굴 데이터를 햅틱 상호작용을 통해 직접 변형하고 재질감을 모델링 하는 알고리즘을 제안한다. 제안된 알고리즘은 그래픽 하드웨어 기반의 햅틱 렌더링 알고리즘을 기반으로 획득된 2.5D 얼굴 데이터를 mass-spring 모델을 적용하여 변형하고 얼굴의 재질감(탄성, 마찰, 거칠기) 정보를 모델링 하는 것이다. 햅틱 장치를 이용한 변형알고리즘은 변형 시 효율적인 변형 영역 탐색을 위하여 공간 분할방법인 k-d 트리 구조를 이용하여 최근방 탐색 알고리즘을 구현하였으며, 사실적인 힘 계산을 위하여 각 포인트 마다 mass-spring 모델을 적용하여 반력 연산 및 물체의 변형을 수행하였다. 아울러 재질감을 모델링 하기 위해 깊이 이미지 기반 표현(Depth Image Based Representation, DIBR)을 이용하여 가상 물체의 거칠기, 탄성, 및 마찰을 편집할 수 있는 방법론을 제시하고, 편집된 재질감을 직접 물체의 표면에 적용하여 렌더링 하는 알고리즘을 제안한다.
-
최근 온라인 게임 시장이 급속하게 성장하고 있다. 온라인 게임은 컴퓨터 게임의 장르 중에 상당히 큰 비중을 차지하고 있으며, 많은 사용자들은 온라인 게임을 매일 즐기고 있다. 온라인 게임 시장이 커지면서, 온라인 게임 아이템의 거래 시장 역시 성장하고 있으며, 온라인 게임 아이템은 게임 안에서 거래가 이루어질 뿐만 아니라 게임 밖에서도 실제 화폐를 통해 거래되고 있다. 게임 아이템에 대한 경매 사이트가 국내뿐만 아니라 외국에도 존재하여 활발히 거래가 이루어 지고 있으며, 2004년에는 게임 아이템의 구매를 위해서 최대 8억 8000만 달러에 이르는 실제 화폐가 지불될 정도로 게임 아이템의 거래 시장은 거대하다. 이렇게 규모가 커진 게임 아이템 거래 시장은 학술적으로, 실용적으로 많은 중요성을 갖는다. 그러나 온라인 게임 아이템 거래에 대한 실증적인 연구는 많지 않다. 몇몇 온라인 게임 아이템 거래에 대한 연구는 게임 아이템의 권리를 중심으로 연구가 되었으며, 게임에 대한 많은 연구는 게임 아이템보다는 몬스터와 싸우는 것이나 게임 캐릭터를 만드는 것과 같은 게임 플레잉 설계에 집중하고 있다. 또한 전자 상거래 분야에서는 사용자들이 거래를 통해 최대한의 이윤을 얻기 위할 것이라는, 즉 외적 동기를 가지고 있을 것이라는 가정을 바탕으로 거래의 효율성과 거래 비용에 초점을 맞추어 연구가 진행되었다. 그러나 온라인 게임 아이템은 실용적인 성격뿐만 아니라 유희적 성격을 가지고 있기 때문에 온라인 게임 아이템 거래에서 사용자는 외적 동기뿐만 아니라 내적 동기도 함께 가지게 된다. 본 연구는 거래 비용이론과 몰입, 그리고 재미와 관련된 이론을 바탕으로, 온라인 게임 아이템의 거래 방식이 사용자의 지각된 재미와 사용자가 느끼는 거래비용에 미치는 영향을 실험 방법론을 통해 실증적으로 검증하였다. 본 연구의 결과, 거래에서 내적 동기를 가진 사용자는 게임 아이템 거래 의도에 지각된 재미가 거래 비용에 비해 더 많은 영향을 미쳤으며, 외적 동기를 가진 사용자는 게임 아이템 거래 의도에 지각된 거래비용이 지각된 재미에 비해 더 많은 영향을 미쳤다. 본 연구의 결과는 과거 대부분의 관련 연구가 거래 방법의 유용성만을 강조해왔던 것과는 달리, 거래 자체의 재미와 즐거움, 그리고 거래에 대한 몰입 등의 감성적 측면을 고려함으로써 거래 비용 이론을 확장했다는 데 이론적 의의가 있을 것이다. 또한 실용적 측면에서 게임 아이템 거래 방식을 어떻게 설정해야 사용자들에게 유용성과 더불어 재미를 제공해 줄 수 있는지에 대한 실질적인 가이드라인을 제시할 수 있을 것이다.
-
Kim, Seong-Woon;Lee, In-Seong;Lee, Ki-Ho;Jung, Seung-Ki;Kim, Jin-Woo;Park, Joon-Ah;Bang, Won-Chul;Choi, Chang-Kyu;Kim, Yeun-Bae;Kim, Sang-Ryong;Lee, Kwon-Ju 16
모바일 폰은 최근 관심의 대상이 되고 있는 사용자 제작 컨텐츠 (User-Created Content: UCC)의 생산과 공유를 위한 중요한 수단이다. 또한 HSDPA나 4G와 같은 차세대 이동통신 기술은Flickr나 YouTube 등의 웹 사이트에서 제공되고 있는 UCC 서비스가 모바일 폰을 통해서도 더욱 활발히 이용될 수 있는 가능성을 제시하고 있다. 그러나 모바일 폰이 가지고 있는 작은 화면 크기와 불편한 입력 장치라는 기본적인 한계는 모바일 UCC 서비스의 성공에 큰 장애 요인으로 작용할 수 있다. 따라서 본 연구는 정보 구조 (Information Structure) 및 정보 시각화 (Information Visualization)와 관련된 기존 이론 및 연구들을 기반으로 4가지 다른 모바일 폰 인터페이스들을 개발하고, 사용자들의 모바일 폰을 통한 탐색적 UCC 서비스 사용을 지원하는데 어떠한 인터페이스가 더 적합한지 실험 방법론을 통해 검증하는 것을 기본 목적으로 한다. 본 연구를 위하여 개발된 인터페이스들은 컨텐츠 구조의 관점에서 폴더 기반 계층 구조 (Folder-Based Hierarchical Structure)이나 태그 기반 네트워크 구조 (Tag-Based Network Structure)를 가지고 있으며, 컨텐츠 시각화의 관점에서는 고정 버튼 (Fixed Buttons)이나 멀티 디스플레이 버튼 (Multi-Display Buttons)를 가지고 있다. 66명의 실험 참가자들을 대상으로 한 실험 결과, 사용자들은 탐험 지향적 탐색 과업 (Exploratory Browsing)에서 태그 기반 네트워크 구조 또는 멀티 디스플레이 버튼이 제공된 모바일 인터페이스에 대하여 상대적으로 더 높은 유용성, 즐거움, 만족도, 향후 사용의도 등을 나타내었다. -
본 논문에서는 질감제시장치와 진동모터를 내장한 펜형 햅틱(haptic) 인터페이스에 대해서 기술한다. 본 연구의 목적은 다양한 장치에 적용할 수 있는 소형 질감제시 모듈을 제안하고, 개발된 모듈을 펜과 같은 모양의 인터페이스에 내장하여 그 성능을 검증하는데 있다. 본 연구의 수행을 위해 핀배열을 내장하고 있으며, 저전력, 저소음으로 동작하며, 수직방향으로 1mm이상의 변위를 일으키는 소형 질감제시 모듈을 개발하였다. 그리고 개발된 모듈은 PDA나 Tablet PC등에서 흔히 사용되는 스타일러스(Stylus)와 같은 펜모양의 인터페이스에 내장되었다. 펜형 인터페이스의 헤드부분에는 팬케익 모터를 내장하여 사용자에게 진동 촉감을 제공할 수 있도록 하였다. 개발된 펜형 인터페이스의 성능을 검증하기 위하여Mobile Tablet PC상에서 내장된 질감제시 모듈이 점자정보를 촉감으로 전달할 수 있는지에 관한 실험을 수행하였으며, 모든 실험은 그래픽 사용자 인터페이스(GUI)상에서 이루어졌다. 또한 모든 버튼 조작시 '클릭'하는 느낌을 재현하였다. 실험은 동시에 다양한 자극의 주파수와 시간의 변화 조건에서 시행되어 의도하는 촉감을 가장 잘 전달하는 자극방법에 관한 연구를 동시에 수행하였다. 또한 개발된 펜형 인터페이스를 이용하여 이미지와 함께 데이터 베이스화 되어있는 질감을 재현할 수 있는 방법에 관한 기초 연구를 수행하였다.
-
기존의 CAVE 를 이용한 분자구조 visualization 혹은 교육 시스템에서는 CAVE 시스템의 특징을 반영하지 않은 desktop 방식의 상호작용(interaction) 방법과 조망(viewing) 방법을 제공했다. 이러한 기존의 방법들은 CAVE 시스템의 장점을 충분히 이용하지 못한 것이다. 우리는 사용자에게 CAVE 시스템의 장점을 잘 살릴 수 있는 일인칭 시점의 조망을 제공하는 분자구조 교육 시스템을 개발함으로써 사용자에게 좀더 교육적으로나 경험적으로 효과가 큰 분자구조 교육 시스템을 제안한다. 또한 간단한 실험을 통해서 우리가 제안한 시스템의 효과를 알아보았다.
-
재조명(relighting) 렌더링은 장면 내에 새로운 광원의 추가 또는 기존 광원 속성의 변경으로 인한 영상의 변화를 효율적으로 계산하는 과정을 말한다. 본 논문에서는 쉐이딩(shading) 계산에서 광원에 독립적인 파라메터를 미리 텍스쳐 이미지 형태로 캐시화하여 재조명 렌더링 과정에서의 계산량을 줄이는 방법을 사용하였다. 이러한 쉐이딩 파라메터들의 캐시 이미지들은 사용자가 카메라 시점을 바꾸고자 할 경우 새로 생성을 하여야 하는데, 이 계산에 많은 시간이 소요된다. 본 논문에서는 새로운 시점에서의 캐시 이미지들를 영상 기반 렌더링(image-based rendering) 기법을 이용하여 실시간에 구하는 방법을 제시한다. 먼저 여러 개의 지정된 카메라 시점에 대한 캐시 이미지들을 미리 생성해 둔다. 다음 원하는 시점의 캐시 이미지는 각 픽셀에 투영되는 3차원 표면점을 역시점변환(inverse viewing transform)을 통해 구하고, 이 점을 지정된 카메라 시점으로 다시 투영하여 캐시 이미지에서의 대응 픽셀을 찾는다. 대응 픽셀의 파라메터 값들을 평균하여 새 캐시 이미지에 써준다. 이 과정들은 하드웨어 그래픽 가속기의 단편 쉐이더(fragment shader)를 이용하여 실시간으로 수행된다.
-
반짝이는 특성의 물체에 대해 이미지를 기반으로 색을 추출하는 경우 반짝이는 특성을 포함하면서 내재되어 있는 색 특성을 표현하기 위해 색 곡선(color line)을 이용한다. 이 경우 추출하려는 색이 왜곡되지 않은 가장 적합한 이미지를 선정하는 방법이 필요하다. 이를 위해서 실감모델링을 위해 색 곡선을 기반으로 색을 추출하는 방법을 제시하고 제시된 방법을 위해 색을 추출하기 가장 적합한 이미지를 선정하는 기준을 색포화율(color saturation ratio)을 통해 제안한다. 색포화율이란 색을 구성하는 요소 중에서 최소한 하나 이상의 색이 포화된 픽셀들을 최대 색거리를 가진 픽셀들로 간주하여 계산된 색거리의 총합에 대해 최소한 하나 이상의 색이 포화된 픽셀들의 색거리 총합의 비율를 의미한다. 이상적으로 이 비율이 최소가 되면 하이라이트를 제외한 어떤 픽셀도 포화되지 않기 때문에 반짝이는 특성을 가진 물체의 색을 추출하기 위해 촬영된 이미지는 하이라이트를 제외한 모든 색이 왜곡되지 않은 가장 적합한 이미지가 생성된다. 또한, 이렇게 선정된 이미지에서 추출된 색의 효율성을 보이기 위해 색 공간과 이미지 상에서 다양한 형태의 응용 결과를 제시하였다.
-
사용자가 현재 위치해 있는 장소를 알아내는 것은 상황인식 분야에서 활발히 연구되고 있는 분야중 하나로, 이를 위해서 사용자의 몸에 다양한 센서를 장착하고 그 센서로부터 추출되는 데이터를 분석하여 사용자의 위치를 인식하는 연구가 많이 이루어져왔다. 본 논문에서는, 사용자의 몸에 장착된 카메라로부터 얻어진 영상을 이용하여 사용자의 현재 장소를 인식하는 장소 인식 시스템을 제안한다. 기존의 방법론들에 비해서 높은 성능을 보이기 위해서 본 논문에서는 두 가지 방법을 제안하였다. 먼저 한 방향만의 영상으로는 인식이 어려운 장소에서도 좋은 인식 성능을 보일 수 있도록 하기 위해, 여러 대의 카메라를 동시에 사용하여 여러 방향의 영상을 얻어내는 방법을 제안하였다. 또한 이전 시간의 장소 인식 결과로부터 현재 시간의 장소를 추론하는 데에 있어서, 각 장소들에 대해 알고 있는 사전지식을 보다 많이 적용할 수 있는 인식 모델을 제안하였다. 실제 대학 실내 환경에서의 실험을 통하여, 제안한 방법을 이용한 장소 인식기법이 좋은 성능을 보임을 확인할 수 있었다.
-
본 논문은 현미경이나 카메라 영상 등의 실시간 영상을 이용한 변형체(deformable object)의 햅틱 렌더링을 구현하는 방법에 관한 것이다. 이는 저속으로 변형하는 물체의 영상정보를 실시간으로 추출하여, 그에 대한 영상처리를 통해 변형과 이동에 대한 위치 정보를 제공함으로써 이루어진다. 물체에 변형이 가해지면 카메라를 통해 컴퓨터로 그 영상이 전송되며 얻어진 영상은 스네이크 알고리즘의 영상처리 과정을 거쳐 이차원 모델 구현을 위한 위치정보를 제공한다. 이 가상모델에 대한 햅틱 렌더링을 구현하여 햅틱장치에 힘 피드백을 주게 되며, 안정적인 햅틱 렌더링의 구현을 위해 보간법(interpolation) 및 보외법(extrapolation)을 적용하여 모델과 햅틱장치간의 샘플링 문제를 해결한다. 그래픽 렌더링 또한 구현하여 조작의 용이함을 제공한다.
-
이 논문은 촉각 가상 환경(Haptic Virtual Environment)에서 촉각(haptic) 데이터를 촉각 데이터 특성에 맞추어 네트워크에 적응적이고 효율적으로 전송할 수 있는 전송 알고리즘을 제안한다. 촉감 상호작용 측정을 위해 네트워크 햅틱 협업 응용을 작성하였고 지연, 지터, 손실에 따른 변화를 분석하였다. 이를 바탕으로 네트워크 트래픽에 적응할 수 있는 알고리즘을 구성하였다. 손실되거나 지터의 영향을 받은 패킷에는 간단한 선형예측 방법을 사용하여 보상하여 손실과 지터로 인한 오차를 줄였다. 이는 심각한 손실이나 지터에 의해 떨림 현상이 나타나는 햅틱 장치의 문제점을 개선하게 되었다. 또한 네트워크 협업에서 지연이 발생할 때 나타나는 클라이언트들 사이의 비동시성을 해결하기 위하여 완충시간을 두었다. 지연이 큰 클라이언트는 버퍼를 사용하지 않고 실시간으로 처리하고, 지연이 적은 클라이언트는 버퍼를 사용하여 전송받은 좌표를 완충시킨 후에 처리하는 방법을 사용하여 클라이언트들 사이의 햅틱 렌더링을 동기화 하였다. 제안된 알고리즘은 다양한 네트워크 상황에서의 협업에서 개선된 결과를 보였다. 이를 바탕으로 향후 선형예측 방법을 다양하게 적용시키고 서버와 클라이언트 사이의 동기화를 구현하는 알고리즘을 작성할 것이다. 본 논문은 다양한 네트워크 상황 에서 햅틱 데이터를 전송하고 처리하는 연구의 기초자료가 될 수 있을 것이다.
-
본 논문은 연결정보(connectivity) 및 미리 계산된 계층적 데이터 구조(hierarchical data structure)를 이용하지 않는 그래픽 및 햅틱 렌더링 알고리즘을 제안한다. 제안된 알고리즘은 점 기반 그래픽 표현(point-based graphic representation) 기법을 이용하여 3차원 자유 곡면을 생성한다. 생성된 점 기반 곡면 물체와의 햅틱 상호작용을 위해 그래픽 하드웨어(GPU)에 접근하여 점 기반 곡면에서 생성된 깊이 이미지(depth image)를 이용하여 햅틱 상호작용에 필수 요소인 충돌검출(collision detection) 및 반력 연산(contact force computation)을 수행한다.
-
햅틱 협업을 위한 네트워크는 기본적으로 지연, 지터, 손실의 제약을 가진다. 햅틱은 정보의 속도에 민감하므로 네트워크 환경에서 협업을 이루어내기에 많은 제약이 있다. 특히 협업의 품질을 감소시키는 네트워크 지연을 보상하기 위한 연구가 필요하다. 본 논문에서는 물체의 좌표 전송을 기반으로 한 햅틱 협업이 높은 수준의 지연시간을 지닌 네트워크에서 발생할 수 있는 문제를 정의하고 그 원인을 파악하여 안정적인 협업을 유지하기 위하여 네트워크 지연 문제를 보상할 수 있는 기법을 제시한다. 네트워크 지연에 의해서 물체를 밀 때 더 많은 힘을 사용되는 현상과 클라이언트들이 물체를 들어올릴 때 물체가 진동하는 현상이 발생된다. 이 문제를 해결하기 위해 물체의 강도를 변경하는 방법을 제안한다. 지연 시간의 수준이 증가하여도 지연 문제가 발생하지 않게 함과 동시에 최대한 원래 물체 강도를 유지하기 위해서 클라이언트가 물체에 발생시키고자 하는 힘과 서버에서 물체에 발생시키는 힘을 같도록 만드는 수식을 유도한다. 이 수식을 이용하여 지연의 크기에 관계없이 클라이언트가 물체의 위치를 제어할 수 있다. 지연 보상 기법을 통해 햅틱 미디어의 품질을 유지하면서 지연에 의한 문제를 해결하는 방안을 제시하며, 실제 실험을 통하여 결과를 확인한다.
-
이 논문에서는 카메라와 간단한 마커(Marker)를 이용하여 디포머블(Deformable)한 3차원의 도자기 모델을 손을 이용하여 자연스러우면서도 직관적으로 변형시키고, 이를 실제 물체들과 같이 디스플레이 해 줌으로써 실재감을 느낄 수 있는 새로운 시스템을 제안한다. 제안된 시스템에서는 값비싸면서도 거추장스러운 장비를 사용하지 않고도 카메라와 마커의 상대적인 위치를 통해서 손의 움직임을 알아내게 되고, 알아낸 움직임을 이용하여 물체를 이동시키거나 변형시키는 등의 모델링 인터페이스를 제공한다. 그리고 실시간으로 변형된 모델에 대한 결과를 증강현실을 이용하여 실제 환경 상에 존재하는 것과 같이 디스플레이 해 주는 방법을 통해서 물체의 크기 및 모양을 좀더 실재감 있게 느낄 수 있게 한다. 이러한 방법은 비단 도자기뿐만 아니라 다양한 분야에 활용 가능하며, 보통 컴퓨터가 있는 집에 화상카메라가 하나 정도는 있다는 점에서 활용 가능성이 상당히 크다 할 수 있을 것이다.
-
본 논문에서는 연속적 충돌검사 방법과 제약 조건 기반의 강체 역학 모델링 기법을 이용하여 마커 기반의 트래킹 환경에서 현실의 객체와 가상의 객체가 물리적으로 현실적이고 안정적으로 상호작용하는 증강현실 방법을 제안한다. 본 논문에서 구현된 증강 현실 시스템은 증강 현실환경상의 현실 객체를 인식하고 트래킹 하는 부분과 증강현실에 등장하는 모든 종류의 객체들 간의 물리적인 상호작용을 시뮬레이션 하는 부분으로 크게 구성된다. 객체 트래킹에 사용되는 일반적인 카메라로는 적은 수의 불연속적인 프레임 밖에 얻을 수 없는 성능의 근본적인 한계에도 불구하고, 본 논문에서는 연속적 충돌검사 방법을 이용하여 객체간의 올바른 충돌 정보를 얻을 수 있었고, 이를 이용하여 제약 조건 기반의 강체 역학 시뮬레이션을 적용하여 안정적이고 현실적인 물리 반응을 생성할 수 있었다. 제안한 방법론은 이러한 트래킹 지연에도 불구하고 본 논문에서 사용된 다양한 벤치마킹 시나리오에서, 안정적으로 현실의 객체와 가상의 객체 사이에 물리적으로 실감나는 인터랙션 결과를 보여주었다.
-
본 논문에서는 자연스러운 증강현실 환경을 위하여 패치 기반의 텍스쳐 합성을 통한 마커 은닉 방법을 제안한다. 증강현실에서 카메라의 자세를 구하기 위한 보편적인 방법은 음영 대비가 뚜렷한 정사각형의 마커를 사용하는 것이다. 이러한 인위적인 마커의 사용은 물체의 인식과 추적을 용이하게 하지만 증강된 장면의 실감성을 감소시켜 사용성 저하를 유발하기도 한다. 제안된 마커 은닉 방법은 실시간성을 보장하면서, 배경 텍스쳐의 전역적인 특성을 유지하고, 주변 환경의 변화에 유연하다.
-
최근 프로젝터의 보편화로 인해 프로젝터를 증강현실의 디스플레이 장치로 활용하는 연구가 활발히 진행되고 있다. 관련 연구들을 흔히 프로젝션 기반 증강현실이라고 부른다. 프로젝션 기반 증강현실을 구현하기 위해서는 스크린의 기하(geometry) 및 컬러(photometry) 정보를 획득하는 과정이 선행되어야 하는데, 이는 프로젝터를 이용하여 정해진 패턴 영상을 투사하고 이를 카메라로 캡쳐한 후, 카메라 영상에 다양한 컴퓨터비전 기술들을 적용함으로써 행해진다. 이러한 스크린 기하 및 컬러 정보 획득 기술은 가시적인(visible) 패턴 영상이 사용자의 몰입감을 저해한다는 단점을 가진다. 특히, 스크린의 기하 및 컬러 정보가 수시로 변하는 환경에서는 가시적인 패턴 영상을 사용하는 기존의 스크린 기하 및 컬러 정보 획득 기술은 유용하지 못하다. 이러한 문제점을 해결하기 위해 일부 패턴 영상을 비가시적(invisible)으로 만드는 기술들이 제안되었다. 본 논문에서는 관련 기술들을 비간섭 프로젝션 기반 증강현실이라고 한다. 특히, 보색 패턴(complementary patterns)을 증강현실 영상에 삽입하는 방법은 부가적인 장비없이 간단한 영상처리만으로 효과적으로 패턴 영상을 비가시적으로 만들어 줄 수 있으며, 최근 가상 스튜디오에 활용하는 방안이 모색되고 있다. 그러나, 삽입된 보색 패턴의 세기와 비가시성 사이는 상반관계(trade-off)를 가지므로, 일반적인 환경에서는 보색 패턴의 비가시성을 보장할 수 없다. 본 논문에서는 이러한 보색 패턴의 비가시성을 극대화하기 위해 컨텐츠 적응형 패턴 삽입 기술을 제안한다. 증강현실 영상의 색감 및 텍스처의 복잡도에 따라 크게 4 가지 경우로 분류하여 부분적으로 다른 채널 및 세기로 보색 패턴을 삽입한다. YIQ 컬러 공간에서 표현된 증강현실 영상을 균일한 크기의 영역으로 나눈 다음, 각 영역에 대해 I 성분이 지배적이면 Q 채널에 패턴을 삽입하고 Q 성분이 지배적이면 I 채널에 패턴을 삽입한다. 한편, 각 영역에 대해 텍스처의 복잡도가 크다면 강한 패턴을, 복잡도가 작으면 약한 패턴을 삽입한다. 여기서, 텍스처의 복잡도는 간단한 미분 필터(derivative filter)를 이용하여 계산된다. 다양한 실험 및 사용자 평가를 통해, 제안된 방법은 기존 방법에 비해 크게 두 가지 상반관계를 가지는 장점을 가짐을 확인하였다. 스크린의 기하 및 컬러 정보를 획득하는 성능 면에서 제안된 방법이 기존의 방법과 유사하도록 채널 및 패턴의 세기를 결정한다면, 기존의 방법에 비해 패턴의 비가시성이 크게 개선된다. 반대로, 제안된 방법의 패턴의 비가시성이 기존의 방법과 유사하도록 채널 및 패턴의 세기를 결정한다면, 기존의 방법에 비해 스크린의 기하 및 컬러 정보를 획득하는 성능이 크게 개선된다.
-
본 논문에서는 하지 편마비 환자의 편마비 정도를 측정하여 사용하지 않으려고 하는 근육을 강제적으로 사용하도록 하여 하지를 재활할 수 있도록 훈련하는 시스템을 제안한다. 제안하는 시스템은 체중 부하 및 하지 슬관절의 움직임을 측정하여, 이를 통해 환자가 자신의 편마비 정도를 인식할 수 있도록 화면에 출력함으로써 환자가 피드백을 통해 강제적으로 편마비 하지를 사용 하도록 훈련 시킬 수 있다. 하지 슬관절(Knee Joint)의 움직임은 기존의 방법과는 달리 적외선 필터를 장착한 단일 카메라를 통한 모션 캡쳐 기술을 사용하여 획득한다. 또한, 재활 시스템에 가상현실 기술을 도입하여 무릎을 동시에 굽혔다가 펴는 기립훈련과 양측 하지를 이용한 보행훈련을 입력으로 가상공간을 탐험할 수 있게 함으로써 환자가 흥미롭게 재활훈련을 받을 수 있도록 하였다.
-
Jung, Jae-Hoon;Hwang, In-Wook;Lee, In;Lee, Chae-Hyun;Park, Gun-Hyuk;Hwang, Jane;Choi, Seung-Moon;Kim, Jounghyun Gerard 115
이 논문에서는 동작기반 체험형 리모트 콘트롤러가 사용자와 상호작용을 하기 위해 갖춰야 할 기본적인 요소가 무엇인지 설명하고 체험형 리모트 콘트롤러의 동작 정보를 처리하는 시스템의 구성을 제안한다. 동작기반의 체험형 리모트 컨트롤러는 블루투스로 서버와 양방향 통신을 하게 되며 가속도 센서가 장착되어 기존의 버튼입력 기반의 리모트 컨트롤러와는 달리 동작을 이용한 입력을 할 수 있고 사용자에게 진동모터를 통한 촉감 피드백을 전해주어 사용자의 몰입감을 증가시킬 수 있도록 하였다. 가속도 센서를 이용한 동작 인식을 위해서는 두 가지 알고리즘이 개발되어 적용되었다. 동작기반의 체험형 리모트 컨트롤은 논문에 제시된 예 이외에도 기존의 버튼 기반으로 만들어진 응용프로그램에 쉽게 적용시킬 수 있으며 특히 엔터테인먼트 분야에서 사용자의 흥미와 몰입감을 더해주기 위해 사용될 것으로 기대된다. -
본 논문에서는 기존 패턴캐드시스템 및 드레이핑시스템을 이용한 의복제작과정의 한계점과 개선가능성에 대해 알아보고, 이를 기반으로 새로 디자인한 의복제작시스템을 소개한다. 이 시스템은 원피스, 바지, 셔츠, 재킷 등 옷의 큰 스타일인 의복템플릿으로부터 의복디자인을 시작 한다. 소매, 카라, 포켓, 넥라인과 같은 템플릿 디테일들은 디자이너가 마음대로 다른 세부 템플릿들과 교체할 수 있으며, 세부 템플릿으로 커버할 수 없는 디테일한 수정은 3D 드레이핑 시스템과 2D패턴에디터에서의 직관적인 오퍼레이션을 통해 이루어진다.
-
본 논문에서는 모바일 증강현실에서 스마트 오브젝트 인식 및 트래킹을 위한 임베디드 마커 시스템을 제안한다. 기존의 증강 현실 연구에서 주로 사용하는 마커는 임의의 패턴을 포함하고 대상 오브젝트와는 분리되어 있다. 이는 부자연스러운 시각적 장애 요인으로 작용한다. 또한 특정한 마커를 사용하기 위해 학습 과정을 거친 후 그 결과를 인식 모듈에서 일일이 등록해야 하는 번거로움이 있다. 이러한 문제점을 해결하기 위해 제안하는 임베디드 마커는 디스플레이 장치의 유무에 따라 고정형 또는 가변 형으로 분류된 스마트 오브젝트의 특성을 고려하여 오브젝트와 마커를 결합한다. 또한 통합된 학습과 인식 모듈을 통해 오브젝트의 추가 및 시스템 확장을 용이하게 한다. 제안된 시스템은 스마트 홈 테스트베드인 ubiHome 에 적용되었다. 또한 사용 성 평가를 통해 그 효용성을 분석하였다. 이러한 임베디드 마커를 사용하면 사용자는 보다 직관적으로 마커의 용도를 예측할 수 있고 대상물과의 시선을 일치시켜 자연스러운 증강현실을 경험할 수 있을 것으로 기대된다.
-
한정된 주의력 자원을 회복 시키기 위한 방법 중 피드백이 효과가 있는 것으로 보고되고 있다. 그러나 피드백의 구체적 내용에 대한 집중력 회복의 연구는 미미하다. 본 연구는 집중력을 회복할 수 있는 감각적 자극 중 정서적 피드백 간의 효과 차이를 분석 하였다. 집중력을 평가하기 위한 온라인 실험 시스템을 구축하고 시각, 청각, 촉각 피드백 자극을 제시하여 각각의 감각자극과 집중력 회복의 효과를 분석 하였다. 실험 참여자의 감각 피드백의 선호도에 따른 영향 요인을 알아보기 위하여 실험 후 주관적 설문을 실시하였다. 감각 피드백을 6명의 대학원생에게 일주일에 걸쳐 반복적으로 약200개의 자극을 제시하고 5회 이상 실험을 통하여 얻어진 30회 결과를 분석하였다. 결과적으로 피드백 별 수행 수준에서는 청각, 촉각, 시각 순으로 효과가 높았으며, 반응 시간에서는 촉각, 청각, 시각 순으로 효과적으로 나타났다.
-
영상은 동적인 시각 이미지와 청각의 결합에 의해 감성적인 반응을 유도한다. 다양한 영상 기법을 통하여 감성적 반응의 극대화를 추구하는 영화는 영상의 시청각적 요소들을 감성의 관점에서 효과적으로 설계하는데 본보기가 된다. 그러나, 제품의 설계속성들에 대한 감성적 평가결과를 모형화하는 감성공학적 관점에서 볼 때 영화는 시청각적 자극의 수준이 극히 다양하고 동적인 경험재로 모형화의 어려움이 있다. 본 연구에서는 영화의 감성 모형을 구축하기 위한 사전연구의 단계로 영화에서의 시청각적 요인들을 문헌조사를 통해 수집, 정리, 선별하고 이러한 시청각적 요인들 중에 영화를 관람하는 관객의 감성적, 인지적 반응에 영향을 주는 유효한 요인들을 객관적이고 체계적으로 탐색하고자 하였다. 이를 위해, 감성 및 인지적 반응의 변화를 생체신호를 통해 측정하는 한편, 생체신호의 측정 시 사용된 영화의 시청각적 자극요인을 Video/Audio Processing방법에 의해 연속적인 수치로 정량화하였다. 생체신호와 정량화된 시청각적 자극요인을 동기화하고 통계적으로 분석함으로써, 생체신호의 반응과 시청각적 자극요인과의 인과관계를 통계적으로 신뢰성있는 수준에서 검증하고자 하였다. 생체신호를 종속변수로, 시청각적 자극요인을 독립변수로 하는 896개의 부분선형회귀모형(Partial Linear Regression Model)들 중 통계적으로 유의한 선형관계에 있는 경우의 빈도분석에 의하면, 시각적 요인들 중에는 밝기(Brightness), 대비(Contrast), 색상(Color), 움직임(Motion), 장면전환속도(Shot change Rate), 주요대상의 상대적 크기가, 청각적 요인들 중에는 Peak주파수, Peak주파수의 음량, 평균음량, 소음비(Sound-to-Noise Ratio)가 생체신호의 변화에 통계적으로 유의한 영향을 주는 것으로 나타났다. 이는, 위의 시청각적 자극 요인들은 특히 관객의 감성 및 인지적인 반응에 유의한 영향을 주는 요소로 작용할 수 있음을 시사하고 있다. 이를 토대로, 위의 시청각적 자극 요인들이 가지는 다양한 조합들을 설명변수로 하는 통계적인 영화의 감성 모형을 구축할 수 있을 것으로 기대한다.
-
운전자지원시스템과 같은 자동화 시스템은 필연적으로 시스템에 대한 운영자의 신뢰와 적응을 초래하는 데, 이는 결국 동시에 긍정적인 효과와 부정적인 효과를 가져온다. 적응순항제어시스템은 대표적인 운전자지원시스템으로서 앞 차량과의 안전 거리와 속도를 자동적으로 제어하여 운전자의 편의성과 안전성을 향상시킨다. 본 연구에서는 적응순항제어시스템에 대한 운전자의 신뢰와 방심 효과를 조사하였다. 차량 시뮬레이터를 이용하여 왕복 2차선과 4차선이 혼합된 자동차 전용도로의 가상 주행 환경을 구축하고, 다양한 주행 상황하에서 운전자의 조종 능력과 대처 능력을 파악하였다. 연구 결과, 적응순항제어시스템에 대한 운전자의 신뢰와 적응은 운전자의 성향에 관계없이 일관된 차간 거리 시간, 가감속값 등을 설정하도록 유도하였고, 결과적으로 안전도와 편의성을 향상시킴을 확인할 수 있었다. 그러나 맹목적인 신뢰와 적응은 돌발 상황에 대한 대처 능력의 저하, 주의 산만, 방심 등을 초래하였고, 결과적으로 안전도를 저하시킴도 확인할 수 있었다. 운전자지원시스템의 이러한 부정적인 효과를 방지하고, 보다 견실하게 운전자의 편의성과 안전도를 향상시킬 수 있는 방안이 요구된다.
-
본 연구는 모바일 환경에서의 Character Intelligent Agent (CIA)의 사용 행태를 연구하여 CIA가 나아갈 방향을 제시하는 것을 목적으로 한다. 이를 위해 문헌연구를 진행하고 이를 바탕으로 사용자와의 1대 1 심층 개인 인터뷰를 실시하여 사용자와 CIA의 상호작용 시 영향을 주는 행동, 대화, 말투 등의 사용자와 CIA의 요소를 확인하였다. 여기서 더 나아가 CIA를 대하는 사용자의 인식이 생물과 무생물로 나누어 지고, 이는 다시 사람과 애완동물, 기계와 장난감으로 나누어 지며 이에 따라 사용자가 CIA를 사용하는 행태에 차이를 보이는 것을 알아내었다. 특히, 사람으로 인식하는 사용자의 행태와 기계로 인식하는 사용자의 행태가 더 많은 차이를 나타내었으며, 사람으로 인식하는 행태가 캐릭터에 대한 긍정적 요소를 더 많이 포함하고 있다는 것을 알아내었다. 또한 추후 연구를 통해 각 요소 간의 관계를 파악하는 것을 목표로 한다.
-
최근 컴퓨터 게임에 등장하는 NPC(Non-player Character)에 각종 인공지능 기법을 적용하는 연구들이 이루어지고 있다. 하지만 대부분의 연구가 플레이어를 상대하는 적대적 입장의 NPC들의 움직임 조절에 초점을 맞추고 있고 아직까지 게임 상에서 등장하는 모든 NPC는 항상 같은 말과 비슷한 행동을 되풀이하는 모습만을 보여주고 있다. 이는 플레이어가 게임을 비현실적으로 느끼게 만들고 결과적으로 게임의 재미를 저하시키는 요소로 작용한다. 플레이어에게 보다 현실적인 게임 환경을 제공하기 위해서는 NPC가 단순히 게임의 배경을 구성하는 오브젝트가 아니라 다양한 대화를 통해 플레이어에게 많은 영향을 주게 하여 게임의 기여도를 높여주어야 한다. 본 논문에서는 이를 위해 게임 속에서 주어지는 퀘스트를 구성하는 NPC, 몬스터, 보상 등의 속성 정보를 온톨로지로 구성하고, 인터넷에 존재하는 게임 커뮤니티에서 퀘스트 질의/응답 게시판의 글을 추출하여, 플레이어의 관련 질의에 응답하는 NPC를 구현하고자 한다. 이를 위해 온톨로지 정보를 이용한 검색 알고리즘을 구현하였고, 시뮬레이션을 통해 NPC가 커뮤니티 게시글(국문/영문) 정보를 이용하여 유저에게 고정되지 않은 다양한 메시지를 전달하면서 동시에 유저의 게임 진행을 도와주는 모습을 확인하였다.
-
게임이나 가상환경에서 오락성과 실감성을 증진시키는 여러 가지 방법들 가운데 지능적인 Non-Player Character (NPC)들의 존재는 중요하다. 컴퓨터 그래픽과 관련 하드웨어 플랫폼 기술의 발전으로 인해 사용자들은 이제 시각적인 만족을 넘어서서, NPC들이 보다 지능적으로 행동하면서 오락적인 만족감과 동시에 보다 향상된 실감성을 제공하기를 원한다. 하지만, 유한상태기계 (Finite State Machine, FSM)를 기반으로 하는 NPC 구현의 한계와 어려움으로 인해 이러한 사용자들의 요구사항을 만족시키는 것은 어렵다. 본 논문에서는 FSM과 추론 엔진(Inference Engine)을 결합한 새로운 NPC 행동제어 구조를 제안한다. 또한 제안된 구조의 가능성을 시연하기 위해 실제로 동작하는 데모를 소개한다. 이러한 FSM과 추론 엔진의 하이브리드 구조는 FSM이 제공하는 NPC 반응의 실시간성을 보장하는 동시에 추론 엔진이 제공할 수 있는 보다 지능적이고 계획적인 NPC들의 행동을 만들어 낼 수 있다는 장점이 있다.
-
정보 검색의 결과로 나타나는 요약문을 스니펫(snippet)이라 한다. 사용자는 자신이 원하는 정보를 얻기 위해 문서를 검색하는데, 이 때 스니펫은 사용자가 원하는 문서를 찾는데 중요한 역할을 한다. 본 논문에서는 정보검색 분야에서 높은 성능을 보이는 유사 적합성 피드백을 자동 문서 요약에 맞게 적용하여 높은 성능의 스니펫 생성 시스템을 구현한다. 우선, 사용자의 질의가 포함된 문장들을 일차적으로 요약 문장 후보로 추출한다. 그리고 추출된 문장 후보로부터 명사들을 질의 후보로 고려한다. 각 문장이 질의의 포함 여부에 따라 문장의 적합성을 판단하게 되고, 유사 적합성 피드백 확률 모델에 적용한 후 질의 후보들의 가중치를 추정하여 가중치 순위를 통해 확장할 질의들을 결정한다. 확장된 질의들과 기존의 질의들의 가중치를 합산하여 각 문장의 순위를 매기게 되고 가장 높은 순위의 문장들이 스니펫으로 제시된다. 논문에서 제안한 기법은 추가적인 핵심 질의들을 자동으로 확장하여 중요한 문장을 추출할 수 있다. 이 연구를 위해서 일반 상용 정보 검색 서비스에서 제공하는 스니펫을 수집하였고 이들의 정확도와 시스템의 정확도를 비교하였다. 실험 결과를 통해 살펴본 제안된 시스템의 성능은 상용 정보 검색기에서 제공되고 잇는 스니펫의 정확도 보다 우수한 성능을 보였다.
-
모바일 음악 재생 장치의 보급이 활성화 되면서 모바일 환경에서 음악을 즐기고자 하는 욕구가 확대되었다. 모바일 음악 재생 장치의 저장 공간이 확대되어 한번에 많은 곡을 보유하게 되었지만, 실제적으로 많은 곡 중에서 자신이 원하는 곡을 쉽게 찾을 수 있는 방법이 존재하지 않고 있다. 이런 문제들을 해결하기 위해 해당 음악 고유의 Metadata를 활용하여 쉽게 찾고자 하는 경향이 있지만, 현재까지는 단순한 사용자 인터페이스만 제공하고 있다. 각각의 음악은 음악 고유의 Context도 가지게 되며, 사용자의 음악 감상 로그에 의해 생성되는 개인화 Context 및 같은 음악을 즐기는 다른 사용자들에 의해 생성되는 Social Context등으로 하나의 음악과 관련된 Context가 증가되는 추세에 있다. 이와 같이 추가되는 Context들은 음악을 탐색하는데 있어 효과적인 수단이 제공되어야 하지만 모바일 음악 재생장치에 있는 음악 탐색 프로그램은 새롭게 추가되는 Context 에 의한 효과적으로 대응하지 못하고 있다. 이러한 문제점을 해결하기 위해서 모바일 장치에 Embedded Database Engine을 장착하여 동적 트리 생성/탐색을 통한 Context 기반 연관 음악 탐색 방법을 제안하게 되었다. 본 논문에서는 새롭게 고안된 음악 탐색 방법에 대하여 3가지 사항에 대해서 제시하였다. 첫째, 새로운 Context추가에 대한 동적 메뉴 추가 방법을 제시하였다. 둘째, 실제로 새롭게 추가된 사용자 인터페이스에 대해서 알아보았으며, 마지막으로 제시된 방법이 얼마나 효과적인가를 계산하여 일반화 하였다.
-
고성능 연구개발망이 보급되면서, 각 지역에 분산되어 있는 전문가들 간의 원격 공동작업을 지원해주는 원격 협업환경에 대한 연구가 활발히 진행되고 있다. 특히 고해상도 디스플레이를 이용한 원격 협업환경은 참여자들에게 현장감있는 공동작업을 지원하며, 실제로 다자간 HD급 영상회의 혹은 대용량 가시화 데이터 표현 등에 활발히 사용되고 있다. 또한 협업환경에 대한 편리한 상호작용 지원기술도 사용자의 편의성 향상을 위한 주요 요소로써 비중있게 다루어지고 있다. 본 논문에서는 고품질 미디어 서비스와 사용자 편의성을 고려한 인터랙션 기법을 결합한 네트워크 기반의 원격 협업환경을 실현하기 위한 통합 소프트웨어 구조를 제안한다. 구체적으로 설명하면, 고품질 영상을 송수신할 수 있는 미디어 기술, 고해상도 격자형 디스플레이에 영상을 표현하기 위한 디스플레이 기능, 포인팅/트래킹 장비를 이용하여 디스플레이 상호작용을 지원하는 컴포넌트화된 협업 서비스들을 사용자의 의도에 따라 유연하게 통합할 수 있는 원격 협업환경을 위한 소프트웨어 구조를 설계한다. 추가적으로 상기 협업 서비스들을 일부 구현하여 실현가능성을 검증하기 위한 시연 과정을 소개한다.
-
사용자들이 직접적으로 영상의 전송과 시청 과정에 참여하고, 그 과정에서 다양한 형태로 상호작용을 할 수 있는 새로운 형태의 미디어 서비스를 인터랙티브 미디어 서비스(Interactive media service: IMS)이라고 한다. 본 연구의 목적은 이러한 인터랙티브 미디어 서비스 사용에 영향을 미치는 요인을 규명하는 것이다. 이를 위해 현재 서비스되고 있는 다양한 형태의 인터넷 미디어 서비스 사용자 12명을 대상으로 한 인터뷰를 진행하였으며 근거 이론 분석법에 따라 이를 분석하였다. 그리고 분석 결과에 따라 도출된 요인들을 바탕으로 인터랙티브 미디어 서비스 사용과 관련한 이론적 틀을 제시하고 이를 검증하기 위한 웹서베이를 실시하였다. 연구 결과, 시스템의 기술적 구조, 커뮤니케이션 맥락, 콘텐츠 특성과 같은 요인들이 인터랙티브 미디어 서비스 사용에 영향을 미치는 것으로 나타났다. 특히 실시간 인터랙티브 미디어 서비스의 경우에는 커뮤니케이션 맥락에 따른 사용 행태가 더 민감하게 나타났고, 비실시간 인터랙티브 미디어 서비스에서는 시스템의 기술적 특성과 콘텐츠 특성에 따른 사용 행태가 보다 민감한 것으로 나타났는데, 이는 인터랙티브 미디어 서비스의 시간 유연성(timing flexibility)에 따라서 사용 행태에 영향을 미치는 요인이 달라질 수 있음을 의미한다.
-
디지털방송은 애플리케이션(Xlet)을 이용해 보다 진보된 Interactive 방송프로그램을 시청자에게 전달 할 수 있다. Interactive TV에서 애플리케이션은 MHP, OCAP, ACAP등의 표준규약에서 정의된 API를 기반으로 작성되며 MPEG-2 TS를 통해 STB(Set-Top Box)에 전송되어 구동된다. 현재 이러한 애플리케이션은 고정된 이미지를 활용한 형태의 서비스가 주를 이루며 중력, 탄성력과 같이 실제와 유사한 움직임을 표현하거나 활용하는데 있어 미흡한 실정이다. 본 논문은 Interactive TV에서 중요한 역할을 담당하는 애플리케이션(Xlet)을 위해, 현재의 STB에서 가능한 물리기반 Simulator Module을 설계하고 구현하였다. 이는 중력, 탄성력, 단진자운동과 같은 다양한 현상을 모형화(단순화)하고 수식화하여 적용한 것으로서, UI와 Game등에 그 활용도가 높을 것이다.
-
본 연구에서는 정보 손실을 최소화하고 웹 페이지 저작자의 의도를 보존하기 위하여 일반적인 웹페이지를 모바일 디바이스(주로 휴대전화)용 웹페이지로 적합화(adaptation)하는 프록시(proxy)를 제안한다. 분할된 이미지에 대한 변환 시 사용되는 경험적인 방법을 제안하고, 웹페이지 변환 시에 발생하는 문제점에 대해 프로세스적인 측면에서 개선된 방법 제시한다. 다른 연구 성과와의 비교 실험을 통하여 제안된 프록시의 성능과 정확도를 비교평가 한다.
-
디지털 방송은 수많은 프로그램과 기존의 아날로그 방송에서 볼 수 없었던 다양한 서비스를 제공하며 발전하고 있다. 하지만 시청자들에게는 방송 서비스 채널과 기능이 많아질수록 원하는 채널을 검색하고 전환하는 과정이 어렵고 복잡한 일이 되어 버릴 수 밖에 없을 것이다. 이에 본 논문에서는 이러한 정보 획득과정의 축소를 위해 전통적인 리모콘으로 채널을 검색하고 이동하는 절차를 벗어나 음성인식을 통한 동적 EPG(Electronic Program Guide) 제어 시스템을 설계하고 구현하고자 한다. 이는 EPG정보와 시청자의 TV시청 성향 및 History를 기반으로 구동되는 시스템으로 음성대화의 구조적 정의가 가능한 VXML(VoiceXML) 인터프리터를 활용한다. 본 논문에서 제안하는 대화형 인터페이스는 다양한 디지털방송 서비스에 접목이 가능 할 것이며, 새로운 형태의 디지털 가전기기 파일럿 인터페이스 개발에 도움이 될 것이라 기대한다.
-
본 논문에서는 지체장애인들이 유효한 말초신경신호를 이용하여 컴퓨터를 사용할 수 있는 인터페이스를 개발하였다. 손목의 움직임을 통해 아래팔 4부분으로부터 근전도 (electromyogram, EMG) 신호를 추출하였고, 다층 인식 신경망을 사용하여 사용자의 의도를 추출하였다. 이를 통하여 마우스 커서의 움직임을 제어하고, 마우스 버튼을 클릭하는 동작을 할 수 있으며, 시각 디스플레이 장치에 표시된 핸드폰 자판과 같은 유저 인터페이스를 통해 컴퓨터에 글자를 입력할 수 있게 하였다. 추가적으로 Fitts' law를 사용하여 본 인터페이스의 사용성을 평가하였고, 이를 기존연구와 비교함으로써 본 인터페이스의 효용성을 검증하였다.
-
한국과학기술원 인간친화복지로봇 연구센터에서 개발 중인 ISH(Intelligent Sweet Home)는 다양한 서비스 로봇 및 인간-기계 인터페이스(HMI:Human-Machine Interface)를 통해서 노약자 및 장애인의 일상 생활을 도와 줄 수 있는 지능형 주거 공간이다. ISH에서는 홈네트워크를 통해 연결된 가전 기기 및 환경 정보 취득이 가능한 센서 장비, 그리고 지능형 침대, 휠체어, 이동 보조 로봇 등이 거주자가 독립 생활을 영위할 수 있도록 여러 가지 서비스를 제공한다. 하지만 노약자 및 장애인의 관점에서 서비스 양의 증가뿐만 아니라, 이를 쉽고 편하게 운용할 수 있는 서비스 질의 측면 또한 중요하게 고려하여야 한다. 이러한 이유 때문에, ISH에서는 집사 로봇(steward robot)의 개념을 도입하여 거주자와 복잡한 시스템의 효율적인 매개체로 사용하고 있다. 사용자의 편의를 추구하기 위한 공학적인 접근방법 중의 하나로, 본 논문에서는 집사 로봇의 작업 계획 기능에 대해서 설명하도록 한다. 작업 계획 시스템을 이용하여, 집사 로봇은 사용자의 상위 레벨 명령을 해석하여 각 로봇 또는 제어 가능 개체들을 제어하게 된다. 제안하는 시스템은 STRIPS(STanford Research Institute Problem Solver) 상태 표현 방법과 그래프계획(Graphplan) 방법에 기반하여 작업 계획을 수행한다. 또한 작업 계획 속도를 증가 시키기 위하여 공간 추상화(world abstraction)와 하위 목표 계획(subgoal planning)의 개념을 적용하였다. 그리고 ISH에서 정의된 시나리오를 이용한 상위 레벨 명령을 통해 제안된 시스템의 효용성을 검증하도록 한다.
-
로봇의 활동 영역이 산업 현장에서 인간의 일상 생활 공간으로 확장됨에 따라서, 로봇은 사용자가 사용하는 성능 좋은 도구 개념에서 벗어나 일상 생활을 공유하며 살아가는 파트너로 생각되기 시작했다. 이에 따라서 미리 정해진 명령과 조작 방법을 통한 단순한 상호작용만이 일어나던 과거와 달리, 사용자는 마치 사람을 대하듯 자연스럽게 로봇과 상호작용하기를 기대하게 되었다. 사람들은 본래 context를 활용하여 모호한 표현을 하더라도 상호작용이 가능하기 때문에, 사용자의 발화가 자유롭게 이루어지면 로봇이 처한 상황적 모호성은 가중될 수 밖에 없다. 이러한 문제에 직면하여, 스크립트 기반의 인간-로봇 상호작용을 통한 문제 해결 노력이 그 돌파구가 될 것으로 기대된다. 본 논문은 이러한 노력의 일환으로, 태스크 수행중인 로봇에 자유롭게 사용자가 개입하는 상황을 처리하는 방안을 제시하고자 한다. 사용자가 개입하는 상황을 어떻게 이해할 것이며, 로봇은 어떤 전략으로 이에 대처해야 하는지 분석한 뒤, 사용자 개입에 대한 구체적인 처리 프로세스를 제시한다. 그리고 제시된 프로세스를 구현해 봄으로써 그 효용성을 검증한다.
-
본 논문에서는 뉴스 기자가 원격지에서 비디오 소스를 쉽게 편집해서 그 결과를 전송하는 시스템을 소개한다. 최근에 고속 인터넷 망의 보급과 컴퓨터의 발전으로 현장에서 빠르게 프로그램을 제작 전송할 수 있는 인프라가 확산되고 있다. 이에 KBS는 상용 DV 편집 NLE 프로그램을 사용하여 현장에서 취재한 내용을 편집하고 그 결과 파일을 인터넷 이메일 또는전용 인터넷 송수신 장치를 이용하여 본사에 송신하는 등의 노력을 기울여 왔다. 하지만 기존 상용 NLE 프로그램들은 기사 제작에만 사용하기에 기능이 복잡하고, 송수신 방법도 네트워크 에러에 대한 대처가 미약하거나 전용 송수신기 부족 등의 문제를 안고 있었다. 본 논문에서는 방송 현장에 특화된 사용자 인터페이스와 전문 방송 제작에 적합한 편집 기능과 안정성을 제공하고 지방이나 해외에서 취재, 편집, 렌더링 및 전송을 할 수 있는 노트북 기반의 '원격 뉴스 편집 전송 시스템'을 제안한다. 뉴스 프로그램은 일반적으로 신속한 제작을 요구한다. 이런 이유로 본 시스템은 방송국 외부에서 뉴스의 원-스톱(one-stop)제작이 가능하도록 디자인되었다. 또한 현장 사용자의 요구를 반영하여, 초보 사용자도 쉽게 사용할 수 있고 신속한 제작이 가능하도록 하였다. 본 시스템의 가장 큰 특징이며 중요한 사항 중에 하나인 전송의 신뢰도를 높이기 위하여, 네트워크 장애나 에러 상황에서도 전송에 강인하도록 전송 자동시도, 네트워크 자동 연결, 이어 전송하기 등의 기능을 부가하였다. 본 시스템은 크게 원격 편집 터미널(노트북)과 뉴스 수신서버로 구성되어 있다. 원격 터미널에서는 DV 포맷을 기반 편집을 하게 되고, 범용 DV 캠코더와 전문 ENG 카메라를 통하여 영상을 수동 캡쳐 하거나 자동 캡쳐 할 수 있다. 또한 뉴스 기자와 카메라맨이 인터넷이 이용가능한 곳이라면 어디에서든지 원격 편집 터미널을 사용하여 편집과 전송이 한 번에 작업될 수 있도록 하였다. 향후, 본 시스템이 KBS의 뉴스 제작 시스템의 경쟁력 향상에 도움이 되기를 기대한다.
-
본 논문은 UPnP 기반의 홈 네트워크 환경에서 실시간 미디어 전송을 위한 UPnP AV 프레임워크를 설계하고, 디지털 엔터테인먼트 센터를 구현하였다. 가정에서의 오디오, 비디오 컨텐츠의 사용은 날로 증가하고 있으며, 사용자들은 이들 컨텐츠의 실시간 전송 서비스를 요구하고 있다. 기존의 UPnP AV 프레임워크에서의 컨텐츠를HTTP-GET 스트리밍 방식으로 전송 하였으므로 실시간 서비스를 하기에는 한계가 있었다. 본 연구에서는 RTP/RTSP 스트리밍 방식으로 컨텐츠 전송 서비스가 가능한 확장된 UPnP AV 프레임워크를 구현 하였다. 그 결과 사용자는 실시간 미디어 전송 서비스 이용이 가능하게 되었다.
-
본 논문은 이미지 완성(Image Completion)을 위한 근사적 에너지 최적화 알고리즘을 제안한다. 이미지 완성이란 이미지의 특정영역이 지워진 상태에서, 그 지워진 부분을 나머지 부분과 시각적으로 어울리도록 완성시키는 기법을 말한다. 본 논문에서 이미지 완성은 유사-확률적(pseudo-probabilistic) 시스템인 Markov Random Field로 모델링된다. MRF로 모델링된 이미지 완성 시스템에서 사후 확률(posterior probability)을 최대로 만드는 MAP(Maximum A Posterior) 문제는 결국 시스템의 전체 에너지를 낮추는 에너지 최적화 문제와 동일하다. 본 논문에서는 MRF의 최적화 알고리즘들 중에서 Belief Propagation 알고리즘을 이용한다. BP 알고리즘이 이미지 완성 분야에 적용될 때 다음 두 가지가 계산시간을 증가시키는 요인이 된다. 첫 번째는 완성시킬 영역이 넓어 MRF를 구성하는 정점의 수가 증가할 때이다. 두 번째는 비교할 후보 이미지 조각의 수가 증가할 때이다. 기존에 제안된 Priority-Belief Propagation 알고리즘은 우선순위가 높은 정점부터 메시지를 전파하고 불필요한 후보 이미지 조각의 수를 제거함으로써 이를 해결하였다. 하지만 우선순위를 정점에 할당하기 위한 최초 메시지 전파의 경우 Belief Propagation의 단점은 그대로 남아있다. 이를 개선하기 위해 본 논문에서는 이미지 완성을 위한 MRF 모델을 피라미드 구조와 같이 층위로 나누어 정점의 수를 줄이고, 계층적으로 메시지를 전파하여 시스템의 적합성(fitness)을 정교화 해나가는 Hierarchical Priority Belief Propagation 알고리즘을 제안한다.
-
다자간 분산형 협업 시스템인 Access Grid(AG)는 IP 멀티캐스트 네트워크상에서 여러 사용자들 간에 영상, 음성 및 다양한 데이터의 공유를 통해 상호 의사소통이 가능한 공동 작업환경을 제공하기 위해 개발되었다. 멀티캐스트를 사용함으로써 AG는 대역폭 효율적으로 다수 사용자 사이의 의사소통 환경을 제공하고 있다. 그러나 IP 멀티캐스트의 설정 및 관리상 복잡성으로 인해 이를 지원하지 않는 네트워크가 다수 존재한다. 이는 AG를 이용한 협업 서비스를 이용하는 데에 큰 장애물이 되고 있다, 본 논문에서는 이러한 멀티캐스트 연결성 문제에 대한 해결책으로 응용 계층의 멀티캐스트 터널링 프로토콜인 UMTP (UDP multicast tunneling protocol) 를 확장한 멀티캐스트 연결성 솔루션인 AG Connector를 제안한다.
-
Kim, Sang-Ho;Kim, Sung-Tak;Kwon, Suk-Bong;Ji, Mi-Kyong;Kim, Hoi-Rin;Yoon, Jeong-Hyun;Lee, Han-Kyu 268
In this paper, we present effective methods for automatic music recommendation system which automatically recommend music by signal processing technology. Conventional music recommendation system use users’ music downloading pattern, but the method does not consider acoustic characteristics of music. Sometimes, similarities between music are used to find similar music for recommendation in some method. However, the feature used for calculating similarities is not highly related to music characteristics at the system. Thus, our proposed method use high-level music characteristics such as rhythm pattern, timbre characteristics, and the lyrics. In addition, our proposed method store features of music, which individuals queried, to recommend music based on individual taste. Experiments show the proposed method find similar music more effectively than a conventional method. The experimental results also show that the proposed method could be used for real-time application since the processing time for calculating similarities between music, and recommending music are fast enough to be applicable for commercial purpose. -
오디오 텍스처 합성은 주어진 짧은 오디오 클립으로부터 임의의 길이를 갖는 새로운 오디오 클립을 생성하는 방법이다. 이는 애니메이션이나 영화에서 비디오와 정확한 동기화를 이루는 사운드 효과를, 혹은 임의의 길이를 갖는 배경 음악을 효율적으로 만들 수 있는 방법이다. 최근 Lie Lu는 주어진 예제 오디오 클립을 여러 조각으로 나눈 후, 이 조각들을 그래프 형태로 연결하고, 생성된 그래프를 탐색하면서 임의의 길이를 가지는 오디오 클립을 합성하는 방법을 제안하였다. 비교적 간단한 방법으로도 원본 오디오 클립과 비슷한 느낌의 오디오 클립을 만들어낸다는 장점이 있지만, 이는 원본 내의 여러 오디오 조각들이 단지 지속적으로 연결되는 형태로 합성되기 때문에 종종 반복되는 느낌을 받는다는 단점이 있다. 본 논문에서는 Lie Lu의 방법과는 달리 주어진 예제 오디오 클립을 직접 합성함으로써 반복성을 줄이면서도 원본과 비슷한 느낌을 갖는 결과 오디오 클립을 생성할 수 있는 방법을 제안한다. 특히 본 논문에서는 정확한 합성을 위하여 EM 최적화 방법을 사용한다. 본 논문에서 제안하는 합성 방법은 먼저 예제 오디오 클립을 일정 단위로 나누고 이렇게 나눠진 부분들을 일정 길이만큼 서로 겹쳐지게 합성하여 임의의 길이의 오디오 클립을 만든다. 그 후 만들어진 오디오 클립을 예제 오디오 클립과 부분 부분을 비교하여 확장된 오디오 클립과 최대한 비슷한 부분을 예제 오디오 클립에서 찾는다. 그 다음 찾아진 결과를 결과 오디오에 다시 합성하여 오디오 클립을 만든다. 이런 과정을 반복하여 최적화된 가장 적절한 결과값을 구한다. 이 결과는 분할된 부분들이 가장 자연스럽게 이어지는 결과가 된다. 본 논문에서는 최적화를 사용하여 오디오를 합성하기 때문에 합성 결과를 쉽게 조정할 수 있다는 장점이 있다. 최적화 문제에 특정 제약 조건을 넣음으로써 사용자가 원하는 부분의 음악이 결과 사운드의 특정 부분에 위치 할 수 있게 하고 이로써 특정 흐름을 만들어낼 수 있으며, 일부가 손실된 사운드 데이터의 복구를 가능하게 하는 등의 결과를 생성할 수 있다. EM 최적화를 사용한 오디오 텍스처 합성 방법은 기존의 합성 방법에 비해 질적인 측면에서 보다 좋은 결과를 생성할 수 있고, 비교적 반복이 덜한 패턴들을 만들어 낼 수 있다. 이를 입증하기 위해 이에 대한 사용자 설문 조사 결과가 제시된다.
-
비디오 복원(video completion)은 비디오 영상에서 색상값에 대한 정보가 없는 픽셀에 적절한 색을 채워 영상을 복원하는 기술이다. 본 논문에서는 움직이는 두 물체가 교차하는 입력영상으로부터 하나의 물체를 제거함으로 발생하는 홀(hole)을 채우는 비디오 복원 기술을 제안한다. 입력 영상에서의 두 물체 중 카메라와 가까운 물체를 제거함으로써 영상의 홀이 발생하게 되고, 이 홀을 다른 프레임들의 정보를 이용하여 채움으로써 가려진 물체를 복원한다. 모든 프레임에 대해 각 물체의 중심을 추정하여 물체의 중심을 기준으로 시-공간 볼륨(spatio-temporal volume)을 생성하고, 복셀 매칭(voxel matching)을 통한 시간적 탐색을 수행한 후 두 물체를 분리한다. 가리는 물체 영역으로 판단 된 부분을 삭제하고 공간적 탐색 방법을 이용하여 홀을 채워 가려짐이 있는 물체를 복원하는 과정을 소개한다. 실험 결과를 통해 제안한 기술이 비교적 자연스러운 결과를 얻을 수 있다는 것을 보여준다.
-
최근 다양한 분야에서(웹 포털, 유료 음원서비스 등) 디지털 오디오의 검색이 사용되고 있다. 이러한 분야에서 디지털 오디오의 검색은 디지털 오디오 데이터가 가지고 있는 자체 메타 정보를 이용하여 이루어진다. 하지만 메타 정보가 다르게 작성 되었거나 작성되지 않은 경우 정확한 검색은 어렵다. 요즘 이러한 문제의 보완 방안으로 내용기반 정보 검색 기법을 이용한 검색이 이루어지고 있다. 본 논문에서는 내용 기반 디지털 오디오 검색 방법에 대해 논하고자 한다. 내용기반으로 디지털 오디오를 검색하기 위해 음성 인식 문야에서 유사도 측정에 사용하는 Dynamic Time Warping 기법을 활용하여 디지털 오디오 간의 유사도 측정을 하였다. 제안된 유사도 측정을 통한 내용기반 디지털 오디오검색 방법의 검증을 위해 같은 장르에서 무작위 추출된 100곡에서 시행한 90번의 검색은 모두 성공했다. 검색에 사용된 90개의 디지털 오디오는 10개의 디지털 오디오를 압축방식과 비트율을 다르게 조합하여 만들었다.
-
Human Computer Interaction 기술을 구체화 시키기 위한 Intelligent Responsive Space의 개발에 있어서 음성정보는 여러 가지로 유용하게 활용될 수 있다. 음성신호로부터 얻을 수 있는 다양한 정보 중의 하나가 화자인식을 이용한 화자의 신원식별이다. 이 논문에서는 화자인식 인식이 어려운 환경에서도 음성 신호로부터 추출한 특성벡터들을 선택적으로 사용함으로써 화자인식 성능을 높일 수 있는 새로운 방법을 제안하려 한다. 화자를 인식하는데 있어서 인식오류를 발생시킬 가능성이 높은 특성벡터들을 인식을 위한 판단의 대상에서 배제시킴으로써 성능을 향상시킬 수 있다. 실험결과에 의하면 0.25초에서2초 길이의 짧은 음성만으로도 기존의 방법에 비해 20에서 51%의 상대적 성능 향상을 보였다. 새롭게 제안된 방법을 적용하면 기존의 방법들에 비해 세밀하면서도 정확하게 연속적으로 화자들을 인식할 수 있게 된다.
-
Computational speed plays key role in background subtraction and shadow detection, because those are only preprocessing steps of a moving object segmentation, tracking and activity recognition. A color intensity variation based approach fastly detect a moving object and extract shadow in a image sequences. The moving object is subtracted from background using meanmax, meanmin thresholds and shadow is detected by decrease limit and correspondence thresholds. The proposed approach relies on the ability to represent shadow cast impact by offline experiment dataset on sub grouped RGB color space.
-
본 논문은 이미지에서 불필요한 영역을 삭제하고, 그 영역을 배경과 어울리게 채워넣는 이미지 인페인팅 방법을 제안한다. 제안하는 인페인팅 방법은 크게 인페인팅 영역을 채우는 밴드 인페인팅(band in-painting)과 seamless cloning으로 나눌 수 있다. 밴드 인페인팅(band in-painting)은 인페인팅 영역의 경계를 따라서 일정한 두께를 가지는 타겟 밴드(target band)를 정의하고, 인페인팅 영역 밖의 모든 픽셀을 중심으로 하는, 타겟 밴드와 같은 모양과 크기를 가지는 소스 밴드(source band)와 타겟 밴드 차이를 계산하여, 그 값의 차이가 가장 작은 소스밴드 영역의 값을 인페인팅 영역에 복사하는 것이다. Seamless cloning은 인페인팅 영역과 입력 이미지의 경계를 없애는 것이다.
-
상황 인지 컴퓨팅에서 상황정보 추론 기능은 상황정보 관리를 위해 중요한 기능 중의 하나이다. 상황정보 추론 기능은 하위 레벨의 상황정보들로부터 사용자의 상황을 나타내는 상위 레벨의 상황정보를 제공한다. 인프라 기반 지능형 공간에서 중앙 집중 형의 상황정보 관리 시스템은 상황정보 추론을 위한 자원 소모를 고려할 필요가 없었다. 하지만 자원이 제약된 장치들로만 구성된 개인 지능형 공간에서는 공간 내 전체의 자원 소모뿐만 아니라 상황정보 관리자 역할을 하는 장치 (coordinator)들의 자원 소모가 최소화 되어야 한다. 본 논문에서는 중앙 집중적인 상황정보 추론 작업을 분배하여 개인 지능형 공간 내의 다른 장치들에게 작업을 분산시키는 상황정보 추론 작업 분배 기법을 제안한다. 제안된 분배 기법은 건강정보, 환경정보, 지리정보 같이 상황정보가 자주 발생하는 환경에서 더 효율적이다. 상황정보 추론작업을 분배 함으로써 상황정보 추론을 위한 개인 지능형 공간의 전체의 처리량을 크게 증가시키지 않으면서 코디네이터의 처리량을 줄일 수 있다. 본 논문의 작업분배 기법은 상황정보 추론의 역할을 하는 코디네이터와 분산된 로컬 상황정보 추론기능을 제안한다. 본 논문에서는 제안된 상황정보 추론 기능을 개인 지능형 공간을 구성하는 장치들에 각각 구현하고 상황정보 추론을 위한 처리부하를 측정하여 제안된 기법의 실행 가능성을 보였다.
-
다수의 사용자가 동일한 디스플레이 화면을 보면서 의사를 교환하거나 공동 작업을 수행하는 협업환경에서의 인터랙션 기술은 네트워크 기술, 디스플레이 기술만큼이나 효율적인 협업을 위해 중요한 요소 기술이다. 이러한 인터랙션의 성공적인 수행을 위해서 중요한 기능 중의 하나는 사용자의 상황인식을 들 수 있는데 이는 사용자의 돌발 행동, 사용자들간의 의사교환 정도 등을 측정하고 예측하는데 유용하게 사용될 수 있다. 협업환경 내에서의 사용자의 위치 파악은 사용자의 상황인식뿐 아니라 다수의 사용자가 동시에 레이저 포인터를 이용하여 디스플레이 장치를 가리키고 있는 경우, 어느 사용자가 디스플레이 화면 중 어느 위치를 포인팅 하고 있는지를 계산하는데 도움을 줄 수 있다. 본 연구에서는 제한된 환경 내에서 사용자의 3차원 위치를 추적할 수 있는 시스템을 제안한다. 개발된 시스템은 사용자의 위치 계산뿐 아니라 사용자의 제스처도 함께 인식하여 사용자가 협업환경 시스템을 제어할 수 있고 공중에서 글씨 쓰는 등의 인터랙션도 수행할 수는 기능을 지원한다.
-
본 논문에서는 사용자 중심의 커뮤니티를 정의하고, 사용자의 맥락 정보를 이용한 커뮤니티 구성 방법과 맥락정보 변화에 따른 동적 커뮤니티 재구성 방법을 제안한다. 최근 유비쿼터스 스마트 공간에서 협업 서비스를 제공하기 위한 방법으로 커뮤니티 컴퓨팅에 대한 관심이 증대되고 있다. 하지만 기존 커뮤니티 컴퓨팅 관련 연구에서는 정적인 커뮤니티 구성으로 인해 사용자의 행동 변화에 따른 커뮤니티의 동적 구성이 어렵다. 따라서 커뮤니티를 사용자의 행동에 따라 구성하기 위해서는 사용자 맥락 정보를 이용하는 것이 필요하다. 제안된 방법은 사용자 중심의 정형화된 맥락 모델을 이용하여 사용자의 관심사를 추론하고 커뮤니티의 목적을 설정한다. 그리고 주기적인 사용자의 맥락 정보 감시를 통해 사용자의 행동 변화에 따라 동적으로 커뮤니티 재구성이 가능하게 한다. 커뮤니티 관리 모듈은 사용자의 맥락 정보를 이용하여 구성원들 사이의 관계성을 분석하고, 분석된 관계를 바탕으로 커뮤니티의 특성을 결정한다. 제안된 기법의 유용성을 검증하기 위해서, 맥락인식 기반의 증강현실 경험 공유 시스템을 이용하였고, 사용자의 맥락 정보의 변화에 따른 동적 커뮤니티 구성과 커뮤니티 구성원들간의 콘텐츠에 대한 선택적 공유를 실험하였다. 제안된 방법을 활용하면 선택적 공유를 위한 동적 커뮤니티 구성이 가능하게 될 것으로 기대된다.
-
RFID와 sensor network의 두 기반 기술은 독특한 물리적 특정을 가지며 상호 보완적인 관계를 가지고 있다. 이러한 관계는 창고 안 물품의 상태파악과 입출 재고를 관리하는 형태로 응용된다. 창고 내 물품 보관 단위인 파렛트(Pallet) 에 RFID 태그를 부착하여 입/출고시의 물품을 식별한다. 그리고 Zigbee 무선 통신기능을 가진 센서 모듈에 의해 물품의 환경 상태 정보를 파악한다. 이후 현장 관리자나 소비자들은 이동형 단말장치를 통해 현장에서 다양한 USN 상의 정보들과 상호작용 한다. 이 과정에서 이동형 단말장치를 통한 RFID tag 정보와 센서 노드의 접근이 공중파 상에 노출 된다. 이러한 센서 노드 접근을 보호하기 위해 추가적인 칩 설계 등의 비용 지불로 기밀 노출에 대처할 수 있다. 이에 대한 대안으로 인프라형태로 놓여진 RFID tag와 단말장치에 탑재될 RFID 리더를 활용해 더 적은 비용으로 보안 서비스를 받고자 한다. 그래서 유비쿼터스 환경에서 센서 노드에 대한 접근을 제어하기 위해 RFID tag를 지역키(local key) 처럼 사용한다. 또한 이 과정에 보안이 적용된 프로토콜을 설계 하는 것이 본 논문의 주된 목표이다.
-
유비쿼터스 환경이 도래하면서 모바일 화상회의 시스템의 사용욕구가 증대되고 있다. 모바일 화상회의 시스템은 사용자가 가지고 있는 다양한 모바일 장치에의 적용과 무선 환경에서의 고용량 데이터의 전송을 요구한다. 본 논문에서는 다양한 플랫폼에서 구동할 수 있고 고용량 데이터의 무선 환경에서의 안정적인 전송을 위한 시스템 구조를 제안한다.
-
"유비쿼터스 컴퓨팅"과 "상황인지 컴퓨팅"이 점차 확산되어짐에 따라 유비쿼터스 환경이 급격하게 발전하면서 변화하고 있다. 이러한 변화로 인해 사용자 정보와 사용자 주변의 환경 정보를 파악하여, 적절한 시간에 적절한 서비스를 제공할 수 있는 기술과 인간과 컴퓨터 관계가 증가하면 할 수 록 인간과 인간의 관계처럼 좀 더 자연스러운 관계를 유지 할 수 있는 상황인지 컴퓨팅이라는 개념이 나타나기 시작하였다. 이러한 상황인지 컴퓨팅을 통하여 상황을 인지하고 사용자에게 필요한 정보를 제공하기 위해서는 상황을 정의 할 수 있는 상황인지 모델이 필요하다. 그러나 현재, 상황을 인지하기 위한 상황인지 모델에 관한 연구는 미비한 상태이다. 본 논문에서는 5W1H를 이용하여 상황을 정의하고, RFMatrix를 이용하여 주변 환경과 사람들과의 관계를 반영한 RFMatrix 기반의 상황인지 모델을 제안한다. 또한 제안된 RFMatrix모델의 유용성을 검증하기 위해 학습공간의 실험을 통하여 정확성을 검증하고자 한다.
-
사회구조가 고도화됨에 따라서 사용자들은 크고 복잡한 환경에 노출되고 있다. 이러한 환경은 사용자들이 자신의 위치가 어디인지를 인식하게 어렵게 하고 있다. 그에 따라서 사용자에게 지도나 키오스크 시스템[1]과 같은 위치 안내 서비스를 제공하고 있다. 하지만 이런 서비스는 2D 기반의 안내를 하기 때문에 사용자가 직관적, 공간적으로 자신의 위치를 파악하기란 어렵다. 직접 시스템에 찾아가야 서비스를 사용할 수 있으며, 서비스의 제공이 지속적이지 않고, 순간적이라는 단점이 있다. 본 논문에서는 사용자가 이동하면서 자신이 찾고자 하는 위치에 대한 안내를 3D 가상현실 기반의 위치 안내를 받을 수 있는 모바일 PC를 위한 위치 기반 서비스(Location Based Service)를 제공한다. 제안하는 시스템은 사용자의 현재의 위치를 인식하기 위해서 모바일 PC에 GPS와 RFID태그를 이용한다. 이를 실내외 공간에서의 위치를 인식을 하게 되며, 사용자의 현재 위치에서 자신이 가고자 하는 목표장소에 대한 최단 경로를 알려 준다. 뿐만 아니라 여러 장소를 방문하는 경우, 미리 만든 스케쥴에 따라서 위치 안내 서비스를 받을 수 있다. 제안하는 시스템은 사용자가 전시장, 병원, 관공서 등의 건물에서 원하는 위치를 자신이 있는 위치에서 편하고 간편하게 찾아 줄 수 있으며, 부가적으로 다양한 위치 기반 서비스들이 적용 가능하다.
-
유비쿼터스 컴퓨팅 환경으로 변화됨에 따라 사용자의 묵시적인 행위에 따라 반응하면서도 주의를 지나치게 집중시키지 않는 다양한 디스플레이에 대한 요구가 증가되고 있다. 본 논문에서는 액자형 앰비언트 디스플레이 시스템을 이용하여 사용자의 위치에 따라 사진을 내비게이션 하는 방법을 제안한다. RFID 센서와 초음파 센서를 이용하여 사용자 신원 및 디스플레이와의 접근거리를 인식하고, 사용자와 디스플레이의 근접도에 따라 보여 질 영상과 인터페이스의 상세도 레벨을 자동으로 정하게 된다. 사용자가 디스플레이로부터 아주 멀리 있는 경우에는 주의를 집중시키지 않도록 단순한 그림 액자의 기능을 제공한다. 사용자가 인터랙션 가능한 영역으로 진입하면 사용자와 관련된 사진을 보여주고, 사용자의 위치에 따라 TIP(Tour Into the Picture) 방법을 이용하여 사진을 3 차원 내비게이션 할 수 있도록 하였다. 또한 터치 스크린을 이용한 메뉴의 직접적인 조작과 공중 마우스를 이용한 원격 메뉴 조작 또한 가능하도록 하였다. 뿐만 아니라 댁내의 응급 상황 정보 등을 전달 할 수 있도록 디스플레이 프레임 주위를 LED 를 이용하여 반짝일 수 있도록 설계 하였다.
-
유비쿼터스 컴퓨팅 환경의 사용자는 환경에서 제공되는 수 많은 서비스 (U-서비스)중에서, 사용자의 특성, 필요, 선호도에 따라 적합한 서비스를 쉽게 선택하여 사용할 수 있어야 한다. 본 논문에서는 사용자의 맥락에 따라 U-서비스를 선택하고 상호작용을 할 수 있는 사용자 인터페이스로 personal companion 을 제안한다. Personal companion 은 서비스 발견 기법과 카메라 기반의 상호작용 방법을 통해 서비스를 선택하고, 선택한 서비스의 인터페이스를 개인화 함으로써 다수의 서비스와 직관적인 상호작용을 가능케 한다. 이를 위해 기존 마커의 가시성을 줄이는 새로운 형태의 마커를 제안하고 카메라 기반의 상호작용 방법에 응용한다. Personal companion 의 유용성 검증을 위해 PDA 와 UMPC 플랫폼에 구현한 후, 스마트 홈 테스트 베드의 여러 응용 서비스를 선택하고 상호작용을 하는데 적용하였다. 제안한 personal companion 은 유비쿼터스 컴퓨팅 환경에서 사용자와 U-서비스를 사용자 중심적으로 연결시켜 주는 중요한 매개체의 역할을 할 수 있을 것으로 기대된다.
-
현재 펜기반 컴퓨팅 환경에서 주로 쓰이는 문자 입력 방식은 화상키보드이다. 그러나 화상키보드는 펜 컴퓨터를 위해 나온 것이 아니기에 차지하는 화면의 크기나 움직임 거리등의 문제가 있다. 본 논문에서는 그러한 단점을 개선하기위하여 모바일 장치의 키패드를 이용하여 새로운 입력방식을 제안한다. 햅틱 피드백 디바이스인 ActivePen의 기능을 이용하여 보다 효율적인 멀티탭 방식의 키패드인 Stair-tap과 Time-tap을 소개하고 사용성 평가 결과를 보여준다.
-
최근 들어 햅틱 분야는 디지털 콘텐츠를 만질 수 있게 촉감을 제공함으로써 의학, 교육, 군사, 엔터테인먼트, 방송 분야 등에서 널리 연구되고 있다. 그러나 햅틱 분야가 사용자에게 시청각 정보와 더불어 추가적인 촉감을 제공함으로써 보다 실감 있고 자연스러운 상호작용을 제공하는 등 여러 가지 장점을 가진 것에 비해 아직은 일반 사용자들에게 생소한 분야다. 그 이유 중 하나로 촉감 상호작용이 가능한 콘텐츠의 부재를 들 수 있다. 또한 최근에 가상환경(Virtual Environment, VR)에 관심이 증가 되고, 가상환경에 햅틱이라는 기술을 접목시키는 시도가 많이 일어나고 있어서, 촉감 모델링에 대한 욕구 또한 증대 되고 있다. 일반적으로 촉감 모델링은 Material properties를 가지고 있는 그래픽 모델들로 구성이 된다. 그래픽 모델링은 일반적인 모델링툴 (MAYA, 3D MAX, 기타 등)으로 할 수 있다. 하지만 촉감 관련된 촉감 모델들은 콘텐츠를 제작한 이후에 일일이 수작업으로 넣어 주어야 한다. 그래픽 모델링에서는 사용자가 직접 눈으로 확인 하면서 작업을 이루어 지기 때문에 직관적으로 이루어질 수 있다. 이와 비슷하게 촉감 모델링은 직관적인 모델링을 하기 위해서 사용자가 직접 촉감을 느껴 보면서 진행이 되어야 한다. 또한 그래픽 모델링과 촉감 모델링이 동시에 진행이 되지 않기 때문에 촉감 콘텐츠를 만드는데 시간이 많이 걸리게 되고 직관적이지 못하는 단점이 있다. 더 나아가서 이런 촉감 모델링을 포함한 모델링 높은 생산성을 위해서 신속히 이루어져야 한다. 이런 이유들 때문에 촉감 모델링을 위한 새로운 인터페이스가 필요하다. 본 논문에서는 촉감 상호작용이 가능한 촉감 콘텐츠를 직관적으로 생성하고 조작할 수 있게 하는 촉감 모델러를 기술한다. 촉감 모델러에서 사용자는 3 자유도 촉감 장치를 사용하여 3 차원의 콘텐츠 (정적 이거나 동적이거나 Deformation이 가능한 2D, 2.5D, 3D Scene)를 실시간으로 만져보면서 생성, 조작할 수 있는 촉감 사용자 인터페이스 (Haptic User Interface, HUI)를 통해서 콘텐츠의 표면 촉감 특성을 직관적으로 편집할 수 있다. 촉감 사용자인터페이스는 마우스로 조작하는 기존의 2 차원 그래픽 사용자 인터페이스를 포함하여 3 차원으로 사용자 인터페이스도 추가되어 있고 그 형태는 촉감 장치로 조작할 수 있는 버튼, 라디오버튼, 슬라이더, 조이스틱의 구성요소로 이루어져있다. 사용자는 각각의 구성요소를 조작하여 콘텐츠의 표면 촉감 특성 값을 바꾸고 촉감 사용자 인터페이스의 한 부분을 만져 그 촉감을 실시간으로 느껴봄으로써 직관적으로 특성 값을 정할 수 있다. 또한, XML 기반의 파일포맷을 제공함으로써 생성된 콘텐츠를 저장할 수 있고 저장된 콘텐츠를 불러오거나 다른 콘텐츠에 추가할 수 있다. 이러한 시스템은 햅틱이라는 분야를 잘 모르는 사람들도 직관적으로 촉감 모델링을 하는데 큰 도움을 줄 수 있을 것이다.
-
관성 센서는 외부 장치의 도움 없이 3차원 공간상에서 움직임 측정이 가능하다. 최근 MEMS 기술의 발달로 소형 저가 관성 센서(가속도 센서 혹은 각속도 센서) 제작이 가능해져 관성 센서를 소형 휴대 기기에 내장하여 사용자의 움직임을 감지하거나 의도 파악하는 연구가 진행되고 있다. 본 연구에서는 관성 센서가 내장된 휴대 기기를 이용하여 3차원 공간상에서 6가지 위치에 따라서 각기 다른 6가지 소리를 발생하는 가상의 멀티 타악기 시스템을 제안한다. 즉, 휴대 기기를 상/하로 흔들면 가상 타악기의 타점 위치에 왔을 때 비트 음을 발생하고, 6개의 다른 위치를 구분하여 다른 타점의 위치에서 휴대 기기를 흔들면 각각 그 위치와 미리 지정된 소리가 발생하도록 하였다. 이러한 가상의 멀티 타악기 시스템을 위해서 3차원 공간상에서 실시간으로 사용자의 움직임을 감지하고 휴대 기기의 위치를 파악하는 것이 필요하다. 저가의 관성 센서를 이용하여 사용자가 휴대 기기를 움직이는 동작이 있는 상황에서 실시간으로 휴대 기기의 위치를 추정하는 것은 쉽지 않지만 본 연구에서는 다양한 사용자의 움직임 동작 분석을 통하여 사용자가 가상의 멀티 타악기를 상/하로 흔드는 동작을 감지하고 다른 위치로 이동하는 동작을 구분하였다. 개발된 동작 감지 알고리즘과 위치 구분 알고리즘을 휴대 기기에 적용되어 실제로 가상의 타악기 시스템을 구현하였다.
-
최근 들어 손 제스처를 인간-기계 인터페이스에 활용하는 연구가 많아지고 있다. 그 중에서 수화 인식은 청각장애인과 일반인 사이의 원활한 의사 소통을 하게 해 주는 인터페이스로서 중요성이 날로 더해가고 있다. 하지만 기존의 수화 인식 연구는 사용자 개개인의 수화 동작의 차이를 고려하지 않고 다수 사용자를 위한 모델을 사용하기 때문에 사용자에 따라 인식률이 낮아지게 된다. 이러한 점을 보완하기 위해 본 논문에서는 개개인의 수화 동작 특성을 반영하여 시스템이 사용자에게 적응해 가는 과정을 다루고자 한다. 특히 점진적인 사용자 적응에 있어서 가장 문제가 되는 것은 어떻게 비관측된 상태(unobserved state)의 파라미터를 수정할 것인가 하는 것이다. 이를 위해서 본 논문에서는 동작 유사도와 적응 추이에 의한 추정을 통해 비관측된 상태의 모델 파라미터를 수정한다. 실제 청각 장애인들로부터 획득한 데이터베이스를 사용하여 제안한 방법이 기존 방법에 비해 더욱 빠르게 사용자의 특성을 시스템에 반영하고 인식률을 향상시킨다는 것을 실험을 통해 보인다.
-
본 논문은 작업 현장에서 청각장애인의 의사소통을 보조하는 한국 수화 메시지 보드의 개발에 대하여 다룬다. 청각 장애인은 일상적인 직업 현장에서 의사소통이 자유롭지 못하여 업무에 잘 적응하지 못하고 사내의 인간관계에 많은 어려움을 겪고 있다. 문자를 이용한 정보 전달을 통해 모든 의사소통을 대체할 수 있을 것이라는 일반적인 생각과는 달리, 청각장애인의 경우 비장애인과 비교하여 사물의 개념 습득에 어려움이 있을 수 있으며 마찬가지로 사용하는 어휘수도 제한적인 경우가 많아 문자를 통한 의사소통에는 명확한 한계가 존재한다. 실제로 청각 장애 근로자가 이직하는 사유로 의사소통이나 인간관계가 높은 비중을 차지한다. 수화 메시지 보드는 크게 사내 네트워크를 이용한 공지 사항 전달을 위한 용도와 복수 개의 메시지 보드 간 문자 송수신의 용도로 사용 가능하다. 비장애인이 청각장애인에게 문자 입력으로 의사를 전달하면, 전달된 문자는 문자-수화 번역기를 통해 자동으로 수화로 번역되어 아바타의 수화 동작으로 화면에 출력된다. 전체 시스템은 수화 아바타를 포함한 그래픽 유저 인터페이스 (GUI), 수화 데이터베이스 및 한글 형태소/문장 분석기를 포함하는 문자-수화 번역기, 그리고 TCP/IP 기반의 문자 전송기의 세 부분으로 나뉜다. 본 논문에서는 수화 데이터베이스의 단어 선정을 위한 대상 작업 현장을 청각 장애 근로자가 타 직업에 비해 많은 비중을 차지하는 전자 부품 조립 업체로 한정하였다. 수화 데이터베이스는 자음 14종, 모음 17종, 숫자 15종, 일상생활 용어 1000종, 전자 부품 조립 업체에 특화된 단어 50종 및 직업 교육 관련 용어 50종으로 이루어진 총 1146종의 수화 단어를 포함하며, 수화 데이터베이스에 등록되지 않은 단어에 대해서는 지화로 표현하도록 한다. 이 중 전자 부품 조립 업체 특화 단어와 관련하여서는, 현재 동일한 분야의 작업 현장이라 하더라도 각 사업장 간 사용되는 수화가 통일되지 않아 문헌 조사 및 현장 조사를 통해 사용 빈도가 높고 형태가 공통적인 50종을 추려내었다. 본 연구는 실제 업무현장에서 청각장애인이 겪는 의사소통의 문제를 효과적으로 해결함으로써, 청각장애인이 직업 현장에 보다 쉽게 적응하도록 도움을 줄 뿐만 아니라, 일을 통해 자아 실현을 하도록 돕는 방안이 될 수 있다는 점에서 중요한 의의를 갖는다.
-
생물 의료 분야에서 정보의 양이 아주 빠르게 증가하고 있다. 이러한 방대한 양의 정보에서 유용한 정보를 추출하기 위해 텍스트 마이닝 기법을 이용한 연구들이 많이 진행되어 왔다. 그렇지만 이렇게 뽑아진 정보조차 그 양이 방대하고, 또한 텍스트로 되어 있기 때문에 직관적으로 이해하기가 어렵다. 따라서 이러한 정보들을 좀 더 직관적으로 이해하기 위해서는 정보 시각화 시스템이 필수적이다. 최근 들어 이러한 정보 시각화에 대한 연구가 많이 진행되었으나 이러한 시각화 정보조차 너무나 방대하기 때문에 사용자가 필요로 하는 정보를 여과해 주는 방법이 필요하다. 그리고 시각화 시스템에서의 지식 발견을 위한 방법을 제공하여야 한다. 본 논문에서는 생물 의료 정보의 텍스트 시각화에 초점을 맞추어 생물 의료 정보의 효과적인 표현 방법과 지식 발견을 위한 직관적인 인터페이스를 제안하고자 한다.
-
성대마이크는 디바이스의 특성상 환경 잡음을 최소화하는 장점이 있다. 그러나 고주파정보의 손실과 부분적인 포먼트 정보의 손실 때문에, 성대마이크를 이용한 명령어 인식기는 표준마이크를 이용한 명령어 인식기보다 낮은 성능을 보인다. 본 논문은 한국어 음운자질의 특성을 적용한 특징추출 알고리즘과 최적화된 인식모델을 이용하여 높은 성능을 갖는 명령어 인식시스템을 제안한다. 성대 울림 특성이 한국어 내의 분포 분석하여 성대 울림 정보만으로 명령어 인식기 개발이 가능함을 보이고 음성인식에 높은 성능을 보이는 Time Delay Neural Network(TDNN)[1]을 성대신호 명령어 인식에 최적화한 구조를 제안한다. 실험을 통해 찾은 최적 TDNN 구조를 성대신호에 적용한 했을 때 약 87%의 높은 성능을 보였다.
-
본 연구는 메신저 환경에서 상대방에게 감정을 표현할 때, 기존의 시청각적 감성정보 전달방식 이외에 촉각적 수단을 통하여 감성정보를 표현하는 진동기반 촉각 인터페이스를 제안한다. 이를 위해, 국내의 한 메신저 프로그램이 제공하고 있는 감성정보 기반의 이모티콘들을 분류하여 진동패턴을 기반으로 한 택타일 아이콘(tactile icons)으로 재정의한다. 그리고 사용자 실험을 통해 이의 실효성과 향후 응용 가능성을 검증한다.
-
멀티모달 인터페이스(multimodal interface)는 사람과 기계 사이의 통신을 위해 여러 가지 수단을 사용함을 말한다. 본 고에서는 휴대폰 키 패드를 통한 문자 입력과 마이크를 통한 음성 인식의 두 가지 모드를 함께 사용하여 단어를 입력하는 새로운 인터페이스 방법을 제시함으로써 미래지향적 휴먼 인터페이스의 핵심으로 인지되고 있는 음성인식의 한계, 특히 한국어 인식의 문제점을 해결하고자 한다.
-
본 연구는 기존의 프레젠터의 단순한 포인터 및 클릭 기능을 넘어선 다기능 제스처 인식 포인터의 구현이 주 목적이다. 주된 연구 내용으로는 적외선 발광 다이오드에서 나오는 빛을 인지하여 포인터의 궤적 인식을 하는 기술과 이를 응용한 어플리케이션의 개발에 있다. 본 하드웨어에는 기본적인 마우스 클릭 기능 외에도 적외선 발광 다이오드를 탑재하여 PC와 연결된 카메라가 이를 인지하도록 한다. 장점으로는 카메라가 항상 PC와 가까이 있을 필요가 없으므로 어느 장소이든 관계없이 적외선 투과 필터가 장착된 카메라 하나만 설치할 수 있는 곳이면 구현이 가능하며 적외선을 이용하므로 가시광선의 영향을 적게 받아 효율적으로 영상 처리를 할 수 있다는 데에 있다. 제스처 인식을 통하여 수많은 여러 가지 기능을 실행할 수 있으며, 보다 사용자와 인터랙티브한 작업이 가능해진다. 구현된 하드웨어와 소프트웨어 시스템은 프레젠테이션 및 게임 컨트롤에 사용되었다.
-
Jo, Seong-Jeong;Murray-Smith, Roderick;Choe, Chang-Gyu;Seong, Yeong-Hun;Lee, Gwang-Hyeon;Kim, Yeon-Bae 429
본 논문에서는 기울임 동작에 기반한 휴대기기 상의 사진 감상 UI를 제시하고 사용성을 평가한다. 기존의 기울임 입력 방식의 세가지 조작성 문제(overshooting, fluctuation, 부분 이미지 제시)를 개선하기 위하여, 사진 위치 및 기울임에 의존하는 사진 이동 제어 dynamics 모델을 제안한다. 본 시스템은 기울임 감지용 가속도 센서, 기울임에 의한 사진 이동 제어 dynamics 모델, 다중모달(시각, 청각, 촉각)을 통한 모델 상태 출력부로 구성된다. 센서 입력과 다중 모달 출력을 위하여, 삼성 MITs 4300 PDA의 배터리 팩을 개조하여 3축 가속도 센서와 진동 출력장치 (VBW32)를 장착하였다. 제안하는 시스템은 기존의 대표적인 사진 감상 입력 방법인 버튼과 iPod wheel과 비교하였다. 정량적 비교를 위하여 7명의 사용자에게 100장의 사진 중 20장을 차례로 검색하는 과제를 부여하면서 수집한 로그를 분석하였으며, 정성적인 비교를 위하여 설문 조사를 실시하였다. 실험 결과 제안한 방법이 기존 기울임 기반 dynamics에 비하여 overshooting 횟수를 30%, 사진간 이동 거리를 25%, 이동 시간을 17% 감소하였다. 또한 제안한 방법이 버튼과 유사한 조작성을 갖고 있으며, 버튼과 iPod보다 더욱 흥미성이 뛰어났다. 상업적으로 뛰어난 성공을 거둔 iPod이 다수의 overshooting 발생으로 실제로는 사용성이 떨어진다는 점이 예상치 못한 흥미로운 발견이었다. -
본 연구에서는 기존의 펜형 장치에 진행된 촉감 연구들이 진동이나 역감의 제시에 그쳤던 것에 반해, 더욱 일반화된 펜형 장치에 상징적 의미를 포함한 정보를 전달할 수 있는 촉감 패턴을 생성하는 방법을 제시한다. 상징성이 강한 시각적 아이콘을 촉감 패턴으로 변환하기 위해 점에서 이미지와 의미를 연상해 내는 별자리의 구성방식을 분석하여 이미지를 점으로 간략화하고, 촉감 제시 장치의 핀과 연동시켜 패턴화하였다. 아울러 본 연구의 효용성을 검증하기 위해 펜형 장치를 사용하는 PDA 응용 프로그램인 스케쥴러를 개발하여 생성한 촉감 패턴을 적용하였다. 본 연구는 임의적 배치 형태인 점자와 달리 촉감 패턴 자체가 상징성을 가질 수 있다는 점에서 일반인이 더욱 직관적으로 사용할 수 있다는 장점이 있으며 향후 적용한 응용 프로그램으로 사용성에 대한 검증이 필요하다. 또한 그 응용으로 일반적인 OS용 아이콘을 촉감화하거나 시각 장애인과 일반인이 모두 사용할 수 있는 Caller ID서비스, 게임 등 여러 가지 방향으로 활용할 수 있다.
-
현재 대부분의 모바일 장치들엔 디지털 카메라가 설치되어 있으며 거대한 양의 이미지 데이터들을 저장할 수 있다. 이렇게 많은 양의 이미지가 저장되어 있을 경우 장치 속의 이미지들에 대한 브라우징을 하기 어려워지며, 그에 걸리는 시간도 증가하게 된다. 특히 모바일 장치의 경우 화면의 크기가 작으며, 일반 컴퓨터와 비교하여 부자연스럽고, 불편한 인터페이스를 갖고 있어 어려움을 더욱 증가 시킨다. 우리는 이를 해결하기 위해 3차원 가시화 방법과 모션 센싱을 이용한 인터페이스를 제안하고, 제안된 가시화 방법과 인터페이스의 조합을 통해 모바일 장치에서의 효과적인 이미지 브라우징 방법을 모색해 보았다.
-
본 논문에서는 사용자의 가상환경 내의 위치 정보에 대한 감각을 향상시키는 방법론으로서 햅틱 피드백(haptic feedback)과 사운드 피드백(sound feedback)의 모달리티를 활용한 그리드(grid)를 제안한다. 제안된 그리드는 사용자의 3차원 공간 내의 움직임(explorative procedure)에 추가적인 비 시각적인(non-visual) 위치정보 피드백을 부여하는데 그 목적을 두고 있다. 햅틱 모달리티를 활용한 3차원 그리드는 SensAble사의 PHANTOM(R) Omni
$^{TM}$ 를 활용하여 설계되었으며, 사운드 모달리티를 활용한 경우 저주파 배경음의 주파수 특성(frequency characteristics of sound source)을 사용자 손의 공간 좌표값에 근거하여 재생 시의 표본 추출 비율(sampling rate)를 연속적으로 바꾸는 방식으로 설계되었다. 이러한 공간 그리드는 두 모달리티 각각의 독립적인 제시 및 동시 제시/제거를 통해 평가되었으며, 동시 제시의 경우 두 모달리티간의 어긋남(cross-modal asynchrony)이 없도록 설계되어 사용자의 공간 작업 시 모달리티간의 조화 (manipulating congruency)를 확보할 수 있도록 하였다. 실험을 통해 얻어진 결과는 그것의 통계적 유의미성을 분석하기 위해 다원변량분석과 사후검증(Turkey. HSD)을 거쳐 해석이 되었다. 공간 내 특정 좌표 선택을 기준으로 하는 그리드의 사용자 평과 결과, 3차원 내의 움직임에 대해 햅틱 및 사운드 피드백의 비 시각적 피드백은 사용자의 공간 작업의 오차를 줄여 주고 있음이 확인되었다. 특히 시각적인 정보만으로 확인하기 어려운 Z축 상의 움직임은 그리드의 도움으로 그 오차정도가 50% 이상 줄어 드는 것으로 확인되었다(F=19.82, p<0.01). 이러한 시각적 정보를 보존하는 햅틱, 사운드 피드백 방식을 HCI의 중요한 요소인 사용성과 유용성과 연관시켜 MMHCI(multimodal human-computer interaction) 방법론으로의 적용 가능성을 검토해 본다. -
본 논문에서는 지능형 주택의 필수 요소 기술의 하나인 사용자 신원을 파악하며 또한 현재 사용자의 위치를 추정하는데 직접적으로 사용이 가능한 방으로의 들어오고 나감 (즉, 출/입 행동)을 감지하는 효과적인 방법을 제안한다. 개발된 시스템은 [1]에 제안되었던 방법을 개선시킨 것으로 초음파 센서 및 PC를 이용하여 만들어졌던 시스템을 8bit 마이크로 컨트롤러를 사용한 임베디드 시스템의 형태로 구현하였다. 이와 더불어 복수개의 센싱 시스템에서 감지한 신호를 블루투스에 기반한 무선 전송 채널을 통해 1개의 중앙 컴퓨터로 전송하는 무선 센서 네트워크를 구성하였다. 이렇게 구성된 센서 네트워크를 통해 각 센싱 모듈이 검출한 사용자 인식 및 인식된 사용자의 출/입 이벤트를 기록, 저장하는 시스템을 구현하였다. 개발된 시스템은 임베디드 시스템의 특성에 적합하도록 기존 PC기반으로 개발된 알고리즘을 수정 개선하였고, 성능 검증을 위해 일반 가정집에 3개의 센싱 모듈을 설치하여 3명의 사용자를 대상으로 실험을 수행하였다.
-
일상 생활에서의 대화 또는 컴퓨터를 매개로 이루어지는 대화에서 자기노출은 서로에 대한 개인적인 정보를 공유하여 친밀한 관계를 유지하기 위한 과정이다. 자기노출에서의 개인적인 정보는 생각 및 경험을 비롯하여 감정 등을 의미하는데, 감정은 특히 대화 분위기 형성 및 원활한 대화 진행을 위한 효과적인 의사소통수단으로 작용한다. 대화 시의 감정노출은 대화 상대방(노출 대상)과 감정표현의 대상(표현 대상)에 따라 표현의 실제강도와 노출의 정도가 달라지게 된다. 본 연구에서는 인터넷을 통해 대화를 주고 받거나 자료를 전송할 수 있는 인스턴트 메신저를 통하여 이루어진 대화에서 노출 대상과 표현 대상을 고려하여 대화참여자의 감정상태를 파악한다. 이를 위한 사전조사로 드라마 스크립트 상의 등장인물들의 감정표현 패턴을 분석하고 이를 활용하여 노출 대상이 각각 다른 대화문장에서 통사 및 의미 분석 과정을 거쳐 표현 대상에 따른 대화참여자의 감정상태를 파악하고, 대화참여자가 자신의 감정을 관찰할 수 있는 인터페이스를 제공한다.
-
텍스트 애니메이션 시스템에서는 자연언어 단어로 표현된 개체들을 한정된 수의 애니메이션 모델로 나타낸다. 그러나 자연언어 단어의 수에 비해 기존의 모델DB에 있는 모델의 수가 훨씬 적은 것이 일반적이기 때문에 해당 단어에 대응되는 애니메이션 모델이 존재하지 않는 경우가 있게 된다. 이러한 경우, 해당 단어가 가지는 의미를 최대한 보존할 수 있는 대체 모델을 찾을 수 있는 방법이 필요하다. 본 논문은 애니메이션에서 캐릭터 또는 사물로 표현되어야 하는 명사에 대해, 온톨로지에서 해당 명사와 상위(hypernym), 하위(hyponym), 부분(member meronymy) 관계에 있는 다른 단어를 탐색하여 적절한 모델을 찾는 방안을 제안한다.
-
대화관리시스템은 사용자 발화로부터 사용자의 의도를 추론하여 시스템의 응답을 결정하고 이를 사용자에게 자연스러운 형태로 반환하는 역할을 한다. 본 논문에서는 마르코프 의사 결정과정에 기반한 대화관리자를 통하여 정확한 동작 수행과 사용자의 자연스러운 발화를 가능케 하는 대화관리시스템에 대해서 소개한다. 마르코프 의사 결정과정 대화관리자는 실세계 환경을 모델링 하는 유한 개수의 상태들과 이를 이용한 통계적 학습을 통해 시스템 응답을 결정 한다. 본 대화관리시스템은 대화관리자 이외에 언어이해부, 영역규칙 적용부, 목적시스템 제어부, 예제기반 응답생성부로 이루어져 있으며, 각 구성요소는 영역이식에 용이하도록 설계되어 있다.
-
본 논문에서는 깊이 영상을 개선하는 방법으로 깊이 영상 획득 시 손실된 영역을 복원하는 기법을 제안한다. 대상 객체의 동적인 3차원 정보는 적외선 깊이 센서가 장착된 깊이 비디오 카메라를 통하여 실시간으로 획득한다. 이때, 깊이 비디오뿐만 아니라 각 프레임마다 컬러영상이 동시에 획득된다. 그러나 대상 객체의 일부 또는 전체가 반짝이는 검은 재질로 되어있을 경우, 획득된 깊이 영상에 손실이 발생한다. 특히 방송용 콘텐츠로서 연기자의 3차원 정보를 획득할 때 머리카락 영역이 손실되는 심각한 문제가 발생한다. 이를 해결하기 위해 먼저 컬러 영상을 이용하여 손실된 영역의 위치 정보를 알아낸다. 손실된 영역 내 경계부분의 깊이 정보를 복원한 후 2차 베지어 커브로 보간하여 내부의 깊이 정보를 복원한다. 개선된 깊이 영상을 기반으로 일련의 모델링 과정을 수행하면 보다 자연스러운 3차원 모델을 생성할 수 있다. 생성된 3차원 모델은 실감방송용 콘텐츠로 사용될 수 있으며, 시청자에게 시각상호작용과 촉각상호작용 등 다차원 감각의 상호작용을 제공할 수 있다.
-
컴퓨터에서 사용되는 2D 이미지는 크게 비트맵과 벡터의 두 가지 표현 방식이 존재한다. 일반적으로 사용되는 이미지와 텍스처는 대부분 비트맵을 기반으로 하고 있으며, 이에 따라 많은 텍스처 합성에 관한 연구 또한 비트맵 기반으로만 이루어져 왔다. 그러나 일부 분야들에서는 몇 가지 단점에도 불구하고 벡터 형식의 이미지를 선호하고 있으며, 비트맵이 가지지 못한 장점들과 현재의 충분한 컴퓨터 연산 능력을 고려해 볼 때 벡터 이미지의 필요성과 활용분야는 앞으로도 늘어날 것이라 생각된다. 이에 따라 본 논문에서는 벡터 형식으로 주어진 텍스처 패턴을 분석, 합성하는 새로운 방법을 제안한다. 입력 받는 벡터 이미지는 몇 가지의 속성을 지닌 스트로크(Stroke)들의 집합으로서, 각각의 스트로크는 비트맵에서의 픽셀과 같이 기본적인 분석과 합성의 단위가 된다.
-
실제 영상과 가상의 오브젝트 또는 가상의 환경에 오브젝트를 합성하는 경우 등 사실적인 합성을 결과를 얻기 위해서는 실제 환경과 같은 배경 영상의 정확한 광원 정보가 필요하다. 본 논문에서는 실내 환경을 배경으로 영상을 합성 하는 과정에 필요한 광원정보를 카메라와 Light Probe를 이용하여 촬영된 단일 영상으로부터 추정하는 기법을 제안한다. 실내에 존재하는 광원들은 정확한 위치정보를 알 수 없는 실외환경에서와 달리 제한된 공간의 원점으로부터 3차원 공간에 위치한 좌표로 나타낼 수 있다. 광원을 추정하기 위해 먼저 실내 공간에 반사도가 높은 Light Probe를 위치하고 디지털 카메라의 적정 노출을 이용하여 광원 추정에 사용할 영상을 획득한다. 광원으로 존재하는 오브젝트의 경우 짧은 노출시간에도 카메라의 영상에 획득된다. 그렇기 때문에 단일 영상에서 광원의 영역을 추정하기 위해 영상처리를 통해 노출 시간을 짧게 하여 촬영한 영상과 비슷하게 밝은 영역만 표현되도록 처리를 한다. 전 처리된 영상으로부터 밝은 영역과 어두운 영역으로 구분을 하고 밝은 영역으로부터 광원의 정보를 추정한다. 추정된 광원들은 실제 렌더링에 곧바로 적용이 가능하며, 이를 통해 배경에 적합한 렌더링 결과를 얻을 수 있다.
-
얼굴에 대한 시각적 인지는 오랫동안 인간에게 중요한 문제로 인식되어 왔다. 수 세기 동안 이루어져 왔던 미용 화장과 성형, 치아 교정 등의 다양한 연구는 사람의 얼굴을 감성적 측면에서 어떻게 하면 아름답게 만들 수 있는 가에 초점을 두었다. 본 논문에서는 휴먼 입출력 인터페이스로서 햅틱 장치와 스테레오 디스플레이를 혼합한 다중 감각 인터랙션 기반의 감성적인 3차원 얼굴 메이크업 시뮬레이션 프레임워크를 개발한다. 본 연구는 3차원 스캐너 장비로부터 사용자의 얼굴 모델을 추출하고, 그 데이터를 이용하여 자연스럽고 직관적인 얼굴 메이크업 시뮬레이션을 수행하는 것을 목표로 하고 있다. 이를 위하여 본 연구에서는 surface elements 표현 기반의 3차원 얼굴 필터링 방법과 얼굴 메이크업을 지원하는 페인팅 방법을 개발한다. 우선 사용자의 얼굴 모델을 3차원 스캐너로 획득한 후, 전처리 얼굴 필터링을 수행하여 조명, 그리고 사용자 얼굴 피부 상태에 기인하는 에러 및 속성들을 보정하고 피부 톤을 사용자가 선호하는 색으로 변경한다. 최종적으로 사용자는 햅틱 및 스테레오 디스플레이 장치를 이용하여 두 개의 레이어로 구성된 페인팅 표면 모델에 메이크업을 수행한다. 본 연구에서 적용한 surface elements 표현 기반의 그래픽 렌더링은 일반적인 메쉬 기반 페인팅의 문제점인 텍스쳐 왜곡 현상을 완화하고, 3차원 스캐너 장치에 기인하는 표면 에러를 보정한다. 그리고 전처리 얼굴 필터링과 메이크업 페인팅 방법은 사용자 중심의 감성적인 3차원 얼굴을 재구성하도록 한다. 결과적으로 본 연구에서 개발한 이러한 기술들이 다중 감각 인터페이스 기반의 메이크업 시뮬레이터의 기본 프레임워크가 되어, 차후 메이크업이나 코디네이션 분야 등의 디지털 콘텐츠 산업에서 활용될 수 있음을 확인하였다.
-
기존의 얼굴 인식 기술은 얼굴 검출과 얼굴 인식이라는 두 분야로 나뉘며, 얼굴 검출 기술은 주로 얼굴 인식을 위한 전처리 단계로 이용되었다. 이러한 얼굴 검출 기술은 방대한 양의 사진 콘텐츠를 분류하는 것에도 이용될 수 있다. 얼굴 검출 기술을 통해 사람이 있는 경우 인물 사진, 없는 경우 풍경 사진으로 분류한다. 그러나 기존의 얼굴 검출 기술만으로는 정확성이 떨어진다. 이를 보완하기 위해 본 논문에서는 사진의 구조 단순도 알고리즘을 제안 한다. 구조 단순도는 사진의 색상 구도의 단순비율을 의미하며, 일반적으로 인물 사진일 때 작은 값을 풍경 사진일 때 큰 값을 갖는다. 제안 방법의 유용성을 검증하기 위해 인물 사진 250장, 풍경 사진 250장을 이용하여 분류 실험을 하였다. 얼굴 검출 기술만을 이용한 실험은 66%의 정확성을 나타낸 반면 얼굴 검출 기술과 구조 단순도를 이용한 실험은 74.6%를 나타내었다. 따라서 얼굴 검출 기술과 구조 단순도를 이용하면 효과적인 사진 분류를 할 수 있다.
-
There are several researches on 2D gaze tracking techniques for the 2D screen for the Human-Computer Interaction. However, the researches for the gaze-based interaction to the stereo images or contents are not reported. The 3D display techniques are emerging now for the reality service. Moreover, the 3D interaction techniques are much more needed in the 3D contents service environments. This paper addresses gaze-based 3D interaction techniques on stereo display, such as parallax barrier or lenticular stereo display. This paper presents our researches on 3D gaze estimation and gaze-based interaction to stereo display.
-
This paper presents web service and service on mobile phone about research on virtual URS(Ubiquitous Robotic Space). We modeled the URS. Then, we find the location of robot in the virtual URS on web and mobile phone. We control the robot view with mobile phone. This paper addresses the concept of virtual URS and introduces interaction between robot in the virtual URS and human using web and mobile phone service. Then, this paper introduces a case of service on mobile phone.
-
지능형 학습 시스템은 학습자의 학습 과정에서 수집된 데이터를 분석하여 학습자에게 맞는 전략을 세우고 적합한 서비스를 제공하는 시스템이다. 학습자에게 적합한 서비스를 위해서는 학습자 모델링 작업이 우선시 되며, 이 모델 생성을 위해서 학습자의 학습 과정에서 발생한 데이터를 수집하고 분석하게 된다. 하지만, 수집된 데이터가 학습자의 일관되지 못한 행위나 비예측 학습 성향을 포함하고 있다면, 생성된 모델을 신뢰하기 어렵다. 본 논문에서는 학습자에게서 수집된 데이터를 거리기반 이상치 선별 방법인 k-NN을 이용하여 이상치를 선별한다. 실험에서는 홈 인테리어 컨텐츠 기반에 학습자의 학습 행위에 대한 학습 성향을 진단하기 위한 DOLLS-HI를 이용하여, 수집된 학습자의 데이터에서 이상치를 분류하고 학습 성향 진단을 위한 모델을 생성하였다. 생성된 모델은 이상치 분류전과 비교하여 신뢰가 향상된 것을 확인하였다.
-
본 논문에서는 MFL(Magnetic flux leckage) 피그(PIG : Pipeline Inspection Gauge)에서 획득된 센서데이터의 분석을 위한 가시화 기법의 구현을 소개한다. MFL피그는 배관 내부에 삽입되어 배관의 결함이나 특징정보를 파악하기 위해 사용되는 장비로, 다양한 종류의 센서를 지니고 있으며, 각 센서에서 나온 값들은 피그에 탑재된 저장장치에 빠른 샘플링 속도로 저장된다. 분석가는 피그에 저장된 데이터를 가시화 도구를 사용하여, 피그에 샘플링 된 데이터를 통해 배관의 용접부위나 결함과 같은 특징정보를 찾아야 하고, 특징정보인 부분과 그렇지 않은 부분을 쉽게 구별 할 수 있어야 한다. 하지만 센서의 값에 따라 색상에 맵핑하여 보여주는 2차원 가시화 기법만으로는 효율적인 분석이 어렵다. 본 논문은 이를 극복하기 위하여, 센서 값에 맵핑되는 색상 스펙트럼 편집 및 기본 값 조정 기능을 제안한다.
-
본 논문의 목적은 인간과 시스템의 상호작용에 의한 컨텐츠 생성을 가능하게 함으로써 회의공간에서의 지식창조 프로세스를 지원하는데 있다. 회의에 있어서 발표자료는 기존의 조직이 보유 하고 있는 유형 지식인 컨텐츠 리소스들에 발표자의 지식이 더해진 산물로서 기존의 조직의 지식과 회의에서 창조되는 새로운 지식 사이의 가교역할을 담당한다. 본 논문에서는 R&D 회의를 대상으로 이러한 회의에서의 새로운 지식 창조의 기반이 되는 발표자료의 작성을 지원하는 적응형 컨텐츠 생성 시스템 (Adaptive Contents Generation System)을 제안하였다. 제안 시스템을 구현하기 위하여 먼저 기존의 조직이 가지고 있는 자원인 구성원 정보, 프로젝트 및 미팅 정보, 컨텐츠 리소스들을 체계적으로 관리하기 위한 Ontology를 구축하였다. 이렇게 구축된 Ontology를 기반으로 제안 시스템은 회의, 발표자, 참가자들의 상황과 생성되는 컨텐츠의 종류에 적합한 Fragment 들을 추출하고 이들을 하나의 컨텐츠로 구조화하여 사용자에게 제공한다. 또한 사용자가 시스템으로부터 생성된 컨텐츠를 수정하고 시스템은 이를 반영할 수 있는 환경을 제공함으로써 시스템이 가지고 있는 지식에 사용자 자신의 지식을 더하여 표현할 수 있도록 하였다. 본 논문은 시스템과 인간의 협업 작업에 의한 인간 기능의 확장뿐만 아니라 조직의 지식경영 및 효율적인 컨텐츠 관리를 지원하는 데에 그 의의를 둘 수 있다.
-
게임 문화는 오프라인에서 온라인으로 중심축이 급격하게 바뀌었다. 급격한 변화는 온라인 게임의 발전 불렀지만 게임 문화의 획일화를 불러 오프라인 게임 문화를 잠식하였다. 그러나 보드게임 활발한 보급은 사람들에게 과거의 추억과 사람사이의 유대감을 다시금 불러일으켰다. 그러나 지식의 부족으로 한정된 보드게임만 즐기게 되고 또한 구매하여 즐기기에는 경제적 부담이 컸기 때문에 인기가 많이 하락하고 있다. 본 논문은 이 문제를 해결하고 오프라인 게임의 장점을 살리기 위해 우리가 개발한 AR-Table System을 제안했다. 이 시스템은 오프라인 게임과 온라인 게임의 장점을 융합하고 단점을 보완하고 증강현실을 사용하여 새로운 게임 개발 환경을 제공한다. 이 시스템은 Main Table System과 Personal Display Device로 구성되어 있고, 물리적 마커를 응용한 디지털 마커를 개발하였다. 이 시스템을 설명하기 위해 보드게임 Geister를 AR Geister로 개발하였다.
-
개인의 추억이 담겨 있는 물건을 보면서 이와 연관된 사진, 동영상, 음악, 등 멀티미디어 자료들을 통하여 지난날의 소중한 기억과 경험을 생생하게 되살릴 수 있는 방법을 제안하고자 한다. 사물에 대한 개인의 기억을 구성하는 중요한 요소는 그 물체를 획득한 시간과 공간 정보로, 이러한 시공간 정보를 바탕으로 개인의 기록과 추억을 재구성하고 멀티미디어 자료를 통하여 재생하는 방법을 제안하는 것이다. 제안된 시스템은 컴퓨터에 익숙하지 않은 사용자도 사물에 관한 정보를 직관적인 방식으로 관람 조작할 수 있어야 할 것이다. 본 논문에서는 탠저블 테이블탑 인터페이스를 활용한 상호 작용 방법을 제공함으로써 직관적이고 친숙한 정보 접근 방법을 만들어 내고자 한다.
-
본 논문에서는 양손의 터치를 인식하여 실시간 상호작용이 가능한 테이블 탑 디스플레이 시스템 및 구현 알고리즘에 대해 기술한다. 제안하는 시스템은 FTIR(Frustrated Total Internal Reflection) 메커니즘을 기반으로 제작되었으며 multi-touch, multi-user 방식의 손 제스처 입력이 가능하다. 시스템은 크게 영상 투영을 위한 빔-프로젝터, 적외선 LED를 부착한 아크릴 스크린, Diffuser 그리고 영상을 획득하기 위한 적외선 카메라로 구성되어 있다. 시스템 제어에 필요한 제스처 명령어 종류는 상호작용 테이블에서의 입력과 출력의 자유도를 분석하고 편리함, 의사소통, 항상성, 완벽함의 정도를 고려하여 규정하였다. 규정된 제스처는 사용자가 상호작용을 위해 스크린에 접촉한 손가락의 개수, 위치, 그리고 움직임 변화를 기준으로 세분화된다. 적외선 카메라를 통해 입력받은 영상은 잡음제거 및 손가락 영역 탐색을 위해 간단한 모폴로지 기법이 적용된 후 인식과정에 들어간다. 인식 과정에서는 입력 받은 제스처 명령어들을 미리 정의해놓은 손 제스처 모델과 비교하여 인식을 행한다. 세부적으로는 먼저 스크린에 접촉된 손가락의 개수를 파악하고 그 영역을 결정하며 그 후 그 영역들의 중심점을 추출하여 그들의 각도 및 유클리디언 거리를 계산한다. 그리고 나서 멀티터치 포인트의 위치 변화값을 미리 정의해둔 모델의 정보와 비교를 한다. 본 논문에서 제안하는 시스템의 효율성은 Google-earth를 제어하는 것을 통해 입증될 수 있다.
-
본 논문에서는 실감형 요리 시스템의 제작에 대하여 기술한다. 실감형 요리 시스템은 요리를 만드는 과정을 컴퓨터를 이용해 가상적으로 체험해 볼 수 있게 한다. 증강현실 기술을 이용, 모의부엌에서 요리 재료 카드를 인식함으로써 요리재료를 요리 용기에 투입하고 투입된 요리 재료는 증강현실 부엌에 나타나게 된다. 또한 멀티 터치가 가능한 지능형 인터페이스 플랫폼인 테이블 탑 디스플레이를 기반으로 증강현실 오브젝트와 사용자가 서로 상호작용할 수 있도록 한다. 테이블 탑 디스플레이에서의 터치와 hand gesture를 인식하여 맨손의 손동작에 의해 상호작용을 구현한다. 이 시스템은 특히 어린이들을 대상으로 하여 실감나는 요리 체험을 할 수 있으며, 요리 과정을 보다 효과적으로 학습하는데 활용될 수 있다.
-
빠른 인터넷의 보급과 빈번하게 발생하는 원격지 구성원간의 협업으로 인해서 쉽고 편리하게 이용 가능한 다자간 협업 환경의 필요성이 대두되었으며 현재 이와 관련한 연구가 활발히 진행되고 있다. 커뮤니티 컴퓨팅 환경에서의 원격 협업을 지원하기 위한 구성 기술로는 먼저 지능형 원격협업을 지원할 수 있는 시스템 및 네트워킹 구조를 설계하는 기술, 다양한 종류의 입력 채널의 내용을 동시에 보여줄 수 있는 디스플레이를 제공하는 기술, 협업 구성원 간의 자연스러운 데이터 및 태스크 마이그레이션 기반 기술, 그리고 다양한 사용자 인터랙션을 제공하는 기술 등이 있다. 그러나 무엇보다도 사용자 편의성 면에서는 위치적인 이질감을 극복하고 현장감 있는 공동 작업을 지원할 수 있는 사용자 인터랙션 기술이 매우 중요하다고 할 수 있다. 본 논문에서는 이러한 인터랙션을 지원하기 위한 다양한 인터랙션 기술을 소개하며 사용자의 인터랙션이 발생했을 경우 사용자의 의도에 따라 변경된 협업 환경, 특히 공통 디스플레이 화면의 변경 정보를 사용자 컨트롤 머신에도 Graphic User Interface(GUI) 기술을 통해 제공하는 방안이 논의되어 진다.
-
터치 센서를 이용한 휴대단말용 인터페이스가 다양하게 개발되면서 차세대 인터랙션 수단으로서 많은 주목을 받고 있지만, 버튼 인터페이스에 비해 오동작에 취약하고 터치 인터페이스만의 차별성을 확보하지 못하고 있는 실정이다. 본 논문에서는 터치 드래그 동작을 주요 인터랙션 수단으로 활용한 모바일 기기용 사용자 인터페이스를 개발하여 오동작을 최소화하고 사용자가 조작할 때 즐거움을 줄 수 있는 UI 요소로 활용할 수 있도록 하였다. 본 논문에서 개발한 터치 인터페이스는 기기의 내부/외부 방향의 스크롤 동작을 각각 drag-in/drag-out 동작으로 칭하고 이러한 드래그 동작을 응용 프로그램의 실행과 종료에 할당하였으며 터치 센서를 따라 움직이는 스크를 동작은 기존과 동일하게 일반적인 스크롤 행위를 지시하는데 적용하였다. 제안한 인터랙션 방법은 터치 센서의 형태에 따라 크게 두 가지 방식으로 구현하였다. 첫 번째 방법은 기기 스크린 외곽에 터치 센서를 이열(二列) 배치하여, 터치스크린을 사용하지 않고도 스크린 주변의 터치 센서를 활용한 drag-in/out 동작의 감지가 가능하도록 하였다. 두 번째 구현 방법은 정전용량형 터치 센서 IC를 활용해 터치 스크린 기능과 함께 스크린 주변의 기기 케이스의 일부까지도 사용자의 접촉을 감지할 수 있도록 하였다. 기존 저항 방식 터치 스크린과 달리 본 논문에서 활용한 방식은 스크린과 케이스에서 동시에 터치를 감지할 수 있으며, 다접점 감지 알고리즘의 개발로 두 개의 손가락을 이용한 다양한 터치 인터랙션으로 활용할 수 있다.
-
사용자는 햅틱 장비를 통해 촉감을 느낄 수 있다. 하지만 일반적인 햅틱 장비들은 바닥에 고정된 형태이고, 또한 장치의 크기가 제한되어 있으므로, 제한된 작업공간을 가진다. 이로 인해 사용자들은 햅틱 장비의 작업공간보다 작은 물체 혹은 작업공간에 맞게 축소된 물체만을 느낄 수 있다. 이러한 햅틱 장비의 한계를 극복하고자, 햅틱 장비와 이동형 로봇을 결합한 이동형 햅틱 디스플레이를 제안한다. 이동형 햅틱 디스플레이를 위한 시스템 구성을 소개하고, 이동형 로봇의 움직임을 조종하기 위한 새로운 알고리즘을 제안한다. 이러한 이동형 햅틱 디스플레이를 사용하면 사용자는 햅틱 장비의 작업공간보다 큰 물체를 느낄 수 있으며, 가상 환경을 자유롭게 이동하면서 햅틱 피드백을 받을 수 있다.
-
최근 IT기술의 비약적인 발전과 더불어 사용자의 편의성을 극대화 시키는 웨어러블 컴퓨팅 기술이 주목을 받고 있다. 이러한 기술은 일반인뿐만 아니라 장애인들의 일상생활의 보조 도구에 활용되어 큰 도움이 될 것으로 예상된다. 본 논문에서는 시각 및 청각장애인을 위해 개발된 착용형 단말기들을 소개하고자 한다. 시각 장애인용 단말기인 SmartWand는 시각장애인용 지팡이에 부착하거나 손에 휴대할 수 있는 장치로, 시작장애인을 위한 보행 보조 및 색상과 명암 정보 인식 보조 기능을 갖춘 장치이다. SmarWand는 시각장애인이 보행 시 이용하는 기존의 지팡이로는 감지할 수 없는 전방의 장애물을 초음파 센서를 통해 탐지하여 촉각이나 음성으로 경고해주고, 물체의 색깔이나 주변의 밝기 정도를 측정하여 시각장애인에게 알려준다. 청각 장애인용 단말기인 SmarWatch는 손목에 착용하는 장치로서 아기 울음소리, 노크나 초인종 소리, 물 끓는 소리, 화재 경보 등 가정에서 발생하는 일상적인 소리를 인식할 수 있도록 해준다. SmartWatch는 입력 모듈의 마이크로 입력된 소리를 문선통신을 통해 컴퓨터로 전송한 후에 소리의 종류를 인식하고 적절한 제어신호를 다시 무선통신을 통해 전송받아 감지된 소리의 종류를 해당하는 진동과 시각정보로 표시해준다. 이런 착용형 단말기들을 통해 시각 및 청각 장애인의 일상 생활의 안정성과 편의성이 증대 되기를 기대한다.
-
웨어러블 컴퓨팅의 지속적인 발전과 함께, 이들이 지원하는 기능은 점점 다양화되고 전문화되었다. 하지만 기기의 종류와 기능이 늘어나면서 각 기기의 상태를 확인하는 작업 자체가 복잡하고 불필요한 시간을 소요하기도 한다. 또한 이를 시각 디스플레이에만 의존하면, 디스플레이 크기의 한계와 더불어 시각적인 과부하가 발생할 수 있다. 본 연구에서는 이러한 문제를 극복하기 위해 웨어러블 각 기기의 상태정보 피드백으로서 소리를 이용하였다. 실험의 순서는 먼저 시각정보에 더하여 청각정보를 추가적으로 제시하는 방식의 유용성을 검증한 다음, 기기 특정적인 청각 아이콘(Auditory Icon)의 효과를 확인하였다. 청각정보의 유용성을 확인하는 단계에서는 참가자에게 특정 기기의 위치와 그 상태에 관한 정보를 시각 디스플레이를 통해 제시하면서, 조건에 따라 다양한 형태의 청각 디스플레이를 제시하고 기기 및 상태정보 확인에 소요되는 시간을 측정하였다. 시각디스플레이의 방식은 다양하지만, 본 연구에서는 사람의 몸을 나타내는 그림 위에 기기가 장착된 위치를 붉은 점으로 표시하고, 그 상태를 텍스트로 표시하는 방식(실험 1)과 텍스트를 통해 기기의 종류와 상태를 알려주는 방식(실험 2)을 적용하였다. 기기 확인에 소요되는 반응시간을 기록한 실험결과는 시각디스플레이를 통해서만 제시하는 조건보다 시각디스플레이와 청각디스플레이를 동시에 제시하는 조건에서 나은 수행을 보여주며, 정보의 내용이 일정 범위 내에서 구체적으로 제시될 수록 수행이 증가하는 경향을 보여주고 있다. 이어지는 기기 특정적인 청각 아이콘의 효과를 확인하는 단계에서는, 소리의 높낮이를 통해 기기의 위치를 표현하는 대신, 소리만 듣고 기기가 무엇인가를 알려줄 수 있도록, 참가자 평정을 통해 기기 특정적인 청각 아이콘을 선정하고, 이를 상태정보 디스플레이에 추가하였다. 기기의 수와 제시조건은 앞선 실험과 동일하였으며, 역시 기기 및 상태정보 확인에 소요되는 반응시간을 체크하였다. 실험결과는 이전의 실험과 비슷하게 시각과 청각 디스플레이의 중복제시 조건에서 높은 수행을 보였으며, 청각 아이콘의 사용으로 인한 수행의 증가도 확인할 수 있었다. 실험 2에서는 추가적으로 청각 디스플레이의 내용에 대한 주관적인 평정을 실시 하였는데, 기기 특정적인 청각 아이콘은 참가자에게 편의성, 효용성, 적합성, 확신도에서도 높은 점수를 얻었다. 이러한 결과는 청각 피드백을 이용한 정보의 디스플레이는 착용자의 시선을 자유롭게 함으로써 일상생활의 수행을 높이고, 웨어러블 컴퓨터 디스플레이 크기의 제약을 해결하는 방법이 될 수 있는 동시에 주관적인 사용성 측면에서 발전가능성이 있음을 보여준다.
-
Suh, Young-Jung;Park, Young-Min;Shin, Choon-Sung;Yoon, Hyo-Seok;Chang, Yoon-Je;Woo, Woon-Tack 598
본 논문에서는 지능형 정보 공간에서의 모바일 증강 현실 기반 환경 제어, u-콘텐츠의 개인화, 선택적 공유 및 협업의 개념을 포함하는 맥락 인식 모바일 증강 현실 (Context-aware Mobile AR) 시스템을 제안한다. 유비쿼터스 컴퓨팅 인프라의 발전으로 눈에 보이지 않는 컴퓨팅 리소스들로부터 획득되는 환경 및 개인의 맥락정보와 u-콘텐츠 활용의 용이성이 증가하고 있다. 하지만 사용자들이 눈에 보이지 않는 수많은 스마트 오브젝트들을 인지하기가 어려우며, 인터페이스의 복잡성으로 인하여 스마트 오브젝트들을 제어하는 것 역시 쉽지 않다. 또한, 다양한 u-콘텐츠의 획일적인 증강은 사용자에게 혼란만을 가중시키는 문제를 유발한다. 따라서, 제안된 시스템은 맥락 인지 기술과 모바일 증강 현실 기술을 접목하여 개인화된 스마트 오브젝트 컨트롤과 개인화된 u-콘텐츠의 증강 및 선택적인 공유를 가능하게 하고자 한다. -
최근 u-healthcare 서비스 분야에서 단일 시점의 일반화된 치료가 아닌 장시간 개개인의 특성이 반영된 진료와 의료 서비스에 대한 관심이 증가하고 있다. 그러나 기존의 생체 신호 해석은 임상적인 실험을 통해 얻은 표준화된 임계치를 이용해 분석하는 일관된 판단 방법이 주를 이루었다. 본 논문에서는 미래형 홈 환경에서 사용자에 따라 다른 신호 해석을 지원하는 사용자 적응적 생체 신호 해석 방법을 제안한다. 생체 신호 해석은 사용자의 컨텍스트와 환경 컨텍스트를 통합하는 모듈과, 지식표현 기법을 적용한 개인화된 추론 모듈로 구성된다. 제안된 방법은 사용자 정황 정보를 고려하여 사용자 적응적인 생체 신호 해석을 지원하며, 환경 컨텍스트를 고려하여 환경의 변화에 영향을 최소화하는 생체 신호 해석을 지원한다. 또한 사상의학 이론을 생체신호 해석에 동적으로 적용할 수 있는 틀을 제공한다. 이는 추후 미래형 홈 환경에서 다양한 종류의 센서와 함께 개인화된 맞춤형 재택 건강관리 서비스에 활용할 수 있다.
-
This research studies the Virtual Reality simulation of Newton's physics law on rigid body type of objects for physics learning. With network support, collaborative interaction is enabled so that people from different places can interact with the same set of objects in Collaborative Virtual Environment. The taxonomy of the interaction in different levels of collaboration is described as: distinct objects and same object, in which there are same object - sequentially, same object - concurrently - same attribute, and same object - concurrently - distinct attributes. The case studies are the interaction of users in two cases: destroying and creating a set of arranged rigid bodies. We identify a specific type of application for contents authoring with modeling systems integrated with real-time physics and implemented in VR system. In our application called Virtual Dollhouse, users can observe physics law while constructing a dollhouse using existing building blocks, under gravity effects.
-
본 논문에서는 음악 신호로부터 추출한 비트 정보를 사용하여 가상 캐릭터의 움직임을 제어하는 방법에 대해 논한다. 특히 주기를 가지는 반복적인 동작, 그 중에서도 춤동작에 대한 음악 신호와의 동기화 방법을 제안한다. 서버로 구현된 음악 비트 인식기는 입력 음악 신호에 대한 분석 정보를 규칙적으로 출력한다. 동작 클라이언트는 동작 캡쳐를 통해 얻은 동작 데이터를 여러 개의 기본 동작들로 나누고, 사용자가 선택한 새로운 순서대로 기본 동작들을 연결하여 부드럽게 재생한다. 또한 서버에 접속하여 전송 받은 음악의 템포에 맞게 동작데이터를 와핑(warping)하고 음악의 주요 비트 시각에 맞추어 기본 동작들의 재생시작 시간을 동기화한다. 음원에 의한, 즉 박자, 강약, 비트와 같은 기본적인 정보뿐만 아니라 분위기, 박자 변화와 같은 고급 정보에도 동적으로 반응하여 춤을 추는 가상 캐릭터를 개발하는 것이 본 연구의 궁극적인 목표이다.
-
Digital Multimedia Broadcasting (DMB) is a digital radio transmission system for sending multimedia such as radio, TV, and data casting to mobile devices. Nowadays, DMB specifications are the major standard for digital broadcasting and have been establishing for bidirectional service using MPEG-4 system. But there has been only some simple demonstrated system for this bidirectional services. In this paper, we introduce bidirectional DMB data service system that provides the interaction between the user and DMB server without any additional equipment such as web server. The proposed bidirectional DMB system can capture and send user interaction information and response through the existing DMB transmission channel, finally update the original contents. The action event from the user is the most important thing in developing the bidirectional DMB system. Therefor, capturing the event data from the user is the first step we need to do for the bidirectional DMB service. In this paper, we propose an interaction manager module for the user events. This system will extract the user events and make a plan to update the original scene with the server's reaction information.
-
In this paper, we propose a system for multiple people tracking using fragment based histogram matching. Appearance model is based on IHLS color histogram which can be calculated efficiently using integral histogram representation. Since histograms will loss all spatial information, we define a fragment based region representation which retain spatial information, robust against occlusion and scale issue by using disparity information. Multiple people labeling is maintained by creating online appearance representation for each people detected in scene and calculating fragment vote map. Initialization is performed automatically from background segmentation step.
-
산업 전반에 적용되는 과학, 공학 분야에는 그 목적에 따라 다양한 형태의 정보가 발생한다. 정보는 이용하는 목적에 따란 가공하는 형식과 표현하는 방식이 달라지며, 정보에 직접적으로 접근하는 사용자에게 어떻게 효과적으로 전달할 것인가 하는 문제는 정보 관리 분야에서 매우 중요한 이슈가 되고 있다. 정보를 사용자에게 보다 명확하게 전달하고, 관리하기 위해서는 원천 데이터를 가공하여 가시화(visualization)하는 과정을 거친다. 정보가시화는 원천데이터를 데이터모델로 정리한 후, 가시화구조(visual structure)로 재정의 한다. 실질적인 가시적 결과는 가시화 구조의 데이터들을 정보모델(information model)상에 반영할 때 이루어진다. 본 논문에서는 건물내부에서 진행되는 행사에 대한 시간-공간적인 정보를 정리한 도표 메타포(table metaphor)를 초기 데이터 모델로 사용하여 가시화 하는 과정을 수행한다. 정보 가시화 과정과 저작 과정은 증강현실(augmented reality) 환경에서 이루어진다. 행사가 진행되는 장소의 건물 구조도(map)상에서 각 장소에서 발생하는 정보들을 재배열하고 정리함으로써, 저작자로 하여금 정보 그 자체에 대한 이해뿐만이 아니라, 해당 정보에 대한 공간적인 이해도 함께 가능하게 한다. 이 같은 몰입형(immersive) 저작시스템은 정보에 대한 공간적인 분배가 필요한 저작에서는 매우 유용하며, 저작하는 환경 자체가 가시화의 결과물이 되므로 정보 저작에 대한 가시적 이해를 최대화 시킬 수 있다.
-
유비쿼터스 컴퓨팅 기술이 문화예술 분야에 접목되면서 수동적이었던 전시 관람 형태가 능동적인 관람 형태로 바뀌고 있다. 특히, 지능형 가이드 시스템의 등장은 기존의 관람 문화를 크게 변화시켰다. 지능형 가이드 시스템이란 사용자에게 전시물에 대한 정보 및 전시장의 위치 정보를 제공해주는 시스템을 말한다. 현재 상용화되고 있는 지능형 가이드 시스템은 크게 휴대폰, PDA, 게임기 등의 휴대형 장치 기반의 가이드 시스템과 HMD와 같은 착용형 장치 기반의 가이드 시스템으로 나뉠 수 있다. 본 논문에서는 이러한 현재 상용화된 시스템들의 한계(예를 들어, 특정 장치를 직접 착용 혹은 소지해야 함)를 서술하고, 이를 보완하는 프로젝터 기반의 가이드 시스템에서 더 나아가 임의의 공간에 원하는 전시물 구성, 설치 등을 신속, 정확하게 수행하는 지능형 가이드 시스템을 제안한다. 프로젝터 기반의 지능형 가이드 시스템은 기반 기술로 지능형 프로젝션 기술을 필요로 하는데, 이는 임의의 환경에서 임의의 위치에 다수의 사용자에게 고화질, 대화면 영상 정보를 제공해 준다. 그러나, 기존의 지능형 프로젝션 기술은 성능 및 안정성을 위해 대부분 가시적인 패턴 및 마커를 사용하는데, 이는 사용자에게 제공되는 정보를 관찰하는 데 방해가 될 수 있다. 본 논문에서는 사용자의 관점에서 유용한 비간섭 지능형 프로젝션 기술을 사용한다. 즉, 본 논문에서는 마커나 패턴을 사용함으로써 정확성이나 안정성은 보장하지만, 마커나 패턴을 은닉하여 사용자의 눈에 띄지 않도록 함으로써, 사용자는 원하는 정보를 아무런 방해 없이 제공받을 수 있다. 제안된 시스템을 미술 작품 감상을 위한 가이드 시스템으로 적용해 본 결과, 사용자는 자유로운 환경에서 자신의 위치나 작품에 대한 설명을 대화면으로 제공받으면서, 편안하게 그림을 감상할 수 있었다.
-
이 논문에서는 영화, CF 같은 영상물 제작 시 CG/실사 합성을 위해 배경기하정보를 추출하는 알고리즘을 제안한다. Metric Reconstruction 은 카메라 자동 보정을 통해 이루어지며 이는 오랫동안 연구되어 온 분야이다. 접근방법은 영상의 특징점 추적 정보와 카메라 내부변수 가정으로부터 유도되는 자기 보정 방식과 공간상에서 미리 기하 정보를 알고 있는 보정틀을 사용하는 방식으로 크게 분류될 수 있다. CG/실사 합성의 작업 효율성을 위해서는 배경 영상에 보정틀이 보이지 않는 것이 좋은데 자연 특징점(Natural Feature)에만 의존하는 자기 보정 방식의 경우 2K 급 영상에서 CG 객체를 합성했을 때 떨림이 느껴지지 않을 만큼 정확한 결과를 얻기 힘들다. 이 논문에서는 Polleyfeys[2]가 제안하였던 영상 시퀀스를 입력으로 하는 자기 보정 시스템을 바탕으로 마야 작업 환경에서의 핀홀 카메라 모델에 맞도록 카메라 내부변수의 비선형 최적화를 수행하는 방법과 사용자 개입을 통한 카메라 변수 정확도 향상방법을 제안한다.
-
최근 국내외 소프트웨어 개발 특성의 변화인 잦은 요구사항의 변경, 단축된 비즈니스 라이프사이클, 비용절감의 압력등과 맞물려 생산성을 높이기 위한 개발 접근방식이 요구되었으며, 소프트웨어의 재사용 및 높은 생산성을 제공할 수 있는 대표적인 방법이 디자인 패턴이다. 본 연구는 웹 어플리케이션 시스템 개발에 실제 적용가능한 UI디자인 패턴모델을 개발하기 위해 20개의 웹 어플리케이션 시스템을 표본으로 추출하여 1000여개의 단위업무화면을 분석하였다. 개발한 어플리케이션 UI 디자인 패턴 모델을 실무 전문가(UI디자이너, 개발자)들에게 이해도, 사용적합성, 생산성측면에서 검증하여 실무에 적용가능한 모델임을 객관적으로 증명하였다.
-
최근들어 제품을 개발하는 과정 중, 디자이너와 개발자, 의사 결정권자들이 FEM, CFD 시뮬레이션 결과를 리뷰할 때에 가상현실기술을 도입하는 사례가 늘고 있다. 몰입감을 높여주는 가상현실환경은 모델에 대한 해석 결과물을 정확하고 효과적으로 분석할 수 있도록 돕는다. 데이터의 실제 크기와 같게 혹은 그보다 더 크고 자세한 이미지를 제공하는 가상현실 몰입환경은 사용자가 데스크탑 환경만을 사용할 때 경험할 수 없는 높은 사실감을 제공함으로써 사용자에게 시각적인 만족감을 줄 수 있다. 하지만 데스크탑 환경에 비해 해상도가 낮고, 어두운 곳에서 스테레오 안경이나 HMD(Head Mounted Display), Data glove등을 착용해야 하는 불편함과 멀미, 시각적인 피로, 방향감각 상실로 대표되는 가상멀미 등으로 인해 장시간 사용에 어려움이 있다. 데스트탑 환경에서의 데이터 리뷰는 고해상도 이미지 분석은 가능하지만, 입체감이 떨어지기 때문에 리뷰 데이터의 실제감이 떨어진다. 이와 같은 문제점들을 보완하기 위해서 본 논문에서는 데스크탑 환경과 가상현실 환경 간의 협업이 가능한 FEM/CFD 가시화 시스템을 제시한다. 본 시스템은 가상현실 몰입환경에서 해석 데이터를 단순히 가시화하는 것뿐만이 아니라, 데스크탑 시스템과 동일한 3D 인터페이스 구조를 제공한다. 따라서, 해석 결과 분석을 위한 동일한 post-processing 작업이 네트워크로 연결된 원격 공간의 사용자들이 사용하는 시스템들 사이에서 실시간으로 진행될 수 있다.
-
Facial expressions provide significant clues about one's emotional state; however, it always has been a great challenge for machine to recognize facial expressions effectively and reliably. In this paper, we report a method of feature-based adaptive motion energy analysis for recognizing facial expression. Our method optimizes the information gain heuristics of ID3 tree and introduces new approaches on (1) facial feature representation, (2) facial feature extraction, and (3) facial feature classification. We use minimal reasonable facial features, suggested by the information gain heuristics of ID3 tree, to represent the geometric face model. For the feature extraction, our method proceeds as follows. Features are first detected and then carefully "selected." Feature "selection" is finding the features with high variability for differentiating features with high variability from the ones with low variability, to effectively estimate the feature's motion pattern. For each facial feature, motion analysis is performed adaptively. That is, each facial feature's motion pattern (from the neutral face to the expressed face) is estimated based on its variability. After the feature extraction is done, the facial expression is classified using the ID3 tree (which is built from the 1728 possible facial expressions) and the test images from the JAFFE database. The proposed method excels and overcomes the problems aroused by previous methods. First of all, it is simple but effective. Our method effectively and reliably estimates the expressive facial features by differentiating features with high variability from the ones with low variability. Second, it is fast by avoiding complicated or time-consuming computations. Rather, it exploits few selected expressive features' motion energy values (acquired from intensity-based threshold). Lastly, our method gives reliable recognition rates with overall recognition rate of 77%. The effectiveness of the proposed method will be demonstrated from the experimental results.
-
컴퓨터를 활용하는 응용 수많은 가시화 방법론들 중 하나인 3차원 모델링은 경우에 따라 더 구체적인 이해를 위해 모형 형태로 조형작업을 하기도 한다. 그러나, 이러한 입체 모델의 조형은 수작업으로 할 경우에 많은 시간과 노력을 필요로 한다. 이를 해결하기 위하여 Rapid Prototyping기술이 개발 및 보급되어왔다. 이러한 장비와 OS를 포함한 관련 소프트웨어는 고가이기도 하고 동시에 1인 밖에 사용할 수 없는 자원인 경우가 많다. 또한, 사용하기 위하여 장비가 위치한 곳 까지 이동하여야 하는 경우가 많다. 그러나, 원격데스크탑 형태의 인터페이스와 장비 구동과 동작 과정을 모니터링 할 수 있는 인터페이스, 임차를 위한 사용자관리 시스템 등을 포함한 클러스터 컴퓨터 환경으로 구성하고 인터넷을 통하여 제공하면 비록 제한된 수준이기는 하지만, 현업에서 사용하는 고가의 Rapid Prototyping장비를 실제 이용하는데 무리가 없는 임차 및 공유 가능 자원으로 변화 시킬 수 있다. 이 임차 방법론은 고가의 산업 장비와 소프트웨어를 공유할 수 있는 실제적인 예를 제공한다.
-
Yang, Seung-Eun;Park, Kwang-Hyun;Jang, Hyo-Young;Do, Jun-Hyeong;Huh, Sung-Hoi;Bien, Zeung-Nam 681
첨단 기술의 발전과 함께 장애인 및 노약자의 삶의 질에 대한 관심이 증가함에 따라 사용자가 각종 시스템들을 보다 쉽게 제어할 수 있는 방법들이 많이 연구되고 있다. 그 중 하나로 정의된 손 움직임 동작을 인식하여 가전기기 혹은 환경 제어 시스템, 홈 로봇 등에 명령을 내리는 기술을 예로 들 수 있다. 하지만, 정의된 손 움직임이 일상생활에서 발생하는 동작과 비슷한 경우 오작동을 일으킬 가능성이 있으며, 이를 차단하기 위해 복잡한 동작을 명령어로 사용할 경우 사용자의 편의성을 떨어뜨린다. 본 논문에서는 이러한 문제를 해결하기 위해 비슷한 동작 중에서 특정 동작을 검출할 수 있는 퍼지 가비지 모델을 제안한다. 퍼지 가비지 모델이란 인식하고자 하는 특정 동작을 제외한 다른 유사 동작의 특성을 반영하여 구현한 퍼지 모델을 말한다. 따라서 사용자의 동작으로부터 특징 값을 구한 후 이를 특정 동작에 대한 퍼지 모델과 퍼지 가비지 모델에 각각 대입하여 얻은 결과를 비교해서 어떤 동작이 발생하였는지 결정한다. 또한 사용자의 행동 특성은 개인마다 다르게 나타나고 동일 사용자라 하더라도 경우에 따라 동작에 편차가 나타날 수 있기 때문에 특정 사용자에 대한 시스템의 적응이 필요하다. 이를 위해 다양한 경우를 고려하여 최적화된 값을 찾을 수 있는 진화 알고리즘을 이용하여 퍼지 모델 파라미터를 갱신하는 방법을 제안한다. 제안한 방법의 타당성을 검증하기 위해 5명의 사용자로부터 명령 동작과 의미 없는 유사 동작의 데이터를 획득하여 실험 결과를 보인다. -
본 논문은 인간과 로봇간의 효과적인 상호작용을 위한 로봇제스쳐의 자동생성 기법을 다룬다. 이는 텍스트 정보 만의 입력으로 의미 있는 단어에 대응되는 특정 제스쳐패턴이 자동적으로 생성되도록 하는 기법으로서 이를 위한 사전조사로 제스쳐가 출현하는 발화시점에서의 단어수집이 우선적으로 요구되었다. 본 논문은 이러한 분석을 위해 두 개 이상의 연속된 제스쳐 패턴을 효과적으로 표현할 수 있는 제스쳐 모델을 제안한다. 또한 제안된 모델이 적용되어 구축된 제스쳐DB와 스크립트 기법을 이용한 로봇제스쳐 자동생성 방법을 제안한다. 제스쳐 생성시스템은 규칙기반의 제스쳐 선택부와 스크립트 기반의 동작 계획부로 구성되고, 집사로봇의 안내기능에 대한 모의실험을 통해 그 효용성을 확인한다.
-
2D에서 3D로 이동하고 있는 현재의 GIS는 자료 크기가 기하급수적으로 커지고 이로 인해 처리속도가 느려지고 있으며 사용자의 실시간 렌더링(Rendering) 욕구는 커지고 있다. 대용량의 공간자료에 대한 처리속도, 3차원 처리기술, 가상현실 처리기술 등의 제약조건과 함께 3차원 GIS를 가시화하기 위해서는 방대한 데이터를 처리하기 위한 시간과 비용이 많이 과다하게 발생하는 문제점을 가지고 있다. 본 논문에서는 이러한 문제를 해결하기 위해 위성 및 항공으로부터 획득된 DEM 데이터를 이용하여 VRML로 가시화하여 3차원의 지형 정보를 생성하였다. 이렇게 생성된 지형 데이터에 LOD(Level of Detail) 기법을 통한 단순화 과정을 거쳐 3차원의 지형정보를 획득하고, 수치지도를 기반으로 한 모델링 및 텍스처 맵핑 과정을 통해 3차원의 도시 정보를 획득하게 된다. 이렇게 획득된 도시 정보에 3차원 공간적인 조건 및 검색을 가능하게 함으로써 언제 어디서든 누구나 쉽게 건물 및 도로에 대한 정보를 검색할 수 있도록 하였고, 네비게이션 및 시뮬레이션 기능을 추가한 웹 기반의 3차원 가상 도시를 구현하였다.
-
프로젝션 기반의 증강현실(AR, augmented reality) 시스템이란, 고화질의 가상 정보를 프로젝터를 통하여 정해진 공간에 정확하게 표시해 주는 시스템을 말한다. 대부분의 증강현실 시스템은 사용자의 몰입감을 높이기 위해 고화질, 대 화면을 제공하기 위한 디스플레이 장치를 사용하며, 영상처리의 복잡도에 따른 고성능의 프로세스 장치를 요구하기 때문에 데스크탑 환경에서 이루어졌다. 그러나, 데스크탑 환경에서의 증강현실 시스템은 휴대가 불편하다는 단점을 가진다. 최근 프로젝터의 소형화와 모바일 프로세서의 성능 향상은 휴대가 편리한 모바일 증강현실 시스템의 등장을 가능하게 하였다. 그러나, 모바일 증강현실 시스템은 작은 디스플레이를 이용하여 영상 정보를 표시해 주기 때문에 높은 해상도를 지원할 수 없으며, 사용자의 몰입감을 감소시킨다는 단점을 가지고 있다. 본 논문에서는 기존의 증강현실 시스템의 단점을 보완하기 위하여 PDA와 소형 프로젝터를 결합하여 프로젝션 기반의 휴대용 멀티미디어 플레이어(
$PMP^2$ : Portable Multimedia Player using Projection-Based augmented reality)라는 모바일 증강현실 시스템을 제안한다.$PMP^2$ 는 모바일 프로세서의 대표격이라 할 수 있는 PDA와 휴대용 소형 프로젝터를 이용함으로써 고화질, 대화면의 증강현실 영상을 다수의 사용자가 원하는 장소와 시간에 즐길 수 있도록 해 준다.$PMP^2$ 는 스크린의 기하 및 컬러에 따른 왜곡을 보상해 줌으로써, 특정한 스크린 없이도 언제 어디서나 사용자에게 정확한 영상을 제공해 준다. 본 논문에서는 다양한 시나리오에 대해$PMP^2$ 의 유용성을 검증함으로써 모바일 환경에서의 프로젝션 기반의 증강 현실 시스템의 활용 가능성을 제시한다. -
국가간 연구목적으로 개설된 초고속 광 네트워크 기술의 발전은 새로운 응용 기술의 등장을 요구하고 있다. 고화질 저지연의 실감 협업 응용은 이러한 연구 목적에 부합할 뿐만 아니라 향후 커뮤니티 기반 응용 기술의 요구를 충족시킬 것으로 보인다. 본 논문에서는 실감 협업 응용 기술에 필요한 비압축 HD stereoscopic 영상 전송 시스템을 구성해 3D HD 영상을 사용자가 체감할 수 있도록 한다. 또한, 소프트웨어 기반 다채널 음성 재생을 다루며 실험을 통해 방향성 있는 협업 환경 구축의 가능성을 보여준다. 입체감 있는 미디어 재생을 위해 병렬 구조의 좌 우 송수신 시스템을 구축 후 stereoscopic 비압축 영상 전송을 수행하며, 좌 우 영상 세션간의 인터 미디어 동기화 기법의 설계방법을 제안한다. 음성 재생 소프트웨어는 ALSA를 이용하여 구현하였으며 가변 데이터 길이 및 프레임 손실로 인한 채널 뒤섞임(channel swapping)을 방지하기 위한 버퍼를 재생 모듈 전처리단에 추가하였다. 초고속 네트워크와 비압축 미디어 전송의 결합은 IP를 이용해 다채널 음성 지원의 실감 HDTV를 가능케 하므로 이를 유용하게 활용할 수 있는 사용 시나리오를 살펴본다.
-
본 논문에서는 실시간적인 요소와 높은 경험의 질을 요구하는 다자간 협업 환경에서 고해상도 비디오를 제공하기 위하여, 무손실과 저지연, 저비용의 특징을 갖는 비압축 HD 비디오를 처리할 수 있는 '비압축 HD 비디오 전송 응용' (Scalable Video Tool)을 구현하여 초고해상도 디스플레이를 위한 비압축 HD 가시화 서비스'를 구성한다. Scalable Video Tool (SVT)은 Microsoft 사의 Direct Show를 기반으로, 비압축 HD 카메라와 DV 카메라, WebCam의 영상도 실시간으로 처리가 가능하다. 초고해상도 디스플레이에 고해상도 비디오와 이미지 가시화를 지원하는 SAGE(Scalable adaptive graphics environment)[2]와 SVT를 연동하여 다자간 협업 환경에서 다양한 형태의 고해상도 비디오와 그래픽스 자료를 공유할 수 있는 시스템을 구성한다. 본 논문의 마지막에서는
$5{\times}11$ 의 격자 형태로 구성된 타일드 디스플레이 (Tiled Display)를 이용하여 제안된 시스템을 검증한다. -
본 논문에서는 광범위한 지역을 감시하기 위해 설치된 여러 대의 카메라로부터 획득된 비디오에 대해 행동을 기반으로 한 비디오 요약 시스템을 제안한다. 제안된 시스템은 시야가 겹쳐지지 않은 다수의 CCTV 카메라를 통해서 촬영한 비디오들을 30분 단위로 나누어 비디오 데이터베이스를 구축하여 시간별, 카메라별 비디오 검색이 가능하다. 또한 비디오에서 키프레임을 추출하여 카메라별, 사람별, 행동별로 비디오를 요약할 수 있도록 하였다. 또한 임계치에 따라 키프레임 검색정도를 조절함으로써 비디오 요약정도를 조절할 수 있다. in. out, stay, left, right, forward, backward와 관련된 11가지 행동을 추출하여 요약된 정보를 가지고 현재 사람의 행동이 어떤 영역에서 어떤 방향으로 움직이고 있는 지에 대한 정보를 보여줌으로써 더 자세히 행동추적을 할 수 있다. 또한 카메라 3대에 대한 전체적인 키프레임에 대한 행동별 통계를 통해서 감시지역의 행동기반 이벤트를 간단히 확인해 볼 수 있다.
-
본 논문에서는 인체 추적에 필요한 인체의 각 부위들을 구성요소로 각각 검출하여 연결하는 인체 모델을 통해 각 구성요소를 개별적으로 추정하게 된다. 여기서 인체의 구성요소 중 동작 추적에 가장 필요한 6개 부위로 구성된 구성요소인 머리, 몸통, 왼팔, 오른팔, 왼발, 오른발 등을 검출하여 추적한 후, 각 구성요소의 중심값과 색상정보를 이용하여 이전 프레임과 현재 프레임 간에 연결성을 두여 각 구성요소를 개별적으로 확률 전파를 통해 추적되어지고, 각 구성요소의 추적 결과는 구성요소들의 추정 결과를 구성요소 기반 확률 전파를 이용하여 인체의 동작을 추정하는 방법을 제안한다. 입력 영상에서 피부색 등의 색상 정보를 이용하여 인체 부위 또는 인체 모델의 구성 요소들 각각의 중심값과 색상정보를 가지고 확률전파를 통해 이것이 어떤 동작인지 동작 추정이 가능하다. 본 논문에서 제안하는 인체 동작 추적 시스템은 유아의 동작교육에 이용되는 7가지 동작인 걷기, 뛰기, 앙감질, 구부리기, 뻗기, 균형 잡기, 회전하기 등에 적용하였다. 본 논문에서 제안한 인체 모델의 각 구성요소 부위들을 독립적으로 검출하여 평균 96%의 높은 인식률을 나타냈고, 앞서 적용한 7가지 동작에 대해서 실험한 결과 평균 88.5% 성공률을 획득함으로써 본 논문에서 제안한 방법의 타당성을 보였다.
-
본 논문에서는 P2P 환경에서 사용자간에 멀티미디어 콘텐츠를 공유하는 목적의 시스템 구현에 초점을 맞추어 P2P 네트워크에서 피어들 간에 멀티미디어 콘텐츠를 공유하고 구간정보를 이용하여 효율적으로 스트리밍 하는 방법에 대하여 논한다. 피어들은 멀티미디어 콘텐츠의 관심 있는 부분만을 쉽고 편리하게 추출하려는 경향이 있기 때문에 멀티미디어 콘텐츠에서 구간정보를 색인한 파일을 만들어 검색서버에 등록한 후 피어들의 요청이 있을 때 이 구간정보를 이용하여 필요한 부분만을 스트리밍 서비스 할 수 있도록 한다. 많은 피어들의 서버 접속으로 인한 서버의 부하를 줄이기 위해 P2P 환경에서의 스트리밍 기술을 이용하여 피어의 PC가 필요에 따라 서버 기능을 할 수 있도록 기능을 구현하고, 검색서버에서 제공되는 구간정보에 따라 해당하는 피어가 구간별로 멀티미디어 콘텐츠를 스트리밍 한다.
-
In this paper, a stereoscopic display system using a rotary disk type beam shutter and two beam projectors is proposed. It is a kind of active stereoscopic display and can be easily converted from passive stereoscopic system using polarizing filters. If it is possible to synchronize the revolution speed of the beam shutter with the integer multiple of the scanning frequency of the beam projectors, we can obtain a comparable performance with our system to an active stereoscopic system using one expensive high performance beam projector. Further, if we rotate the beam shutter at sufficiently high revolution speed, our active stereoscopic system works regardless of synchronization and thus the system is much easier to implement.
-
물체 추적시스템은 비디오 감시 시스템, 화상회의 시스템과 같은 다양한 비전 응용 분야에서 점점 비중이 높아지고 있다. 이 시스템에서 가장 널리 사용되고 있는 방법 중 하나로 Particle-Filter를 들 수 있다. 하지만, 이 Particle-Filter의 단점은 유사한 여러 물체를 추적할 때에 그 물체들이 겹치거나 사라질 경우 정확한 추적을 하기 어렵다는 것이다. 이 단점을 극복하기 위해 많은 연구가 진행되고 있으며, 본 논문에서는 이 문제를 극복하기 위한 새로운 방법을 제안하고자 한다. 다중 물체 추적에서 빈번히 일어나는 문제는 두 가지로 요약할 수 있는데, 동일한 다중 물체가 부분적으로 엇갈리거나 다른 객체에 완전히 겹친 후 떨어질 때 한 물체를 중복하여 추적하는 문제(merge and split problem)와 이 때 분리되어 추적은 됐지만, 물체를 혼동하여 추적하는 문제(Labeling problem)이다. 본 논문에서는 이 러한 문제들을 풀기 위해 이미지 필드에서 보다 정확한 확률분포를 만들고, 이 확률분포의 신뢰성을 높이기 위해서 물체의 특징정보를 표현하는 몇 가지 방법을 제안한다. 전자의 문제는 두 가지 문제로 나누어 생각해 보았다. 첫째, 복잡환 환경에서의 분포를 찾아내는 것과 둘째, 추적 중인 물체를 잃어버릴 경우 새로운 샘플을 생성함으로써 나누어 보았다. 이 문제 중 첫번째는 K-means 클러스터링을 이용하여 유사한 물체가 주변에 퍼져 있을 때, 하나의 후보 위치가 아닌, K개의 후보 위치들을 만들어 내어 보다 정확한 추적이 가능하게 하였으며, 두 번째 문제는 추적 중인 물체가 다른 커다란 물체에 가려질 경우이다. 이 상황에서 샘플을 생성하는 방법은 지금까지 해왔던 간단한 환경에서의 생성 범위와는 다르게 넓게 해야 생성시켜야 한다. 이 때 샘플링의 수를 늘리지 않으면서, 최대한 정확하게 추적하기 위해서 동영상에서 물체의 모션을 이용한 모션 히스토그램을 얻어내고, 그 정보를 이용하여 샘플을 생성하는 위치를 조절함으로써 이 문제를 풀어 보았다. 그리고, 후자의 문제인 이미지 필드상에서 확률분포의 신뢰성을 높이기 위한 특징 정보는 기존에 많이 사용하던 칼라 히스토그램에 공간정보의 의미를 부여하는 칼라 히스토그램을 분할하는 방법과 SIFT에서 사용하는 방향정보와 크기정보를 사용했다. 이것들을 사용하여 보다 정확한 물체추적시스템을 다음과 같이 제안한다.
-
본 논문은 실내의 로비나 복도에 설치된 방범 카메라로부터 얻어진 일련의 영상으로부터 '걷기', '뛰기', '앉기', '일어서기', '넘어짐'의 비교적 짧은 시간에 일어나는 인간 행동들을 실시간으로 인식하는 시스템의 구현에 관해 다룬다. 먼저 입력으로 받은 영상을 계층적 색인 구조를 갖는 다중 가우시안 기반의 배경 모델을 이용하여 윤곽을 추출하고 객체를 인식하여 시간차에 의한 가중치로 누적하여 시간 템플릿을 만든다. 만들어진 시간 템플릿으로부터 특징을 추출하여 신경망 모델에 적용하여 5가지 인간행동을 구분한다. 구현된 시스템으로 인간행동 인식 실험을 수행하였는데, 실험 참가자들의 행동 방식이 약간씩 달랐음에도 불구하고 높은 인식률을 보여주었다.
-
자기누설(MFL) 데이터는 파이프 라인을 통해 이동하는 자기누설 피그에 의해서 얻어지는 데이터이다. 자기 누설 데이터 뿐만 아니라, 이들을 각종 기법으로 분석한 데이터 역시 분석가가 직접적으로 접근하기에는 너무 복잡하며, 원시 데이터를 가지고 파이프 라인의 결함을 빠른 시간 내에 찾아내고 그 원인을 유추하기란 매우 힘든 작업이다. 이러한 불편함을 해결해 주기 위한 소프트웨어의 개발은 사용자가 가상의 파이프 라인을 따라 항해하면서, 개개의 결함이나 두드러진 특징들이 파이프 라인의 어디에 위치하는지에 관한 정보를 보다 쉽고 직관적으로 인지할 수 있게 해준다. 비단 자기누설(MFL) 데이터뿐만 아니라 이와 같은 방대한 양의 데이터를 분석하는데 있어서 가시화 시스템의 역할은 상당히 중요하다. 본 논문에서는 대용량의 데이터를 가시화하는데 있어서 필요한 여러 고려 사항들을 소개하고 각 고려 사항에 대한 해결 방안을 제시한다.
-
이 논문에서는 커널 Edge Map 방식의 얼굴의 특징점을 검출하는 방법과 Adaboost를 이용한 얼굴의 특징점을 검출하는 방법을 이용하여 좀 더 강인한 얼굴의 특징점을 검출해 낸다. 커널 Edge Map을 이용한 방법은 기존의 10개의 커널을 이용하여 검출된 Edge를 이용하지 않고 좀 더 빠르게 검출해내기 위해 2개의 커널을 이용하여 얼굴의 특징점을 검출해 낸다. 이렇게 만들어진 얼굴의 특징점 후보군들에서 Adaboost를 이용하여 좀 더 정확하고 빠른 특징점을 찾을 수 있게 된다. Adaboost를 이용한 방법은 각각의 특징점들을 오프라인 상에서 학습을 하고 실시간으로 특징점을 검출하는 방법을 사용하였다. Edge를 이용한 방법으로 이미지의 전처리를 하여 후보군을 찾고 그 후보군과 Adaboost를 이용한 후보군들의 조합으로 인해 좀 더 강인하게 얼굴의 특징점을 찾을 수 있다.
-
현재 시판되고 있는 대다수의 자동차에 장착된 사이드미러와 백미러 같은 기존의 비젼 시스템은 모두 사각지대(blind spot)를 가지고 있다. 사각지대는 크고 작은 사고의 원인이 되기도 한다. 이러한 단점을 보완하기 위해 자동차 기업들은 자사의 고급 자동차 후방에 광각(wide-angle) 카메라를 장착하고 있다. 광각 카메라 시스템은 1대의 카메라를 사용하여 후방 영상을 얻고 그것을 그대로 보여줌으로서 어느 정도 사각지대를 줄여주는 역할을 하고 있지만 후방의 모든 사각지대를 제거해주지는 못한다. 그러므로 다수의 카메라를 사용하면 보다 넓은 후방 시야를 확보함으로서 보다 완벽하게 사각지대를 제거할 뿐만 아니라, 좀 더 다양한 위험물 정보를 주행 중에도 운전자에게 제공하는 것이 가능해진다. 본 논문에서는 사각지대를 제거하기 위해 차량의 좌, 우측 그리고 후방에 3대의 카메라를 장착하고, 장착된 카메라를 통해 얻어진 영상을 통합한 파노라마 영상을 생성하는 방법과 다양한 환경에서 실험한 결과를 제시한다. 파노라마 영상을 생성하기 위해서 제안하는 방법은 3D 와핑을 통해 각 영상의 Bird's Eye View를 생성하고, 생성된 Bird's Eye View를 2차원 이동변환만을 이용해서 하나의 통합된 Bird's Eye View를 만든다. 이렇게 만들어진 통합된 영상을 후방 카메라를 기준으로 다시 3D 와핑 함으로서 완전한 파노라마 영상을 생성한다. 제시된 방법으로 다양한 상황에 따라 실험을 수행하고, 이를 통해 문제점을 찾아본다.
-
최근 온라인 경매나 오픈 마켓 같은 온라인 전자상거래가 활발히 이루어지고 있다. 더불어 사용자가 PDA와 같은 단말기를 휴대하고 이동하는 동안 전자상거래가 이루어질 가능성이 높아지고 있다. 이러한 상황에서 온라인 전자상거래의 구매자와 판매자를 대신해서 협상을 수행하고 매매를 성사시키는 에이전트에 대한 연구가 시도되고 있다. 이를 확장하여 지능형 에이전트를 휴대형단말기에 적용함으로써, 모바일 환경에서 구매자와 판매자간의 전자상거래를 대행하는 협상 에이전트의 필요성이 부각되고 있다. 본 연구에서는 모바일 전자상거래환경에서 에이전트가 협상에 대한 합리적인 판단할 수 있도록 게임이론을 사용하여 모델화 하였고, 휴대형단말기가 블루투스를 통해 인근에 있는 상점을 탐색 및 블루투스 네트워크를 구성하도록 하였다. 또한, 사용자가 협상 항목을 단계적으로 변경할 수 있는 전략을 사용할 수 있게 하였으며, 이를 평가함수를 사용하여 협상해서 최종 거래 결정은 자동 또는 수동으로 성사되게 하였다. 기존 협상 모델은 가격과 배송 방법 같은 협상 항목에 대해 가중치만을 변경하여 만족도를 판단함으로써, 실질적인 항목의 변화는 없고 초기에 설정된 협상 항목이 변경되지 않는 문제점이 있었다. 본 연구에서는 다단계 전략을 사용하여 단계마다 사용자의 요구 사항을 변경시킬 수 있기 때문에, 초기에 설정한 협상 항목의 값이 단계별로 변경될 수 있어 사용자의 의도가 협상에 실질적으로 반영되는 효과가 있다. 더불어 오프라인 전자상거래에서는 구매자가 직접 상점을 방문하여 상품을 검색하고 협상하였다. 그러나, 본 연구에서는 이동중인 사용자의 인근에 위치한 상점 에이전트로부터 상품 정보를 받는다. 그 후에 에이전트가 구매 협상을 하기 때문에 사용자가 이동 중에 상가에 직접 들어가지 않고도 상품을 검색 및 협상 할 수 있는 장점이 있다. 본 논문에서는 제안한 모바일 쇼핑 에이전트를 구현하고, 협상 과정과 결과를 비교하여 모델의 타당성과 성능을 평가한다.
-
Lee, H.J.;Kim, D.H.;Lang, Y.R.;Han, S.H.;Kim, Y.B.;Lee, G.S.;Lee, E.J.;Song, C.G.;Shin, H.C. 780
A Many studies have been made on the prediction of human voluntary movement intention in real-time based on invasive or non-invasive methods to help severely motor-disabled persons by offering some abilities of motor controls and communications. In the present study, we have developed an internet game driven by and/or linked to a brain-computer interface (BCI) system. Activities of two single neuronal units recorded from either hippocampus or prefrontal cortex of SD rats were used in real time to control two-dimensional movements of a robot, or a game object. -
유비쿼터스 환경에 존재하는 스마트 객체들 사이의 협력으로 지능적인 서비스를 제공하는 시스템을 구축하기 위한 새로운 패러다임으로 커뮤니티 컴퓨팅이 제안되어, 활발히 연구되고 있다. 커뮤니티는 해결해야 할 목표를 가지며 목표 달성을 위해 필요한 멤버들을 구성하고, 멤버들은 목표 달성을 위해 상호작용한다. 이러한 상황에서 멤버의 결함은 멤버 사이의 상호작용을 중단시키는데, 원활한 멤버 사이의 상호작용이 커뮤니티의 목표를 달성하는 가장 중요한 문제이므로, 결국 멤버의 결함은 커뮤니티의 목표 달성의 실패를 가져온다. 이 문제를 해결하기 위해, 본 논문에서는 컨텍스트 온톨로지를 이용한 멤버의 복제 방법 및 복구 알고리즘을 제안한다. 각 멤버는 자신의 상태를 커뮤니티에 전송하며, 커뮤니티는 모든 멤버의 상태를 온톨로지로서 유지한다. 멤버의 결함이 발견되면, 커뮤니티는 결함이 발생한 멤버의 상태 온톨로지를 추론하여 이 멤버를 대신할 새로운 멤버를 커뮤니티로 끌어들인다. 커뮤니티에 들어온 새로운 멤버는 다른 멤버들과 즉시 상호작용을 할 수 없기 때문에, 커뮤니티로부터 결함이 발생한 멤버의 온톨로지를 전송 받아 추론하여 자신의 상태를 결함이 발생한 멤버의 상태로 전환시킨다. 이 과정이 끝나면, 새로운 멤버는 자연스럽게 다른 멤버들과 상호작용을 할 수 있으며, 커뮤니티는 목표 달성을 위해 계속적으로 나아간다. 본 논문에서는 이 알고리즘의 빠르고 효율적인 수행을 위해 OWL(Web Ontology Language)로 기술된 컨텍스트 온톨로지를 사용하였으면, Jade 에이전트 플랫폼을 이용하여 제안한 방법을 실험, 분석 하였다.
-
최근 유비쿼터스 컴퓨팅에 대한 연구가 활발히 진행되고 있으며 유비쿼터스 컴퓨팅의 실현을 위한 핵심기술로서 RFID 시스템에 대한 연구가 활발히 진행되고 있다. 유비쿼터스 환경에서 RFID 시스템이 사용자의 편리함을 가져다 주는 장점이 있는 반면, 이로 인해 사용자의 프라이버시가 침해 당할 수 있는 문제점 또한 가지고 있다. 본 논문에서 사용자 인증 알고리즘은 새로운 해쉬 함수를 사용하고 그리고 메시지 암호화를 위한 스트림 암호기는 LFSR(Linear Feedback Shift Register)을 사용한다.
-
유비쿼터스 지능 공간(Ubiquitous Smart Space)에서 동적으로 발생하는 다양한 문제를 협업을 통하여 해결할 수 있는 방법론으로 제안된 커뮤니티 컴퓨팅 (Community Computing) 모델을 기반으로 하는 개발 도구(Community Computing Development Tool Kit : CDTK)를 사용하면 특정 문제를 해결할 수 있는 커뮤니티 컴퓨팅 어플리케이션이 생성된다. 이 커뮤니티 컴퓨팅 어플리케이션이 실제로 유비쿼터스 지능 공간에 존재하는 uT-entity에 이식되어 동작하기 위해서 uT-entity의 종류에 상관없이 커뮤니티 컴퓨팅 어플리케이션이 배포될 수 있는 환경을 필요로 한다. 본 연구에서는 CDTK를 이용하여 생성된 커뮤니티 컴퓨팅 어플리케이션이 uT-entity에 배포(Deployment)되어 각 uT-entity가 커뮤니티의 멤버로 참여하여 멤버간의 협업을 통해 목적(Goal)을 달성할 수 있도록 지원하는 어플리케이션 프레임워크인 멤버 프레임워크(Member Framework)를 제안하고, 이를 이클립스 리치클라이언트 플랫폼(Rich Client Platform) 기반의 플러그인(Plug-In)으로 설계하고자 한다.
-
유비쿼터스 컴퓨팅 환경에서 커뮤니티 메타포를 이용하여 유비쿼터스 서비스를 실현하는 커뮤니티 컴퓨팅에 대한 연구가 제안되었다. 제시된 커뮤니티 컴퓨팅 어플리케이션 개발과정은 MDA 개발방법을 적용하여 추상화된 고수준의 모델로부터 최종 플랫폼에 적합한 코드를 생산한다. 그러나 커뮤니티 컴퓨팅 시스템을 구현하기 위한 통합개발환경은 존재하지 않는다. 이에 본 연구에서는 최근 관심이 고조되고 있는 이클립스를 이용하여 커뮤니티 컴퓨팅에서 요구되는 기능들을 플러그인으로 통합하여 커뮤니티 컴퓨팅 어플리케이션 개발에 적합한 통합개발환경(CDTK : Community computing Development Tool Kit)을 제안한다.
-
유비쿼터스 컴퓨팅에 대한 관심이 높아지면서, 위치인식기술의 중요성이 대두 되고 있다. 기존에 많이 이용되어 왔던 위치인식기술에는 인공위성을 이용한 GPS, 초음파를 이용한 Cricket, 적외선을 이용한 Active Badge, RF를 이용한 RFDAR등이 있다. 하지만 이러한 기술들은 시스템을 위해 기반 시설을 전제 조건으로 하기 때문에 이용에 어려움이 따른다. 기존의 위치인식기술의 단점을 보안하기 위한 방법으로 제시된 것이 GSM과 무선 LAN을 이용한 위치인식기술들이다. 현재는 차량용 네비게이션, 물류시스템의 상품 운반 현황 추적 등 위치인식기술을 바탕으로 한 다양한 서비스들이 상용화되어 가고 있다. 상용화된 서비스들의 특성에 따라 개인화된 위치 정보를 필요로 하는 것들이 많아 지고 있으며, 개인화된 정보를 획득하고 이를 서비스에 적용하려는 시도가 여러 곳에서 진행 중이다. 개인화된 정보를 얻기 위해서는 사람이 이해하고 사용할 수 있는 장소라는 개념을 확보해야 하며, 인공지능적인 기술들을 필요로 하게 된다. 본 논문에서는 기반시설(AP: Access Point)이 충분한 무선 LAN을 이용하여 위치인식 기술애 대해 연구하였다. 기존의 무선 LAN 장비를 통하여 얻어진 위치 데이터를 가공하여 검색 기술의 고전적인 방법인 벡터 유사도와 확률 기반 유사도를 적용하여 인식률의 추이를 실험해 보고, 인식률 증가를 위한 방법들을 모색해 보겠다. 또 위치기반 알리미를 통하여 개인화 정보에 대한 적용 방향에 대해 연구해 보고자 한다.
-
본 논문은 무선랜 기반의 UPnP(Universal Plug and Play) AV(Audio/Video) 장치들을 서로 가까이 근접시킴으로써, 자동으로 네트워크가 형성되고, AV 컨텐츠가 재생되는 기술을 제안한 것이다. 이를 지원하기 위해 무선랜 신호 강도에 의한 근접성 측정 알고리즘과 네트워크 파라메터 설정을 통한 자동 접속, UPnP AV 제어기와 연동하여 자동으로 AV 컨텐츠를 재생하는 방안을 포함한다. 또한 본 논문에서는 데스크톱 및 임베디드 리눅스 환경에서 이를 구현한 내용 및 결과를 기술한다.
-
본 논문에서는 만성질환을 갖고 있으면서도 일상생활을 하고 있는 만성질환 환자의 응급상황에 대비할 수 있는 u-Health 시스템 구축에 대하여 논한다. USN과 전자청진기, GPS, CDMA 그리고 RFID로 구성된 PHC(Personal Health Care) 장치에 의해 환자의 위급상황이 감지되면 위치정보를 포함한 문자메시지를 병원과 보호자의 모바일 단말기로 전송하여 즉각 대처할 수 있도록 한다. 특히 유비쿼터스 센서로 구성된 기울기/가속도 센서와 진동센서로 부터 수신되는 신호패턴을 분석하여 기절현상 또는 발작 증상과 같은 응급상황 여부를 판단한다. 이 시스템을 항상 주의가 필요한 만성질환자에게 적용시킴으로써 응급 상황에 신속히 대처하여 귀중한 생명을 구할 수 있을 것으로 기대된다.
-
Lately the usage of multimedia equipment with small LCD displays is rapidly increasing. Although many people use devices like cell phone and PDA, videos intended for TV or HDTV are sent to these mobile devices. Therefore, situation where it is hard for the user to view the desired scenes are growing more frequent. Currently, most services simply reduce the size of the content to fit the screen when they offer it for mobile devices. However, especially with sports broadcasts, there are many areas that cannot be seen very well because it was simply reduced in size. We are suggesting new motion how to let the user choose an area of interest based on Cognitive lattice. And present then sending it to the user in a way based on Focus Of Choice that fits the device.
-
EOL : Epistemological Ontology Language and Reasoner with SUNHI for Ubiquitous Computing Environment현재 이슈가 되고 있는 유비쿼터스 컴퓨팅 환경에서 서비스를 제공함에 있어 사용자의 만족도를 높여주기 위해 서비스의 지능화가 필요하다. 이러한 지능적인 서비스를 제공하기 위해 서비스에 필요한 지식을 논리적으로 표현하고, 체계적으로 추론할 수 있는 방법이 요구된다. 이를 위해 표현 범위가 넓고 유연한 일차 술어 논리(FOL)는 여러 분야에서 사용되었으며, 추론 시스템에 이용되고 있다. 그러나 풍부한 표현 범위는 유비쿼터스 컴퓨팅 환경에서의 오브젝트 관리에 있어 많은 계산비용이 소요된다. 서비스의 빠른 제공을 목표로 하고 있는 유비쿼터스 환경에서 이러한 계산비용은 서비스 제공 시간을 늦추는 요인이 된다. 이러한 문제를 극복하고 지식의 의미를 부여하는 방법으로 Description Logic과 온톨로지가 연구되고 있다. 특히 OWL(Web Ontology Language)은 풍부한 표현력을 제공하고 있으며, W3C에 의해 온톨로지 기술의 표준으로 제안되었다. 그러나 풍부한 표현 범위는 실제 컴퓨팅 환경에서 모두 사용되지 않고, 기술 및 추론의 복잡함으로 overhead가 발생한다. 본 논문에서는 이를 극복하고자 실제 유비쿼터스 환경에서 요구되는 표현 범위를 만족하는 SUNHI의 표현력을 갖는 EOL을 제안한다.
-
최근 삶의 수준의 향상과 의학 기술의 발전으로 노인 인구가 증가하고 있다. 하지만 늘어나는 노인 인구에 비례하여 신체적 노화로 거동이 어려운 노인의 수 또한 증가하는 추세이다. 실제로 많은 노인 인구가 거동이 불편해 정상적인 생활을 하지 못하고 있기 때문에 보행 시 적절한 힘을 보조해 줄 수 있는 보행 보조 장치의 개발이 필요하다. 이 같은 보행 보조 장치를 개발함에 있어 보행자의 보행 패턴이 고려된다면 보행자의 걸음걸이에 맞춰 자연스럽게 힘을 보조해 줄 수 있기 때문에 보행자의 보행 단계 분류에 관한 연구가 선행되어야 한다. 그래서 본 논문에서는 하지 근전도 신호를 이용해 보행 단계를 구분하는 방법을 제안하고자 한다. 근전도 신호는 근육이 움직일 때 발생하는 아주 작은 전기적인 신호이다. 근전도 신호는 작은 잡음에도 민감하며, 전극을 부착하는 근육의 위치에 따라서도 값의 차이가 크기 때문에 근전도 신호의 획득 및 처리 방법이 중요하다. 위를 위해 피실험자 별 근육의 위치와 보행 속도를 달리하여 근전도 신호를 획득하고 획득한 신호로부터 여러 특징 값을 추출한다. 그리고 새로운 데이터에 대해 적응성이 강하고 시간에 따라 변하는 근전도 신호의 특성을 잘 반영할 수 있으며 각 집합(class)의 비선형 분리가 가능한 퍼지 최대-최소 신경망(Fuzzy Min-Max Neural Network: FMMNN)을 이용해 보행 단계를 분류해 본다. 실험 결과를 통해 제안한 방법의 타당성을 검증해 보고 보행자, 보행속도, 근전도 측정을 위한 근육의 위치가 보행 패턴 분류에 미치는 영향을 알아본다.
-
본 논문은 치아의 모양, 크기 및 턱의 모양 등과 같은 치아의 기하학적인 특징들을 사용하여 치아의 성 변별시스템에 PCA기법과 LDA기법을 각각 적용하고 두 기법을 비교분석한다. PCA기법과 LDA기법은 생체인식을 위한 주요 매핑기법으로 알려져 있다. PCA분석 기법을 적용하여 성변별의 결과 76%의 인식률이 획득되었으며, LDA분석기법은 66%의 인식률이 획득되었다. 본 연구의 결과로부터 PCA기법은 치아의 성변별에 있어 LDA기법보다 우수한 성능을 제공함을 확인할 수 있었다.
-
수화는 청각장애인이 주로 사용하는 시각적인 언어이다. OpenGL 기반의 가상현실 공간을 배경으로 하여 청각장애인들이 쉽게 이해할 수 있는 수화 아바타의 움직임을 구현하기 위해, 본 논문에서는 수화 동작 데이터베이스를 구축하는 그래픽 사용자 인터페이스를 개발한다. 개발한 시스템에서는 아바타의 사실적인 표현과 친근감을 강조하기 위해 3D MAX 기반의 인체 아바타 모델의 픽셀 값을 ASE를 사용하여 C언어 코드로 변환함으로써 인간과 거의 비슷한 모델을 생성하였다. 손 모양 편집프로그램은 슬라이드 바를 사용하여 21개의 손 관절 각도를 조정할 수 있으며, 손 모양 코드번호와 손 모양 이름을 지정하여 수화단어 편집프로그램에서 사용하는 손 모양 데이터 형식으로 저장할 수 있다. 수화단어 편집프로그램은 수화단어 데이터 형식의 값을 설정하는 기능과 함께 손 모양 대칭복사, 검색, 추가, 수정, 삭제 기능을 제공함으로써 사용자가 손 모양을 쉽게 편집할 수 있도록 하였다. 손 모양 편집프로그램과 수화단어 편집프로그램을 사용하여 구성한 데이터베이스를 기반으로 수화 아바타가 가상현실 공간에서 인간과 유사한 움직임을 표현할 수 있도록 하였다.
-
본 논문에서는 대형 화면의 tabletop display상에서 물리적인 감각을 통해 정보를 직관적으로 조작할 수 있는 스마트 퍽 시스템을 제시한다. 기존의 데스크 탑 PC 환경의 인터페이스는 물리적인 마우스와 디지털 정보의 공간적인 불일치가 생기고 마우스의 물리적인 움직임과 모니터 상 그래픽 커서의 이동을 맵핑하여 간접적으로 정보를 조작하므로, 사용자에게 직관적인 인터페이스를 제공해 주지 못하는 한계가 있다. 스마트 퍽은 물리적인 인터페이스 장치로써 tabletop display상의 디지털 정보를 직접 조작할 수 있고, 스마트 퍽을 끌거나 들어서 옮기거나 회전시키는 등의 물리적인 조작을 통해 사용자에게 디지털 정보와의 직관적인 인터페이스를 제공한다. 또한 대형 화면의 tabletop display는 여러 사용자가 함께 화면에 표시되는 정보를 공유하고 조작하는데 적합하다. 스마트 퍽 시스템은 인간의 아날로그적인 지각과 반응을 통한 물리적인 인터랙션과 가상의 디지털 정보와의 거리를 줄여주는 역할을 한다. 이 시스템은 PDP 기반의 tabletop display 장치와 스마트 퍽, 그리고 tabletop display상의 스마트 퍽의 위치를 추적하는 위치 추적 장치와 스마트 퍽의 입력을 전송 받아 정보를 처리하는 메인 PC로 구성된다. 마지막으로 스마트 퍽 시스템의 인터페이스를 적용한 몇 가지 예시를 보여주고자 한다.
-
본 연구는 Haptic System의 물리적 stiffness(N/mm)와 사용자의 주관적 촉감정보(단단하다, 무르다)의 상관성에 관한 것이다. tangible media와 같은 컨텐츠의 촉감을 실감나게 표현하기 위해서는 사용자가 주관적으로 느끼는 힘의 강도가 haptic system에 매핑이 되어야 한다. 따라서 사용자의 주관적인 힘의 강도와 haptic system의 물리적 stiffness간에 상관성 연구가 필요하다. 본 연구에서는 물리적 특성을 결정하고 하드웨어와 소프트웨어를 연동시켜 촉감을 모델링하는 haptic 렌더링을 통해 정량화된 외부의 자극(변화)에 대해 사람이 심리적으로 느끼고 있는 감각을 정량화하여 입력 자극과의 관계를 밝히고자 팬텀을 이용해 두 번의 실험을 실시하였다. 먼저 haptic system에서 사용자가 힘의 차이를 느낄 수 있는 stiffness의 해상도를 측정하고, 그에 따라 나뉘어진 해상도 별로 촉감에 대한 주관적인 평가를 하였다. ANOVA결과에 따르면 haptic system의 물리적 stiffness와 사용자의 주관적 촉감정보간에 유의한 상관관계가 분석되었으며 회귀분석을 실시하여 유의한 정도를 회귀 방정식으로 도출하였다. 따라서tangible media를 이용한 실감적인 촉감 컨텐츠를 재현하는 기술에 본 연구결과가 유용하게 사용되리라 기대된다.
-
본 논문에서는 CD, DVD, 책과 같은 정보 저장 매체와 디지털 환경을 조합하여, 사용자로 하여금 쉽게 정보에 접근 가능하도록 하는 시스템을 소개한다. 이 시스템에서는 RFID를 이용하여 각 물리적 정보 저장 매체를 디지털 정보와 연계하고, 연계된 디지털 정보를 직관적이고 편리하게 이용 가능하도록 하는 "스마트 퍽"이라는 인터페이스 도구를 사용하여 사용자가 컴퓨터와 상호작용할 수 있도록 한다. 시스템은 PDP 기반의 테이블 디스플레이 장치, 그 위에 나타나는 정보와 직접적이고 직관적인 인터랙션이 가능한 인터페이스 도구인 스마트 퍽, RFID 인식 장치 등으로 구성되었다. 최종적으로는 이 시스템을 이용하여 실제 음악 CD를 디지털 정보로 나타내고, 쉽게 조작하여 재생하는 예시를 보이기로 한다.
-
본 논문에서는 인터넷 메신저를 위한 새로운 감성 인터페이스를 제안한다. 이는 상용 인터넷 메신저에 시각과 촉각 정보를 이용한 입력과 표현 기술을 적용하여 원격지 사용자 간의 감성 교류의 증대를 목적으로 한다. 본 연구에서는 문헌조사 및 메신저 사용자 설문조사를 기반으로 감정에 대한 분류 및 응용 대상이 되는 주요 감정을 추출하였고, 이를 바탕으로 시각과 촉각적 정보를 포함하는 visual icon으로써 ECON(Emotional ICON)을 정의하였다. 이 ECON은 ECON Editor를 이용하여 생성, 수정, 표현 확인이 가능하도록 하였고, ECON Player, 즉 실제 형체를 가지고 ECON의 동작 정보를 표현하는 새로운 장치를 제작하였다. 이러한 ECON 시스템을 인터넷 메신저와 연동하여 메신저의 이모티콘처럼 ECON을 사용함으로써 상대방의 감정을 시각적, 촉각적으로 표현함과 동시에 직관적인 입력을 제공하여 Emotional Interface 환경을 구축하였다. 따라서 본 논문에서는 ECON의 정의, ECON Editor의 구현, 키보드받침과 입술 모양으로 형상화된 ECON Player의 제작 및 메신저와 연동되어 동작하는 전체 ECON시스템에 관하여 설명하고, 또한 메신저 응용에 기반한 Emotional Interface에 대한 사용자의 평가와 향후 연구 방향에 대해서 기술한다.
-
오감 융합 정보 시대가 도래한다. 오감 융합은 감각 정보의 전이 기술 개발로 가능하다. 본 연구는 청각 정보의 촉각 정보 전이에 대한 연구이다. WMPlayer10SDK는 마이크로소프트사의 윈도우즈 미디어 플레이어(Windows Media Player, WMP)를 전용 소프트웨어 기반으로 하는 Plug-in 개발툴이다. WMPlayer10SDK 시스템은 WMP 내에서의 비디오와 오디오의 신호 정보를 추출하는 부분을 제공한다. 이를 이용하여 촉각 디스플레이(Tactile Display)장치인 Pos Tactor를 연동하여 음성 신호에서 진동 촉각을 제시하는 시스템을 개발하였다. 음성신호는 8bit, 16bit, 24bit, 32bit로 구분되며 각각의 주파수와 음폭의 Scale을 계산하여 그 수치를 시리얼 통신을 사용하여 통신포트(COM1)에 38400bps로 전달하여 구동하게 하였다. 이를 이용하여 음악을 촉감으로 느끼는 뮤직슈트(music suit)를 개발 하였다. 그러므로 뮤직슈트의 적용된 기술은 청각적 체험을 촉각적 체험을 할 수 있는 오감 융합 기술의 기초 기술로 제공 될 수 있다.
-
디제잉을 하려면 필수적으로, 턴테이블, 믹서, 스피커와 같은 장비들이 필요하다. 하지만 이러한 장비들은 그 크기가 크고 많은 연결선으로 연결되기 때문에 휴대가 용이하지 않아, 일반인들이 가지고 다니면서 디제잉을 즐기고 음악을 믹싱하기에 적합하지 않다. 많은 사람들이 디제잉과 믹싱을 배우고, 또 언제 어디에서나 쉽게 즐길 수 있게 하기 위해서는 보다 작고, 휴대하기 편하면서도 설치의 번거로움이 없는 새로운 인터페이스를 개발할 필요성이 있다. 이 논문에서는 사람들이 언제 어디에서나 쉽게 디제잉과 믹싱을 즐길 수 있도록 해주는 휴대용 무선 믹싱콘솔 장치를 제안한다.
-
지금까지 진행된 제스처 인식 연구는 한 사람을 대상으로 정적인 환경을 가정하여 이루어져 왔다. 본 논문에서는 복수의 등장인물이 존재하는 환경에서 대화 상대를 선택하여 제스처를 인식하는 방법에 대해 기술한다. 먼저 복수의 인물이 존재하는 환경에서 배경영역을 제외한 행위자의 영역을 추출한다. 그 후 각각의 행위자를 트래킹하면서 카메라와 가장 가까이 있는 행위자를 대화 상대자로 선택한다. 대화상대자가 선택되면 스테레오 카메라에서 입력된 영상에서 추출된 실루엣 이미지를 이용하여 얼굴과 두 손을 특징 영역으로 하여 매 프레임마다 Kalman filter를 사용하여 각 영역을 트래킹한다. 트래킹되는 특징 영역의 2차원 좌표 값을 모델 제스처의 2차원 좌표 값과 비교하여 가장 높은 유사값을 갖는 모델 제스처를 입력 제스처로 인식하게 된다. 본 논문에서 사용한 방법은 복수의 등장인물이 있는 경우 효과적으로 행위 대상자를 선택하여 제스처를 인식할 수 있다. 또한 제스처 인식에 있어서 단순한 큐 매칭을 사용함으로써 계산이 복잡하지 않은 장점이 있다. 실험을 통해 본 논문에서 제시한 방법을 적용함으로써 복수의 인물이 등장하는 환경에서 제스처 인식이 가능함을 입증한다.
-
인간과 컴퓨터간의 전통적인 인터페이스는 인간이 요구하는 다양한 인터페이스를 제공하지 못한다는 점에서 점차 사용하기 불편하게 되었고 이는 새로운 형태의 인터페이스에 대한 요구로 이어지게 되었다. 본 논문에서는 이러한 추세에 맞추어 카메라를 통해 인간의 손 제스처를 인식하는 새로운 인터페이스를 연구하였다. 손은 자유도가 높고 3차원의 view direction에 의해 형상이 매우 심하게 변한다. 따라서 윤곽선 기반방법과 같은 2차원으로 투영된 영상에서 contour나 edge의 정보로 손 제스처를 인식하는 데는 한계가 있다. 그러나 모델기반 방법은 3차원 정보를 이용하기 때문에 손 제스처를 인식하는데 좋으나 계산량이 많아 실시간으로 처리하기가 쉽지 않다. 이러한 문제점을 해결하기 위해 손 형상에 대한 대규모 데이터베이스를 구성하고 정규화된 공간에서 Feature 간의 연관성을 파악하여 훈련 데이터 모델을 구성하여 비교함으로써 실시간으로 손 포즈를 구별할 수 있다. 이러한 통계적 학습 기반의 알고리즘은 다양한 데이터와 좋은 feature의 검출이 최적의 성능을 구현하는 것과 연관된다. 따라서 배경으로부터 노이즈를 최대한 줄이기 위해 피부의 색상 정보를 이용하여 손 후보 영역을 검출하고 검출된 후보 영역으로부터 HLF(Haar-like Feature)를 이용하여 손 영역을 검출한다. 검출된 손 영역으로부터 패턴 분류 과정을 거쳐 손 포즈를 인식 하게 된다. 패턴 분류 과정은 HLF를 이용하여 손 포즈를 인식하게 되는데 미리 학습된 각 포즈에 대한 HLF를 이용하여 손 포즈를 인식하게 된다. HLF는 Violar가 얼굴 검출에 적용한 것으로 얼굴 검출에 좋은 결과를 보여 주었으며, 이는 적분 이미지로부터 추출한 HLF를 이용한 Adaboost 학습 알고리즘을 사용하였다. 본 논문에서는 피부색의 색상 정보를 이용 배경과 손 영상을 최대한 분리하여 배경의 대부분이 Adaboost-Haar Classifier의 첫 번째 스테이지에서 제거되는 방법을 이용하여 그 성능을 더 향상 시켜 손 형상 인식에 적용하였다.
-
휴대용 모바일 디바이스의 입력 장치로는 스타일러스나 터치 스크린의 채용이 가장 일반적이나, 이들 방식을 사용하기 위해서는 사용자는 두 손을 모두 사용해야 하는 불편함이 있다. 이러한 문제점을 해결하기 위해 가속도나 자이로 센서를 이용한 tilt navigation이 많은 관심을 받고 있다. Tilt navigation은 한 손으로 모바일 디바이스를 잡고 기울임으로써 원하는 기능이나 항목을 선택할 수 있는 장점이 있으나, 사용자에게 익숙하지 않아 아직 보편화 되지 않고 있다. 본 연구는 tilt navigation에서 사용자가 원하는 메뉴나 항목을 보다 쉽게 찾아 갈 수 있도록 메뉴 또는 항목 간의 이동 속도를 제어하는 알고리즘을 제안하고자 한다. 제안하는 알고리즘은 목표 항목을 찾아 가는 과정에서 과거의 기울임 정보를 바탕으로 목표 아이템이 존재하는 범위를 설정하고, 항목 간의 이동 속도를 범위의 크기에 비례하도록 설정하여 사용자가 목표 아이템을 보다 편리하게 찾고 선택할 수 있도록 한다. 또한 본 연구에서는 가속도 센서를 장착한 PDA를 이용하여 기존의 tilt navigation과 제안하는 알고리즘이 적용된 tilt navigation과의 목표 아이템을 찾아가는데 걸리는 소요 시간을 비교하여, 제안하는 알고리즘의 효과를 보이고자 한다.
-
본 논문은 조명변화가 심한 주변환경에서 동적객체의 특징정보를 안정적으로 추출하는 기법을 제시한다. 제안기법에서는 우선 조명변화의 효과를 최소화 하기위해 HSI 컬러공간에서 색상(Hue) 강도 및 색상기울기에 대한 평균값과 표준편차 값으로 이루어진 배경모델을 생성한다. 실시간으로 입력되는 동적 객체를 포함한 연속영상에 대하여 각 화소에 대한 색상(Hue) 성분을 추출하고 이웃 화소와의 색상성분에 대한 기울기 크기를 계산한다. 이를 기구축된 배경모델과 비교하여 그 차분값이 일정 임계값을 초과하는 경우 동적 객체의 영역으로 판별한다. 마지막으로 모폴로지 연산을 수행하여 배경영상의 노이즈 영역을 제거한다. 본 논문에서는 기존 동적객체 추출기법과 제안기법을 핸드 트래킹과 전체 몸 움직임 추적의 비교실험을 통하여 제안 기법의 안정성을 보였다. 제안 기법은 극심한 조명변화에 강건하게 동적 객체의 영역정보를 실시간 추출하였다.
-
가상현실은 컴퓨터를 이용하여 만들어진 가상의 환경에서 사용자가 오감을 통해 현실과 유사한 느낌을 경험할 수 있도록 해주는 기술이다. 햅틱 인터페이스는 사용자가 촉각으로 가상 환경과 상호 작용을 할 수 있도록 해주는 기술로서 사용자가 가상 물체를 실제로 만지는 듯한 착각을 불러 일으켜 보다 현실에 가까운 가상 경험을 할 수 있도록 도와준다. 본 논문에서는 다양한 용도로 사용할 수 있는 3차원 햅틱 인터페이스 장치를 설계 및 제작하고, 순발력 재활훈련의 목적으로 가상공간을 시각적으로 보여주는 입체영상 시스템과 연동하여 일부 제한적인 기능을 갖는 가상 테니스 연습 시스템을 구현하였다. 이때 가상 공과 가상 라켓의 간단한 충돌 모델과 햅틱 렌더링을 통하여 가상 공을 칠 때 사용자가 라켓으로 느끼는 충격과 반력을 제작한 3차원 햅틱 인터페이스 장치를 통하여 느낄 수 있도록 하였다. 구현된 시스템의 실험을 통하여 공과 라켓에서 충돌이 일어났을 때의 느낌을 사용자에게 전달할 수 있었으며, 완벽하지는 않지만 공과 라켓의 충돌 후 공의 나가는 방향과 속도가 실제와 유사함을 확인하였다.
-
새로운 매체와 접촉 시 발생하는 거부감을 최소화 하고 별도의 학습 없이 사용 가능한 직관적 명령 전달 방식의 매개 인터페이스를 제안한다. 제안하는 매개 인터페이스는 3차원 공간에서 사용가능한 가상 마우스와 TV 리모트 컨트롤러의 기능적 결합을 목표로 하고 실버세대들에게 익숙한 매체인 펜을 형태로 삼아 개념적으로 설계되었다. 구체적인 구현은 가속도계의 신호를 분석하거나 펜촉에 레이저 포인터를 추가하여 레이저 포인터의 좌표 변화를 웹캠으로 추적, 인식하는 방법으로 구분하였고 본 논문에서는 가속도계의 경우를 소개한다. 가속도계 신호분석을 통해 마우스의 기능을 모사하고 동작을 감지하는데 발생하는 문제점과 이를 해결하기 위한 기존 연구를 분석하고 동작 중에 중력방향의 수직축이 바뀌면서 발생하는 가속도계 신호의 오류를 보상하기 위해 제안된 Zero Velocity Compensation 방법을 소개한다. ZVC의 결과에 필수적인 저주파의 시계열 신호 실시간 끝점 추출과 동시에 패턴인식을 위한 특징추출 기능을 수행하는 새로운 알고리즘을 제안하며 기존의 방법과 실험적으로 성능을 비교한다. 또한 입력된 가속도계 신호를 학습된 인식기를 통해 인식하는 기존의 연구에서 더 나아가, 마우스의 좌표변화를 짧은 시간동안 가속도 신호의 실시간 분석을 통해 모사하기 위해 변형시킨 알고리즘을 소개한다.
-
본 논문에서는 다양한 촉감 구성 요소들을 조합하여 촉감 정보를 생성하는 촉감 조합기를 개발하고, 개발된 촉감 조합기를 인스턴트 메신저 기반의 촉감 공유 시스템에 적용하였다. 촉감 공유 시스템은 촉감의 시각적 정보를 담고 있는 배경 이미지와 그 위에 기록되는 촉감 정보를 관리하는 촉감보드를 원격지의 사용자와 실시간으로 공유하는 환경 공유 시스템이다. 본 논문에서는 촉감 공유 시스템을 최근 인스턴트 메신저 서비스에서 제공하는 간단한 플러그인 형태로 개발하였다. 따라서, 본 시스템을 위해 개발된 촉감 조합기는 사람의 촉감 정보를 구성하는 주요 요소들만으로 간단히 정의하고, 생성 및 편집, 공유를 목적으로 설계하였다.
-
생의학 분야 문헌의 양이 빠르게 증가함에 따라, 생의학 연구자들이 필요로 하는 정보를 얻기가 어렵게 되었다. 이를 해결하기 위해, 인간-컴퓨터 상호작용 분야에서는 생의학 문헌 검색 시스템, 또는 생의학 문헌의 정보 추출 시스템 등에 대한 연구가 진행되고 있다. 본 논문에서는 생의학 문헌으로부터 정보를 자동으로 추출하기 위한 관계정보 추출 시스템에 대해 소개한다. 소개하는 시스템은 크게 요약 수집 모듈, 관계 추출 모듈, 관계 가시화 모듈로 구성되어 있다. 우선, 요약 수집 모듈에서는 특정 주제의 문헌들을 검색 및 수집한다. 그리고, 관계 추출 모듈에서는 수집된 문헌들에 대해서, 단백질/유전자 등의 생물학 개체를 인식하고, 구문분석을 통하여 인식된 개체들 사이의 관계를 추출한다. 마지막으로, 관계 가시화 모듈에서는 추출된 관계를 통합하여 네트워크 형태로 가시화한다. 이 시스템은 생물학 실험 이전의 문헌 기반 타당성 검사, 단백질-단백질 상호작용 또는 특정 질병과 유전자의 조절관계 분석, 또는 대용량 문헌 처리를 통한 패스웨이 데이터베이스 구축 등에 활용될 수 있다.
-
신문 기사 및 상품 평은 특정 주제나 상품을 대상으로 하여 글쓴이의 감정과 의견이 잘 나타나 있는 대표적인 문서이다. 최근 여론 조사 및 상품 의견 조사 등 다양한 측면에서 대용량의 문서의 의미적 분류 및 분석이 요구되고 있다. 본 논문에서는 문서에 나타난 내용을 기준으로 문서가 나타내고 있는 감정을 긍정과 부정의 두 가지 범주로 분류하는 시스템을 구현한다. 문서 분류의 시작은 감정을 지닌 대표적인 종자 어휘(seed word)로부터 시작하며, 자질의 선정은 한국어 특징상 감정 및 감각을 표현하는 명사, 형용사, 부사, 동사를 대상으로 한다. 가중치 부여 방법은 한글 유의어 사전을 통해 종자 어휘의 의미를 확장하여 각각의 가중치를 책정한다. 단어 벡터로 표현된 입력 문서를 이진 분류기인 지지벡터 기계를 이용하여 문서에 나타난 감정을 판단하는 시스템을 구현하고 그 성능을 평가한다.
-
진료 기록 문서(CDA)가 의사들에 의해 작성되기 때문에 많은 전문용어, 약어, 숫자, 기호 등을 포함하고 있다. 본 논문에서는 이러한 특성을 고려하여 문서 내에서 여러 의미로 해석될 수 있는 약어, 중의어 등의 단어 모호성을 해소하고자 의미적 등가 부류를 이용하여 모호성을 해소하였다. 특히 의료문서가 많은 비율의 숫자, 기호를 사용하고 있고 문서 내에서 많은 의미적 유의성을 포함하고 있기 때문에 이들을 불용어로 처리하지 않고 의미적 등가 부류에 포함시킴으로써 진료문서 특성을 반영하였다.
-
This paper describes the design and implementation of the database which is used in Personal Life Log Media system. The database contains information about media that capture personal experiences and enables the user to retrieve the media in a user friendly ways. The implementation of the database design is done by managing video data, which captures user's personal experiences, with its spatial and temporal information. The database enables the user to retrieve the video by mentioning where and/or when the video has been taken.
-
본 논문에서 제안하는 정보 검색기는 일반적인 불리언(Boolean) 질의를 통해서 정보를 검색하는 것이 아니라, 문장으로 입력된 질의형태의 패턴을 분석하여 그에 맞는 정보를 직접 제공하는 것에 목적을 둔다. 이를 위해 어휘 의미 패턴(Lexical Semantic Pattern)과 온톨로지(Ontology) 기술이 정보검색기 개발에 적용되었다. 제안된 시스템에서는 다양한 형태로 표현된 문장 질의를 어휘 의미 패턴을 사용해서 문장의 질의 패턴을 추출하고 사용자 질의를 하나의 온톨로지(Ontology) 추론 질의와 매칭함으로써 질의에 대한 정확한 해답을 추출할 수 있다. 또한, 자연어 문장 입력에 대한 검색 질의 생성기를 구축하고 온톨로지로 표현된 지식을 사용하여 정보검색기 질의를 자동으로 확장함으로써 더욱 정확한 정보 검색 결과를 만들어 낼 수 있다.
-
본 논문에서는 현재 3D 그래픽뿐만 아니라 게임에서 정확한 충돌감지(collision-detection)나 컬링(culling)등은 3D공간에서 이러한 표준객체를 중심으로 많은 연구가 이루어지고 있다. 3D그래픽 분야에서 H/W의 놀라운 발달과 3D게임을 즐기는 게이머들이 좀 더 사실적인 표현에 깊은 관심을 가지고 있다. 90년대 중반 이후로 많이 연구되어진 3D 게임 엔진과 알고리즘 중에서 표준 3D 객체의 다양한 충돌 알고리즘을 분석하고, 기존의 3D 객체의 단순한 Hierarchies 구조에서 탈피하여 3D공간상에서 LOD(Level-of-Detail) 알고리즘을 이용하여, 3D객체가 3D 공간상에서 충돌검사의 성능을 향상시켜서 3D 게임의 필수 요소인 3차원 공간상의 효율적인 렌더링과 사실적인 표현의 알고리즘을 제안하여 실시간을 중요시 하는 3D 게임에서 사실감과 효율성을 높일 수 있게 제안한다.
-
동물이나 곤충, 혹은 사람 같은 군중이 등장하는 장면을 영화나 게임 등에서 종종 볼 수 있다. 이러한 대규모의 군중을 제어하기 위해서는 일반적인 에이전트별 제어 방식이 아닌 군중적인 움직임을 보일 수 있는 특별한 군중 제어가 필요하다. 자연스러운 군중의 제어를 위해선 지능적인 행동을 보여야하며 움직임은 자연스러워야한다. 또한 게임 등의 실시간 환경을 위해선 연산의 속도도 고려해야 한다. 이에 본 논문에서는 조종 행동을 이용한 실시간 대규모 군중 제어 기법을 제안한다.
-
본 논문에서는 점묘화 표현을 위한 기법을 제한한다. 신인상파(Neo-Impressionist) 화가 쇠라는 캔버스위의 독립 색채들은 망막위에서 재조직된다는 이론을 바탕으로 점묘화를 제안한다. 이는 색의 병치혼합과 보색대비를 이용해 빛의 가산혼합이 회화작품에 적용될 수 있도록 하기위해 브러시 스트로크로 작은 점을 이용한다. 이러한 점묘화를 표현하기위해서 쇠라의 작품과 동시대의 색이론 분석을 통해 색의 분할과 병치혼합의 이론적 배경을 알아보고 이를 통해 점묘 스트로크의 색상, 모양, 방향등을 결정할 수 있는 알고리즘을 소개한다. 먼저 신인상파의 팔레트 분석을 통해 칼라모델을 설계한다. 또한 점의 효율적인 분포를 위해 재귀적인 Wang Tile을 이용한다. 점묘의 색상구성은 명암의 단계별로 처리된다. 이렇게 함으로써 명암표현을 위한 보색의 배치를 적절히 표현할 수 있다. 이때 점묘 스트로크의 방향은 입력영상의 에지방향을 따르도록 보간법을 이용해 계산한다.
-
The necessity of data compression scheme for volume data has been increased because of the increase of data capacity and the amount of network uses. Now we have various kinds of compression schemes, and we can choose one of them depending on the data types, application fields, the preferences, etc. However, the capacity of data which is produced by application scientists has been excessively increased, and the format of most scientific data is 3D volume. For 2D image or 3D moving pictures, many kinds of standards are established and widely used, but for 3D volume data, specially time-varying volume data, it is very difficult to find any applicable compression schemes. In this paper, we present a compression scheme for encoding time-varying volume data. This scheme is aimed to encoding time-varying volume data for visualization. This scheme uses MPEG's I- and P-frame concept for raising compression ratio. Also, it transforms volume data using Daubechies D4 filter before encoding, so that the image quality is better than other wavelet-based compression schemes. This encoding scheme encodes time-varying volume data composed of single precision floating-point data. In addition, this scheme provides the random reconstruction accessibility for an unit, and can be used for compressing large time-varying volume data using correlation between frames while preserving image qualities.
-
전역조명기법(global illumination)중에서 난반사(diffuse reflection) 객체들 사이의 관계를 효과적으로 표현하는 래디오시티(radiosity)방법은 객체들 사이의 에너지 교환에 에너지 평형 상태를 모델링 한다. 그러나 래디오시티는 많은 계산량으로 인해 실시간 활용에는 적합하지 않았다. 최근 장면생성에 걸리는 소요시간을 크게 단축시킬 수 있는 비용대비 고성능의 그래픽스 하드웨어(GPU)를 이용한 방법들이 제안되고 있다. 객체들 사이에서 교환되는 에너지는 래디언스(radiance)로 표현이 가능하며, 이러한 래디언스는 대상 장면에서 취득한 HDR(High Dynamic Range) 영상으로부터 래디언스 맵을 구성해서 얻을 수 있다. 이를 기반으로 대상장면의 조명환경을 구성하면 대상장면의 복잡도와는 별개로 빠르고 사실적인 합성장면을 생성할 수 있다. 본 논문에서는 G. Coombe 등이 제안한 점진적 세분(progressive refinement) 알고리즘을 수정하여 래디언스 맵을 이용할 수 있도록 하였으며, 각 텍셀(texel)설정 및 보간(interpolation) 적용 등에 따른 실험 결과를 얻고 분석하였다. 구현된 방법은 이후 영상기반 재조명과 그래픽스 하드웨어를 이용한 영상합성 기술로 영화, 애니메이션, 가상현실, 게임 등에 다양하게 활용될 예정이다.
-
전방향(omnidirectional) 카메라 시스템은 보다 적은 수의 영상으로부터 주변 장면(scene)에 대한 많은 정보를 취득할 수 있는 장점이 있기 때문에 전방향 영상을 이용한 자동교정(self-calibration)과 3차원 재구성 등의 연구가 활발히 진행되고 있다. 본 논문에서는 기존에 제안된 교정 방법들을 이용하여 추정된 사영모델(projection model)의 정확성을 검증하기 위한 새로운 방법이 제안된다. 실 세계에서 다양하게 존재하는 직선 성분들은 전방향 영상에 컨투어(contour)의 형태로 사영되며, 사영모델과 컨투어의 양 끝점 좌표 값을 이용하여 그 궤적을 추정할 수 있다. 추정된 컨투어의 궤적과 영상에 존재하는 컨투어와의 거리 오차(distance error)로부터 전방향 카메라의 사영모델의 정확성을 검증할 수 있다. 제안된 방법의 성능을 평가하기 위해서 구 맵핑(spherical mapping)된 합성(synthetic) 영상과 어안렌즈(fisheye lens)로 취득한 실제 영상에 대해 제안된 알고리즘을 적용하여 사영모델의 정확성을 판단하였다.
-
본 논문에서는 실물체의 3차원 모델을 복원하기 위해 거리영상 카메라에서 획득된 3차원 점군에 대한 온라인 정합 기법을 제안한다. 제안하는 방법은 거리영상 카메라를 사용하여 연속된 거리영상과 사진영상을 획득하고 문턱값(threshold)을 이용하여 물체와 배경에 대한 정보를 분류한다. 거리영상에서 특징점을 선택하고 특징점에 해당하는 거리영상의 3차원 점군을 이용하여 투영 기반 정합을 실시한다. 초기정합이 종료되면 사진영상간의 대응점을 추적하여 거리영상을 정제하는 과정을 거치는데 대응점 추적에 사용되는 KLT(Kanade-Lucas-Tomasi) 추적기를 수정하여 초기정합의 결과를 대응점 탐색에 이용함으로써 탐색의 속도와 성공률을 증가시켰다. 특징점과 추적된 대응점에 해당하는 3차원 점군을 이용하여 거리영상의 정제를 수행하고 정합이 완료되면 오프라인에서 3차원 모델을 합성하였다. 제안한 알고리듬을 적용하여 2개의 실물체에 대하여 실험을 수행하고 3차원 모델을 생성하였다.
-
Active Appearance Models은 객체의 모델링에 널리 사용되며, 특히 얼굴 모델은 얼굴 추적, 포즈 인식, 표정 인식, 그리고 얼굴 인식에 널리 사용되고 있다. 최초의 AAM은 Shape과 Appearance가 하나의 계수에 의해서 만들어 지는 Combined AAM이였고, 이후 Shape과 Appearance의 계수가 분리된 Independent AAM과 3D를 표현할 수 있는 Combined 2D+3D AAM이 개발 되었다. 비록 Combined 2D+3D AAM이 3D를 표현 할 수 있을지라도 이들은 공통적으로 2D 영상을 사용하여 모델을 생산한다. 본 논문에서 우리는 stereo-camera based 3D face capturing device를 통해 획득한 3D 데이터를 기반으로 하는 3D AAM을 제안한다. 우리의 3D AAM은 3D정보를 이용해 모델을 생산하므로 기존의 AAM보다 정확한 3D표현이 가능하고 Alignment Algorithm으로 Inverse Compositional Image Alignment(ICIA)를 사용하여 빠르게 Model Instance를 생산할 수 있다. 우리는 3D AAM을 평가하기 위해 stereo-camera based 3D face capturing device로 촬영해 수집한 한국인 얼굴 데이터베이스[9]로 얼굴인식을 수행하였다.
-
본 논문에서는 비전 기반 3차원 얼굴 모델의 자동 표정 생성 시스템을 제안한다. 기존의 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 배제한 얼굴 표정 생성에 초점을 맞추고 있으며 얼굴 모션 추정과 표정 제어에 관한 연구는 독립적으로 이루어지고 있다. 제안하는 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출 방법으로는 얼굴 후보 영역 검출과 얼굴 영역 검출 과정으로 구성된다. HT 컬러 모델을 이용하며 얼굴의 후보 영역을 검출하며 얼굴 후보 영역으로부터 PCA 변환과 템플릿 매칭을 통해 얼굴 영역을 검출하게 된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 3차원 실린더 모델의 투영과 LK 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 또한 영상 보정을 통해 강인한 모션 추정을 할 수 있다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용하며 12개의 얼굴 특징점으로부터 얼굴 모델의 표정을 생성한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 눈썹, 눈, 입 주위의 얼굴 특징점을 검출하며 LK 알고리즘을 이용하여 특징점을 추적(Tracking)한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수를 획득한다. 애니메이션 매개변수로부터 얼굴 모델의 제어점을 이동시키며 주위의 정점들은 RBF 보간법을 통해 변형한다. 변형된 얼굴 모델로부터 얼굴 표정을 생성하며 모션 추정 결과를 모델에 적용함으로써 얼굴 모션 정보가 결합된 3차원 얼굴 모델의 표정을 생성한다.
-
그래픽스 분야에서 다양한 재질을 사실감 있게 표현하려는 연구가 활발히 진행되고 있는 가운데, 다양한 재질의 반사특성을 측정하는 방법들이 시도되고 있다. 본 연구에서는 디지털 카메라를 이용하여 영상 기반 양방향 반사 분포함수(BRDF: Bidirectional Reflectance Distribution Function)를 획득할 수 있는 측정 시스템을 구축하였다, 이를 통한 BRDF 모델은 경험적(empirical)혹은 물리(physical)기반의 모델에 비해 보다 사실성 높은 표현이 가능하다. 영상 기반으로 양방향 반사 분포함수를 생성하는 과정에서 노출시간을 달리한 여러 장의 영상을 가지고 HDR(High Dynamic Range) 영상을 생성하였다. 또한 원색재현을 위해 표준광원을 사용하고 컬러차트와 회귀분석을 통해 컬러 보정을 수행하였다. 본 연구에서는 플라스틱이나 금속재질같이 불투명한 등방성(isotropic) 재질을 사용하였고, 이러한 재질의 BRDF데이터를 통해 산업제품에서 많이 사용되는 재질의 모델을 보다 실감나게 렌더링(rendering)할 수 있다.
-
여러 학계와 산업계로부터 인체영상과 같은 정적인 볼륨 데이터뿐만 아니라, 유체 흐름과 같은 동적으로 움직이는 Time-Variant 볼륨 데이터에 대한 실시간 렌더링의 요구가 계속되고 있다. 일반적으로 Time-Variant 데이터는 그 크기가 정적 볼륨 데이터의 수배에서 수백 배에 이르러, 이를 실시간으로 가시화하는 데에 많은 어려움이 있어왔다. 한편, PC 그래픽스 하드웨어의 급격한 발전에 따라 슈퍼컴퓨터나 다수의 컴퓨터들을 이용한 병렬/분산 렌더링으로나 가능했던 Time-Variant 볼륨 데이터의 실시간 볼륨 렌더링을 한대의 일반 PC에서 수행하려는 시도가 계속되고 있다. GPU의 꼭지점 및 프래그먼트 쉐이더(vertex & fragment shader)는 수치 계산에 최적화된 벡터 연산과 사용자 프로그래밍 기능으로 빠른 볼륨 렌더링을 일반 PC에서도 가능하게 했다. 본 논문에서는 GPU를 이용해서 Time-Variant 볼륨 데이터를 빠르게 가시화하고, 이렇게 개발한 GPU 볼륨 렌더링 프로그램을 사용자가 사용하기 편리하도록 사용자 친화적인 유저 인터페이스를 설계하고 구현하였다. 특히, 시간에 따라 동적으로 변화해야 하는 전이함수를 최대한 편리하게 생성할 수 있도록 전이함수 에디터에 중점을 두었다.
-
최근 가상현실 기술의 주요 연구 동향으로 몰입감을 증가시키는 실감공간 구현구술이 주목 받고 있다. 실감공간 기술이란 서로 다른 공간에 떨어져 있는 사용자가 같은 공간에 있는 효과를 구현하는 기술이다. 본 논문에서는 특히 상호간의 주변 환경을 일치시키는 기술에 중점을 두고, 실시간으로 두 공간의 조명정보를 일치시키는 기술로서 2가지 핵심 내용을 소개한다. 첫째는 비주얼 헐 데이터를 기반으로 고속으로 노말벡터를 추출하는 방법이고, 둘째는 사용자 주변 조명 환경 정보를 반영하는 라이팅 방법이다. 본 논문에서 수행한 첫번째 방법은 비주얼 헐 데이터의 depth존재영역에서 노말맵을 계산하도록 하고, 노말맵을 계산할 때 주변 폴리곤들 기하학적 변화가 심할수록 노말맵 계산에 사용하는 주변 벡터의 선태을 늘리거나 줄이는 방식으로, 불필요한 계산량을 감소시켰다. 본 논문에서 수행한 두번째 방법에서는 주변 조명 정보에서 빛의 세기와 라이팅을 반영할 객체의 반사율의 특성을 고려하여 라이팅에 사용할 광원을 선택적으로 반영하여 불필요한 연산량을 감소시켰다. 종래의 영상기반 라이팅 기술이 사전에 촬영된 영상을 사용하거나 정지영상에 적용되는 연구를 한 반면에 본 논문은 실시간에서 라이팅을 구현하기 위한 시도로서 고속 라이팅 연산 기법을 제시하고 있다. 본 연구의 결과를 이용하면 영상기반 라이팅 연구의 실제적이고도 폭넓은 적용이 가능할 것으로 사료되며 고화질의 콘텐츠 양산에도 기여할 것으로 사료된다.
-
Metallic paint is one of the most widely used coating in automotive, cosmetic and other applications because of its well-known ability to give a product realistic look which creates widespread consumer appeal. But, this coating has complicated subsurface structure which includes pigments, flakes, and transparent clearcoat. Though various analytic reflection models are available to simulate appearance of various surfaces, it is difficult to select an appropriate reflection model with faithful parameters for simulating this coating due to the complex subsurface structure of metallic paints. This paper presents a framework for accurate modeling of metallic coating by determining an appropriate reflection model among various existing BRDF (Bidirectional Reflectance Distribution Function) models. The selection of the appropriate model is achieved by measuring BRDF of various metallic paint samples using a BRDF measuring device i.e. gonioreflectometer and fitting an existing model to the measured data. Then, this model is effectively realized by rendering metallic painted surfaces. We believe that this framework can serve as a guide for those who wants to render metallic painted surfaces accurately with analytic BRDF model without expending time on extracting BRDF data using gonioreflectometer from real metallic paint sample.
-
단백질 상호작용 네트워크의 데이터의 양이 증가함에 따라 이를 보다 쉽게 분석하기 위해 고속으로 시각화 방법이 요구되고 있다. 본 논문은 방대한 단백질 상호작용 네트워크에서 물리적 관계도가 높은 단백질을 중심으로 다단계에 걸쳐 스프링-포스(spring force)레이아웃 기법을 적용하여 그래프를 시각화하는 방법을 제안한다. 본 논문에 따른 단백질 상호작용 네트워크에서 시각화하는 방법은 물리적 관계도가 높은 단백질을 선정하는 단계, 선정된 단백질을 기반으로 네트워크를 합병하는 단계 및 합병된 노드들을 확장하는 단계를 거쳐 시각화하는 것을 특징으로 한다. 이에 따라, 단백질 상호작용 네트워크를 균형 상태의 그래프로 표현하고 고속으로 시각화할 수 있다는 장점이 있다.
-
기존 웹 기반 시스템들의 정보들은 단순하게 정보 제공자로부터 사용자로의 단방향 흐름이며 하이퍼링크로 연결된 정적인 문서 구조로 구성되어 있다. 이로 인해 정보의 갱신이 느리고 제공자와 사용자간의 상호 작용이 낮은 실정이다. 또한 학술정보를 독점하거나, 무기화하여 사용자의 자유로운 접근을 방해하고 분산되어 있는 대량의 디지털 콘텐트에 대한 상이한 포맷과 전송 프로토콜로 적시성 있는 정보의 검색과 수집이 어렵다. 이런 문제를 해결하기 위해 사회적 네트워크 기반 위에 사용자 참여와 공유를 지향하도록 차세대 웹을 도입하고 생명과학 관련 학술 정보에 대한 자유로운 접근과 상호운용성을 증진시키기 위해 OAI 프로토콜을 사용한 생명과학 문헌정보 네트워크를 설계한다. 이 네트워크는 첫째, 최신 논문, 세미나 발표자료, 연구노트, 연구 보고서 등의 자료를 공유 및 교환하고 사용자들 간에 커뮤니티를 구성할 수 있는 Open Repository 기능, 둘째, 분산되어있는 생명과학 관련 문헌정보에 대한 메타데이터를 수집 저장하는 OAI 프로토콜 기반의 Open Collection 기능, 셋째, 개방형 접근이 가능한 생명과학 관련 문헌정보 메타데이터를 서비스하는 Open Access 기능, 마지막으로, 회원 관리, 통계 그리고 등록된 자료에 대한 인증 절차를 하는 Administration 기능 등 4가지로 구성된다.
-
얼굴표정 인식은 심리학 연구, 얼굴 애니메이션 합성, 로봇공학, HCI(Human Computer Interaction) 등 다양한 분야에서 중요성이 증가하고 있다. 얼굴표정은 사람의 감정 표현, 관심의 정도와 같은 사회적 상호작용에 있어서 중요한 정보를 제공한다. 얼굴표정 인식은 크게 정지영상을 이용한 방법과 동영상을 이용한 방법으로 나눌 수 있다. 정지영상을 이용할 경우에는 처리량이 적어 속도가 빠르다는 장점이 있지만 얼굴의 변화가 클 경우 매칭, 정합에 의한 인식이 어렵다는 단점이 있다. 동영상을 이용한 얼굴표정 인식 방법은 신경망, Optical Flow, HMM(Hidden Markov Models) 등의 방법을 이용하여 사용자의 표정 변화를 연속적으로 처리할 수 있어 실시간으로 컴퓨터와의 상호작용에 유용하다. 그러나 정지영상에 비해 처리량이 많고 학습이나 데이터베이스 구축을 위한 많은 데이터가 필요하다는 단점이 있다. 본 논문에서 제안하는 실시간 얼굴표정 인식 시스템은 얼굴영역 검출, 얼굴 특징 검출, 얼굴표정 분류, 아바타 제어의 네 가지 과정으로 구성된다. 웹캠을 통하여 입력된 얼굴영상에 대하여 정확한 얼굴영역을 검출하기 위하여 히스토그램 평활화와 참조 화이트(Reference White) 기법을 적용, HT 컬러모델과 PCA(Principle Component Analysis) 변환을 이용하여 얼굴영역을 검출한다. 검출된 얼굴영역에서 얼굴의 기하학적 정보를 이용하여 얼굴의 특징요소의 후보영역을 결정하고 각 특징점들에 대한 템플릿 매칭과 에지를 검출하여 얼굴표정 인식에 필요한 특징을 추출한다. 각각의 검출된 특징점들에 대하여 Optical Flow알고리즘을 적용한 움직임 정보로부터 특징 벡터를 획득한다. 이렇게 획득한 특징 벡터를 SVM(Support Vector Machine)을 이용하여 얼굴표정을 분류하였으며 추출된 얼굴의 특징에 의하여 인식된 얼굴표정을 아바타로 표현하였다.
-
IT 기술이 급격하게 발달하면서 사용자와 컴퓨팅 환경 사이의 상호작용을 위한 인터페이스 연구가 활발히 진행 중이다. 현재 사용자는 시청각 위주의 인터페이스뿐만 아니라 다른 감각까지도 느낄 수 있는 환경을 요구하고 있다. 이에 발맞추어 인간의 오감을 충족시키기 위한 연구가 각 분야에서 이루어지고 있다. 가상 현실 속에서 사용자가 실세계에서 느낄 수 있는 감각을 똑같이 느낄 수 있는 환경을 제공하려 하고 있다. 그리고 멀티미디어 기술의 발달과 함께 오감에 관련된 정보를 융합하여 사용자에게 제공하려는 연구가 활발히 진행 중이다. 여기에서 각 감각 중에 촉각과 관련된 연구는 많이 진행되고 있으나 촉각 정보를 표현하기 위한 연구는 부족한 상황이다. 또한 촉각 정보를 표현하기 위한 데이터 포맷의 부족은 촉각 정보를 이용하는 어플리케이션 개발에 걸림돌이 되고 있다. 이에 본 논문에서는 촉각 정보를 이용하는 환경에서 사용자와의 인터페이스를 위해 사용할 수 있는 촉각 정보의 표현 모델을 정의하고 데이터 포맷을 설계한다.
-
청각장애인이 PC환경에서 영화, 방송, 애니메이션 등의 동영상 콘텐츠를 이용할 때 장애의 정도에 따라 콘텐츠의 접근성에 있어서 시각적 수용 이외의 부분적 장애가 발생한다. 이러한 장애의 극복을 위해 수화 애니메이션이나 독화 교육과 같은 청각장애인의 정보 접근성 향상을 위한 콘텐츠와 기술이 개발된 사례가 있었으나 다소 한계점을 가지고 있다. 따라서 본 논문에서는 현대 뉴미디어 예술 작품의 예술적 표현 방법을 구성요소로서 추출하여, 기술과 감성의 조화가 어우러진 독창적인 콘텐츠를 생산할 수 있는 기술을 개발함으로써 PC환경에서 청각장애인의 동영상 콘텐츠에 대한 접근성 향상 방법을 추출하고, 실질적으로 청각적 효과의 시각적 변환 인터페이스 개발 및 이미지 캡션 생성 소프트웨어 개발을 통해 청각장애인의 동영상 콘텐츠 사용성을 극대화시킬 수 있는 방법론을 제시하고자 한다. 본 논문에서는 첫째, 청각장애인의 동영상 콘텐츠 접근성 분석, 둘째, 미디어아트 작품의 선별적 분석 및 유동요소 추출, 셋째, 인터페이스 및 콘텐츠 제작의 순서로 단계별 방법론을 제시하고 있다. 이 세번 째 단계에서 이미지 캡션 생성 소프트웨어가 개발되고, 비트맵 아이콘 형태의 이미지 캡션 콘텐츠가 생성된다. 개발한 이미지 캡션 생성 소프트웨어는 사용성에 입각한 일상의 언어적 요소와 예술 작품으로부터 추출한 청각 요소의 시각적요소로의 전환을 위한 인터페이스인 것이다. 이러한 기술의 개발은 기술적 측면으로는 청각장애인의 다양한 웹콘텐츠 접근 장애를 개선하는 독창적인 인터페이스 추출 환경을 확립하여 응용영역을 확대하고, 공학적으로 단언된 기술 영역을 콘텐츠 개발 기술이라는 새로운 영역으로 확장함으로써 간학제적 시도를 통한 기술영역을 유기적으로 확대하며, 문자와 오디오를 이미지와 시각적 효과로 전환하여 다각적인 미디어의 교차 활용 방안을 제시하여 콘텐츠를 형상화시키는 기술을 활성화 시키는 효과를 거둘 수 있다. 또한 청각장애인의 접근성 개선이라는 한정된 영역을 뛰어넘어 국가간 언어적인 장벽을 초월할 수 있는 다각적인 부가 동영상 콘텐츠에 대한 시도, 접근, 생산을 통해 글로벌 시대에 부응하는 새로운 방법론으로 발전 할 수 있다.
-
본 논문에서는 댄스를 디지털콘텐츠와 접목시켜 누구나 쉽고 재미있게 즐길 수 있는 체험형 콘텐츠를 개발하고자 한다. 개발된 콘텐츠에서는 마우스나 키보드 등의 정적 입력 인터페이스를 벗어나 체험자의 능동적 참여를 위해 영상처리기술을 통해 PC 카메라로부터 얻은 영상에서 체험자의 모습을 분리하고 댄스 모션이 적용된 3D 모델과 같은 공간에 출력하여 두 모델간의 동작을 비교함으로써 같은 동작을 취하고 있는지를 판단하게 된다. 이때 체험자에게 어떠한 센서나 마커도 부착하지 않고 강건한 환경에서의 체험자 영상만을 추출하기 위한 방법과 댄스 모델과 체험자의 움직임 비교 방법을 새로이 제안하였다.