한국HCI학회:학술대회논문집
- 기타
Domain
- Information/Communication > Information Processing Theory
2007.02c
-
본 논문에서 우리는 이동단말기를 이용하여 멀티미디어 콘텐츠를 서비스하는 디지털 TV상거래 시스템을 개발하였다. 이 시스템은 이동단말기와 TV를 결합하여 TV 시청자로 하여금 TV 시청 중에 노래나 비디오 영상과 같은 멀티미디어 콘텐츠를 구매하고 이동단말기로 직접 다운로드 할 수 있게 한다. 더 나은 서비스를 위해 TV와 이동단말기를 결합했다는 점이나 노래, 비디오 영상 그리고 게임과 같은 멀티미디어 콘텐츠를 직접 이동단말기로 다운로드 할 수 있다는 점이 기존의 TV 상거래와 다른 점이다. 게다가 우리의 시스템은 비용을 줄이기 위해 값싼 네트워크를 사용하도록 설계되었다. 우리는 이 새로운 시스템을 구현하였고 이 시스템이 제공하는 서비스를 기존의 TV 상거래와 비교하여 상세히 기술한다. 그리고 제안된 시스템의 구조를 살펴보고 모의 테스트를 수행한다.
-
개인의 감성에 잘 부합하는 컨텐츠를 제공하기 위해선 개인의 취향과 컨텐츠를 이용할 때 어떤 감정을 가지고 있는지 알아야 한다. 개인의 취향을 알고 있다면 취향에 부합하는 컨텐츠를 재분류 할 수 있고 개인이 컨텐츠를 이용하려할 때의 감정 상태를 알 수 있다면 분류된 컨텐츠 중에서 감성에 부합하는 컨텐츠를 빠르게 제공할 수 있다. 본 논문은 개인의 취향을 인식하고 감정상태를 추측하여 연동된 플랫폼에 감정상태에 따른 결과를 출력하는 감성엔진을 제안 한다. 성격이 비슷한 사람은 비슷한 취향을 가지는 성향이 있으므로 취향인식을 위해 개인의 성격을 구별했고, 구별도구로 MBTI를 이용했다. 감정 추측을 위해 주변에서 일어나는 환경의 정보를 OCC 모델을 기반으로 분석하여 감정자극의 종류와 크기를 산출했다. 감정자극들을 감정그래프를 이용해 감정의 생성, 유지, 소멸을 관리하고 감정감정 상태에 맞는 결과를 출력했다.
-
본 논문의 목적은 PC 용으로 구축되어 있는 웹 컨텐츠를 PDA나 휴대폰과 같은 다양한 멀티플랫폼 단말기에도 제공할 수 있도록 하는 것이다. 기존의 대부분 방식은 모든 단말기에 서비스 할 수 없으므로 단말기용으로 모바일 컨텐츠를 미리 생성해 놓고 그 제한된 단말기에만 서비스하였다. 이때 가장 큰 문제점은 하나의 PC 웹 컨텐츠를 이용하여 다양한 하드웨어 특성을 가지는 모바일 단말기 마다 재생 가능한 모바일 컨텐츠를 모두 생성하는 것이다. 본 논문에서는 MPEG-21 멀티미디어 프레임워크를 이용하여 유선 웹 컨텐츠를 다양한 멀티 플랫폼 단말기에 실시간으로 맞추어 서비스하는 시스템을 제안한다. 제안한 시스템은 다양한 단말기별로 모바일 컨텐츠를 생성하는 것이 아니라 모바일 컨텐츠의 구성 및 표현방법을 MEPG-21 의 DIDL 을 이용하여 중간언어로써 기술한다. 그리고 멀티미디어 데이터 부분(Resource)만 Off-line으로 미리 변환한다. 이동단말기 접속 시 멀티미디어 서술(Description)부분을 실시간으로 변환하고 그 단말기가 사용 가능한 변환된 리소스를 통하여 단말기에 적합한 모바일 컨텐츠를 실시간으로 생성하여 서비스한다. 본 논문은 추가적으로 모바일 웹 서비스를 제공하는 과정에서 발생할 수 있는 응답시간 지연 현상을 최소화 하기 위하여 선 서비스 후 변환 방법을 제안한다.
-
최근 영상 매체는 3D와 인터랙션분야를 중심으로 크게 발전하고 있다, 이는 3D 영상 구현을 위해 필요한 기술의 발전이 이루어지고 사용자에게 보다 높은 몰입감과 현실감을 주는 3D 그래픽의 장점 때문이다. 3D 영상 콘텐츠의 발전과 다양한 영상매체의 개발은 필연적으로 지금의 인터페이스구조의 변화와 혁신을 가지고 올 것이며 이는 2D 인터페이스가 가지고 있는 한계를 3D 인터페이스의 효율성으로 극복할 수 있을 것이다. 그 장점은 3D 인터페이스가 자율성(Autonomy), 상호작용성(Interaction), 현재성(Presence)의 특징을 구현할 수 있기 때문이다. 따라서 위와 같은 3D 인터페이스의 발전 가능성을 검증하기 위해 동일한 내용의 정보를 2D와 3D의 두 가지 인터페이스로 구현하여 비교해 본다.
-
영상 재투영이란, 깊이 맵을 투영하여 임의의 시점에서 본 이미지를 생성해내는 기법을 말한다. 기존의 CPU를 이용한 영상 재투영 기법들의 가장 큰 단점은 CPU와 GPU 간의 데이터 복사가 일어나고 재투영 연산 자체의 속도가 느리기 때문에 실시간 렌더링이 불가능 하다는 것이다. 따라서 본 논문에서는 GPU를 이용하여 영상 재투영을 구현하고 실시간에 이미지를 렌더링하는 기법을 소개한다. 우리의 기법은 입력으로 참조 이미지와 해당 이미지의 깊이 맵이 주어졌을 때, 임의의 시점에서 보이는 새로운 이미지를 실시간으로 생성한다. 임의의 시점에서 이미지를 생성하기 위해, 각 픽셀에서 참조 이미지에 해당하는 평면을 렌더링하여 시점 반대 방향의 광선을 생성한다. 이 광선을 참조 이미지의 투영 공간으로 변환한 후, 광선과 깊이 맵간의 교차점을 찾는다. 이렇게 찾아낸 깊이 맵의 교차점과 일치하는 참조 이미지의 픽셀 색으로 새로운 시점의 이미지를 만들어 낼 수 있다. 이와 같은 기법은 기하 정보의 복잡도와 관계없이 수십 프레임의 속도로 실시간 렌더링이 가능하다.
-
본 연구에서는 사용자가 즉석에서 연주한 곡에 대응하는 춤 동작을 자동으로 생성하는 기술을 제안한다. 본 기법은 먼저 댄서로부터 모션 캡쳐 받은 춤 시퀀스를 분절화한 후 사용자가 신디사이저를 통해 직접 연주하여 얻은 MIDI 데이터를 분석해 음악에서의 특징점을 추출한다. 그리고 분절화 한 모션의 세그먼트들을 음악에 맞춰 다시 배열하여 새로운 춤 시퀀스를 생성함으로써 사용자가 연주한 음악과 어울리는 춤 동작을 자동으로 생성한다. 이를 위해 세 단계의 작업을 수행하게 되는데, 첫 번째 단계에서 모션 캡쳐를 통해 얻게 된 데이터에서 캐릭터의 위치와 자세를 기준으로 하여 긴 시퀀스를 의미 있는 작은 춤 동작으로 분절화한다. 두 번째 단계에서는 사용자의 연주를 통해 획득한 MIDI를 분석하여 특징점을 추출하고, 마지막 단계에서는 이를 바탕으로 음악에 기반한 음악과 동작을 합성한다. 본 연구는 음악과 댄스의 리듬감이 파괴되지 않도록 합성함으로써 우리의 연구는 기존 연구에 비해서 훨씬 자연스러운 춤 시퀀스를 결과물로 만들어 낸다.
-
게임은 데카르트적 좌표(Cartesian coordinates)의 전통을 뒤흔들고 육체와 정신, 이성과 감성, 실재와 가상을 가로지르면서 진화하고 있다. 수많은 철학적 담론을 야기하는 사유의 대상이 되고 있는 게임은 "미학적 기술(Aesthetic Technology)의 철학화(Philosophizing)"로 새롭게 정의될 수 있다. 게임의 메타포적 특성은 철학화하는 게임을 규정하는 중요한 면이다. 메타포(Metaphor)는 '개념의 매핑'(Mapping of the Concept)이며, 분리된 정신과 육체, 내용들을 연결하는 게임 역시 개념의 매핑으로 메타포가 된다. 게임의 메타포적 특성은 몰입(Immersive)과 연결되며 게임 기술의 발달로 개념의 매핑은 '개념의 몰핑'(Morphing of the Concept)으로 나아간다. 게임과 서사 사이의 갈등 또한 철학화 하는 게임의 까다로움을 드러내는 것이다. 게임학(Ludology)과 서사학(Narratology)의 이론적 논쟁에도 불구하고, 게임의 서사와 문학의 서사 사이에는 분명한 존재론적 차이가 있다. 우리는 게임에서 단지 사물이 움직이는 것을 보는 것이 아니라, 우리는 '우리 자체가(우리 스스로가) 움직이기 때문에 움직이는 것들을 보는 것'이기 때문이다. 그러므로 게임의 앵글(보는 방식)은 의미와 행위자가 아니라 '사용과 사용자(Use and User)'로 이동되어야 하며, 이때 서사는 '규칙의 해석(Interpretation)' 과정에서 생기는 잉여물(Surplus)이 된다. 게임은 수적으로 재현되며, 수적 재현을 통해 만들어지는 생산물(Product)은 서사가 아니라 알고리즘(Algorithm)이라는 숨은 규칙을 지닌 데이터베이스(Database)이다.
-
필적 감정은 개인의 고유한 필적 개성을 이용하여 임의의 두 필기 문장 또는 텍스트가 동일인에 의해 작성되었는지를 판별하는 기술로 유서대필 및 보안수사, 서명의 검증, 범죄 수사 등에 활용되어지고 있다. 이러한 작업은 감정 전문가의 판단기준에 의해 필적의 유사성을 판별하기 때문에 객관성 결여 및 과도한 소요 시간, 과도한 처리비용의 문제를 내포하게 된다. 이러한 문제를 해결하여 판별의 객관성과 업무의 신속한 처리를 가능하게 하기 본 논문에서는 컴퓨터를 통한 패턴 분석을 적용하여 두 필적의 유사성을 판별하는 방법을 본 논문에서는 제안한다. 이를 위하여 본 논문은 학습단계와 자동분석단계로 나뉘며, 학습단계에서는 입력된 문서영상에서 필적의 영역을 추출한 후, 특징을 추출하고 DTW연산을 통하여 학습을 한다. 자동분석단계에서는 대조할 문서영상에서의 특징을 추출하고 입력된 문서영상과 대조할 문서영상간의 마할라노비스 거리(Mahalanobis Distance)를 구하여 서명 및 필적에 대한 유사도를 도출한다. 실험은 4명의 필적을 이용하여 비교하였으며, 우수한 결과를 보였다.
-
본 연구의 주제는 텍스트를 어떻게 회화적이미지로 전환시킬 수 있을까?에 대한 것이다. 오늘날 디지털 환경 속에 있는 우리는 이미지 중심의 세계 속에 살고 있다. 과거 텍스트가 해왔던 정보의 생산과 전달 그리고 저장의 역할을 오늘날은 상당부분 이미지가 하게 되었다. 하지만 그럼에도 불구하고 아날로그 방식과 정서는 여전히 우리 곁에 남아있는 것도 사실이다. "Yesterday to Today"는 문자의 최소 단위인 알파벳을 통하여 이미지를 재현하려는 작품이다. 이 작품은 크게 두 가지 Idea로 이루어지는데 하나는 복수개의 실시간 영상 소스를 이용하여 이미지를 구성해내는 것과, 다른 하나는 텍스트에 의한 이미지의 변환이다. 복수개의 실시간 영상 소스는 프로그램이 작동하는 컴퓨터와 직/간접적으로 연결되어 전달되는데, 직접적으로 연결되어 근거리의 특정한 지점으로부터 영상 소스를 받을 수 있고, 또 하나의 방법은 인터넷을 통한하나 이상의 원거리 지점으로부터 보내어지는 영상을 조합하여 받을 수 있다. 프로그램 구현 개념은 픽셀 소스 카메라에서 캡쳐된 최초 이미지를 명도, 색상, 채도로 분류하고, 이것의 각각을 26개의 구간-자판의 개수에 의하여 정해짐-으로 나누고, 다시 그 각각의 구간을 26단계로 나눈다. 이렇게 나누어진 구간들은 알파벳과 1:1로 대응시켜 결과이미지의 해당 부분을 수치대로 재현하도록 프로그램 시킨다. 이미지의 부분들을 지정하기 위하여 특정한 텍스트로부터 알파벳의 빈도수를 조사했는데, 이 조사를 바탕으로 빈도수의 많고 적음에 따라 이미지부분들이 26개 구간으로 정해졌다. 이미지 재현 방법은 사용자가 모니터 위의 Result Image Cam을 통하여 얻고자 하는 이미지를 캡쳐한 후, 특정한 텍스트를 타이핑하면 이미지를 재현할 수 있는데, -입력된 텍스트의 알파벳은 프로그램이 지정한 HSI 컬러 모델의 영역과 1:1로 대응하게 하였다-이 이미지는 특정 장소에 실시간으로 받아진 영상을 데이터화 한 소스에 의하여 만들어진다. 이미지를 재현할 때 텍스트에 따라 알파벳 빈도수는 달라질 수 있으므로 비록 최초 이미지가 동일할지라도 얻고자하는 결과 이미지가 달라진다. 그러므로 사용자는다양한 창조적 경험을 할 수 있다.
-
We present an interactive and accurate collision detection algorithm for deformable, polygonal objects based on the streaming computational model. Our algorithm can detect all possible pairwise primitive-level intersections between two severely deforming models at highly interactive rates. In our streaming computational model, we consider a set of axis aligned bounding boxes (AABBs) that bound each of the given deformable objects as an input stream and perform massively-parallel pairwise, overlapping tests onto the incoming streams. As a result, we are able to prevent performance stalls in the streaming pipeline that can be caused by expensive indexing mechanism required by bounding volume hierarchy-based streaming algorithms. At run-time, as the underlying models deform over time, we employ a novel, streaming algorithm to update the geometric changes in the AABB streams. Moreover, in order to get only the computed result (i.e., collision results between AABBs) without reading back the entire output streams, we propose a streaming en/decoding strategy that can be performed in a hierarchical fashion. After determining overlapped AABBs, we perform a primitive-level (e.g., triangle) intersection checking on a serial computational model such as CPUs. We implemented the entire pipeline of our algorithm using off-the-shelf graphics processors (GPUs), such as nVIDIA GeForce 7800 GTX, for streaming computations, and Intel Dual Core 3.4G processors for serial computations. We benchmarked our algorithm with different models of varying complexities, ranging from 15K up to 50K triangles, under various deformation motions, and the timings were obtained as 30~100 FPS depending on the complexity of models and their relative configurations. Finally, we made comparisons with a well-known GPU-based collision detection algorithm, CULLIDE [4] and observed about three times performance improvement over the earlier approach. We also made comparisons with a SW-based AABB culling algorithm [2] and observed about two times improvement.
-
This paper proposes a GPU-based approach to real-time skinning animation of large crowds, where each character is animated independently of the others. In the first pass of the proposed approach, skinning is done by a pixel shader and the transformed vertex data are written into the render target texture. With the transformed vertices, the second pass renders the large crowds. The proposed approach is attractive for real-time applications such as video games.
-
Graphics processing unit (GPU) is used for a faster artificial neural network. It is used to implement the matrix multiplication of a neural network to enhance the time performance of a text detection system. Preliminary results produced a 20-fold performance enhancement using an ATI RADEON 9700 PRO board. The parallelism of a GPU is fully utilized by accumulating a lot of input feature vectors and weight vectors, then converting the many inner-product operations into one matrix operation. Further research areas include benchmarking the performance with various hardware and GPU-aware learning algorithms. (c) 2004 Pattern Recognition Society. Published by Elsevier Ltd. All rights reserved.
-
To simulate solid dynamics,a we must com-pute the mass, the center of mass, and the products of inertia about the axes of the body of interest. These mass property computations must be continuously re-peated for certain simulations with rigid bodies or as the shape of the body changes. We introduce a GPU-friendly algorithm to approximate the mass properties for an arbitrarily shaped body. Our algorithm converts the necessary volume integrals into surface integrals on a projected plane. It then maps the plane into a frame-buffer in order to perform the surface integrals rapidly on the GPU. To deal with non-convex shapes, we use a depth-peeling algorithm. Our approach is image-based; hence, it is not restricted by the mathematical or geometric representation of the body, which means that it can efficiently compute the mass properties of any object that can be rendered on the graphics hardware. We compare the speed and accuracy of our algorithm with an analytic algorithm, and demonstrate it in a hydrostatic buoyancy simulation for real-time applications, such as interactive games.