• 제목/요약/키워드: 실시간 변환

검색결과 1,204건 처리시간 0.029초

색상정보와 AdaBoost 알고리즘을 이용한 얼굴검출 (Face Detection using Color Information and AdaBoost Algorithm)

  • 나종원;강대욱;배종성
    • 한국정보통신학회논문지
    • /
    • 제12권5호
    • /
    • pp.843-848
    • /
    • 2008
  • 얼굴 검출은 대부분 얼굴의 움직임 정보를 이용한다. 기존에 얼굴 검출 방법은 프레임간의 차를 이용하여 움직임을 검출하는 방법이 사용되어 왔으나 대부분이 실시간을 고려하지 않은 수학적 접근법을 사용하거나 알고리즘이 지나치게 복잡하여 실시간 구현에 용이하지 않았다. 본 논문에서는 실시간 얼굴검출을 위하여 감시카메라에서 입력된 RGB 영상을 YCbCr 영상으로 변환한 후 연속된 두 영상의 차를 구하고 Glassfire 라벨링을 실시했다. 라벨링 결과 가장 넓은 구역의 면적과 Area 임계치 값을 비교하여 임계값 이상의 면적이면 동작변환으로 인식하고 영상을 추출하였다. 이렇게 추출된 동작변환 영상을 대상으로 얼굴 검출을 실시하였다. 얼굴 검출에 필요한 특징을 추출하기 위해 AdaBoost 알고리즘을 사용하였다.

클라우드 컴퓨팅에서 N-스크린 서비스를 위한 실시간 동영상 재생 기법 (Real-time Video Playback Method for N-Screen Service on Cloud Computing)

  • 이원주;김창현;임헌용
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2013년도 제47차 동계학술대회논문집 21권1호
    • /
    • pp.7-8
    • /
    • 2013
  • 본 논문에서는 클라우드 컴퓨팅에서 N-스크린 서비스를 위한 실시간 재생 기법을 제안한다. 이 기법은 동영상을 분할하여 블록을 생성하고, 해당 블록을 변환하여 실시간으로 재생한다. 또한, 요청된 포맷에 따라 변환하는 방식으로 여러 디바이스에 최적화하여 실시간으로 재생 서비스를 제공할 수 있기 때문에 스토리지 사용량도 기존 동영상 서비스 방식에 비해 유리하다.

  • PDF

Multiprocessor를 이용한 연속 동특성계의 실시간 시뮬레이션에 관한 연구 (A study on the real time simulation of continuous dynamic system using a multiprocessor)

  • 곽병철;양해원
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1986년도 한국자동제어학술회의논문집; 한국과학기술대학, 충남; 17-18 Oct. 1986
    • /
    • pp.619-622
    • /
    • 1986
  • 컴퓨터 기술의 발달에 따라 디지탈 전산기는 연산처리 능력이 더욱 빨라지고, 더욱 큰 기억용량을 갖게 되었다. 따라서 산업공정, 화학프랜트, 원자력발전 및 항공분야 등의 복잡한 연속 동특성계에 대한 실시간 시뮬레이션이 가능하게 되었다. 특히 복잡한 연속 동특성계의 시뮬레이션 목적으로 Multiprocessor 형태의 전산기가 개발되었다. 이 Multiprocessor형태의 전산기는 D/A 변환기와 A/D 변환기를 갖추므로써 실시간 실물 모의시험(A real time hardware-in-the-loop simulation) 시의 컴퓨터와 외부장비와의 데이타 전달이 용이하여 졌다. 본 연구에서는 비행체의 비행자세를 제어하기 위한 조종장치의 설계해석 및 성능시험을 위하여 Multiprocessor를 이용하여 실시간 실물 모의실험이 가능함을 보였다. 본 시뮬레이션에 사용된 전산기는 AD10 전산기이다.

  • PDF

다해상도 변환을 이용한 실시간 능동 시각 시스템 (Real-time active vision system using log-polar transform)

  • 이상웅;최형철;강성훈;유명현;이성환
    • 한국인지과학회:학술대회논문집
    • /
    • 한국인지과학회 2000년도 춘계 학술대회
    • /
    • pp.25-30
    • /
    • 2000
  • KUeyes(Korea University's eyes)는 인간의 시각 정보처리 과정을 모델로 하여 고려대학교 인공시각연구센터에서 개발된, 스테레오 컬러 영상을 실시간으로 처리할 수 있는 능동시각 시스템이다. 실시간 처리를 위하여 KUeyes는 병렬 처리가 가능하도록 개발된 영상 획득 및 영상 처리 모듈을 가지고 있으며, 다해상도 영상 변환 기법을 사용하여 입력 영상의 처리속도를 증진시키고 있다. 이 시스템은 외형적으로는 처리된 영상에 따라 반응하여 움직이는 10-자유도의 헤드 아이 시스템으로 구성되어 있다. 본 연구에서는 영상의 칼라 정보와 움직임 정보 등을 실시간으로 분석하여 지능적이고 빠르게 개체를 탐지하고 추적하는 인간의 시각 반응 및 인식 모델을 KUeyes에 탑재하여 구현하고 실험하였다. 실험에서 얻어진 결과는 KUeyes가 인간의 시각, 인식시스템을 적절히 모델링하고 있음을 보여 주었다. 이는 KUeyes의 작동 방식과 거기에 탑재된 영상 처리 기법들이 인간의 시각 정보처리 과정을 이해하는데 매우 적합한 것임을 시사한다.

  • PDF

타임드 오토마타 모델로부터 체계적인 VxWorks 기반 코드 생성 (Systematic VxWorks-based Code Generation from Timed Automata Model)

  • 최진호;지은경;배두환
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2012년도 한국컴퓨터종합학술대회논문집 Vol.39 No.1(B)
    • /
    • pp.138-140
    • /
    • 2012
  • 타임드 오토마타 모델 기반 개발 방법을 지원하는 TIMES 도구는 실시간 소프트웨어에 대한 타임드 오토마타 모델 명세, 시뮬레이션, 검증, BrickOS 기반 코드 생성을 지원한다. 하지만 BrickOS 기반 코드는 엄격한 실시간 제약성 만족을 지원하지 않아서 실시간 내장형 소프트웨어 개발에 그대로 사용하기가 어렵다. 본 논문에서는 타임드 오토마타 모델로부터 실시간 내장형 소프트웨어 구현에 사용될 수 있는 VxWorks 기반 코드를 체계적으로 생성하기 위한 방법을 제안한다. TIMES 도구를 사용해 자동 생성된 BrickOS 기반 코드에서 플랫폼 독립적인 코드는 활용하고, 플랫폼 의존적인 코드들을 분류해 내어 각각 VxWorks 기반 코드로 변환하는 방법을 제안한다. 내장형 소프트웨어 개발시 타임드 오토마타 모델 기반 개발 방법의 적용 가능성을 확인하기 위해 변환 항목들을 통해 생성된 VxWorks 기반 코드에 대한 테스트를 수행하고 결과를 분석한다.

실시간 색역폭 사상을 위한 신경회로망에 관한 연구 (Study on Neural Network for Real Time Color Gamut Mapping)

  • 이지현;이학성;한동일
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2004년도 추계학술대회 학술발표 논문집 제14권 제2호
    • /
    • pp.317-320
    • /
    • 2004
  • 디스플레이 장치간의 색 재현 차이를 극복하기 위하여 다양한 색역폭 사상 기법이 사용되고 있다. 기존 색역폭 사상 방법은 일반적으로 색 공간 변환과 같은 복잡한 비선형 변환을 여러 단계 거치므로 실시간 처리 구현이 어렵다. 본 논문에서는 신경 회로망을 이용하여 기존의 색역폭 사상 방법을 학습하고 근사화한 방법을 이용한다. 이를 위해 주어진 디스플레이 장치의 표현 가능한 모든 색상에 대해 미리 색역폭 사상을 수행하고 그 결과를 학습 데이터로 이용하게 되며, 학습된 신경망은 이종 디스플레이 장치간의 색역폭 사상에 사용된다. 제안된 색역사상을 실시간 처리하기 위해서 학습 과정은 오프라인을 통해서 이루어지게 되고, 구해진 신경망은 프로세서의 메모리를 이용, 1차원의 Look-Up Table로 구성한다. 제안한 방법을 색역폭 사상에 적절하도록 최적화시키면 고속의 색역폭 사상이 가능하다.

  • PDF

DTV-to-DMB 비디오 변환을 위한 Center Average 축소 방식 (Center Average Shrink Method for DTV-to-DMB video transcoding)

  • 유원혁;정원식;김규헌
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2005년도 학술대회
    • /
    • pp.185-188
    • /
    • 2005
  • DTV-to-DMB 비디오 변환을 위해서는 기본적으로 MPEG-2 MP@HL의 HDTV/SDTV급 영상을 MPEG-4 AVC BP@1.3의 QCIF/QVGA/WDF/CIF급 영상으로 변환하는 과정이 필요하다. 본 논문에서는 DTV-to-DMB 비디오 변환을 위해 DTV의 고해상도 영상을 DMB의 저해상도 영상으로 축소하는 방식을 제안하고 있다. DTV-to-DMB 비디오 변환은 실시간 변환이 고려되어야 하며, 실시간 변환을 위해서는 축소 방식의 시간 복잡도가 고려 되어야 한다. 일반적으로 낮은 시간 복잡도를 갖는 영상 축소 방식으로는 대상 영상의 하나의 픽셀을 참조 영상 내 대응하는 픽셀들 중 한 픽셀을 선택하여 결정하는 방식(Just Get A Pixel)이 있으며, 참조 영상의 대응하는 픽셀들의 평균값을 선택하는 방식 (Average Shrink)과 중간값을 선택하는 방식 (Median Shrink)이 있다. 한편, DTV 영상은 인터레이스 방식을사용하며 DMB의 프로그레시브 방식 영상으로 변환 처리 과정에서, 움직임이 큰 영상에 대해 사물의 윤곽선이 계단 모양으로 보이는 재그 에지 (Jagged Edge) 현상이 나타난다. 본 논문에서는 대상 영상의 한 픽셀을 참조 영상의 대응하는 픽셀들 중 중간 위치의 몇 개 픽셀들과 주변 인접 픽셀들을 선출하여 그것들의 평균값 (Average)을 구하여 결정하는 Center Average 축소 방식을 제안한다. 제안된 방식은 기본적인 축소 방식을 기반으로 하여 낮은 시간 복잡도를 갖으며, 재그 에지 (Jagged Edge) 현상을 줄여 준다.

  • PDF

ITV 시스템에서 MPEG-4 실시간 장면 랜더링 (MPEG-4 realtime rendering on ITV system)

  • 이윤주;김상욱
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 봄 학술발표논문집 Vol.27 No.1 (B)
    • /
    • pp.417-419
    • /
    • 2000
  • 본 논문은 실시간 운영체제 기반의 ITV 시스템에서 MPEG-4 멀티미디어 장면을 실시간으로 랜더링하는 방법을 제시한다. MPEG-4 멀티미디어 스트림의 랜더링을 위한 장면 구성은 ITV 시스템에서 네트워크를 통해 전송되는 멀티미디어 스트림을 파싱 및 해석하여 장면그래프를 구성하고, 장면 랜더러가 이 장면 그래프를 이용하여 화면에 실시간으로 랜더링한다. MPEG-4 장면 랜더링 화면에서 사용자의 객체 교체나 객체 속성 변환 랜더링 이벤트가 발생하면, MPEG-4 장면 그래프를 실시간으로 갱신시켜 사용자 인터페이스에 랜더링한다.

  • PDF

근감각-색·음 변환을 위한 ARM 기반 임베디드시스템의 구현 (Implementation of ARM based Embedded System for Muscular Sense into both Color and Sound Conversion)

  • 김성일
    • 한국콘텐츠학회논문지
    • /
    • 제16권8호
    • /
    • pp.427-434
    • /
    • 2016
  • 본 논문은 인간이 인지할 수 있는 감각들 중 인체의 회전, 방향 변화 및 움직임의 정도를 알 수 있는 근감각에서 시각 및 청각 요소로의 변환 알고리즘을 이용하여 ARM Cortex-M4에 기반한 실시간 임베디드시스템으로 구현한 방법에 초점을 맞추었다. 근감각의 입력 방식으로는 자세측정장치(AHRS : Attitude Heading Reference System)를 이용해 롤(Roll), 피치(Pitch) 및 요(Yaw) 값을 실시간 획득하고, 이들 각각의 색을 표현하는 HSI 컬러 모델의 명도(Intensity), 색상(Hue) 및 채도(Saturation)에 대응하여 변환하였다. 최종 컬러신호는 HSI 에서 RGB 컬러모델로 변환하여 획득하였다. 또한, 근감각의 세 가지 입력 값들을 음을 표현하는 요소인 옥타브(Octave), 음계(Scale) 및 음의 세기(Velocity)에 대응하여 변환한 값을 MIDI(Musical Instrument Digital Interface)를 이용해 사운드를 합성하여 출력하였다. 출력 컬러신호 및 사운드를 분석한 결과, 근감각 입력 신호가 제안한 변환 방식에 따라 실시간으로 정확하게 색과 음으로 변환, 출력됨을 확인하였다.

실시간 차선 인식을 통한 자율주행 알고리즘 연구 (A Study on Autonomous Driving Algorithm through Real-Time Lane Detection)

  • 윤정빈;박은병
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2023년도 추계학술발표대회
    • /
    • pp.1123-1124
    • /
    • 2023
  • 본 논문은 실시간 차선 인식을 기반으로 한 자율주행 알고리즘을 제안한다. 자율주행 알고리즘은 크게 차선 인식과 의사결정으로 구분된다. 차선 인식 부분에서는 직관적인 판단을 위해 버드 아이 뷰로 영상데이터를 변환하여 안정적 차선 인식을 위하여 차선 영역을 추출하고 노이즈를 제거하는 전처리과정을 거친다. 이렇게 처리된 영상에서 Hough 변환을 통하여 차선을 검출한다. 의사결정 부분에서는 검출된 차선과 현재 위치를 기반으로 진행할 경로를 결정한다.