• 제목/요약/키워드: Color Block

검색결과 325건 처리시간 0.02초

동영상에서 칼만 예측기와 블록 차영상을 이용한 얼굴영역 검출기법 (A New Face Tracking Method Using Block Difference Image and Kalman Filter in Moving Picture)

  • 장희준;고혜선;최영우;한영준;한헌수
    • 한국지능시스템학회논문지
    • /
    • 제15권2호
    • /
    • pp.163-172
    • /
    • 2005
  • 복잡한 환경에서 이동하는 사람의 얼굴영역은 배경과 조명에 의해 확장, 축소 검출되기도 하고 잘못된 영역을 오검출하기도 한다. 본 논문에서는 동영상에서 얼굴을 추적하는데 있어서 확장 혹은 축소검출이나 오검출 문제를 해결하기 위해 블록차 영상과 칼만예측기를 사용하는 방법을 제안한다. 블록차영상은 입력영상을 블록화하여 차영상을 얻는 방법으로 미세한 움직임까지 검출이 가능하여 영상에서 움직임이 작은 경우에도 검출이 가능하게 된다. 검출된 움직임영역에서 얼굴영역은 1차적으로 피부색을 이용하여 검출하며 피부색이 검출되지 않은 경우는 움직임 영역의 경계선을 8이웃화소 창을 이용하여 부호화하고 머리부분의 코드를 갖는 영역을 얼굴영역으로 추정하는 방법을 사용한다. 추정된 얼굴영역을 컬러분할하고 분활된 영역에서 피부색과 가장 가까운 색을 갖는 영역을 얼굴영역으로 판단한다. 얼굴영역은 최외각화소를 포함하는 4각형으로 표시하소 각 정점의 이동을 칼만예측기를 이용하여 추정하고 추정된 위치에서 얼굴영역을 검출하는 방법을 사용한다. 제안하는 방법은 동영상에서 얼굴영역검출의 정확도를 높이고 얼굴영역의 추적에서 얼굴영역검출에 소요되는 시간을 상당부분 감소시키는 효과를 고두게 됨을 실험을 통해 입증하였다.

애니메이션의 효과적인 장면경계 검출 알고리즘 (An Effective Detection Algorithm of Shot Boundaries in Animations)

  • 장석우;정명희
    • 한국산학기술학회논문지
    • /
    • 제12권8호
    • /
    • pp.3670-3676
    • /
    • 2011
  • 셀 애니메이션은 배경이 하나의 셀로 표현되고, 장면이 변화될 경우에는 배경이 변경되기 때문에 장면전환시 비교적 큰 변화가 일어난다. 그리고 실제로 카메라를 이용하여 촬영한 영상과는 달리 사람이 직접 그리다 보니 사용된 색상의 종류 또한 그렇게 많지 않다. 본 논문에서는 애니메이션의 이러한 특성을 최대한 반영하고 보다 효과적으로 셀 애니메이션의 장면전환을 검출하기 위해서 색상과 블록 단위의 히스토그램을 단계적으로 활용하는 새로운 애니메이션의 장면전환 검출 기법을 제안한다. 제안된 알고리즘은 연속적으로 입력되는 애니메이션 영상을 받아들인 후 먼저 칼라공간을 HSI 공간으로 변형하고, 두 영상 사이의 색상 값의 차연산을 수행하여 인접한 영상이 장면전환 후보인지를 1차적으로 판단한다. 만일, 인접한 영상이 장면전환 후보군으로 판단되면 부 영역별로 색상 히스토그램을 작성하고, 여기에 가중치를 적용하여 장면전환이 발생했는지의 유무를 최종적으로 판단한다. 본 논문의 실험에서는 제안된 애니메이션의 장면전환 검출 방법이 기존의 장면전환 검출 방법에 비해 보다 우수하다는 것을 보인다.

영상의 시각적 품질향상을 위한 Saliency 맵 기반의 컬러 영상압축 (Saliency Map Based Color Image Compression for Visual Quality Enhancement of Image)

  • 정성환
    • 한국멀티미디어학회논문지
    • /
    • 제20권3호
    • /
    • pp.446-455
    • /
    • 2017
  • A color image compression based on saliency map was proposed. The proposed method provides higher quality in saliency blocks on which people's attention focuses, compared with non-saliency blocks on which the attention less focuses at a given bitrate. The proposed method uses 3 different quantization tables according to each block's saliency level. In the experiment using 6 typical images, we compared the proposed method with JPEG and other conventional methods. As the result, it showed that the proposed method (Qup=0.5*Qx) is about 3.1 to 1.2 dB better than JPEG and others in saliency blocks in PSNR at the almost similar bitrate. In the comparison of result images, the proposed one also showed less error than others in saliency blocks.

Hierarchical stereo matching using feature extraction of an image

  • Kim, Tae-June;Yoo, Ji-Sang
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 IWAIT
    • /
    • pp.99-102
    • /
    • 2009
  • In this paper a hierarchical stereo matching algorithm based on feature extraction is proposed. The boundary (edge) as feature point in an image is first obtained by segmenting an image into red, green, blue and white regions. With the obtained boundary information, disparities are extracted by matching window on the image boundary, and the initial disparity map is generated when assigned the same disparity to neighbor pixels. The final disparity map is created with the initial disparity. The regions with the same initial disparity are classified into the regions with the same color and we search the disparity again in each region with the same color by changing block size and search range. The experiment results are evaluated on the Middlebury data set and it show that the proposed algorithm performed better than a phase based algorithm in the sense that only about 14% of the disparities for the entire image are inaccurate in the final disparity map. Furthermore, it was verified that the boundary of each region with the same disparity was clearly distinguished.

  • PDF

Flicker-reduced memory compression for a volume-zone liquid crystal display overdrive

  • Sasaki, Hisashi;Ishikawa, Tatsuyuki;Ishikawa, Yukio;Ichikawa, Kazuhiro;Saitou, Nobuhiko
    • Journal of Information Display
    • /
    • 제12권2호
    • /
    • pp.77-83
    • /
    • 2011
  • The memory compression algorithm CCC-LCP (color-count-controlled local color palette) reduces flicker in the liquid crystal display (LCD) overdrive. Its compression ratio is 1:5.4 for 10-bit images, with a 33 dB PSNR peak signal-to-noise ratio and with five times flicker reduction compared with the block truncation coding. The authors' two-alternative forced choice subjective tests proposed two new soundness properties, the 'CMP harmlessness' and 'OD non-lost (or OD liveliness)', to clarify the functional interaction between the overdrive functionality OD and the compression functionality CMP. The tests verified that CCC-LCP is practically applicable (at a 1.2H viewing distance threshold) for 42" 37-ppi WXGA TVs.

계층적 블록과 컬러 히스토그램을 이용한 영상검색 (Image Retrieval Using Hierarchical Block and Color Histogram)

  • 송현석;안명석;조석제
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 추계종합학술대회 논문집(4)
    • /
    • pp.37-40
    • /
    • 2000
  • 영상검색에서 컬러 히스토그램은 폭넓게 사용되고 있으며, 여러 가지 장점이 있음에도 불구하고 공간정보를 포함하지 못하는 문제점이 있다. 본 논문에서는 컬러 히스토그램에 공간정보를 포함시키기 위해 영상을 몇 개의 블록으로 나누어 계층적으로 컬러 히스토그램을 비교하는 방법을 제안하였다. 실험을 통하여 제안한 방법이 컬러 히스토그램을 이용한 방법보다 더 좋은 결과를 나타냄을 확인하였다.

  • PDF

순간포착에 의한 칼라 영상 압축과 블록 절단 코딩 (Color Image Compression by Moment-Preserving and Block Truncation Coding Techniques)

  • 박호식;차영석;최현수;권오홍;배철수;최철재;나상동
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2000년도 춘계종합학술대회
    • /
    • pp.342-347
    • /
    • 2000
  • 새로운 칼라 영상 압축은 순간 포착과 블록절단 코딩에 기초로 두 개의 대표적인 칼라 중 하나로 할당된 각각의 블록 화소와 겹치지 않은 블록으로 분할된 입력은 블록에서 포착된 어떤 순간으로부터 유래된 해석방식으로 계산된다. 비트맵은 화소의 칼라를 묘사하기 위해 각각의 블록을 일반화하며 별개의 균일한 조건에 의해 설정된 대표적인 칼라는 동일하다고 간주되고 부호 비트를 저장하기 위해 이용된다. 본 연구에서 실험결과에 의해 13이상의 좋은 평균 압축률이 달성될 수 있었다.

  • PDF

DCT 변환과 인간시각 칼라좌표계를 이용한 디지털 워터마킹 (Digital Watermarking using DCT and Color Coordinate of Human Vision)

  • 박성훈;김정엽;현기호
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 하계종합학술대회 논문집(4)
    • /
    • pp.243-246
    • /
    • 2002
  • The proliferation of digitized media(audio, image and video) is creating a processing need for copyright enforcement schemes that protect copyright ownership. we argue that a watermark must be placed in perceptually significant components of a signal if it is to be robust to signal distortions and malicious attack. In this paper, RGB coordinate image is transformed into LUV coordinate, it include the characteristics of, Human vision and then the UV component is transformed into NxN block DCT transform. we propose a technique for embedding the watermark of visually recognizable mark into the middle frequency domain of image.

  • PDF

류마티스 관절염 환자의 무릎 MR 영상 개선을 위한 변형된 Fermi 필터 설계 (Modified Fermi Filter Design to Improve the MR Image of Knee in the Rheumatoid Arthritis Patient)

  • 김동현;예수영
    • 한국전기전자재료학회논문지
    • /
    • 제23권10호
    • /
    • pp.820-825
    • /
    • 2010
  • In this study, we intended to design the optimal Fermi filter to apply the k-space date that is knee image of the rheumatoid arthritis patient acquired from the MRI (magnetic resonance imaging) instrument. After deciding the suitable coefficient for the Fermi filter, the results were compared with modified Fermi filter and inverse Chebyshev filter, Chebyshev filter, Elliptic filter and Butterworth filter. Firstly, in comparison to the results, the radiologist confirmed that modified Fermi filter was best decision for boundary of the rheumatoid arthritis images. The number of the black voxels of the histogram showed the quantity of the results. At the proposed filter images, numbers of the blacks voxels were statistically decreased. That meant voxels only appeared the black color were changed to others voxels color. Because the number of the total voxels was fixed, the area appeared block color could be effected to the other areas. If the modified Fermi filter were used for rheumatoid arthritis patient, the result will be better than other filters.

컬러와 동적 특징을 이용한 화재의 시각적 감지 (Visual Sensing of Fires Using Color and Dynamic Features)

  • 도용태
    • 센서학회지
    • /
    • 제21권3호
    • /
    • pp.211-216
    • /
    • 2012
  • Fires are the most common disaster and early fire detection is of great importance to minimize the consequent damage. Simple sensors including smoke detectors are widely used for the purpose but they are able to sense fires only at close proximity. Recently, due to the rapid advances of relevant technologies, vision-based fire sensing has attracted growing attention. In this paper, a novel visual sensing technique to automatically detect fire is presented. The proposed technique consists of multiple steps of image processing: pixel-level, block-level, and frame level. At the first step, fire flame pixel candidates are selected based on their color values in YIQ space from the image of a camera which is installed as a vision sensor at a fire scene. At the second step, the dynamic parts of flames are extracted by comparing two consecutive images. These parts are then represented in regularly divided image blocks to reduce pixel-level detection error and simplify following processing. Finally, the temporal change of the detected blocks is analyzed to confirm the spread of fire. The proposed technique was tested using real fire images and it worked quite reliably.