• Title/Summary/Keyword: 영상 이미지

Search Result 3,018, Processing Time 0.029 seconds

Geometry Transformation in Spatial Domain Using Coefficient Changes in Frequency Domain toward Lightweight Image Encryption (주파수 영역에서의 계수 값 변환에 의한 공간 영역에서의 기하학적 변환과 이를 이용한 이미지 경량 암호화)

  • Joo, Jeong Hyun;Yi, Kang
    • Journal of KIISE
    • /
    • v.42 no.2
    • /
    • pp.162-168
    • /
    • 2015
  • Image data is mostly stored in compressed form because of its huge size. Therefore, a series of cumbersome procedures is required to apply a transformation to image data: decompression, extraction of spatial data, transformation and recompression. In this paper, we employ DCT(Discrete Cosine Transform) coefficients to change the spatial presentation of images. DCT is commonly used in still image compression standards such as JPEG and moving picture compression standards such as MPEG-2, MPEG-4, and H.264. In this paper, we derived mathematically the relationship between the geometry transformation in the spatial domain and coefficient changes in the DCT domain and verified it with images in the JPEG file format. Because of the efficiency of transformation in the frequency domain, our findings can be utilized for light-weight partial image encryption for privacy data protection or entertainment contents protection.

Information Extraction Method for Labeling Learning Data from the Capsule Endoscopic Video Images (캡슐내시경 동영상으로부터 학습 데이터 레이블링을 위한 정보 추출 기법)

  • Jang, Hyeon-Woong;Lim, Chang-Nam;Park, Ye-Seul;Lee, Kwang-Jae;Lee, Jung-Won
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2019.05a
    • /
    • pp.375-378
    • /
    • 2019
  • 최근 딥러닝과 머신러닝 기법이 소프트웨어의 성능 향상에 도움이 되는 것이 입증됨에 따라, 의료 영상 진단 보조 소프트웨어를 개발하기 위한 시도가 활발해 지고 있다. 그 중 캡슐내시경은 소장 소화기관을 관찰할 수 있는 초소형 의료기기로, 기존의 내시경 검사와 다르게 이물감이 느껴지지 않고 의료보험 적용으로 최근 들어 널리 이용되고 있다. 일반적으로 캡슐 내시경은 8 시간 동안 소화기간을 촬영하며, 한 번의 검사 결과로 생성된 동영상 데이터 셋은 수 만장의 이미지를 포함하기 때문에, 방대한 양의 이미지들을 효율적으로 관리하기 위한 체계가 필요하다. 특히, 방대한 양의 캡슐내시경 이미지를 학습하는 경우, 수 만장의 이미지 속에서 유의미한 특징(촬영정보, 의사소견, 환자정보, 병변의 위치 및 크기 등)을 추출해내야 하므로 학습 데이터 레이블링을 위한 정보를 정확히 추출해야 하는 작업이 요구된다. 따라서 본 논문에서는 캡슐내시경 영상을 학습할 때, 학습 데이터 레이블 정보를 체계적으로 구축할 수 있게 하는 레이블 정보 추출 기법을 제안하고자 한다. 제안하는 기법은 병원에서 14년간 수집된 총 340명의 캡슐내시경 데이터(약 1,700 만장의 이미지)를 토대로 영상데이터를 구조적으로 분석하여 유의미한 정보를 추출하고 노이즈 데이터를 제거한 뒤, 빅데이터 저장소에 적재할 수 있음을 보였다.

Automatic Video Generation Based on Image Mood Classification (이미지 분위기 분류에 기반한 동영상 자동 생성)

  • Cho, Dong-Hee;Nam, Yong-Wook;Lee, Hyun-Chang;Kim, Yong-Hyuk
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2019.11a
    • /
    • pp.67-68
    • /
    • 2019
  • 머신러닝을 활용한 이미지 분류는 단순 사물을 넘어서 사람의 감성과 같은 추상적이고 주관적인 개념에도 적용되고 있다. 이 중에서도 합성곱 신경망을 통한 이미지의 감정 분류 연구가 더욱 활성화되고 있다. 그럼에도 다양한 멀티미디어들을 머신러닝 알고리즘으로 분석하고 이를 의미있는 결과로 재생성하기는 매우 복잡하고 까다롭다. 본 연구에서는 기존 연구를 개선시켜 음악 데이터를 다층퍼셉트론 모델을 통해 분류된 이미지와 결합한 동영상을 파이썬의 다양한 라이브러리를 통해 자동으로 생성하였다. 이를 통해 특정 분위기로 분류된 이미지들과 이에 어울리는 음악을 매칭시켜 유의미한 새로운 멀티미디어를 자동으로 생성할 수 있었다.

  • PDF

Image Retrieval using Gray Scale Histogram Refinement and Corner Shape (코너 형태와 그레이스케일 히스토그램을 정제를 이용한 영상검색)

  • Jeong, Il-Hoe;Riaz, Muhammad;Park, Jong-An
    • 한국HCI학회:학술대회논문집
    • /
    • 2008.02a
    • /
    • pp.380-383
    • /
    • 2008
  • 본 논문은 단순한 키워드 검색에서 발생하는 오차를 줄이기 위해 이미지의 코너정보와 그레이스케일 히스토그램 정제를 이용한 영상 검색 시스템을 구현하고자 한다. 먼저 원하는 이미지의 특정을 추출하는 단계와 추출된 특징을 분석하는 단계, 확보된 정보를 데이터베이스로부터 검색하는 단계, 그 결과 안에서의 그레이스케일 히스토그램 정제 방법으로 다시 재검색하는 단계, 마지막으로 정확한 정보 추출단계를 거치게 된다. 구현 알고리즘은 검색 단계에 있어서 크게 2단계로 나눠진다. 먼저 이미지를 에지로 변환 코너정보를 추출하는 단계, 코너 점의 픽셀을 3*3으로 나누어 RGB중의 픽셀의 합을 하는 단계, 그 코너 값을 데이터베이스와 비교하는 단계, 최대 500개까지의 추출된 이미지를 데이터베이스에 저장되는 단계로 이루어지며 다음 단계는 원 이미지를 그레이스케일로 변환 등질화하는 단계, 히스토그램 정보 획득하는 단계, 8*8 개의 빈으로 나누어 최대 색상정보 값을 추출하는 단계, 그리고 최대 색상정보 영역을 1단계 결과 값과 비교하여 정확한 검색을 얻는 단계로 구성되며 시뮬레이션 결과는 우수한 정확도를 보여 주고 있다.

  • PDF

A Design of Image Integrity Verification System using Advanced DCT Transform Domain Watermark (개선된 DCT 변환 영역 워터마크를 이용한 이미지 무결성 검증시스템)

  • Jeon, Inbae;Choi, Okkyung;Yoo, Seungwha
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2012.07a
    • /
    • pp.97-100
    • /
    • 2012
  • 본 논문은 변환영역 기반의 방법 중 DCT 변환영역 워터마크를 이용한 이미지 무결성 검증 시스템을 제안하였다. DCT 변환영역에 워터마크를 삽입하는 것이 공간영역에 삽입하는 것보다 잡음과 일반적인 신호처리나 영상편집, 선형/비선형 필터링, 압축 등의 영상처리에 강하다. 추출된 워터마크가 원본 워터마크와의 유사도 평가에서 임계값보다 크면 이미지에 변형이 없었다고 판단한다. 만약 이미지에 변형이 있을 경우 워터마크가 훼손되어 정확한 정보를 추출하기 어려울 수 있다. 이때 추출기에서 이미지 왜곡을 역변환 시켜 워터마크를 온전하거나 최소화된 훼손으로 추출한다.

  • PDF

Image Mosaic System Construction Using Tree (트리를 이용한 이미지 모자이크 시스템 구축)

  • 이지현;양원보;전근환
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 1999.11a
    • /
    • pp.411-415
    • /
    • 1999
  • Image mosaic system is called that switching several image, or moving image into a image. In this paper, we represented that not image mosaic construction with respect to traditional and directional method but representing which mosaic system construction about using tree. Also, in this paper represent study that static image mosaic and dynamic image mosaic.

  • PDF

A Study on the Creation Virtual Space using 2D Images based on Unreal Engine (언리얼 엔진(Unreal Engine) 기반의 2D 이미지를 이용한 가상공간 제작 연구)

  • Minjeong Oh;Yongdeuk Seo
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.11a
    • /
    • pp.175-176
    • /
    • 2022
  • 최근의 코로나 팬데믹과 같은 사회적 요구로 주목을 받고 있는 가상공간은 가상의 환경에서 사용자에게 존재하지 않지만 존재한 것처럼 믿게 만드는 시각적 공간이라 할 수 있다. 본 연구는 언리얼 엔진의 'HDRI backdrop'과 'Paper 2D' 기능을 활용하여 2D 이미지들로 가상공간을 제작한 작품을 서술한 글이다. 작품에서 배경은 HDRI backdrop을 이용하여 4K HDR 사진 이미지를 3D 공간에 설정하여 제작하고 캐릭터는 Paper 2D를 활용하여 책 표지에 등장하는 캐릭터 이미지를 포토샵 편집 후 스프라이트로 변환하여 배치하였다. 2D 이미지를 활용하여 가상공간을 제작한 작품을 계기로 2D 콘텐츠와 3D 가상공간의 융합으로 새로운 방향의 활용가능성을 발견하고 다양한 표현방식과 아이디어로 발전할 수 있을 것이다.

  • PDF

A Study on the Creation of Virtual Space using 2d Images (2D 이미지를 이용한 버츄얼 스페이스 (Virtual Space) 제작에 관한 연구)

  • Oh, Minjeong;Seo, Yongdeuk
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.06a
    • /
    • pp.1292-1293
    • /
    • 2022
  • 본 논문은 딱지본의 2D 이미지를 사용하여 3D 버츄얼 스페이스를 제작한 작품에 관한 글이다. 가상 공간에서 현실과 같은 활동이 활발히 이루어지고 있는 최근의 사회 현상에 관심을 두고, 딱지본의 이미지를 차용하여 과거의 낭만적인 시대를 여행하는 듯한 버츄얼 스페이스를 구현해 보았다. 이 작품은 포토샵 편집 과정을 거친 2D 이미지 파일들과 구글 3D 지도를 캡쳐하여 단계적 변환을 거친 3D 이미지 파일로 구성된다. 편집과 변환 과정을 거친 2D 와 3D 파일은 언리얼 엔진을 기반으로 화면에 배치하고 조합하여 버츄얼 스페이스를 제작한다. 2D 레트로 컨텐츠와 3D 가상 공간의 융합은 작품 제작에 있어 다양한 아이디어를 제공하고 새로운 표현 방식으로 확장 할 수 있는 가능성을 보여준다.

  • PDF

Multimodal Medical Image Fusion Based on Double-Layer Decomposer and Fine Structure Preservation Model (복층 분해기와 상세구조 보존모델에 기반한 다중모드 의료영상 융합)

  • Zhang, Yingmei;Lee, Hyo Jong
    • KIPS Transactions on Computer and Communication Systems
    • /
    • v.11 no.6
    • /
    • pp.185-192
    • /
    • 2022
  • Multimodal medical image fusion (MMIF) fuses two images containing different structural details generated in two different modes into a comprehensive image with saturated information, which can help doctors improve the accuracy of observation and treatment of patients' diseases. Therefore, a method based on double-layer decomposer and fine structure preservation model is proposed. Firstly, a double-layer decomposer is applied to decompose the source images into the energy layers and structure layers, which can preserve details well. Secondly, The structure layer is processed by combining the structure tensor operator (STO) and max-abs. As for the energy layers, a fine structure preservation model is proposed to guide the fusion, further improving the image quality. Finally, the fused image can be achieved by performing an addition operation between the two sub-fused images formed through the fusion rules. Experiments manifest that our method has excellent performance compared with several typical fusion methods.

Image-Based Relighting Rendering System (영상 기반 실시간 재조명 렌더링 시스템)

  • Kim, Soon-Hyun;Lee, Joo-Haeng;Kyung, Min-Ho
    • Journal of the HCI Society of Korea
    • /
    • v.2 no.1
    • /
    • pp.25-31
    • /
    • 2007
  • We develop an interactive relighting renderer allowing camera view changes based on a deep-frame buffer approach. The renderer first caches the rendering parameters for a given 3D scene in an auxiliary buffer with the same size of the output image. The rendering parameters independent from light changes are selected from the shading models used for shading pixels. Next, as the user interactively edits one light at one time, the relighting renderer instantly re-shades each pixel by updating the contribution of the changed light with the shading parameters cached in the deep-frame buffer. When the camera moves, the cache values should be re-computed because the currently cached values become obsolete. We present a novel method to synthesize them quickly from the cache images of the user specified cameras by using an image-based technique. This computations are all performed on GPU to achieve real-time performance.

  • PDF