• 제목/요약/키워드: Image Information Education

검색결과 629건 처리시간 0.025초

상호정보량에 의한 이미지 융합시스템 및 시뮬레이션에 관한 연구 (A Study of Fusion Image System and Simulation based on Mutual Information)

  • 김용길;김철;문경일
    • 정보교육학회논문지
    • /
    • 제19권1호
    • /
    • pp.139-148
    • /
    • 2015
  • 융합 이미지 생성의 목적은 여러 입력 이미지에 나타난 주요 시각적인 정보를 결합시켜 하나의 보다 정보적이고 완성적인 출력 이미지를 얻는 데 있다. 현재 이러한 이미지 융합 기술은 영상 의료, 원격 감지, 로봇공학 등의 분야에서 활발하게 연구되고 있다. 본 논문에서는 최대 엔트로피에 의한 임계값 추정과 이를 바탕으로 하는 특징 벡터 추출 및 상호 정보량에 의한 특징 벡터들의 밀접한 관계를 추정하는 방식으로 융합 이미지를 생성하는 하나의 접근방식을 제안한다. 이러한 융합 이미지 생성 방식은 이미지의 전반적인 불확실성을 감소시킨다는 점에서 장점이 있고, 더 나아가서 융합되는 이미지들 가운데 블러링 이미지가 사용되는 경우에 이미지 정합이 다른 기법에 비해 보다 좋은 성능을 가진다는 점이다.

Scale Invariant Auto-context for Object Segmentation and Labeling

  • Ji, Hongwei;He, Jiangping;Yang, Xin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제8권8호
    • /
    • pp.2881-2894
    • /
    • 2014
  • In complicated environment, context information plays an important role in image segmentation/labeling. The recently proposed auto-context algorithm is one of the effective context-based methods. However, the standard auto-context approach samples the context locations utilizing a fixed radius sequence, which is sensitive to large scale-change of objects. In this paper, we present a scale invariant auto-context (SIAC) algorithm which is an improved version of the auto-context algorithm. In order to achieve scale-invariance, we try to approximate the optimal scale for the image in an iterative way and adopt the corresponding optimal radius sequence for context location sampling, both in training and testing. In each iteration of the proposed SIAC algorithm, we use the current classification map to estimate the image scale, and the corresponding radius sequence is then used for choosing context locations. The algorithm iteratively updates the classification maps, as well as the image scales, until convergence. We demonstrate the SIAC algorithm on several image segmentation/labeling tasks. The results demonstrate improvement over the standard auto-context algorithm when large scale-change of objects exists.

의미분별법을 이용한 초등학생의 인공지능에 대한 이미지 (Image of Artificial Intelligence of Elementary Students by using Semantic Differential Scale)

  • 류미영;한선관
    • 정보교육학회논문지
    • /
    • 제21권5호
    • /
    • pp.527-535
    • /
    • 2017
  • 본 연구는 인공지능에 대해 초등학생들이 최근 인식하고 있는 이미지를 분석하였다. 인공지능에 대한 인식과 관련된 이미지 형용사 23쌍을 추출하고 인식과 감성, 능력의 3가지 유형으로 구분하였다. 827명의 초등학생들을 대상으로 검사하여 이미지 요인을 편리성, 기술진보성, 인간친화성, 우려성의 4가지 요인으로 분류하였다. 검사결과 초등학생들은 인공지능이 똑똑하고 새로우며 복잡하지만 신나는 뚜렷한 이미지를 나타냈다. 변인별 비교에서 여학생, 코딩 경험 학생과 고학년이 인공지능에 대해 우려하는 이미지를 갖고 있었다. 반면 인공지능의 관심과 인식이 높은 학생이 인간 친화적이고, 편리하고, 기술 진보적이라는 이미지를 갖고 있었다.

영상 콘텐츠 제작을 통한 미디어 교육 - 비선형 편집을 중심으로 (Education of media by production of image contents - Focusing on Non-Linear Editing)

  • 박성대
    • 한국정보통신학회논문지
    • /
    • 제23권9호
    • /
    • pp.1096-1103
    • /
    • 2019
  • 오늘날 정보통신기술의 발전으로 인해 디지털 영상 매체의 영향력은 점차 커지고 있으며, 청소년들의 대부분이 스마트폰과 컴퓨터를 이용하여 수많은 영상 콘텐츠를 소비하고 있다. 또한 청소년들은 이러한 영상 콘텐츠 소비하는 데에만 그치지 않고 직접 영상을 촬영하고 편집하여 유튜브(YouTube)나 비메오(Vimeo) 등의 매체에 본인이 만든 영상을 업로드하기도 한다. 이러한 현상에서 알 수 있듯이 영상 미디어를 쓰고, 읽고, 표현하는 등의 다양한 환경에서 영상을 활용하고 표현하는 미디어 교육은 매우 중요하다고 할 수 있다. 현재 미디어 교육은 발전된 디지털 기기와 영상 콘텐츠 제작 소프트웨어의 활용에 대한 교육 없이는 논할 수 없게 되었다. 본 연구는 영상 콘텐츠 제작 교육의 관점에서 미디어 교육을 다룬다. 이를 위해 비선형 편집 시스템을 중심으로 한 영상 콘텐츠 제작 과정을 통하여 학습할 수 있는 미디어 교육 방법에 대하여 논의 한다.

Generative Adversarial Networks for single image with high quality image

  • Zhao, Liquan;Zhang, Yupeng
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제15권12호
    • /
    • pp.4326-4344
    • /
    • 2021
  • The SinGAN is one of generative adversarial networks that can be trained on a single nature image. It has poor ability to learn more global features from nature image, and losses much local detail information when it generates arbitrary size image sample. To solve the problem, a non-linear function is firstly proposed to control downsampling ratio that is ratio between the size of current image and the size of next downsampled image, to increase the ratio with increase of the number of downsampling. This makes the low-resolution images obtained by downsampling have higher proportion in all downsampled images. The low-resolution images usually contain much global information. Therefore, it can help the model to learn more global feature information from downsampled images. Secondly, the attention mechanism is introduced to the generative network to increase the weight of effective image information. This can make the network learn more local details. Besides, in order to make the output image more natural, the TVLoss function is introduced to the loss function of SinGAN, to reduce the difference between adjacent pixels and smear phenomenon for the output image. A large number of experimental results show that our proposed model has better performance than other methods in generating random samples with fixed size and arbitrary size, image harmonization and editing.

MEDU-Net+: a novel improved U-Net based on multi-scale encoder-decoder for medical image segmentation

  • Zhenzhen Yang;Xue Sun;Yongpeng, Yang;Xinyi Wu
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권7호
    • /
    • pp.1706-1725
    • /
    • 2024
  • The unique U-shaped structure of U-Net network makes it achieve good performance in image segmentation. This network is a lightweight network with a small number of parameters for small image segmentation datasets. However, when the medical image to be segmented contains a lot of detailed information, the segmentation results cannot fully meet the actual requirements. In order to achieve higher accuracy of medical image segmentation, a novel improved U-Net network architecture called multi-scale encoder-decoder U-Net+ (MEDU-Net+) is proposed in this paper. We design the GoogLeNet for achieving more information at the encoder of the proposed MEDU-Net+, and present the multi-scale feature extraction for fusing semantic information of different scales in the encoder and decoder. Meanwhile, we also introduce the layer-by-layer skip connection to connect the information of each layer, so that there is no need to encode the last layer and return the information. The proposed MEDU-Net+ divides the unknown depth network into each part of deconvolution layer to replace the direct connection of the encoder and decoder in U-Net. In addition, a new combined loss function is proposed to extract more edge information by combining the advantages of the generalized dice and the focal loss functions. Finally, we validate our proposed MEDU-Net+ MEDU-Net+ and other classic medical image segmentation networks on three medical image datasets. The experimental results show that our proposed MEDU-Net+ has prominent superior performance compared with other medical image segmentation networks.

Shape Feature Extraction technique for Content-Based Image Retrieval in Multimedia Databases

  • Kim, Byung-Gon;Han, Joung-Woon;Lee, Jaeho;Haechull Lim
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 ITC-CSCC -2
    • /
    • pp.869-872
    • /
    • 2000
  • Although many content-based image retrieval systems using shape feature have tried to cover rotation-, position- and scale-invariance between images, there have been problems to cover three kinds of variance at the same time. In this paper, we introduce new approach to extract shape feature from image using MBR(Minimum Bounding Rectangle). The proposed method scans image for extracting MBR information and, based on MBR information, compute contour information that consists of 16 points. The extracted information is converted to specific values by normalization and rotation. The proposed method can cover three kinds of invariance at the same time. We implemented our method and carried out experiments. We constructed R*_tree indexing structure, perform k-nearest neighbor search from query image, and demonstrate the capability and usefulness of our method.

  • PDF

방사선 의료영상 검색 시스템에 관한 연구 (A Study on Radiological Image Retrieval System)

  • 박병래;신용원
    • 대한방사선기술학회지:방사선기술과학
    • /
    • 제28권1호
    • /
    • pp.19-24
    • /
    • 2005
  • 방사선사를 위한 교육 및 영상 정보에 대한 정확한 판단에 유용한 주석-기반 방사선 의료영상 검색 시스템을 설계 및 구현하고, 방사선 의료영상에 대한 단순 속성정보, 부가적인 정보인 텍스트 설명정보로부터 추출한 중요 키워드에 대한 효율적인 검색을 위해 $B^+$-트리와 역화일 기법을 이용한 색인기법을 제안하고자 한다. 윈도우즈 XP에서 Delphi를 이용하여 구현하였으며, 방사선사는 방사선 의료영상에 대한 속성 정보, 부가적인 설명정보, 이미지 정보를 저장하도록 하고, 구축된 영상 데이터베이스로부터 속성정보와 텍스트 키워드 정보를 이용하여 검색 가능하도록 하였다. 임상방사선사가 단순속성정보 및 텍스트 설명정보를 찾아냄으로써 임상현장에서의 체계적인 교육뿐 만 아니라 지식을 구조화함으로써 교육시간의 단축과 방사선 의료영상에 대해 정확한 판단을 내릴 수 있다. 구현되어진 방사선 의료영상검색 시스템은 차후에 일반촬영, 특수조영영상을 포함한 통합화상시스템으로의 확장이 요구되며, 아울러 웹을 통한 서비스를 구축함으로써 의사결정시스템으로 발전 할 수 있는 기반기술로 기대된다.

  • PDF

Detection Copy-Move Forgery in Image Via Quaternion Polar Harmonic Transforms

  • Thajeel, Salam A.;Mahmood, Ali Shakir;Humood, Waleed Rasheed;Sulong, Ghazali
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권8호
    • /
    • pp.4005-4025
    • /
    • 2019
  • Copy-move forgery (CMF) in digital images is a detrimental tampering of artefacts that requires precise detection and analysis. CMF is performed by copying and pasting a part of an image into other portions of it. Despite several efforts to detect CMF, accurate identification of noise, blur and rotated region-mediated forged image areas is still difficult. A novel algorithm is developed on the basis of quaternion polar complex exponential transform (QPCET) to detect CMF and is conducted involving a few steps. Firstly, the suspicious image is divided into overlapping blocks. Secondly, invariant features for each block are extracted using QPCET. Thirdly, the duplicated image blocks are determined using k-dimensional tree (kd-tree) block matching. Lastly, a new technique is introduced to reduce the flat region-mediated false matches. Experiments are performed on numerous images selected from the CoMoFoD database. MATLAB 2017b is used to employ the proposed method. Metrics such as correct and false detection ratios are utilised to evaluate the performance of the proposed CMF detection method. Experimental results demonstrate the precise and efficient CMF detection capacity of the proposed approach even under image distortion including rotation, scaling, additive noise, blurring, brightness, colour reduction and JPEG compression. Furthermore, our method can solve the false match problem and outperform existing ones in terms of precision and false positive rate. The proposed approach may serve as a basis for accurate digital image forensic investigations.

웨이브릿 기반 텍스처 융합 영상을 이용한 위성영상 자료의 분류 정확도 향상 연구 (The Classification Accuracy Improvement of Satellite Imagery Using Wavelet Based Texture Fusion Image)

  • 황화정;이기원;권병두;류희영
    • 대한원격탐사학회지
    • /
    • 제23권2호
    • /
    • pp.103-111
    • /
    • 2007
  • 지금까지 위성영상 정보 처리 분야에서는 분광정보를 이용한 영상분석과 시각적 해석 및 자동 분류에 대한 연구가 주로 수행되었으나, 최근에는 영상자료에서 시각적으로 나타나지 않는 특성이나 공간정보의 추출을 위한 여러 시도가 이루어지고 있다. 본 연구에서는 영상정보의 특성 추출기법인 텍스처 영상 생성기법과 웨이브릿 변환을 연계하여 웨이브릿 기반 텍스처 융합 영상에 대한 연구를 수행하였다. 또한 이러한 영상이 분류 정확도에 어떻게 기여하는 가를 분석하기 위한 적용 사례로 도심지 공간분석과 칼데라 주변지역의 지질학적 구조분석을 수행하였다 영상 분석 시 공간정보 활용을 위한 텍스처 영상 생성기법과 웨이브릿 기반 텍스처 융합 영상 생성기법을 사용하면 원본영상만을 사용하였을 때보다 높은 분류정확도를 보였다. 고해상도 영상을 사용한 도심지의 경우 원본영상에 텍스처영상과 웨이브릿 기반 텍스처 융합 영상을 모두 활용한 경우의 분류정확도가 가장 높은 값을 보였다. 이는 상세화소의 변화가 매우 중요한 도심지의 특성상, 세밀한 공간정보가 최대로 활용되었기 때문으로 해석되어진다. 또한 중 저해상도 영상을 사용한 지질학적 구조분석의 경우 원본영상에 텍스처 영상만을 활용한 경우가 가장 높은 분류정확도를 보였다. 이는 칼데라를 중심으로 한 비교적 크기가 큰 지질학적 구조 분석 시 고도변화와 지열분포 등의 정보가 적당히 단순화 될 필요가 있었기 때문인 것으로 해석된다. 따라서 이러한 기법들을 실제 연구에 적용하기 위해서는 연구의 목적과 위성영상의 해상도 등의 정보를 모두 고려하여 적절한 기법을 잘 적용하는 것이 중요하다.