Red tide is becoming hot issue of environmental problem worldwide since the 1990. Advanced nations, are progressing study that detect red tide area on early time using satellite for sea. But, our country most seashores bends serious. Also because there are a lot of turbid method streams on coast, hard to detect small red tide area by satellite for sea that is low resolution. Also, method by sea color that use one feature of satellite image for sea of existent red tide area detection was most. In this way, have a few feature in image with sea color and it can cause false negative mistake that detect red tide area. Therefore, in this paper, acquired texture information to use GLCM(Gray Level Co occurrence Matrix)'s texture 6 information about high definition land satellite south Coast image. Removed needless component reducing dimension through principal component analysis from this information. And changed into 2 principal component accumulation images, Experiment result 2 principal component conversion accumulation image's eigenvalues were 94.6%. When component with red tide area that uses only sea color image and all principal component image. displayed more correct result. And divided as quantitative,, it compares with turbid stream and the sea that red tide does not exist using statistical feature analysis about texture.
KIPS Transactions on Software and Data Engineering
/
v.6
no.4
/
pp.203-210
/
2017
In this paper, we propose an effective neural network model for image caption generation and model transfer. This model is a kind of multi-modal recurrent neural network models. It consists of five distinct layers: a convolution neural network layer for extracting visual information from images, an embedding layer for converting each word into a low dimensional feature, a recurrent neural network layer for learning caption sentence structure, and a multi-modal layer for combining visual and language information. In this model, the recurrent neural network layer is constructed by LSTM units, which are well known to be effective for learning and transferring sequence patterns. Moreover, this model has a unique structure in which the output of the convolution neural network layer is linked not only to the input of the initial state of the recurrent neural network layer but also to the input of the multimodal layer, in order to make use of visual information extracted from the image at each recurrent step for generating the corresponding textual caption. Through various comparative experiments using open data sets such as Flickr8k, Flickr30k, and MSCOCO, we demonstrated the proposed multimodal recurrent neural network model has high performance in terms of caption accuracy and model transfer effect.
Journal of the Korean Institute of Intelligent Systems
/
v.26
no.1
/
pp.56-63
/
2016
In this study, we introduce a design of Fuzzy RBFNNs-based digit recognition system using the incremental-PCA in order to recognize the handwritten digits. The Principal Component Analysis (PCA) is a widely-adopted dimensional reduction algorithm, but it needs high computing overhead for feature extraction in case of using high dimensional images or a large amount of training data. To alleviate such problem, the incremental-PCA is proposed for the computationally efficient processing as well as the incremental learning of high dimensional data in the feature extraction stage. The architecture of Fuzzy Radial Basis Function Neural Networks (RBFNN) consists of three functional modules such as condition, conclusion, and inference part. In the condition part, the input space is partitioned with the use of fuzzy clustering realized by means of the Fuzzy C-Means (FCM) algorithm. Also, it is used instead of gaussian function to consider the characteristic of input data. In the conclusion part, connection weights are used as the extended diverse types in polynomial expression such as constant, linear, quadratic and modified quadratic. Experimental results conducted on the benchmarking MNIST handwritten digit database demonstrate the effectiveness and efficiency of the proposed digit recognition system when compared with other studies.
The present study argues that documentary-animation films, which are based on actual human voices, on the level of representation, constitute a new expansion for the medium of animation films, which serve as testimonies to the real world. Animation films are produced using very diverse techniques so that they are complex to the degree of being indefinable, and documentary films, though based on objective representation, increase in complexity in that there exist various types of artificial interventions such as direction and digital image processing. Having emerged as a hybrid genre of the two media, documentary-animation films draw into themselves actual events and elements so that they conceptually share reality-based narratives and are visually characterized by the trappings of animation films. Generally classified as 'animated documentaries', this genre triggered discussions following the release of , a work that is mistaken as having used rotoscoping transforming live action in terms of the technique. When analyzed in detail, however, this work is presented as an ambiguous medium where the characteristics of animation films, which are virtual simulacra without reality, and of documentaries, which are based on the objective indexicality of the referents, coexist because of its mixed use of typical animation techniques, 3D programs, and live-action images. Discussed in the present study, , , and share the characteristics of the medium of documentaries in that the narratives develop as testimonies of historical figures but, at the same time, are connected to animation films because of their production techniques and direction characteristics. Consequently, this medium must be discussed as a new expansion rather than being included in the existing classification system, and such a presupposition is an indispensable process for directly facing the reality of the works and for developing discussions. Through works that directly use the interviewees' voices yet do not transcend the characteristics of animation films, the present study seeks to define documentary-animation films and to discuss the possibility of the medium, which has expanded as a testimony to the real world.
Recently, many studies have been conducted to use fixed-wing and rotary-wing unmanned aerial vehicles (UAVs, Drones) for topographic surveying in open-pit mines. Because the fixed-wing and rotary-wing UAVs have different characteristics such as flight height, speed, time and performance of mounted cameras, their results of topographic surveying at a same site need to be compared. This study selected a construction site in Yangsan-si, Gyeongsangnam-do, Korea as a study area and compared the topographic surveying results from a fixed-wing UAV (SenseFly eBee) and a popular rotary-wing UAV (DJI Phantom2 Vision+). As results of data processing for aerial photos taken from eBee and Phantom2 Vision+, orthomosaic images and digital surface models with about 4 cm grid spacing could be generated. Comparisons of the X, Y, Z-coordinates of 7 ground control points measured by differential global positioning system and those determined by eBee and Phantom2 Vision+ revealed that the root mean squared errors of X, Y, Z-coordinates were around 10 cm, respectively.
Flood monitoring using satellite data has been constrained by obtaining satellite images for flood peak and accurately extracting flooded areas from satellite data. Deep learning is a promising method for satellite image classification, yet the potential of deep learning-based flooded area extraction using SAR data remained uncertain, which has advantages in obtaining data, comparing to optical satellite data. This research explores the performance of SegNet and U-Net on image segmentation by extracting flooded areas in the Khorat basin, Mekong river basin, and Cagayan river basin in Thailand, Laos, and the Philippines from Sentinel-1 A/B satellite data. Results show that Global Accuracy, Mean IoU, and Mean BF Score of SegNet are 0.9847, 0.6016, and 0.6467 respectively, whereas those of U-Net are 0.9937, 0.7022, 0.7125. Visual interpretation shows that the classification accuracy of U-Net is higher than SegNet, but overall processing time of SegNet is around three times faster than that of U-Net. It is anticipated that the results of this research could be used when developing deep learning-based flood monitoring models and presenting fully automated flooded area extraction models.
The frequency and risk of disasters are increasing due to environmental and social factors. In order to respond effectively to disasters that occur unexpectedly, it is very important to quickly obtain up-to-date information about target area. It is possible to intuitively judge the situation about the area through the image-map generated at high speed, so that it can cope with disaster quickly and effectively. In this study, we propose an image-map generation and visualization system from UAV images for real-time disaster monitoring. The proposed system consists of aerial segment and ground segment. In the aerial segment, the UAV system acquires the sensory data from digital camera and GPS/IMU sensor. Communication module transmits it to the ground server in real time. In the ground segment, the transmitted sensor data are processed to generate image-maps and the image-maps are visualized on the geo-portal. We conducted experiment to check the accuracy of the image-map using the system. Check points were obtained through ground survey in the data acquisition area. When calculating the difference between adjacent image maps, the relative accuracy was 1.58 m. We confirmed the absolute accuracy of the image map for the position measured from the individual image map. It is confirmed that the map is matched to the existing map with an absolute accuracy of 0.75 m. We confirmed the processing time of each step until the visualization of the image-map. When the image-map was generated with GSD 10 cm, it took 1.67 seconds to visualize. It is expected that the proposed system can be applied to real - time monitoring for disaster response.
Park, Yeon-Ok;Jung, Eun-Kyung;Park, Yeon-Jung;Nam, So-Ra;Jung, Ji-Young;Kim, Hee-Joung
Journal of the Korean Society of Radiology
/
v.1
no.1
/
pp.25-30
/
2007
ROC(Receiver Operating Characteristic)curve is the method that estimate detected insignificant signal from the human's sense of sight, it has been raised excellent results. In this study, we evaluate image quality and equipment character by obtaining a chest image from CR(Computed Radiography) and DDR(Direct Digital radiography) using the human chest phantom, The parameter of exposure for obtaining chest image was 120 kVp/3.2 mAs and the SID(Source to Image Distance) was 180cm. The images were obtained by CR(AGFA MD 4.0 General plate, JAPAN) and DDR(HOLOGIC nDirect Ray, USA). Using some pieces of Aluminum and stone for expressing regions, then attached them on the heart, lung and thoracic vertebrae of the phantom. 29 persons hold radiology degrees were participated in ROC analysis. As a result of the ROC analysis, TPF(true positive fraction) and FPF(false positive fraction) of DDR and CR are 0.552 and 0.474 and 0.629 and 0.405, respectively. By using the results, the ROC curve of CR has higher image quality than DDR. According to the theory, DDR has the higher image quality than CR in chest X-ray image. But, CR has the higher image quality than DDR. quality of DDR inserted the enhance board. The results confirmed that image post-processing is important element decipherment of clinical.
Lee Jeongjin;Kang Moon Koo;Cho Myoung Su;Shin Yeong Gil
Journal of KIISE:Computer Systems and Theory
/
v.32
no.10
/
pp.530-540
/
2005
Virtual colonoscopy is an easy and fast method to reconstruct the shape of colon and diagnose tumors inside the colon based on computed tomography images. This is a non-invasive method, which resolves weak points of previous invasive methods. The path for virtual colonoscopy should be generated rapidly and accurately for clinical examination. However, previous methods are computationally expensive because the data structure such as distance map should be constructed in the preprocessing and positions of all the points of the path needs to be calculated. In this paper, we propose the automatic path generation method based on visibility to decrease path generation time. The proposed method does not require preprocessing and generates small number of control points representing the Path instead of all points to generate the path rapidly. Also, our method generates the path based on visibility so that a virtual camera moves smoothly and a comfortable and accurate path is calculated for virtual navigation. Also, our method can be used for general virtual navigation of various kinds of pipes.
It is not easy that we visualize the large volume data stored in the every client computers of the web environment. One solution is as follows. First we compress volume data, second store that in the database server, third transfer that to client computer, fourth visualize that with direct-volume-rendering in the client computer. In this case, we usually use wavelet transform for compressing large data. This paper reports the experiments for acquiring the wavelet bases and the compression ratios fit for the above processing paradigm. In this experiments, we compress the volume data Engine, CThead, Bentum into 50%, 10%, 5%, 1%, 0.1%, 0.03% of the total data respectively using Harr, Daubechies4, Daubechies12 and Daubechies20 wavelets, then visualize that with direct-volume-rendering, afterwards evaluate the images with eyes and image comparison metrics. When compression ratio being low the performance of Harr wavelet is better than the performance of the other wavelets, when compression ratio being high the performance of Daubechies4 and Daubechies12 is better than the performance of the other wavelets. When measuring with eyes the good compression ratio is about 1% of all the data, when measuring with image comparison metrics, the good compression ratio is about 5-10% of all the data.
본 웹사이트에 게시된 이메일 주소가 전자우편 수집 프로그램이나
그 밖의 기술적 장치를 이용하여 무단으로 수집되는 것을 거부하며,
이를 위반시 정보통신망법에 의해 형사 처벌됨을 유념하시기 바랍니다.
[게시일 2004년 10월 1일]
이용약관
제 1 장 총칙
제 1 조 (목적)
이 이용약관은 KoreaScience 홈페이지(이하 “당 사이트”)에서 제공하는 인터넷 서비스(이하 '서비스')의 가입조건 및 이용에 관한 제반 사항과 기타 필요한 사항을 구체적으로 규정함을 목적으로 합니다.
제 2 조 (용어의 정의)
① "이용자"라 함은 당 사이트에 접속하여 이 약관에 따라 당 사이트가 제공하는 서비스를 받는 회원 및 비회원을
말합니다.
② "회원"이라 함은 서비스를 이용하기 위하여 당 사이트에 개인정보를 제공하여 아이디(ID)와 비밀번호를 부여
받은 자를 말합니다.
③ "회원 아이디(ID)"라 함은 회원의 식별 및 서비스 이용을 위하여 자신이 선정한 문자 및 숫자의 조합을
말합니다.
④ "비밀번호(패스워드)"라 함은 회원이 자신의 비밀보호를 위하여 선정한 문자 및 숫자의 조합을 말합니다.
제 3 조 (이용약관의 효력 및 변경)
① 이 약관은 당 사이트에 게시하거나 기타의 방법으로 회원에게 공지함으로써 효력이 발생합니다.
② 당 사이트는 이 약관을 개정할 경우에 적용일자 및 개정사유를 명시하여 현행 약관과 함께 당 사이트의
초기화면에 그 적용일자 7일 이전부터 적용일자 전일까지 공지합니다. 다만, 회원에게 불리하게 약관내용을
변경하는 경우에는 최소한 30일 이상의 사전 유예기간을 두고 공지합니다. 이 경우 당 사이트는 개정 전
내용과 개정 후 내용을 명확하게 비교하여 이용자가 알기 쉽도록 표시합니다.
제 4 조(약관 외 준칙)
① 이 약관은 당 사이트가 제공하는 서비스에 관한 이용안내와 함께 적용됩니다.
② 이 약관에 명시되지 아니한 사항은 관계법령의 규정이 적용됩니다.
제 2 장 이용계약의 체결
제 5 조 (이용계약의 성립 등)
① 이용계약은 이용고객이 당 사이트가 정한 약관에 「동의합니다」를 선택하고, 당 사이트가 정한
온라인신청양식을 작성하여 서비스 이용을 신청한 후, 당 사이트가 이를 승낙함으로써 성립합니다.
② 제1항의 승낙은 당 사이트가 제공하는 과학기술정보검색, 맞춤정보, 서지정보 등 다른 서비스의 이용승낙을
포함합니다.
제 6 조 (회원가입)
서비스를 이용하고자 하는 고객은 당 사이트에서 정한 회원가입양식에 개인정보를 기재하여 가입을 하여야 합니다.
제 7 조 (개인정보의 보호 및 사용)
당 사이트는 관계법령이 정하는 바에 따라 회원 등록정보를 포함한 회원의 개인정보를 보호하기 위해 노력합니다. 회원 개인정보의 보호 및 사용에 대해서는 관련법령 및 당 사이트의 개인정보 보호정책이 적용됩니다.
제 8 조 (이용 신청의 승낙과 제한)
① 당 사이트는 제6조의 규정에 의한 이용신청고객에 대하여 서비스 이용을 승낙합니다.
② 당 사이트는 아래사항에 해당하는 경우에 대해서 승낙하지 아니 합니다.
- 이용계약 신청서의 내용을 허위로 기재한 경우
- 기타 규정한 제반사항을 위반하며 신청하는 경우
제 9 조 (회원 ID 부여 및 변경 등)
① 당 사이트는 이용고객에 대하여 약관에 정하는 바에 따라 자신이 선정한 회원 ID를 부여합니다.
② 회원 ID는 원칙적으로 변경이 불가하며 부득이한 사유로 인하여 변경 하고자 하는 경우에는 해당 ID를
해지하고 재가입해야 합니다.
③ 기타 회원 개인정보 관리 및 변경 등에 관한 사항은 서비스별 안내에 정하는 바에 의합니다.
제 3 장 계약 당사자의 의무
제 10 조 (KISTI의 의무)
① 당 사이트는 이용고객이 희망한 서비스 제공 개시일에 특별한 사정이 없는 한 서비스를 이용할 수 있도록
하여야 합니다.
② 당 사이트는 개인정보 보호를 위해 보안시스템을 구축하며 개인정보 보호정책을 공시하고 준수합니다.
③ 당 사이트는 회원으로부터 제기되는 의견이나 불만이 정당하다고 객관적으로 인정될 경우에는 적절한 절차를
거쳐 즉시 처리하여야 합니다. 다만, 즉시 처리가 곤란한 경우는 회원에게 그 사유와 처리일정을 통보하여야
합니다.
제 11 조 (회원의 의무)
① 이용자는 회원가입 신청 또는 회원정보 변경 시 실명으로 모든 사항을 사실에 근거하여 작성하여야 하며,
허위 또는 타인의 정보를 등록할 경우 일체의 권리를 주장할 수 없습니다.
② 당 사이트가 관계법령 및 개인정보 보호정책에 의거하여 그 책임을 지는 경우를 제외하고 회원에게 부여된
ID의 비밀번호 관리소홀, 부정사용에 의하여 발생하는 모든 결과에 대한 책임은 회원에게 있습니다.
③ 회원은 당 사이트 및 제 3자의 지적 재산권을 침해해서는 안 됩니다.
제 4 장 서비스의 이용
제 12 조 (서비스 이용 시간)
① 서비스 이용은 당 사이트의 업무상 또는 기술상 특별한 지장이 없는 한 연중무휴, 1일 24시간 운영을
원칙으로 합니다. 단, 당 사이트는 시스템 정기점검, 증설 및 교체를 위해 당 사이트가 정한 날이나 시간에
서비스를 일시 중단할 수 있으며, 예정되어 있는 작업으로 인한 서비스 일시중단은 당 사이트 홈페이지를
통해 사전에 공지합니다.
② 당 사이트는 서비스를 특정범위로 분할하여 각 범위별로 이용가능시간을 별도로 지정할 수 있습니다. 다만
이 경우 그 내용을 공지합니다.
제 13 조 (홈페이지 저작권)
① NDSL에서 제공하는 모든 저작물의 저작권은 원저작자에게 있으며, KISTI는 복제/배포/전송권을 확보하고
있습니다.
② NDSL에서 제공하는 콘텐츠를 상업적 및 기타 영리목적으로 복제/배포/전송할 경우 사전에 KISTI의 허락을
받아야 합니다.
③ NDSL에서 제공하는 콘텐츠를 보도, 비평, 교육, 연구 등을 위하여 정당한 범위 안에서 공정한 관행에
합치되게 인용할 수 있습니다.
④ NDSL에서 제공하는 콘텐츠를 무단 복제, 전송, 배포 기타 저작권법에 위반되는 방법으로 이용할 경우
저작권법 제136조에 따라 5년 이하의 징역 또는 5천만 원 이하의 벌금에 처해질 수 있습니다.
제 14 조 (유료서비스)
① 당 사이트 및 협력기관이 정한 유료서비스(원문복사 등)는 별도로 정해진 바에 따르며, 변경사항은 시행 전에
당 사이트 홈페이지를 통하여 회원에게 공지합니다.
② 유료서비스를 이용하려는 회원은 정해진 요금체계에 따라 요금을 납부해야 합니다.
제 5 장 계약 해지 및 이용 제한
제 15 조 (계약 해지)
회원이 이용계약을 해지하고자 하는 때에는 [가입해지] 메뉴를 이용해 직접 해지해야 합니다.
제 16 조 (서비스 이용제한)
① 당 사이트는 회원이 서비스 이용내용에 있어서 본 약관 제 11조 내용을 위반하거나, 다음 각 호에 해당하는
경우 서비스 이용을 제한할 수 있습니다.
- 2년 이상 서비스를 이용한 적이 없는 경우
- 기타 정상적인 서비스 운영에 방해가 될 경우
② 상기 이용제한 규정에 따라 서비스를 이용하는 회원에게 서비스 이용에 대하여 별도 공지 없이 서비스 이용의
일시정지, 이용계약 해지 할 수 있습니다.
제 17 조 (전자우편주소 수집 금지)
회원은 전자우편주소 추출기 등을 이용하여 전자우편주소를 수집 또는 제3자에게 제공할 수 없습니다.
제 6 장 손해배상 및 기타사항
제 18 조 (손해배상)
당 사이트는 무료로 제공되는 서비스와 관련하여 회원에게 어떠한 손해가 발생하더라도 당 사이트가 고의 또는 과실로 인한 손해발생을 제외하고는 이에 대하여 책임을 부담하지 아니합니다.
제 19 조 (관할 법원)
서비스 이용으로 발생한 분쟁에 대해 소송이 제기되는 경우 민사 소송법상의 관할 법원에 제기합니다.
[부 칙]
1. (시행일) 이 약관은 2016년 9월 5일부터 적용되며, 종전 약관은 본 약관으로 대체되며, 개정된 약관의 적용일 이전 가입자도 개정된 약관의 적용을 받습니다.