The human face has "expression" as an important visual factor in contrast with general objects. For this reason, cartoonists draw shadow that emphasizes facial shape and facial expression in order to convey atmosphere of scene and trait of character. This shadow should be considered when doing cartoon rendering for facial expression although it is not an physical shading. This paper proposes a cartoon rendering system for facial expression based on shading techniques of real cartoonist. First of all, we searched such techniques of cartoonist through variety of collected cartoon images and defined shadow templates according to character's facial expression to do cartoon rendering diffently. After that, we demonstrated cartoon rendering system of facial expression on the basis of survey result that effectively emphasizes facial shape and facial expression. Finally, we showed the usefulness through the user questionnaire.
Proceedings of the Korean Society of Broadcast Engineers Conference
/
2009.01a
/
pp.689-694
/
2009
We developed a facial image generating technique that can manipulate facial impressions. The present study applied this impression transferring method to higher-order impressions such as "elegance" or "attractiveness" and confirmed the psychological validity of this method using the semantic differential method. Subsequently, we applied this method to two types of cognitive experiments. First, we examined the contributions of texture and shape on the facial impressions by using those face images for which the impressions have already been quantitatively manipulated based on this method. Second, we used such stimuli to examine the effect of facial impressions and attractiveness on the "mere exposure effect." Thus, we concluded that the impression transfer vector method is an effective tool to quantitatively manipulate the facial impressions in various cognitive studies.
Purpose: In maxillofacial surgery, proper preoperative diagnosis is very important in achieving good postoperative results. Although conventional CT scans are useful for visual representations of fractures, they cannot provide direct guidance for reconstructing facial bone fractures. However, the recent technology of multislice scanning has brought many clinical benefits to CT images. Direct correlations can be made between preoperative imaging data and operative planning. The aim of the current study is to evaluate the differences between conventional CT and multidetective three-dimensional CT(3D MDCT) measurements in craniofacial deformities. Methods: From January 2005 to November 2005, MDCT scans of 41 patients were evaluated by comparing them with conventional CT scans. The 3D MDCT images were assessed and reviewed by using a simple scoring system. Results: The 3D MDCT scans offered easy interpretation, facilitated surgical planning, and clarified postoperative results in malar complex fractures, mandibular fractures, and extensive maxillofacial fractures and cranioplasty. However, 3D MDCT images were not superior to conventional CT scans in the diagnosis of blowout fractures. Conclusion: In spite of its limitations, the 3D MDCT provided additional and more comprehensive information than the conventional CT for preoperative assessment of craniofacial deformities. Therefore, the 3D MDCT can be a useful tool for diagnosis and systematic treatment planning in craniofacial skeletal deformities.
This paper improved the performance of the face recognition system using the PCA/LDA hybrid method based on the facial geometric feature and the Wavelet transform. Because the previous PCA/LDA methods have measured the similarity according to the formal dispersion, they could not reflect facial boundaries exactly In order to recover this defect, this paper proposed the method using the distance between eyes and mouth. If the difference of the measured distances on the query and the training images is over the given threshold, then the method reorders the candidate images according to energy feature vectors of eyes, a nose, and a chin. To evaluate the performance of the proposed method the computer simulations have been performed with four hundred facial images in the ORL database. The results showed that our method improves about 4% recognition rate over the previous PCA/LDA method.
SOULA, Arbia;SAID, Salma BEN;KSANTINI, Riadh;LACHIRI, Zied
KSII Transactions on Internet and Information Systems (TIIS)
/
v.13
no.4
/
pp.2129-2147
/
2019
This paper introduces an adaptive face recognition method based on a Novel Incremental Kernel Nonparametric Discriminant Analysis (IKNDA) that is able to learn through time. More precisely, the IKNDA has the advantage of incrementally reducing data dimension, in a discriminative manner, as new samples are added asynchronously. Thus, it handles dynamic and large data in a better way. In order to perform face recognition effectively, we combine the Gabor features and the ordinal measures to extract the facial features that are coded across local parts, as visual primitives. The variegated ordinal measures are extraught from Gabor filtering responses. Then, the histogram of these primitives, across a variety of facial zones, is intermingled to procure a feature vector. This latter's dimension is slimmed down using PCA. Finally, the latter is treated as a facial vector input for the advanced IKNDA. A comparative evaluation of the IKNDA is performed for face recognition, besides, for other classification endeavors, in a decontextualized evaluation schemes. In such a scheme, we compare the IKNDA model to some relevant state-of-the-art incremental and batch discriminant models. Experimental results show that the IKNDA outperforms these discriminant models and is better tool to improve face recognition performance.
Purpose: The goal of this study was to assess the accuracy and reliability of a low-cost portable scanner (Scanify) for imaging facial casts compared to a previously validated portable digital stereophotogrammetry device (Vectra H1). This in vitro study was performed using 2 facial casts obtained by recording impressions of the authors, at King's College London Academic Centre of Reconstructive Science. Materials and Methods: The casts were marked with anthropometric landmarks, then digitised using Scanify and Vectra H1. Computed tomography (CT) scans of the same casts were performed to verify the validation of Vectra H1. The 3-dimensional (3D) images acquired with each device were compared using linear measurements and 3D surface analysis software. Results: Overall, 91% of the linear Scanify measurements were within 1 mm of the corresponding reference values. The mean overall surface difference between the Scanify and Vectra images was <0.3mm. Significant differences were detected in depth measurements. Merging multiple Scanify images produced significantly greater registration error. Conclusion: Scanify is a very low-cost device that could have clinical applications for facial imaging if imaging errors could be corrected by a future software update or hardware revision.
The existing video expression recognition methods mainly focus on the spatial feature extraction of video expression images, but tend to ignore the dynamic features of video sequences. To solve this problem, a multi-mode convolution neural network method is proposed to effectively improve the performance of facial expression recognition in video. Firstly, OpenFace 2.0 is used to detect face images in video, and two deep convolution neural networks are used to extract spatiotemporal expression features. Furthermore, spatial convolution neural network is used to extract the spatial information features of each static expression image, and the dynamic information feature is extracted from the optical flow information of multiple expression images based on temporal convolution neural network. Then, the spatiotemporal features learned by the two deep convolution neural networks are fused by multiplication. Finally, the fused features are input into support vector machine to realize the facial expression classification. Experimental results show that the recognition accuracy of the proposed method can reach 64.57% and 60.89%, respectively on RML and Baum-ls datasets. It is better than that of other contrast methods.
Journal of Korean Academy of Oral and Maxillofacial Radiology
/
v.22
no.2
/
pp.283-290
/
1992
The purpose of this study was to evaluate the spatial relationship of facial bone more accurately. For this study, the three-dimensional images of dry skull were reconstructed using computer image analysis system and three-dimensional reconstructive program involved CT. The obtained results were as follows: 1. Three-dimensional reconstructive CT results in images that have better resolution and more contrast 2. It showed good marginal images of anatomical structure on both three-dimensional CT and computer image analysis system, but the roof of orbit, the lacrimal bone and the squamous portion of temporal bone were hardly detectable. 3. The partial loss of image data were observed during the regeneration of saved image data on three-dimensional CT. 4. It saved the more time for reconstruction of three-dimensional images using computer image analysis system. But, the capacity of hardware was limited for inputting of image data and three-dimensional reconstructive process. 5. We could observe the spatial relationship between the region of interest and the surrounding structures by three-dimensional reconstructive images without invasive method.
Journal of the Korean Institute of Telematics and Electronics C
/
v.35C
no.10
/
pp.48-58
/
1998
We present a method that can recognize face images using independent component analysis that is used mainly for blind sources separation in signal processing. We assumed that a face image can be expressed as the sum of a set of statistically independent feature images, which was obtained by using independent component analysis. Face recognition was peformed by projecting the input image to the feature image space and then by comparing its projection components with those of stored reference images. We carried out face recognition experiments with a database that consists of various varied face images (total 400 varied facial images collected from 10 per person) and compared the performance of our method with that of the eigenface method based on principal component analysis. The presented method gave better results of recognition rate than the eigenface method did, and showed robustness to the random noise added in the input facial images.
So, In-Mi;Kang, Sun-Kyung;Kim, Young-Un;Lee, Chi-Geun;Jung, Sung-Tae
Journal of the Korea Society of Computer and Information
/
v.11
no.3
/
pp.151-159
/
2006
In this paper. we Present an estimation method of a face pose by using two camera images. First, it finds corresponding facial feature points of eyebrow, eye and lip from two images After that, it computes three dimensional location of the facial feature points by using the triangulation method of stereo vision techniques. Next. it makes a triangle by using the extracted facial feature points and computes the surface normal vector of the triangle. The surface normal of the triangle represents the direction of the face. We applied the computed face pose to display a 3D face model. The experimental results show that the proposed method extracts correct face pose.
본 웹사이트에 게시된 이메일 주소가 전자우편 수집 프로그램이나
그 밖의 기술적 장치를 이용하여 무단으로 수집되는 것을 거부하며,
이를 위반시 정보통신망법에 의해 형사 처벌됨을 유념하시기 바랍니다.
[게시일 2004년 10월 1일]
이용약관
제 1 장 총칙
제 1 조 (목적)
이 이용약관은 KoreaScience 홈페이지(이하 “당 사이트”)에서 제공하는 인터넷 서비스(이하 '서비스')의 가입조건 및 이용에 관한 제반 사항과 기타 필요한 사항을 구체적으로 규정함을 목적으로 합니다.
제 2 조 (용어의 정의)
① "이용자"라 함은 당 사이트에 접속하여 이 약관에 따라 당 사이트가 제공하는 서비스를 받는 회원 및 비회원을
말합니다.
② "회원"이라 함은 서비스를 이용하기 위하여 당 사이트에 개인정보를 제공하여 아이디(ID)와 비밀번호를 부여
받은 자를 말합니다.
③ "회원 아이디(ID)"라 함은 회원의 식별 및 서비스 이용을 위하여 자신이 선정한 문자 및 숫자의 조합을
말합니다.
④ "비밀번호(패스워드)"라 함은 회원이 자신의 비밀보호를 위하여 선정한 문자 및 숫자의 조합을 말합니다.
제 3 조 (이용약관의 효력 및 변경)
① 이 약관은 당 사이트에 게시하거나 기타의 방법으로 회원에게 공지함으로써 효력이 발생합니다.
② 당 사이트는 이 약관을 개정할 경우에 적용일자 및 개정사유를 명시하여 현행 약관과 함께 당 사이트의
초기화면에 그 적용일자 7일 이전부터 적용일자 전일까지 공지합니다. 다만, 회원에게 불리하게 약관내용을
변경하는 경우에는 최소한 30일 이상의 사전 유예기간을 두고 공지합니다. 이 경우 당 사이트는 개정 전
내용과 개정 후 내용을 명확하게 비교하여 이용자가 알기 쉽도록 표시합니다.
제 4 조(약관 외 준칙)
① 이 약관은 당 사이트가 제공하는 서비스에 관한 이용안내와 함께 적용됩니다.
② 이 약관에 명시되지 아니한 사항은 관계법령의 규정이 적용됩니다.
제 2 장 이용계약의 체결
제 5 조 (이용계약의 성립 등)
① 이용계약은 이용고객이 당 사이트가 정한 약관에 「동의합니다」를 선택하고, 당 사이트가 정한
온라인신청양식을 작성하여 서비스 이용을 신청한 후, 당 사이트가 이를 승낙함으로써 성립합니다.
② 제1항의 승낙은 당 사이트가 제공하는 과학기술정보검색, 맞춤정보, 서지정보 등 다른 서비스의 이용승낙을
포함합니다.
제 6 조 (회원가입)
서비스를 이용하고자 하는 고객은 당 사이트에서 정한 회원가입양식에 개인정보를 기재하여 가입을 하여야 합니다.
제 7 조 (개인정보의 보호 및 사용)
당 사이트는 관계법령이 정하는 바에 따라 회원 등록정보를 포함한 회원의 개인정보를 보호하기 위해 노력합니다. 회원 개인정보의 보호 및 사용에 대해서는 관련법령 및 당 사이트의 개인정보 보호정책이 적용됩니다.
제 8 조 (이용 신청의 승낙과 제한)
① 당 사이트는 제6조의 규정에 의한 이용신청고객에 대하여 서비스 이용을 승낙합니다.
② 당 사이트는 아래사항에 해당하는 경우에 대해서 승낙하지 아니 합니다.
- 이용계약 신청서의 내용을 허위로 기재한 경우
- 기타 규정한 제반사항을 위반하며 신청하는 경우
제 9 조 (회원 ID 부여 및 변경 등)
① 당 사이트는 이용고객에 대하여 약관에 정하는 바에 따라 자신이 선정한 회원 ID를 부여합니다.
② 회원 ID는 원칙적으로 변경이 불가하며 부득이한 사유로 인하여 변경 하고자 하는 경우에는 해당 ID를
해지하고 재가입해야 합니다.
③ 기타 회원 개인정보 관리 및 변경 등에 관한 사항은 서비스별 안내에 정하는 바에 의합니다.
제 3 장 계약 당사자의 의무
제 10 조 (KISTI의 의무)
① 당 사이트는 이용고객이 희망한 서비스 제공 개시일에 특별한 사정이 없는 한 서비스를 이용할 수 있도록
하여야 합니다.
② 당 사이트는 개인정보 보호를 위해 보안시스템을 구축하며 개인정보 보호정책을 공시하고 준수합니다.
③ 당 사이트는 회원으로부터 제기되는 의견이나 불만이 정당하다고 객관적으로 인정될 경우에는 적절한 절차를
거쳐 즉시 처리하여야 합니다. 다만, 즉시 처리가 곤란한 경우는 회원에게 그 사유와 처리일정을 통보하여야
합니다.
제 11 조 (회원의 의무)
① 이용자는 회원가입 신청 또는 회원정보 변경 시 실명으로 모든 사항을 사실에 근거하여 작성하여야 하며,
허위 또는 타인의 정보를 등록할 경우 일체의 권리를 주장할 수 없습니다.
② 당 사이트가 관계법령 및 개인정보 보호정책에 의거하여 그 책임을 지는 경우를 제외하고 회원에게 부여된
ID의 비밀번호 관리소홀, 부정사용에 의하여 발생하는 모든 결과에 대한 책임은 회원에게 있습니다.
③ 회원은 당 사이트 및 제 3자의 지적 재산권을 침해해서는 안 됩니다.
제 4 장 서비스의 이용
제 12 조 (서비스 이용 시간)
① 서비스 이용은 당 사이트의 업무상 또는 기술상 특별한 지장이 없는 한 연중무휴, 1일 24시간 운영을
원칙으로 합니다. 단, 당 사이트는 시스템 정기점검, 증설 및 교체를 위해 당 사이트가 정한 날이나 시간에
서비스를 일시 중단할 수 있으며, 예정되어 있는 작업으로 인한 서비스 일시중단은 당 사이트 홈페이지를
통해 사전에 공지합니다.
② 당 사이트는 서비스를 특정범위로 분할하여 각 범위별로 이용가능시간을 별도로 지정할 수 있습니다. 다만
이 경우 그 내용을 공지합니다.
제 13 조 (홈페이지 저작권)
① NDSL에서 제공하는 모든 저작물의 저작권은 원저작자에게 있으며, KISTI는 복제/배포/전송권을 확보하고
있습니다.
② NDSL에서 제공하는 콘텐츠를 상업적 및 기타 영리목적으로 복제/배포/전송할 경우 사전에 KISTI의 허락을
받아야 합니다.
③ NDSL에서 제공하는 콘텐츠를 보도, 비평, 교육, 연구 등을 위하여 정당한 범위 안에서 공정한 관행에
합치되게 인용할 수 있습니다.
④ NDSL에서 제공하는 콘텐츠를 무단 복제, 전송, 배포 기타 저작권법에 위반되는 방법으로 이용할 경우
저작권법 제136조에 따라 5년 이하의 징역 또는 5천만 원 이하의 벌금에 처해질 수 있습니다.
제 14 조 (유료서비스)
① 당 사이트 및 협력기관이 정한 유료서비스(원문복사 등)는 별도로 정해진 바에 따르며, 변경사항은 시행 전에
당 사이트 홈페이지를 통하여 회원에게 공지합니다.
② 유료서비스를 이용하려는 회원은 정해진 요금체계에 따라 요금을 납부해야 합니다.
제 5 장 계약 해지 및 이용 제한
제 15 조 (계약 해지)
회원이 이용계약을 해지하고자 하는 때에는 [가입해지] 메뉴를 이용해 직접 해지해야 합니다.
제 16 조 (서비스 이용제한)
① 당 사이트는 회원이 서비스 이용내용에 있어서 본 약관 제 11조 내용을 위반하거나, 다음 각 호에 해당하는
경우 서비스 이용을 제한할 수 있습니다.
- 2년 이상 서비스를 이용한 적이 없는 경우
- 기타 정상적인 서비스 운영에 방해가 될 경우
② 상기 이용제한 규정에 따라 서비스를 이용하는 회원에게 서비스 이용에 대하여 별도 공지 없이 서비스 이용의
일시정지, 이용계약 해지 할 수 있습니다.
제 17 조 (전자우편주소 수집 금지)
회원은 전자우편주소 추출기 등을 이용하여 전자우편주소를 수집 또는 제3자에게 제공할 수 없습니다.
제 6 장 손해배상 및 기타사항
제 18 조 (손해배상)
당 사이트는 무료로 제공되는 서비스와 관련하여 회원에게 어떠한 손해가 발생하더라도 당 사이트가 고의 또는 과실로 인한 손해발생을 제외하고는 이에 대하여 책임을 부담하지 아니합니다.
제 19 조 (관할 법원)
서비스 이용으로 발생한 분쟁에 대해 소송이 제기되는 경우 민사 소송법상의 관할 법원에 제기합니다.
[부 칙]
1. (시행일) 이 약관은 2016년 9월 5일부터 적용되며, 종전 약관은 본 약관으로 대체되며, 개정된 약관의 적용일 이전 가입자도 개정된 약관의 적용을 받습니다.