• 제목/요약/키워드: Eye frames

검색결과 33건 처리시간 0.022초

e-AG를 위한 시공간적 계위를 이용한 3차원 비디오 압축 (3D video coding for e-AG using spatio-temporal scalability)

  • 오세찬;이영호;우운택
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2003년도 신호처리소사이어티 추계학술대회 논문집
    • /
    • pp.199-202
    • /
    • 2003
  • In this paper, we propose a new 3D coding method for heterogeneous systems over enhanced Access Grid (e-AG) with 3D display using spatio-temporal scalability. The proposed encoder produces four bit-streams: one base layer and enhancement layer l, 2 and 3. The base layer represents a video sequence for left eye with lower spatial resolution. An enhancement layer l provides additional bit-stream needed for reproduction of frames produced in base layer with full resolution. Similarly, the enhancement layer 2 represents a video sequence for right eye with lower spatial resolution and an enhancement layer 3 provides additional bit-stream needed for reproduction of its reference pictures with full resolution. In this system, temporal resolution reduction is obtained by dropping B-frames in the receiver according to network condition. The receiver system can select the spatial and temporal resolution of video sequence with its display condition by properly combining bit-streams.

  • PDF

2008년 안경 신상품 트렌드 분석 (Analysis of New Eyewear Product Trends of 2008)

  • 장준영;노권찬
    • 한국안광학회지
    • /
    • 제14권3호
    • /
    • pp.1-5
    • /
    • 2009
  • 목적: 2008년 국내에 출시된 안경 신상품에 대한 브랜드, 종류, 재료, 색상 그리고 디자인 등을 조사, 분석하여 국내 안경시장의 트렌드를 파악하고자 한다. 방법: 국내에서 발간되는 안경관련 잡지인 '안경계', 'Eye 11', 'AXIS' 등 3종의 2008년도 발간분에 수록된 신상품을 전부 조사, 분석하였다. 결과: 2008년 3종의 잡지에 수록된 신상품은 총103개 업체, 182개 브랜드이며, 국내 브랜드가 77개, 수입 브랜드 105개였다. 종류별로는 도수테가 522개, 선글라스가 126개, 기타 스포츠글라스, 클립안경 등이 39개였다. 도수테의 재질은 콤비테가 37.93%, 메탈테가 33.14%, 플라스틱테가 28.93%였으며, 선글라스의 경우는 플라스틱테가 50.79%, 콤비테가 30.95%, 메탈테는 18.25%였다. 스타일측면에서는 복고풍 스타일을 유지하면서 개성을 표출할 수 있는 캐쥬얼 스타일이 많이 눈에 띄며, 보수적인 스타일을 유지하면서 간결하고 절제된 형태의 모던하고 미니멀한 스타일도 많이 나타났다. 컬러 측면에서는 검정, 회색 등의 기본적인 색상이 주류를 이루었으며, 파스텔톤의 색상과 원색 계열도 강조색으로 많이 사용되었다. 결론: 2008년 신상품 안경의 트렌드를 분석하면 국산 제품의 경우 얇은 판테와 가벼운 TR 안경테 그리고 이들을 조합한 콤비테 등 가볍고 착용감이 좋은 제품들이 많이 출시되었다. 수입 제품의 경우 메탈테는 티탄 위주의 심플한 안경테가 많았으며, 플라스틱테는 아세테이트를 위주로 한 다양한 패턴과 색상의 제품이 주류를 이루었다.

  • PDF

토르말린이 첨가된 안경테가 안압 정상화에 미치는 영향 (Effect of Tourmaline-added Eyeglass Frames on Normalization of Intraocular Pressure)

  • 박상철;정혜리;권종문;이규빈
    • 대한시과학회지
    • /
    • 제20권4호
    • /
    • pp.461-468
    • /
    • 2018
  • 목적 : 전기를 띄는 천연광석물질인 토르말린을 안경 전체부분에 적용하여 인간의 안구 내 신진대사에 관련된 요소들 중 하나인 안압(Intraocular pressure: IOP)의 변화를 관찰하였다. 방법 : 안경테의 주재료인 TR-90과 토르말린 7 wt%을 혼합하여 안경테를 제작 후, 20대의 90명(남자 46명, 여자 44명)을 대상으로 토르말린 안경테의 착용 전과 후의 안압변화를 정상 안압범위에서 Low, Middle, High 그룹으로 안압에 따라 나누어 관찰하였다. 결과 : 토르말린 안경테를 착용 후, 우안에서 전체안압은 -4.14 %로 감소하였고(p<0.000), High와 Middle 그룹에서 각각 -6.39 %(p<0.000), -4.64 %(p<0.017)로 유의하게 감소하였다. 좌안에서 전체안압은 -2.74 %(p<0.004)로 감소하였고, High 그룹에서만 -4.58 %(p<0.000)로 통계적으로 유의한 값을 나타내었다. 결론 : 본 연구에서 제작한 7 wt% 토르말린이 함유된 안경테를 사용하여, 안경테를 착용 후 안압이 유의하게 감소되어 정상 안압범위의 평균 수치와 근접해지는 것을 확인할 수 있었다. 이러한 연구결과로 인해 신체의 신진대사와 혈액순환을 촉진시키는 효과를 가진 토르말린을 안경테에 접목함으로써 안압의 정상화에 대한 효과를 나타내는 것으로 확인할 수 있었다.

눈의 상태 인식을 이용한 디지털 카메라 영상 자동 보정 모듈의 구현 (The Implementation of Automatic Compensation Modules for Digital Camera Image by Recognition of the Eye State)

  • 전영준;신홍섭;김진일
    • 융합신호처리학회논문지
    • /
    • 제14권3호
    • /
    • pp.162-168
    • /
    • 2013
  • 본 논문에서는 디지털 카메라를 이용하여 사진을 촬영할 때 눈의 감긴 상태를 확인하여 이를 자동으로 보정하여 출력해주는 모듈의 구현에 관하여 연구하였다. 먼저 촬영된 영상에 대하여 얼굴 및 눈의 영역을 검출하고 눈의 상태를 인식한다. 만약 눈이 감긴 영상이 촬영되었을 때 버퍼에 임시로 저장된 이전 프레임 영상들에 대하여 눈의 상태를 인식한 후, 가장 눈의 상태가 만족스러운 영상을 이용하여 눈을 보정한 후에 사진을 출력한다. 얼굴 및 눈을 정확하게 인식하기 위해서 SURF 알고리즘과 호모그래피 방법을 적용하여 영상을 보정하는 전처리 과정을 수행한다. 얼굴 영역과 눈 영역을 검출하는 것은 Haar-like feature 알고리즘을 이용하였다. 눈을 뜨고 있는 상태인지 감은 상태인지를 눈의 영역에 대한 템플릿매칭을 이용한 유사도를 판단하여 확인한다. 본 연구에서 개발된 기능을 다양한 형태의 얼굴 환경에서 테스트한 결과 얼굴이 포함된 영상에 대하여 효과적으로 보정이 수행됨을 확인하였다.

딥 러닝 기반의 눈 랜드마크 위치 검출이 통합된 시선 방향 벡터 추정 네트워크 (Deep Learning-based Gaze Direction Vector Estimation Network Integrated with Eye Landmark Localization)

  • 주희영;고민수;송혁
    • 방송공학회논문지
    • /
    • 제26권6호
    • /
    • pp.748-757
    • /
    • 2021
  • 본 논문은 눈 랜드마크 위치 검출과 시선 방향 벡터 추정이 하나의 딥러닝 네트워크로 통합된 시선 추정 네트워크를 제안한다. 제안하는 네트워크는 Stacked Hourglass Network를 백본(Backbone) 구조로 이용하며, 크게 랜드마크 검출기, 특징 맵 추출기, 시선 방향 추정기라는 세 개의 부분(Part)으로 구성되어 있다. 랜드마크 검출기에서는 눈 랜드마크 50개 포인트의 좌표를 추정하며, 특징 맵 추출기에서는 시선 방향 추정을 위한 눈 이미지의 특징 맵을 생성한다. 그리고 시선 방향 추정기에서는 각 출력 결과를 조합하여 최종 시선 방향 벡터를 추정한다. 제안하는 네트워크는 UnityEyes 데이터셋을 통해 생성된 가상의 합성 눈 이미지와 랜드마크 좌표 데이터를 이용하여 학습하였으며, 성능 평가는 실제 사람의 눈 이미지로 구성된 MPIIGaze 데이터셋을 이용하였다. 실험을 통해 시선 추정 오차는 3.9°의 성능을 보였으며, 네트워크의 추정 속도는 42 FPS(Frame per second)로 측정되었다.

머리 움직임이 자유로운 안구 응시 추정 시스템 (Eye Gaze Tracking System Under Natural Head Movements)

  • 김수찬
    • 전자공학회논문지SC
    • /
    • 제41권5호
    • /
    • pp.57-64
    • /
    • 2004
  • 한 대의 카메라와 반사각의 조절이 가능한 2개의 거울, 그리고 별도의 적외선 광원을 이용하여 자유로운 머리 움직임이 가능한 안구 응시점 추정 시스템을 제안하였다. 거울의 회전 각도는 카메라의 광축(opticai axis) 상에 안구가 올 수 있도록 공간 좌표계와 선형 방정식을 이용하여 계산하였다 제안한 시스템은 수평 방향으로 90cm 수직 방향으로 60cm 범위 내에서의 머리 움직임이 가능하였고, 응시점의 공간 해상도 각각 6°, 7°이며, 시간 해상도는 10~15 frames/sec이었다. Generalized regression neural networks(GRNN)을 기반으로 하여 2단계의 GRNN을 거치는 소위 hierarchical generalized regression neural networks(H-GRNN)을 이용하여 얻어진 인자를 모니터 좌표로 변환하였다. GRNN을 한번 사용하였을 경우 정확도가 85%이었으나 H-GRNN을 이용할 경우 약 9% 높은 94%의 정확도를 얻을 수 있었다. 그리고 입력 파라미터의 정규화를 통하여 재보정의 불편함을 제거했을 뿐만 아니라 약간의 얼굴 회전이 발생하였을 경우에도 동일한 성능을 보였다. 본 시스템은 공간 해상도는 크게 높지 않으나 자유로운 머리 움직임을 허용되므로 안정성과 피검자의 활동에 제약을 줄였다는 점에서 의의를 찾을 수 있다.

Framing advocacy event: Comparing news coverage and Facebook comments of the Belt and Road Forum in Pakistan and the USA

  • Xu, Yi
    • Journal of Contemporary Eastern Asia
    • /
    • 제20권1호
    • /
    • pp.1-23
    • /
    • 2021
  • With regard to the recent developments in public diplomacy, the increasing fusion of strategic communication appears necessary. China engages in public diplomacy with a strategic purpose to shape its national image abroad. Hosting diplomatic advocacy event is regarded as an instrument with expectations to present reliable and responsible image and promote international collaborations. The present research focuses on the Belt and Road Forum (BRF) in May 2017 with the objective to analyze its outcomes and influence on the international news agenda, news frames, and foreign citizens' comments online. The quantitative content analyses are used to compare the media reports (N=364) and Facebook users' comments on the selected news (N=957) between the US and Pakistan. Results reveal that Pakistani media provided more diverse frames and attributed more positive evaluations to the BRF than the US media. However, Facebook comments expressed more unfavorable opinions toward the BRF and China's image with rare differences between two countries. In conclusion, the BRF has served as an eye-catching advocacy of Chinese foreign policy, as it influenced the news agenda in two selected countries. However, news frames vary due to the differences in media system and the involvement in the BRF. China's public diplomacy practices follow a traditional top-down communication which needs meticulous subdivision of target stakeholders, delicate messaging strategies, and integrated tactics.

신경망과 Mean-shift를 이용한 눈 추적 (Eye Tracking Using Neural Network and Mean-shift)

  • 강신국;김경태;신윤희;김나연;김은이
    • 전자공학회논문지CI
    • /
    • 제44권1호
    • /
    • pp.56-63
    • /
    • 2007
  • 본 논문은 신경망 (neural network: NN)과 mean-shift알고리즘을 이용하여 복잡한 배경에서 사용자의 눈을 정확히 추출하고 추적할 수 있는 눈 추적 시스템을 제안한다. 머리의 움직임에 강건한 시스템을 개발하기 위해서 먼저 피부색 모델과 연결 성분분석을 이용하여 얼굴영역을 추출한다. 그 다음 신경망기반의 텍스처 분류기를 이용하여 얼굴 영역(face region)을 눈 영역(eye region)과 비눈 영역(non-eye region)으로 구분함으로써 눈을 찾는다. 이러한 눈 검출 방법은 안경의 착용 유무에 상관없이 사용자의 눈 영역을 정확히 검출 할 수 있게 한다. 일단 눈 영역이 찾아지면 이후 프레임에서의 눈 영역은 mean-shift알고리즘에 의해 정확하게 추적된다. 제안된 시스템의 효율성을 검증하기 위해서 제안된 시스템은 눈의 움직임을 이용한 인터페이스 시스템에 적용되었고, 이 인터페이스를 이용한 'aliens game'이 구현되었다. 25명의 사용자에 대해 실험한 결과는 제안된 시스템이 보다 편리하고 친숙한 인터페이스로 활용될 수 있다는 것을 보여주었으며, 또한 $320{\times}240$ 크기의 영상을 초당 30프레임의 빠른 속도로 처리함으로써 실시간 시스템에 적용될 수 있음을 보여주었다.

화상 회의 인터페이스를 위한 눈 위치 검출 (Eye Location Algorithm For Natural Video-Conferencing)

  • 이재준;최정일;이필규
    • 한국정보처리학회논문지
    • /
    • 제4권12호
    • /
    • pp.3211-3218
    • /
    • 1997
  • 기존의 화상 회의 시스템에서는 카메라가 고정되어 있어서 사용자의 움직임에 제약을 주어 사용자를 부자연스럽게 한다. 이러한 부자연스러움을 해갈하기 위해서는 얼굴의 움직임을 추적해야 하는데, 이때 얼굴 전체를 정보로 추적하는 것은 얼굴 전체를 하나의 특징으로 규정짓기도 힘들고 연산 시간이 많이 걸린다는 문제점을 가지고 있다. 따라서, 얼굴의 움직임을 효율적으로 추적하기 위해서는 얼굴상의 몇 개의 특징점을 이용하는 것 이 바람직하다. 본 논문은 화상 회의에서 자연스러운 사용자 인터페이스를 위한 자동 얼굴 추적 시스템의 필수적인 요소인 눈 위치 검출의 효과적인 방법에 대하여 논한다. 눈은 얼굴 내에서 가장 뚜렷하며 단순한 특징을 가지고 있으므로 얼굴을 추적하기 위한 가장 중요한 정보가 된다. 본 논문에서 제안한 알고리즘은 얼굴 후보 영역 추출 단계를 거친 얼굴 후보 영역들에 대해 적용되며, 기존 방법들에 비해 조명에 특별한 제약을 받지 않으며 얼굴 크기와 안경에 대한 제약도 가지고 있지 않다. 또한, 화상 회의 환경에 대한 on-line 실험에서 좋은 결과를 나타냈다.

  • PDF

Detection of Face Direction by Using Inter-Frame Difference

  • Jang, Bongseog;Bae, Sang-Hyun
    • 통합자연과학논문집
    • /
    • 제9권2호
    • /
    • pp.155-160
    • /
    • 2016
  • Applying image processing techniques to education, the face of the learner is photographed, and expression and movement are detected from video, and the system which estimates degree of concentration of the learner is developed. For one learner, the measuring system is designed in terms of estimating a degree of concentration from direction of line of learner's sight and condition of the eye. In case of multiple learners, it must need to measure each concentration level of all learners in the classroom. But it is inefficient because one camera per each learner is required. In this paper, position in the face region is estimated from video which photographs the learner in the class by the difference between frames within the motion direction. And the system which detects the face direction by the face part detection by template matching is proposed. From the result of the difference between frames in the first image of the video, frontal face detection by Viola-Jones method is performed. Also the direction of the motion which arose in the face region is estimated with the migration length and the face region is tracked. Then the face parts are detected to tracking. Finally, the direction of the face is estimated from the result of face tracking and face parts detection.