• 제목/요약/키워드: vision-based techniques

검색결과 293건 처리시간 0.024초

FRS-OCC: Face Recognition System for Surveillance Based on Occlusion Invariant Technique

  • Abbas, Qaisar
    • International Journal of Computer Science & Network Security
    • /
    • 제21권8호
    • /
    • pp.288-296
    • /
    • 2021
  • Automated face recognition in a runtime environment is gaining more and more important in the fields of surveillance and urban security. This is a difficult task keeping in mind the constantly volatile image landscape with varying features and attributes. For a system to be beneficial in industrial settings, it is pertinent that its efficiency isn't compromised when running on roads, intersections, and busy streets. However, recognition in such uncontrolled circumstances is a major problem in real-life applications. In this paper, the main problem of face recognition in which full face is not visible (Occlusion). This is a common occurrence as any person can change his features by wearing a scarf, sunglass or by merely growing a mustache or beard. Such types of discrepancies in facial appearance are frequently stumbled upon in an uncontrolled circumstance and possibly will be a reason to the security systems which are based upon face recognition. These types of variations are very common in a real-life environment. It has been analyzed that it has been studied less in literature but now researchers have a major focus on this type of variation. Existing state-of-the-art techniques suffer from several limitations. Most significant amongst them are low level of usability and poor response time in case of any calamity. In this paper, an improved face recognition system is developed to solve the problem of occlusion known as FRS-OCC. To build the FRS-OCC system, the color and texture features are used and then an incremental learning algorithm (Learn++) to select more informative features. Afterward, the trained stack-based autoencoder (SAE) deep learning algorithm is used to recognize a human face. Overall, the FRS-OCC system is used to introduce such algorithms which enhance the response time to guarantee a benchmark quality of service in any situation. To test and evaluate the performance of the proposed FRS-OCC system, the AR face dataset is utilized. On average, the FRS-OCC system is outperformed and achieved SE of 98.82%, SP of 98.49%, AC of 98.76% and AUC of 0.9995 compared to other state-of-the-art methods. The obtained results indicate that the FRS-OCC system can be used in any surveillance application.

비전 및 HD Map 기반 차로 내 차량 정밀측위 기법 (Vehicle Localization Method for Lateral Position within Lane Based on Vision and HD Map)

  • 우리나라;서대화
    • 한국ITS학회 논문지
    • /
    • 제20권5호
    • /
    • pp.186-201
    • /
    • 2021
  • 자율 주행 기술이 발전함에 따라 주행 주변 환경을 인식하는 데 차량 위치의 정확성은 매우 중요하다. 측위의 정확도를 높이기 위해 정밀지도를 사용한 지도 정합 측위기술(map-matching localization)이 연구되고 있다. 기존의 지도 정합 기법은 지도에서 차선의 중심으로 표현된 데이터를 기반으로 차량 위치를 추정하기에 차선 내 측면 거리의 편차를 반영하지 않는다. 따라서 본 논문에서는 정밀한 측위를 제공하기 위해 영상처리를 통한 차선 검출 기법과 정밀지도의 차선 위치 정보를 이용한 기법을 제안한다. 영상 처리 기법으로 IPM(inverse perspective mapping)과 다중 차선 검출 기법, 중앙선 검출 기법을 통하여 차선 번호를 검출하고 차선 이탈 감지 방법으로 차선 중심으로부터 차량의 측면 거리를 추정한다. 최종적으로 영상처리로 검출한 차선 번호와 GNSS / INS의 위치를 기반으로 정밀지도에서 위치 링크정보를 추출하고 추출된 링크에 측면 거리를 반영하여 차선 내 차량의 위치를 추정한다. 제안된 방법의 성능을 평가하기 위하여 실제 도로에서 실험하였다. 제안하는 방법은 GNSS / INS와 비교 시 약 1.0m 정도 정확도가 개선되며, 기존의 차선레벨 맵매칭 방법과 비교 시 구간별로 약 0.04m ~ 0.21m(7~30%) 정확도가 개선됨을 확인하였다.

Investigating Smart TV Gesture Interaction Based on Gesture Types and Styles

  • Ahn, Junyoung;Kim, Kyungdoh
    • 대한인간공학회지
    • /
    • 제36권2호
    • /
    • pp.109-121
    • /
    • 2017
  • Objective: This study aims to find suitable types and styles for gesture interaction as remote control on smart TVs. Background: Smart TV is being developed rapidly in the world, and gesture interaction has a wide range of research areas, especially based on vision techniques. However, most studies are focused on the gesture recognition technology. Also, not many previous studies of gestures types and styles on smart TVs were carried out. Therefore, it is necessary to check what users prefer in terms of gesture types and styles for each operation command. Method: We conducted an experiment to extract the target user manipulation commands required for smart TVs and select the corresponding gestures. To do this, we looked at gesture styles people use for every operation command, and checked whether there are any gesture styles they prefer over others. Through these results, this study was carried out with a process selecting smart TV operation commands and gestures. Results: Eighteen TV commands have been used in this study. With agreement level as a basis, we compared the six types of gestures and five styles of gestures for each command. As for gesture type, participants generally preferred a gesture of Path-Moving type. In the case of Pan and Scroll commands, the highest agreement level (1.00) of 18 commands was shown. As for gesture styles, the participants preferred a manipulative style in 11 commands (Next, Previous, Volume up, Volume down, Play, Stop, Zoom in, Zoom out, Pan, Rotate, Scroll). Conclusion: By conducting an analysis on user-preferred gestures, nine gesture commands are proposed for gesture control on smart TVs. Most participants preferred Path-Moving type and Manipulative style gestures based on the actual operations. Application: The results can be applied to a more advanced form of the gestures in the 3D environment, such as a study on VR. The method used in this study will be utilized in various domains.

Analysis of the Increase of Matching Points for Accuracy Improvement in 3D Reconstruction Using Stereo CCTV Image Data

  • Moon, Kwang-il;Pyeon, MuWook;Eo, YangDam;Kim, JongHwa;Moon, Sujung
    • 한국측량학회지
    • /
    • 제35권2호
    • /
    • pp.75-80
    • /
    • 2017
  • Recently, there has been growing interest in spatial data that combines information and communication technology with smart cities. The high-precision LiDAR (Light Dectection and Ranging) equipment is mainly used to collect three-dimensional spatial data, and the acquired data is also used to model geographic features and to manage plant construction and cultural heritages which require precision. The LiDAR equipment can collect precise data, but also has limitations because they are expensive and take long time to collect data. On the other hand, in the field of computer vision, research is being conducted on the methods of acquiring image data and performing 3D reconstruction based on image data without expensive equipment. Thus, precise 3D spatial data can be constructed efficiently by collecting and processing image data using CCTVs which are installed as infrastructure facilities in smart cities. However, this method can have an accuracy problem compared to the existing equipment. In this study, experiments were conducted and the results were analyzed to increase the number of extracted matching points by applying the feature-based method and the area-based method in order to improve the precision of 3D spatial data built with image data acquired from stereo CCTVs. For techniques to extract matching points, SIFT algorithm and PATCH algorithm were used. If precise 3D reconstruction is possible using the image data from stereo CCTVs, it will be possible to collect 3D spatial data with low-cost equipment and to collect and build data in real time because image data can be easily acquired through the Web from smart-phones and drones.

Bridge Inspection and condition assessment using Unmanned Aerial Vehicles (UAVs): Major challenges and solutions from a practical perspective

  • Jung, Hyung-Jo;Lee, Jin-Hwan;Yoon, Sungsik;Kim, In-Ho
    • Smart Structures and Systems
    • /
    • 제24권5호
    • /
    • pp.669-681
    • /
    • 2019
  • Bridge collapses may deliver a huge impact on our society in a very negative way. Out of many reasons why bridges collapse, poor maintenance is becoming a main contributing factor to many recent collapses. Furthermore, the aging of bridges is able to make the situation much worse. In order to prevent this unwanted event, it is indispensable to conduct continuous bridge monitoring and timely maintenance. Visual inspection is the most widely used method, but it is heavily dependent on the experience of the inspectors. It is also time-consuming, labor-intensive, costly, disruptive, and even unsafe for the inspectors. In order to address its limitations, in recent years increasing interests have been paid to the use of unmanned aerial vehicles (UAVs), which is expected to make the inspection process safer, faster and more cost-effective. In addition, it can cover the area where it is too hard to reach by inspectors. However, this strategy is still in a primitive stage because there are many things to be addressed for real implementation. In this paper, a typical procedure of bridge inspection using UAVs consisting of three phases (i.e., pre-inspection, inspection, and post-inspection phases) and the detailed tasks by phase are described. Also, three major challenges, which are related to a UAV's flight, image data acquisition, and damage identification, respectively, are identified from a practical perspective (e.g., localization of a UAV under the bridge, high-quality image capture, etc.) and their possible solutions are discussed by examining recently developed or currently developing techniques such as the graph-based localization algorithm, and the image quality assessment and enhancement strategy. In particular, deep learning based algorithms such as R-CNN and Mask R-CNN for classifying, localizing and quantifying several damage types (e.g., cracks, corrosion, spalling, efflorescence, etc.) in an automatic manner are discussed. This strategy is based on a huge amount of image data obtained from unmanned inspection equipment consisting of the UAV and imaging devices (vision and IR cameras).

YOLOv8 알고리즘 기반의 주행 가능한 도로 영역 인식과 실시간 추적 기법에 관한 연구 (Research on Drivable Road Area Recognition and Real-Time Tracking Techniques Based on YOLOv8 Algorithm)

  • 서정희
    • 한국전자통신학회논문지
    • /
    • 제19권3호
    • /
    • pp.563-570
    • /
    • 2024
  • 본 논문은 운전자의 운행 보조 역할로 주행 가능한 차선 영역을 인식하고 추적하는 방법을 제안한다. 주요 주제는 차량 내부의 앞 유리 중앙에 설치된 카메라를 통해 실시간으로 획득한 영상을 기반으로 컴퓨터 비전과 딥 러닝 기술을 활용하여 주행 가능한 도로 영역을 예측하는 심층 기반 네트워크를 설계한다. 본 연구는 YOLOv8 알고리즘을 이용하여 카메라에서 직접 획득한 데이터로 훈련한 새로운 모델을 개발하는 것을 목표한다. 실제 도로에서 자신의 차량의 정확한 위치를 실제 영상과 일치하게 시각화하여 주행 가능한 차선 영역을 표시 및 추적함으로써 운전자 운행의 보조하는 역할을 기대한다. 실험 결과, 대부분 주행 가능한 도로 영역의 추적이 가능했으나 밤에 비가 심하게 오는 경우와 같은 악천후에서 차선이 정확하게 인식되지 않는 경우가 발생하여 이를 해결하기 위한 모델의 성능 개선이 필요하다.

어안렌즈를 이용한 비전 기반의 이동 로봇 위치 추정 및 매핑 (Vision-based Mobile Robot Localization and Mapping using fisheye Lens)

  • 이종실;민홍기;홍승홍
    • 융합신호처리학회논문지
    • /
    • 제5권4호
    • /
    • pp.256-262
    • /
    • 2004
  • 로봇이 자율주행을 하는데 있어 중요한 요소는 로봇 스스로 위치를 추정하고 동시에 주위 환경에 대한 지도를 작성하는 것이다. 본 논문에서는 어안렌즈를 이용한 비전 기반 위치 추정 및 매핑 알고리즘을 제안한다. 로봇에 어안렌즈가 부착된 카메라를 천정을 바라볼 수 있도록 부착하여 스케일 불변 특징을 갖는 고급의 영상 특징을 구하고, 이 특징들을 맵 빌딩과 위치 추정에 이용하였다. 전처리 과정으로 어안렌즈를 통해 입력된 영상을 카메라 보정을 행하여 축방향 왜곡을 제거하고 레이블링과 컨벡스헐을 이용하여 보정된 영상에서 천정영역과 벽영역으로 분할한다. 최초 맵 빌딩시에는 분할된 영역에 대해 특징점을 구하고 맵 데이터베이스에 저장한다. 맵 빌딩이 종료될 때까지 연속하여 입력되는 영상에 대해 특징점들을 구하고 맵과 매칭되는 점들을 찾고 매칭되지 않은 점들에 대해서는 기존의 맵에 추가하는 과정을 반복한다. 위치 추정은 맵 빌딩 과정과 맵 상에서 로봇의 위치를 찾는데 이용된다. 로봇의 위치에서 구해진 특징점들은 로봇의 실제 위치를 추정하기 위해 기존의 맵과 매칭을 행하고 동시에 기존의 맵 데이터베이스는 갱신된다. 제안한 방법을 적용하면 50㎡의 영역에 대한 맵 빌딩 소요 시간은 2분 이내, 위치 추정시 위치 정확도는 ±13cm, 로봇의 자세에 대한 각도 오차는 ±3도이다.

  • PDF

A computer vision-based approach for behavior recognition of gestating sows fed different fiber levels during high ambient temperature

  • Kasani, Payam Hosseinzadeh;Oh, Seung Min;Choi, Yo Han;Ha, Sang Hun;Jun, Hyungmin;Park, Kyu hyun;Ko, Han Seo;Kim, Jo Eun;Choi, Jung Woo;Cho, Eun Seok;Kim, Jin Soo
    • Journal of Animal Science and Technology
    • /
    • 제63권2호
    • /
    • pp.367-379
    • /
    • 2021
  • The objectives of this study were to evaluate convolutional neural network models and computer vision techniques for the classification of swine posture with high accuracy and to use the derived result in the investigation of the effect of dietary fiber level on the behavioral characteristics of the pregnant sow under low and high ambient temperatures during the last stage of gestation. A total of 27 crossbred sows (Yorkshire × Landrace; average body weight, 192.2 ± 4.8 kg) were assigned to three treatments in a randomized complete block design during the last stage of gestation (days 90 to 114). The sows in group 1 were fed a 3% fiber diet under neutral ambient temperature; the sows in group 2 were fed a diet with 3% fiber under high ambient temperature (HT); the sows in group 3 were fed a 6% fiber diet under HT. Eight popular deep learning-based feature extraction frameworks (DenseNet121, DenseNet201, InceptionResNetV2, InceptionV3, MobileNet, VGG16, VGG19, and Xception) used for automatic swine posture classification were selected and compared using the swine posture image dataset that was constructed under real swine farm conditions. The neural network models showed excellent performance on previously unseen data (ability to generalize). The DenseNet121 feature extractor achieved the best performance with 99.83% accuracy, and both DenseNet201 and MobileNet showed an accuracy of 99.77% for the classification of the image dataset. The behavior of sows classified by the DenseNet121 feature extractor showed that the HT in our study reduced (p < 0.05) the standing behavior of sows and also has a tendency to increase (p = 0.082) lying behavior. High dietary fiber treatment tended to increase (p = 0.064) lying and decrease (p < 0.05) the standing behavior of sows, but there was no change in sitting under HT conditions.

OpenSource를 이용한 FIDO 인증 시스템에 관한 연구 (A study on the FIDO authentication system using OpenSource)

  • 이현조;조한진;김용기;채철주
    • 한국융합학회논문지
    • /
    • 제11권5호
    • /
    • pp.19-25
    • /
    • 2020
  • 모바일 기기 사용자가 증가함에 따라서 민감한 개인정보를 보호하기 위해 다양한 사용자 인증 방식에 대한 연구가 활발하게 진행되고 있다. 지식기반 기법들은 인증 수단 노출이 쉬워 보안성이 저하되는 단점이 존재하며, 소유기반 기법들은 서비스를 사용하기 위한 구축비용 증가 및 사용자 편리성이 낮은 문제점이 존재한다. 이러한 문제를 해결하기 위해 본인의 스마트 기기를 활용하는 사용자 인증 기법인 FIDO 인증 시스템이 제안되었다. FIDO 인증 시스템은 사용자의 생체 정보기반 인증을 수행하기 때문에 인증 수단이 유출되는 위험이 낮으며, 아울러 사용자의 스마트 기기에 인증 정보를 저장하기 때문에, 서버 해킹에 의한 사용자 정보가 노출되는 문제점을 해결한다. 이를 통해 서비스의 보안 수준에 맞는 사용자 인증기술을 선정하고 활용할 수 있다. 논문에서는 FIDO 인증 시스템에 대해 소개하고, FIDO UAF 클라이언트-서버 개발에 필요한 주요 부분을 설명하고 실제 ebay에서 제공하는 UAF 오픈소스를 활용한 구현 예제를 보여준다.

데이터 증강 및 앙상블 기법을 이용한 딥러닝 기반 GPR 공동 탐지 모델 성능 향상 연구 (Improving the Performance of Deep-Learning-Based Ground-Penetrating Radar Cavity Detection Model using Data Augmentation and Ensemble Techniques)

  • 최용욱;서상진;장한길로;윤대웅
    • 지구물리와물리탐사
    • /
    • 제26권4호
    • /
    • pp.211-228
    • /
    • 2023
  • 방조제의 모니터링에는 지구물리학적 비파괴 검사인 GPR (Ground Penetrating Radar) 탐사가 주로 이용된다. GPR 반응은 상황에 따라 복잡한 양상을 보이므로 자료의 처리와 해석은 전문가의 주관적 판단에 의존하며, 이는 오 탐지의 가능성을 불러옴과 동시에 시간이 오래 걸린다는 단점이 있다. 따라서 딥 러닝을 이용하여 GPR 탐사자료의 공동을 탐지하는 다양한 연구들이 수행되고 있다. 딥 러닝 기반 방법은 데이터 기반 방법으로써 풍부한 자료가 필요하나 GPR 탐사의 경우 비용 등의 이유로 학습에 이용할 현장 자료가 부족하다. 따라서 본 논문에서는 데이터 증강 전략을 이용하여 딥 러닝 기반 방조제 GPR 탐사자료 공동 탐지 모델을 개발하였다. 다년간 동일한 방조제에서 탐사 자료를 사용하여 데이터 세트를 구축하였으며, 컴퓨터 비전 분야의 객체 탐지 모델 중 YOLO (You Look Only Once) 모델을 이용하였다. 데이터 증강 전략을 비교 및 분석함으로써 최적의 데이터 증강 전략을 도출하였고, 초기 모델 개발 후 앵커 박스 클러스터링, 전이 학습, 자체 앙상블, 모델 앙상블 기법을 단계적으로 적용하여 최종 모델 도출 후 성능을 평가하였다.