• 제목/요약/키워드: AI camera

검색결과 79건 처리시간 0.025초

셀피의 의미연결망 분석과 AR 카메라 앱 사용이 외모만족도와 자아존중감에 미치는 영향 (Effects of selfie semantic network analysis and AR camera app use on appearance satisfaction and self-esteem)

  • 이현정
    • 복식문화연구
    • /
    • 제30권5호
    • /
    • pp.766-778
    • /
    • 2022
  • Image-oriented information is becoming increasingly important on social networking services (SNS); the background of this trend is the popularity of selfies. Currently, camera applications using augmented reality (AR) and artificial intelligence (AI) technologies are gaining traction. An AR camera app is a smartphone application that converts selfies into various interesting forms using filters. In this study, we investigated the change of keywords according to the time flow of selfies in Goolgle News articles through semantic network analysis. Additionally, we examined the effects of using an AR camera app on appearance satisfaction and self-esteem when taking a selfie. Semantic network analysis revealed that in 2013, postings of specific people were the most prominent selfie-related keywords. In 2019, keywords appeared regarding the launch of a new smartphone with a rear-facing camera for selfies; in 2020, keywords related to communication through selfies appeared. As a result of examining the effect of the degree of use of the AR camera app on appearance satisfaction, it was found that the higher the degree of use, the higher the user's interest in appearance. As a result of examining the effect of the degree of use of the AR camera app on self-esteem, it was found that the higher the degree of use, the higher the user's negative self-esteem.

Development of living body information and behavior monitoring system for nursing person

  • Ichiki, Ai;Sakamoto, Hidetoshi;Ohbuchi, Yoshifumi
    • 공학교육연구
    • /
    • 제17권4호
    • /
    • pp.15-20
    • /
    • 2014
  • The non-contact easy detecting system of nursing person's body vital information and their behaviors monitoring system are developed, which consist of "Kinect" sensor and thermography camera. The "Kinect" sensor can catch the body contour and the body moving behavior, and output their imaging data realtime. The thermography camera can detect respiration state and body temperature, etc. In this study, the practicability of this system was verified.

Parking Lot Occupancy Detection using Deep Learning and Fisheye Camera for AIoT System

  • To Xuan Dung;Seongwon Cho
    • 스마트미디어저널
    • /
    • 제13권1호
    • /
    • pp.24-35
    • /
    • 2024
  • The combination of Artificial Intelligence and the Internet of Things (AIoT) has gained significant popularity. Deep neural networks (DNNs) have demonstrated remarkable success in various applications. However, deploying complex AI models on embedded boards can pose challenges due to computational limitations and model complexity. This paper presents an AIoT-based system for smart parking lots using edge devices. Our approach involves developing a detection model and a decision tree for occupancy status classification. Specifically, we utilize YOLOv5 for car license plate (LP) detection by verifying the position of the license plate within the parking space.

A Vehicle Recognition Method based on Radar and Camera Fusion in an Autonomous Driving Environment

  • Park, Mun-Yong;Lee, Suk-Ki;Shin, Dong-Jin
    • International journal of advanced smart convergence
    • /
    • 제10권4호
    • /
    • pp.263-272
    • /
    • 2021
  • At a time when securing driving safety is the most important in the development and commercialization of autonomous vehicles, AI and big data-based algorithms are being studied to enhance and optimize the recognition and detection performance of various static and dynamic vehicles. However, there are many research cases to recognize it as the same vehicle by utilizing the unique advantages of radar and cameras, but they do not use deep learning image processing technology or detect only short distances as the same target due to radar performance problems. Radars can recognize vehicles without errors in situations such as night and fog, but it is not accurate even if the type of object is determined through RCS values, so accurate classification of the object through images such as cameras is required. Therefore, we propose a fusion-based vehicle recognition method that configures data sets that can be collected by radar device and camera device, calculates errors in the data sets, and recognizes them as the same target.

인공지능 공간상의 다중객체 구분을 위한 컬러 패턴 인식과 추적 (Color Pattern Recognition and Tracking for Multi-Object Tracking in Artificial Intelligence Space)

  • 진태석
    • 한국산업융합학회 논문집
    • /
    • 제27권2_2호
    • /
    • pp.319-324
    • /
    • 2024
  • In this paper, the Artificial Intelligence Space(AI-Space) for human-robot interface is presented, which can enable human-computer interfacing, networked camera conferencing, industrial monitoring, service and training applications. We present a method for representing, tracking, and objects(human, robot, chair) following by fusing distributed multiple vision systems in AI-Space. The article presents the integration of color distributions into particle filtering. Particle filters provide a robust tracking framework under ambiguous conditions. We propose to track the moving objects(human, robot, chair) by generating hypotheses not in the image plane but on the top-view reconstruction of the scene.

TDMA 기반 무선 IP 영상 전송 시스템의 모듈간 연동 평가 (Inter-Module Interworking Evaluation of TDMA-Based Wireless IP Video Transmission System)

  • 윤상옥;김명수;석경휴
    • 한국전자통신학회논문지
    • /
    • 제18권1호
    • /
    • pp.1-10
    • /
    • 2023
  • 본 논문에서는 기존 유선기반 CCTV 감시시스템과 IP 카메라 시스템에 국산 무선통신기술을 활용한 고화질 영상의 원거리 무선 전송 기술에 대해 설계 및 구현에 대해 성능 평가을 하였다. 무선 다중 IP 카메라 전송 단말장치및 무선통신 RF 모듈간 연동시험과 무선 다중 IP 카메라 기반 영상전송시스템 통합 연동시험으로 영상 전송 시 모듈 연동 적합성을 확인한다.

파이썬과 로봇을 활용한 인공지능(AI) 교육 프로그램 개발 (Development of Artificial Intelligence Instructional Program using Python and Robots)

  • 유인환;전재천
    • 한국정보교육학회:학술대회논문집
    • /
    • 한국정보교육학회 2021년도 학술논문집
    • /
    • pp.369-376
    • /
    • 2021
  • 인공지능(AI) 기술의 발전에 따라 많은 분야에서 인공지능 활용 방안에 대한 논의가 활발하게 일어나고 있으며 교육 분야에서도 인공지능 인재 양성을 위한 각종 정책이 추진되고 있다. 본 연구에서는 인공지능 기술을 활용한 로봇 프로그래밍 프레임워크를 제안하고 이를 기반으로 머신러닝(Machine Learning) 분야에서 높은 빈도로 활용되는 파이썬(Python)과 교육 현장의 활용도가 높은 교육용 로봇을 활용하여 인공지능(AI) 교육 프로그램을 제안하였다. 국제자동차공학회(SAE)에서 제시하는 자율주행자동차 수준(0~5단계)을 4단계로 단순화하고 이를 기반으로 로봇에 부착된 카메라가 선(객체)을 인지(Perception)하고 검출(Object detection)하여 스스로 움직일 수 있는 라인 디텍터(Line Detector)를 만드는 것을 목표로 하였다. 개발된 프로그램은 단순히 특정 프로그래밍 언어를 활용하여 주어진 문제를 해결하는 정형화된 형태가 아니라 생활 속의 복잡하고 비구조화된 문제를 자기주도적으로 정의하고 인공지능(AI) 기술을 기반으로 해결하는 경험을 가지는데 그 의의가 있다.

  • PDF

교과서와 AI 웹앱을 활용한 효과적인 교육방식 (Effective teaching using textbooks and AI web apps)

  • Sobirjon, Habibullaev;Yakhyo, Mamasoliev;Kim, Ki-Hawn
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2022년도 제65차 동계학술대회논문집 30권1호
    • /
    • pp.211-213
    • /
    • 2022
  • Images in the textbooks influence the learning process. Students often see pictures before reading the text and these pictures can enhance the power of imagination of the students. The findings of some researches show that the images in textbooks can increase students' creativity. However, when learning major subjects, reading a textbook or looking at a picture alone may not be enough to understand the topics and completely realize the concepts. Studies show that viewers remember 95% of a message when watching a video than reading a text. If we can combine textbooks and videos, this teaching method is fantastic. The "TEXT + IMAGE + VIDEO (Animation)" concept could be more beneficial than ordinary ones. We tried to give our solution by using machine learning Image Classification. This paper covers the features, approaches and detailed objectives of our project. For now, we have developed the prototype of this project as a web app and it only works when accessed via smartphone. Once you have accessed the web app through your smartphone, the web app asks for access to use the camera. Suppose you bring your smartphone's camera closer to the picture in the textbook. It will then display the video related to the photo below.

  • PDF

양파 마늘의 잎 엽록소 함량 추정을 위한 SVM 회귀 활용 RGB 영상 적용성 평가 (Evaluation of Applicability of RGB Image Using Support Vector Machine Regression for Estimation of Leaf Chlorophyll Content of Onion and Garlic)

  • 이동호;정찬희;고승환;박종화
    • 대한원격탐사학회지
    • /
    • 제37권6_1호
    • /
    • pp.1669-1683
    • /
    • 2021
  • AI지능화 농업과 디지털 농업은 농업분야 과학화를 위해서 중요하다. 잎 엽록소 함량은 작물의 생육상태를 파악하는데 매우 중요한 지표 중 하나이다. 본 연구는 양파와 마늘을 대상으로 드론 기반 RGB 카메라와 다중분광(MSP)센서를 활용하여 SVM 회귀 모델을 제작하고, MSP 센서와 비교를 실시하여 RGB 카메라의 LCC 추정 적용성을 검토하고자 하였다. 연구 결과 RGB 기반 LCC 모형은 MSP 기반 LCC 모형보다 평균 R2에서 0.09, RMSE 18.66, nRMSE 3.46%로 더 낮은 결과를 보였다. 그러나 두 센서 정확도 차이는 크지 않았으며, 다양한 센서와 알고리즘을 활용한 선행연구들과 비교했을 때도 정확도는 크게 떨어지지 않았다. 또한 RGB 기반 LCC 모형은 실제 측정값과 비교하였을 때 현장 LCC 경향을 잘 반영하지만 높은 엽록소 농도에서 과소 추정되는 경향을 보였다. 본 연구로 도출된 결과는 RGB 카메라의 경제성, 범용성을 고려하였을 때 LCC 추정에 적용할 경우 가능성을 확인할 수 있었다. 본 연구에서 얻어진 결과는 인공지능 및 빅데이터 융합 기술을 적용한 AI지능화농업 기술로써 디지털 농업 등에 유용하게 활용될 수 있을 것으로 기대된다.

Unity 3D 기반 깊이 영상을 활용한 공장 안전 제어 시스템에 대한 연구 (A Study on the System for Controlling Factory Safety based on Unity 3D)

  • 조성현;정인호;고동범;박정민
    • 한국게임학회 논문지
    • /
    • 제20권3호
    • /
    • pp.85-94
    • /
    • 2020
  • 작업자-로봇 간 협업은 다품종 소량생산 기반의 스마트팩토리에서 중요한 요소가 된다. 기존 제조 공장을 스마트화하기 위해 AI 기반의 기술이 도입되고 있지만 이 경우 단기적 생산성 향상에 그친다. 이를 해결하기 위한 협업 지성은 인간의 팀워크, 창의력 등과 AI의 속도, 정확성 등이 결합되어 서로의 단점을 적극적으로 보완 할 수 있다. 그러나 현재 자동화설비는 돌발사태 발생 시 재해강도가 높기 때문에 안전대책이 요구된다. 따라서 본 논문에서는 깊이 영상 카메라를 이용하여 작업자 및 설비를 가상 세계에 구현하고, 시뮬레이션을 통해 작업자의 안전을 판별하는 공장 안전 제어 시스템을 설계하고 구현한다.