• 제목/요약/키워드: voice image

검색결과 297건 처리시간 0.027초

겸손리더십이 구성원의 발언행동과 혁신행동에 미치는 영향: 감성활용의 매개효과를 중심으로 (The Effect of Humble Leadership on Voice Behavior and Innovative Behavior: Focused on the Mediating Effect of Emotional Regulation)

  • 김종관
    • 산업융합연구
    • /
    • 제20권3호
    • /
    • pp.1-10
    • /
    • 2022
  • 경영진 일부의 오만함, 권력의식 등으로 인해 기업 이미지에 큰 타격을 받고 있다는 연구 결과(Boje et al. 2004)가 제시되고, ESG 경영에 관심이 고조됨으로써 최근 리더의 겸손이 부각되고 있다. 그리고 MZ세대의 등장으로 조직을 이끄는 리더의 겸손은 더욱 더 중요시된다(Morris et al. 2005; Vera, Rodriguez-Lopez, 2004; Owens et al. 2013). 본 논문은 겸손리더십과 발언행동, 혁신행동의 관계에서 감성활용의 매개효과를 실증 분석하고자 하였다. 이를 위해 부산·경남·경북지역의 기업 종업원을 대상으로 2021년 11월~12월 설문조사하여 총 145명의 설문결과를 통해 실증분석하였다. 그 결과 겸손리더십은 발언행동, 혁신행동에 정(+)의 영향을 미치고, 겸손리더십이 발언행동 및 혁신행동의 관계에서 감성활용의 매개효과도 유의미한 결과가 검증되었다. 이를 통해 본 연구는 리더의 핵심역량인 겸손리더십과 감성활용의 관계를 새롭게 조명하고 인과관계를 밝히는 등 연구 범위를 확대하였다. 추후 연구에서는 겸손리더십과 다양한 변수와의 관계를 모색하고 다양한 연구방법으로 그 관계를 규명해보고자 한다.

실시간으로 영상 정보을 이용한 3D 가상공간 문서의 디스플레이 구현 (Implementation of 3D Virtual Space Documents using Image Information in Real Time)

  • 정하영;김태우;최종환
    • 한국정보전자통신기술학회논문지
    • /
    • 제11권1호
    • /
    • pp.40-44
    • /
    • 2018
  • IoT 기반 정보화 사회가 급속하게 발전함에 따라 우리가 일상생활에서 접하는 여러 IT사무 가전과 함께 사무용 소프트웨어가 출시되어 보다 편리한 서비스를 제공하게 되었다. 이는 기록용 문서 작성 외에도 효과적인 기록 발표와 정보 전달을 위한 문서 작성이 매우 중요시 되고 있기 때문이다. 본 논문에서는 실시간으로 효과적인 정보전달을 위한 2D기반 3D 가상공간용 설계를 제시한다. 설계의 일부를 구현한 프로그램은 가상의 3D 공간에서 문서를 편리하게 탐색하거나 보여주면서 음성정보와 시각정보를 동시에 효과적으로 전달할 수 있게 하였다. 제시된 프로그램과 구현을 통하여 문서들을 3D 가상공간에 자동으로 배치하는 방법과, 이를 효과적으로 탐색하는 가상의 카메라 움직임에 대한 설계를 제시하고, 각 문서별로 음성정보를 연결하는 방법을 제시한다.

프라이빗 건물의 딥러닝을 활용한 언택트 기반 엘리베이터 운영시스템 설계 (Untact-based elevator operating system design using deep learning of private buildings)

  • 이민혜;강선경;신성윤;문형진
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2021년도 춘계학술대회
    • /
    • pp.161-163
    • /
    • 2021
  • 아파트나 프라이빗 건물에서 사용자가 양손에 짐을 들고 있거나 비슷한 상황에서 엘리베이터의 버튼을 조작하기는 어렵다. 코로나 19과 같은 전염성 높은 바이러스로 인해 사람 간의 접촉이 최소화되어야 하는 환경에서의 부득이하게 언택트 기반으로 엘리베이터 조작이 필요하다. 본 논문은 엘리베이터 버튼을 누르지 않고도 사용자의 얼굴을 통한 영상처리 및 사용자의 음성을 이용하여 엘리베이터의 조작이 가능한 운영 시스템을 제안한다. 엘리베이터 안에 설치된 카메라로부터 출입자의 얼굴을 감지하고, 사전에 등록된 정보와 매칭하여 버튼을 누르지 않아도 지정된 층으로 엘리베이터가 운영이 가능하다. 출입자의 얼굴 인식이 어려운 경우에는 2차적으로 마이크를 통해 사용자의 음성을 이용하여 엘리베이터의 층을 제어하고 출입 정보를 자동으로 기록하여 언택트 환경에서의 엘리베이터 사용의 편의성을 높이고자 한다.

  • PDF

OFDMA 셀룰러 망에서 동적 주파수 할당 방법 (Dynamic Frequency Allocation in OFDMA Cellular Networks)

  • 이종찬;이기성
    • 한국산학기술학회논문지
    • /
    • 제14권6호
    • /
    • pp.2992-2998
    • /
    • 2013
  • 차세대 이동통신 시스템은 음성 트래픽뿐만 아니라 데이터, 화상, 비디오와 같은 멀티미 디어 트래픽을 지원하여야 하므로 더 많은 무선 자원을 요구한다. 본 논문에서는 OFDMA 시스템에서 모바일 멀티미디어 서비스를 위한 사용자 및 부채널 우선순위 기반 자원할당 방안을 제안한다. 제시된 방안들을 통하여 실시간 클래스의 연속성을 보장하고 비실시간 가입자를 최대로 수용할 수 있다. 시뮬레이션은 총 데이터 처리량과 블럭킹률에 집중한다. 시뮬레이션 결과는 기존의 방법에 비하여 우수함을 보였다.

이동 멀티미디어 서비스를 위한 자원 예약 및 할당 방안 (Resource Reservation and Allocation Method for Mobile Multimedia Service)

  • 이종찬;이문호
    • 한국통신학회논문지
    • /
    • 제29권7A호
    • /
    • pp.766-774
    • /
    • 2004
  • 차세대 이동통신 시스템(B3G)은 음성 트래픽 뿐만 아니라 데이터, 화상, 비디오와 같은 멀티미디어 트래픽을 지원하므로 더 많은 무선 자원을 요구한다. 특히 멀티미디어 트래픽의 전송 중에 핸드오버가 발생하면 멀티미디어 트래픽의 QoS가 지연 및 손실에 의하여 영향 받기 때문에, 정지 상태에서의 경우와 대등한 QoS를 유지하기 위해서는 효율적인 자원 예약 및 할당 방안이 필요하다. 본 논문에서는 이동 멀티미디어 망에서 이동 단말기의 이동방향 추정에 근거하여 자원을 예약하곡 이를 근거로 멀티미디어 트래픽을 전송하는 핸드오버 기법을 제안한다 이 기법은 섹터 추정과 존 추정으로 구성된 2 단계 추정에 근거하여 이동 단말기의 위치와 이동 방향을 결정하고 이를 이용하여 자원을 예약한다. 제안된 방법의 성능을 시뮬레이션에 의해 분석한다.

IPv6 멀티캐스트 기반의 쌍방향 원격 강의 시스템 (Interactive Remote Lecture System Based on IPv6 Multicast Services)

  • 강성호;추영열
    • 한국콘텐츠학회논문지
    • /
    • 제6권11호
    • /
    • pp.295-301
    • /
    • 2006
  • IPv6 멀티캐스트 주소 내의 Scope ID 필드는 멀티캐스트 트래픽의 목적지의 영역을 나타낸다. 이 Scope ID를 통해 추가적으로 헤더를 검사하지 않고도 라우터는 트래픽이 전달되는 부속 망을 결정할 수 있다. IPv4 망에서 IPv6 망으로의 유연한 전환을 위해서는 두 망이 공존하는 상태에서의 다양한 IPv6 응용의 개발이 필수 불가결하다. 본 논문에서는 음성, 영상, 강의 자료 데이터를 통합 서비스 하는 양방향 원격 강의 시스템 개발에 관하여 기술한다. 멀티캐스트 그룹 멤버 사이의 대화를 위한 네트워크 접근 권한은 별도의 TCP (Transmission Control Protocol) 통신을 통해 제어된다. 또한, 음성 통신 지터를 보정하기 위한 지터 버퍼 알고리즘을 제시한다.

  • PDF

센서 퓨전을 통한 인공지능 4족 보행 애완용 로봇 (An Intelligence Embedding Quadruped Pet Robot with Sensor Fusion)

  • 이래경;박수민;김형철;권용관;강석희;최병욱
    • 제어로봇시스템학회논문지
    • /
    • 제11권4호
    • /
    • pp.314-321
    • /
    • 2005
  • In this paper an intelligence embedding quadruped pet robot is described. It has 15 degrees of freedom and consists of various sensors such as CMOS image, voice recognition and sound localization, inclinometer, thermistor, real-time clock, tactile touch, PIR and IR to allows owners to interact with pet robot according to human's intention as well as the original features of pet animals. The architecture is flexible and adopts various embedded processors for handling sensors to provide modular structure. The pet robot is also used for additional purpose such like security, gaming visual tracking, and research platform. It is possible to generate various actions and behaviors and to download voice or music files to maintain a close relation of users. With cost-effective sensor, the pet robot is able to find its recharge station and recharge itself when its battery runs low. To facilitate programming of the robot, we support several development environments. Therefore, the developed system is a low-cost programmable entertainment robot platform.

Traffic Signal Recognition System Based on Color and Time for Visually Impaired

  • P. Kamakshi
    • International Journal of Computer Science & Network Security
    • /
    • 제23권4호
    • /
    • pp.48-54
    • /
    • 2023
  • Nowadays, a blind man finds it very difficult to cross the roads. They should be very vigilant with every step they take. To resolve this problem, Convolutional Neural Networks(CNN) is a best method to analyse the data and automate the model without intervention of human being. In this work, a traffic signal recognition system is designed using CNN for the visually impaired. To provide a safe walking environment, a voice message is given according to light state and timer state at that instance. The developed model consists of two phases, in the first phase the CNN model is trained to classify different images captured from traffic signals. Common Objects in Context (COCO) labelled dataset is used, which includes images of different classes like traffic lights, bicycles, cars etc. The traffic light object will be detected using this labelled dataset with help of object detection model. The CNN model detects the color of the traffic light and timer displayed on the traffic image. In the second phase, from the detected color of the light and timer value a text message is generated and sent to the text-to-speech conversion model to make voice guidance for the blind person. The developed traffic light recognition model recognizes traffic light color and countdown timer displayed on the signal for safe signal crossing. The countdown timer displayed on the signal was not considered in existing models which is very useful. The proposed model has given accurate results in different scenarios when compared to other models.

OpenCV를 활용한 이미지 유사성 비교 시스템 (The Similarity of the Image Comparison System utilizing OpenCV)

  • 반태학;방진숙;육정수
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2016년도 춘계학술대회
    • /
    • pp.834-835
    • /
    • 2016
  • 최근 들어 IT기술의 발전은 급속도로 성장하고 있다. 이에 따라 실시간 이미지 프로세싱 및 여러 플랫폼의 호환성을 제공하는 OpenCV를 활용한 이미지 처리 기술들에 대한 연구도 활발히 진행 중에 있다. 현재, 서로 다른 이미지를 비교, 유사성을 판별하는 시스템은 일치율이 낮거나, 사람이 아날로그적인 수치를 이용하여 판별하는 시스템이 대부분이다. 본 논문에서는 OpenCV의 Template Matching과 Feature Matching을 활용하여 서로 다른 이미지 간 유사성을 디지털 값으로 판별하는 시스템에 대해 연구한다. 이미지 스크린 중 비교점을 특정하여 피처를 추출, 서로 상이한 크기에서도 동일한 피처로 인식하여 비교대상 이미지의 피처셋과 비교하여 유서성을 비교, 검증하게 된다. 이는 음성 및 영상 인식 및 분석, 처리기술에서 보다 정확인 일치율 판독이 가능하다. 향후 법의학 및 OpenCV외의 이미지 처리기술에 대한 연구가 필요할 것으로 사료된다.

  • PDF

A New Eye Tracking Method as a Smartphone Interface

  • Lee, Eui Chul;Park, Min Woo
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제7권4호
    • /
    • pp.834-848
    • /
    • 2013
  • To effectively use these functions many kinds of human-phone interface are used such as touch, voice, and gesture. However, the most important touch interface cannot be used in case of hand disabled person or busy both hands. Although eye tracking is a superb human-computer interface method, it has not been applied to smartphones because of the small screen size, the frequently changing geometric position between the user's face and phone screen, and the low resolution of the frontal cameras. In this paper, a new eye tracking method is proposed to act as a smartphone user interface. To maximize eye image resolution, a zoom lens and three infrared LEDs are adopted. Our proposed method has following novelties. Firstly, appropriate camera specification and image resolution are analyzed in order to smartphone based gaze tracking method. Secondly, facial movement is allowable in case of one eye region is included in image. Thirdly, the proposed method can be operated in case of both landscape and portrait screen modes. Fourthly, only two LED reflective positions are used in order to calculate gaze position on the basis of 2D geometric relation between reflective rectangle and screen. Fifthly, a prototype mock-up design module is made in order to confirm feasibility for applying to actual smart-phone. Experimental results showed that the gaze estimation error was about 31 pixels at a screen resolution of $480{\times}800$ and the average hit ratio of a $5{\times}4$ icon grid was 94.6%.