• 제목/요약/키워드: 영상 언어

검색결과 529건 처리시간 0.026초

스마트팜 열환경 모델링을 위한 Open source 기반 Data mining 기법 분석 (A Benchmark of Open Source Data Mining Package for Thermal Environment Modeling in Smart Farm(R, OpenCV, OpenNN and Orange))

  • 이준엽;오종우;이동훈
    • 한국농업기계학회:학술대회논문집
    • /
    • 한국농업기계학회 2017년도 춘계공동학술대회
    • /
    • pp.168-168
    • /
    • 2017
  • ICT 융합 스마트팜 내의 환경계측 센서, 영상 및 사양관리 시스템의 증가에도 불구하고 이들 장비에서 확보되는 데이터를 적절히 유효하게 활용하는 기술이 미흡한 실정이다. 돈사의 경우 가축의 복지수준, 성장 변화를 실시간으로 모니터링 및 예측할 수 있는 데이터 분석 및 모델링 기술 확보가 필요하다. 이를 위해선 가축의 생리적 변화 및 행동적 변화를 조기에 감지하고 가축의 복지수준을 실시간으로 감시하고 분석 및 예측 기술이 필요한데 이를 위한 대표적인 정보 통신 공학적 접근법 중에 하나가 Data mining 이다. Data mining에 대한 연구 수행에 필요한 다양한 소프트웨어 중에서 Open source로 제공이 되는 4가지 도구를 비교 분석하였다. 스마트 돈사 내에서 열환경 모델링을 목표로 한 데이터 분석에서 고려해야할 요인으로 데이터 분석 알고리즘 도출 시간, 시각화 기능, 타 라이브러리와 연계 기능 등을 중점 적으로 분석하였다. 선정된 4가지 분석 도구는 1) R(https://cran.r-project.org), 2) OpenCV(http://opencv.org), 3) OpenNN (http://www.opennn.net), 4) Orange(http://orange.biolab.si) 이다. 비교 분석을 수행한 운영체제는 Linux-Ubuntu 16.04.4 LTS(X64)이며, CPU의 클럭속도는 3.6 Ghz, 메모리는 64 Gb를 설치하였다. 개발언어 측면에서 살펴보면 1) R 스크립트, 2) C/C++, Python, Java, 3) C++, 4) C/C++, Python, Cython을 지원하여 C/C++ 언어와 Python 개발 언어가 상대적으로 유리하였다. 데이터 분석 알고리즘의 경우 소스코드 범위에서 라이브러리를 제공하는 경우 Cross-Platform 개발이 가능하여 여러 운영체제에서 개발한 결과를 별도의 Porting 과정을 거치지 않고 사용할 수 있었다. 빌트인 라이브러리 경우 순서대로 R 의 경우 가장 많은 수의 Data mining 알고리즘을 제공하고 있다. 이는 R 운영 환경 자체가 개방형으로 되어 있어 온라인에서 추가되는 새로운 라이브러리를 클라우드를 통하여 공유하기 때문인 것으로 판단되었다. OpenCV의 경우 영상 처리에 강점이 있었으며, OpenNN은 신경망학습과 관련된 라이브러리를 소스코드 레벨에서 공개한 것이 강점이라 할 수 있다. Orage의 경우 라이브러리 집합을 제공하는 것에 중점을 둔 다른 패키지와 달리 시각화 기능 및 망 구성 등 사용자 인터페이스를 통합하여 운영한 것이 강점이라 할 수 있다. 열환경 모델링에 요구되는 시간 복잡도에 대응하기 위한 부가 정보 처리 기술에 대한 연구를 수행하여 스마트팜 열환경 모델링을 실시간으로 구현할 수 있는 방안 연구를 수행할 것이다.

  • PDF

전통적 수업과 플립러닝 수업의 언어 상호작용 비교 분석 (A Comparative Analysis of Verbal Interaction on Traditional Instruction and Flipped Learning)

  • 이희숙;허서정;김창석
    • 정보교육학회논문지
    • /
    • 제19권1호
    • /
    • pp.113-126
    • /
    • 2015
  • 본 연구는 전통적 수업과 플립러닝 수업의 언어 상호작용 분석을 통해 두 수업의 특징과 차이를 규명하고자 하였다. 이를 위해 초등학교 5학년 사회과의 전통적 수업과 플립러닝 수업을 동영상으로 녹화하고 전사하였으며, 이를 플랜더스 언어상호작용 분석법으로 분석하였다. 연구 결과, 첫째, 전통적 수업은 교사의 발언이 주로 이루어지는 수업이고, 플립러닝 수업은 학생의 학습활동과 교사의 발언이 적절하게 이루어지는 수업이다. 둘째, 전통적 수업은 교사 중심의 지배적, 전제적, 제한적인 의사소통이 이루어지는 지시적 경향의 수업이고 플립러닝 수업은 전통적 수업에 비해 학생 중심의 통합적, 민주적, 포괄적, 허용적인 의사소통이 이루어지는 비지시적 경향의 수업이다. 셋째, 전통적 수업은 교사 강의 중심의 지식 내용 전달을 강조하는 수업이고 플립러닝 수업은 지식 내용 전달은 줄이고 학생의 활동과 발언을 강조하는 수업이다. 넷째, 전통적 수업의 언어 상호작용 형태는 교사의 강의와 질문에 학생이 단순 반응을 하는 단방향적인 의사소통이 주로 이루어지고 플립러닝 수업에서는 교사가 학생을 칭찬하거나 격려하고 학생의 생각을 수용하거나 사용하는 상호작용이 주로 이루어지는 수업이다.

뉴미디어 환경에서의 디지털 영상디자인 교육시스템 연구 - 영상ㆍ디지털미디어 대학원교육을 중심으로- (The Study on the Education System of Digital Film design in New Media Environment - Focusing on Graduate Courses in film and Digital Media -)

  • 정봉금;김종덕
    • 디자인학연구
    • /
    • 제17권2호
    • /
    • pp.451-462
    • /
    • 2004
  • 디지털시대가 도래하면서 그래픽디자인의 영역이 확대되어 필름, DVD, 인터랙티브TV, 모바일, DMB 등 영상디자인의 새로운 분야들에서 디자이너의 역할을 요구하기 시작했다. 이는 보다 진화된 뉴미디어 환경을 기반으로 한다는 점에서 디지털 영상디자인의 적용과 사례로 볼 수 있다. 뉴미디어 환경은 젊은 계층이 주 타깃이 되기에 영상언어의 표현기법이 달라지는 것도 필연적이라고 하겠다. 시각커뮤니케이션이 창조되고 분배되어 온 방법들이 이제는 더 이상 정지되어 있는 것을 원하지 않고, 다이내믹한 움직임으로, 다시 상호작용(Interaction)이라는 변화를 거쳐오면서 영상의 적용과 활용은 비할 수 없이 다각화되었다. 변화와 발전을 거듭하는 학문으로서 디자인의 정체성이 뉴미디어 환경에서 어떻게 진화하고 있는지를 조사ㆍ분석하여 향후 영상ㆍ디지털미디어 대학원교육의 방향을 가늠하기 위한 것이 본 연구의 주된 목표이다. 이를 위해 사례조사 및 시각디자인 교육시스템에 대한 선행연구를 토대로 하여 디자인고등교육에 있어 합리적인 교육시스템의 방식을 수용자 조사를 통해 검증하고자 하였다. 본 연구는 영상ㆍ디지털미디어 분야의 고급인재 양성방안을 찾는 것을 목적으로, 이를 위해 기존의 디자인 교육과 디지털 영상교육의 융합으로 현실 사회의 요구에 부응하는 진화된 교육시스템을 도출하고, 사회의 요구를 앞서가는 디자인 고등교육기관으로서의 위상을 제시하고자 한다.

  • PDF

TV 연설에서 샷의 크기가 유권자의 태도에 미치는 영향 (Effect of shot size in TV address on the elector's attitude)

  • 박덕춘
    • 디지털융복합연구
    • /
    • 제10권3호
    • /
    • pp.283-290
    • /
    • 2012
  • 본 연구는 텔레비전 연설에서 카메라의 샷크기가 정치후보자에 대한 유권자들의 호감도, 신뢰도, 지지도 등에 영향을 미치는지, 그리고 그 과정에서 수용자의 관여도가 어떤 영향을 미치는지 살펴본 실험연구이다. 본 연구는 2010년 6.2 지방선거, 구청장 후보의 텔레비전 연설 텍스트를 바탕으로 연기자를 출연시켜 샷크기를 달리 한 2가지 유형의 TV 연설 영상물들을 제작, 대학생들로 구성된 2개의 피험자 집단에게 각각 시청하게 한 후, 설문조사를 통해 구청장 후보의 호감도, 신뢰도, 지지도를 측정, 분석하였다. 분석결과 바스트샷 영상에 노출된 피험자들이 웨이스트샷 영상에 노출된 피험자들보다 후보자에 대해 더 큰 호감을 가지고, 더 적극적으로 지지하였다. 그러나 샷크기와 관여도 간의 상호작용 효과는 나타나지 않았다. 연구방법상의 어려움으로 그동안 다루어지지 못했던 TV연설 영상에서 샷크기라는 비언어적 커뮤니케이션 요소가 정치인의 이미지에 미치는 영향을 실험을 통해 검증하였다는 점에서 본 연구의 의의를 찾을 수 있을 것이다.

디지털 의료영상에서 슬릿법에 의한 Modulation Transfer Function의 보정방법 (Correction Method of Slit Modulation Transfer function on Digital Medical Imaging System)

  • 김정민;정회원;민정환;임은경
    • 대한방사선기술학회지:방사선기술과학
    • /
    • 제29권3호
    • /
    • pp.133-139
    • /
    • 2006
  • 디지털 X선영상으로 출력한 화상데이터를 Personal Computer로 가져와서 디지털 특성곡선, MTF, 위너스펙트럼을 계산할 수가 있다. 여기서는 디지털화상의 선예도를 후지타(藤田) 등의 이론에 의한 프리샘플링(presampling) Modualtion Transfer Function(MTF)을 산출하고 보정하는 방법에 대하여 검토하였다. 사용한 프로그램은 엑셀이며 슬릿의 촬영, 디지털 특성곡선, 합성 LSF법, 이산 퓨리어 변환, 고속 퓨리어 변환 등의 순서로 기술하였다. 이 방법의 커다란 장점은 퓨리어트랜스폼의 공식과 MTF 산출과정을 완전히 이해할 수 있다는 점과, 별도로 값비싼 프로그램이나 컴퓨터언어를 배우지 않았어도 MTF 결과를 산출할 수가 있다는 것이다. 그리고 워크시트 표시되는 엑셀의 장점을 그대로 살려 X선 영상계의 오류나 산출결과의 부적합성을 발견하기 쉽다는 점이다.

  • PDF

3차원 모델을 이용한 입모양 인식 알고리즘에 관한 연구 (A study on the lip shape recognition algorithm using 3-D Model)

  • 김동수;남기환;한준희;배철수;나상동
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 1998년도 추계종합학술대회
    • /
    • pp.181-185
    • /
    • 1998
  • 최근 통신 시스템의 연구와 발전 방향은 목소리의 음성 정보와 말하는 얼굴 영상의 화상 정보를 함께 적용하므로서 음성 정보만을 제공하는 경우보다 높은 인식율을 제공한다. 따라서 본 연구는 청각장애자들의 언어 대체수단 중 하나인 구화(speechreading)에서 가장 시각적 변별력이 높은 독순(lipreading)을 PC에서 구현하고자 한다. 간 논문은 기존의 방법과 달리 말하는 영상 시퀀스에서 독순(lipreading)을 행하기 위해 3차원 모델을 사용하여 입의 벌어진 정도, 턱의 움직임, 입술의 돌출과 같은 3차원 특징 정보를 제공하였다. 이와 같은 특징 정보를 얻기 위해 3차원 형상 모델을 입력 동영상에 정합시키고 정합된 3차원모델에서 각 특징점의 변화량을 인식파라미터로 사용하였다. 그리고, 인식 단위로 동영상을 분리하는 방법은 3차원 특징점 변화량에서 얻어지는 강도의 기울기에 의한다. 인식은 다차원(multi-dimensional), 다단계 라벨링 방법을 사용하여 3차원 특징벡터를 입력으로 한 이산 HMM을 사용하였다.

  • PDF

비트 플레인을 이용한 움직임 추정기 설계에 관한 연구 (A Study on Motion Estimator Design Using Bit Plane)

  • 박종진;이권철;김은원;조원경
    • 정보학연구
    • /
    • 제3권2호
    • /
    • pp.39-47
    • /
    • 2000
  • 영상처리분야는 많은 데이터를 포함하는 고화질의 동영상을 고속으로 전송하기 위하여 압축기법을 필수적으로 사용하고 있다. 동영상 정보의 압축기법 중에서 시간적 중복성을 제거하는데는 움직임 추정기법을 사용한다. 본 논문에서는 완전탐색 블록정합 움직임 추정기를 설계하는데 있어서 DCT DC 값을 이용하여 화면의 밝기를 판단하여 휘도 신호 8비트 모두를 사용하지 않고, 비트 플레인(bit Plane)을 이용하여 그 중에 3비트만 선택하는 비교선택기를 I-Picture에 적응적으로 적용하고, P와 B Picture에서도 같은 선택 비트를 사용하는 구조를 제안하였다. 이 제안된 구조를 기준블록 $8{\times}8$, 탐색영역 $23{\times}23$, $352{\times}288$ Grayscale 표준비디오영상에 C언어로 모델링하여 기존 완전탐색기법과 PSNR을 비교한 결과 사람의 시각으로 거의 구별할 수 없는 작은 차이가 나타남을 알 수 있었고, 이렇게 검증된 움직임 추정기를 VHDL으로 설계하였다. 합성한 결과 본 논문에서 제안한 방법이 크기에서 기존구조 I에서는 38.3%, 기존구조II에서는 30.7% 줄일 수 있었음을 보여주었고, 메모리에서 기존구조 I, II보다 31.3% 줄일 수 있었음을 보여주었다.

  • PDF

임베디드 환경에서 SIFT 알고리즘의 실시간 처리를 위한 특징점 검출기의 하드웨어 구현 (A Hardware Design of Feature Detector for Realtime Processing of SIFT(Scale Invariant Feature Transform) Algorithm in Embedded Systems)

  • 박찬일;이수현;정용진
    • 대한전자공학회논문지SD
    • /
    • 제46권3호
    • /
    • pp.86-95
    • /
    • 2009
  • SIFT(Scale Invariant Feature Transform) 알고리즘은 영상 데이터로부터 객체의 꼭지점이나 모서리와 같이 색상 성분의 차가 심한 영역에서 특징점을 찾아 벡터성분을 추출하는 알고리즘으로, 현재 얼굴인식, 3차원 객체 인식, 파노라마, 3차원 영상 복원 작업의 핵심 알고리즘으로 연구 되고 있다. 본 논문에서는 SIFT 알고리즘을 임베디드 환경에서 실시간으로 처리하기 위해 가장 연산량이 많은 특징점 위치 결정 단계를 Verilog HDL 언어를 이용하여 FPGA로 구현하고 그 성능을 분석한다. 하드웨어는 100MHz 클럭에서 $1,280{\times}960$영상기준 25ms, $640{\times}480$영상기준 5ms의 빠른 연산속도를 보인다. 그리고 Xilinx Virtex4 XC4VLS60 FPGA를 타겟으로 Synplify Pro 8.1i합성툴을 이용하여 합성시 약 45,792LUT(85%)의 결과를 나타낸다.

3D 카메라 기반 스테디캠 효과를 적용한 영상제작에 관한연구 (Study of Image Production using Steadicam Effects for 3D Camera)

  • 이준상;박성대;이임건
    • 한국정보통신학회논문지
    • /
    • 제18권12호
    • /
    • pp.3035-3041
    • /
    • 2014
  • 3D 애니메이션 제작 과정에서 가상 카메라의 이동을 보다 자연스러운 영상으로 표현하기 위해서 스테디캠 기법을 많이 사용하고 있다. 가상카메라에서 스테디캠 효과를 표현하기 위한 기존의 방식은 키프레임을 이용하는 것으로 카메라의 모든 움직임을 수작업으로 처리한다. 그러나 영상에서 카메라 워킹을 수작업으로 처리하는 것은 제작 시간이 많이 소요되는 번거로운 작업이며 카메라의 움직임이라는 물리적 현상을 인위적으로 표현함으로써 부자연스러운 결과를 얻는다. 본 연구는 3D 애니메이션에서 가상카메라의 이동에 따라 카메라에 가해지는 물리적 현상을 모델링하여 자동으로 스테디캠 효과를 낼 수 있는 방식을 제안한다. 제안하는 물리적 모델링은 파이선 스크립트 언어로 구현되어 마야의 제작 플랫폼에서 바로 적용 가능하다. 제안하는 방법은 기존의 수기적인 제작환경을 개선하고 영상의 자연스러운 시각적 효과를 극대화 할 수 있다.

3차원 모델을 이용한 입모양 인식 알고리즘에 관한 연구 (A study on the lip shape recognition algorithm using 3-D Model)

  • 남기환;배철수
    • 한국정보통신학회논문지
    • /
    • 제6권5호
    • /
    • pp.783-788
    • /
    • 2002
  • 최근 통신 시스템의 연구와 발전 방향은 목소리의 음성 정보와 말하는 얼굴 영상의 화상 정보를 함께 적용하므로서 음성 정보만을 제공하는 경우보다 높은 인식율을 제공한다. 따라서 본 연구는 청각장애자들의 언어 대체수단 중 하나인 구화(speechreading)에서 가장 시각적 변별력이 논은 입모양 인식을 일반 퍼스널 컴퓨터상에서 구현하고자 한다. 본 논문은 기존의 방법과 달리 말하는 영상 시퀀스에서 입모양 인식을 행하기 위해 3차원 모델을 사용하여 입의 벌어진 정도, 턱의 움직임, 입술의 돌출과 같은 3차원 특징 정보를 제공하였다. 이와 같은 특징 정보를 얻기 위해 3차원 형살 모델을 입력 동영상에 정합시키고 정합된 3차원 형상모델에서 각 특징점의 변화량을 인식파라미터로 사용하였다. 그리고, 인식단위로 동영상을 분리하는 방법은 3차원 특징점 변화량에서 얻어지는 강도의 기울기에 의하여 이루어지고, 인식은 각각의 3차인 특징벡터를 이산 HMM 인식기의 인식 파라메타로 사용하였다.