• 제목/요약/키워드: 워크넷시스템

검색결과 48건 처리시간 0.027초

Bluetooth를 이용한 u-ID센서네트워크 구성에서의 데이터 전송 (The data transmission of the of u-ID sensor networks configuration with a Bluetooth)

  • 김영길;박지훈
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2004년도 춘계종합학술대회
    • /
    • pp.45-48
    • /
    • 2004
  • RFID란(Radio Frequency Identi-ficationD)최근 사회 전반적으로 급속히 발전되고 있는 디지털 컨버젼스 패러다임 변화의 한 모습으로 등장한 유비쿼터스 네트워크(Ubiquitous network)의 근원이 되는 핵심기술이다. 즉, 사물에 전자태그 부착하여 그 정보를 판독 할 수 있는 Reader(RFID Rader)기를 이용하여 사물의 정보를 판독하고 주변 상황정보를 인식하는 기술이다. 이러한 기술의 등장으로 기존의 바코드로 물품을 관리하던 구시대의 상품관리를 네트워크화, 지능화함으로써 유통 및 물품 관리뿐만 아니라 의료, 약품, 식품 둥 전자 태그를 붙일 수 있는 모든 분야에서 보안, 안전, 환경관리 둥 산업 전반에 걸쳐 혁명을 주도 할 것이다. 본 논문은 RFID Tag의 정보를 standalone방식의 임베디드 시스템에서 근거리 무선통신 기술인 블루투스를 이용하여 Reader기간의 네크워크인 피코넷 구성과 메인서버와의 데이터 통신을 구현해 본다.

  • PDF

터널링 기반 IPv4/IPv6 전이 기법을 위한 패킷 필터링 기능 개선 (An Improvement of Packet Filtering Functions for Tunneling Based IPv4/IPv6 Transition Mechanisms)

  • 이완직;허석렬;이원열;신범주
    • 정보보호학회논문지
    • /
    • 제17권6호
    • /
    • pp.77-87
    • /
    • 2007
  • IPv6가 현재의 IPv4 프로토콜을 완전히 대치하기 위해서는 상당한 시일이 소요될 것으로 예상된다. 이 기간 동안 인터넷은 두 개의 IP 프로토콜이 함께 사용될 것이다. 이 두 프로토콜의 공존을 위해 IETF에서는 여러 가지 IPv4/IPv6 전이기법을 표준화하였다. 하지만 전이 기법에 주로 사용되는 터널링 때문에, IPsec 적용과 IPv6 패킷 필터링에 관한 보안 문제가 발생할 수 있다. 본 논문에서는 이러한 보안 문제 해결을 위해, 내부 헤더 필터링과 전이 기법 전용 필터링의 두 가지 패킷 필터링 개선 기법을 제안하였다. 또한 제안한 기법을 리눅스 넷필터(Netfilter) 프레임워크에서 구현하였으며, IPv4/IPv6 전이 기법 테스트 환경에서 구현 기능을 테스트하고, 시험적인 성능 평가를 수행하였다. 이러한 기능 시험과 성능 평가를 통해, 주 논문의 패킷 필터링 개선 기능이 시스템의 큰 성능 저하 없이, IPv4/IPv6 전이 기법의 패킷 필터링 문제들을 해결할 수 있음을 보였다.

분산 인공지능 학습 기반 작업증명 합의알고리즘 (Distributed AI Learning-based Proof-of-Work Consensus Algorithm)

  • 채원부;박종서
    • 한국빅데이터학회지
    • /
    • 제7권1호
    • /
    • pp.1-14
    • /
    • 2022
  • 대부분의 블록체인이 사용하는 작업증명 합의 알고리즘은 채굴이라는 형태로 대규모의 컴퓨팅리소스 낭비를 초래하고 있다. 작업증명의 컴퓨팅리소스 낭비를 줄이기 위해 유용한 작업증명 합의 알고리즘이 연구 되었으나 여전히 블록 생성 시 리소스 낭비와 채굴의 중앙화 문제가 존재한다. 본 논문에서는 블록생성을 위한 상대적으로 비효율적인 연산 과정을 분산 인공지능 모델 학습으로 대체하여 블록생성 시 리소스 낭비문제를 해결하였다. 또한 학습 과정에 참여한 노드들에게 공평한 보상을 제공함으로써 컴퓨팅파워가 약한 노드의 참여 동기를 부여했고, 기존 중앙 집중 인공지능 학습 방식에 근사한 성능은 유지하였다. 제안된 방법론의 타당성을 보이기 위해 분산 인공지능 학습이 가능한 블록체인 네트워크를 구현하여 리소스 검증을 통한 보상 분배를 실험 하였고, 기존 중앙 학습 방식과 블록체인 분산 인공지능 학습 방식의 결과를 비교하였다. 또한 향후 연구로 블록체인 메인넷과 인공지능 모델 확장 시 발생 할 수 있는 문제점과 개발 방향성을 제시함으로서 논문을 마무리 하였다.

정보시스템에 대한 보안위험분석을 위한 모델링 기법 연구 (A Study on the Modeling Mechanism for Security Risk Analysis in Information Systems)

  • 김인중;이영교;정윤정;원동호
    • 정보처리학회논문지C
    • /
    • 제12C권7호
    • /
    • pp.989-998
    • /
    • 2005
  • 최근 대부분의 정보시스템은 대규모 및 광역화되고 있으며 이에 따른 사이버 침해사고와 해킹의 위험성이 증대되고 있다. 이를 해결하기 위하여 정보보호 기술중에서 보안위험분석 분야의 연구가 활발하게 이루어지고 있다. 하지만 다양한 자산과 복잡한 네트워크의 구조로 인하여 위험도를 현실에 맞게 산정한다는 것이 사실상 불가능하다. 특히, 취약성과 위협의 증가는 시간에 따라 계속 증가하며 이에 대응하는 보호대책은 일정 시간이 흐른 뒤 이루어지므로 제시된 결과가 효과적인 위험분석의 결과로 볼 수 없다. 따라서. 정보시스템에 대한 모델링 기법을 통하여 정보시스템의 구조를 단순화하고 사이버 침해의 방향성을 도식화함으로써 위험분석 및 피해 파급 영향 분석을 보호대책 수립의 허용 시간 내에서 이루어질 수 있도록 해야 한다 이에 따라, 본 논문에서는 보안 위험을 분석할 수 있도록 SPICE와 Petri-Net을 이용한 정보시스템의 모델링 기법을 제안하고, 이 모델링을 기반으로 사례연구를 통하여 위험분석 시뮬레이션을 수행하고자 한다.

지능형 행동인식 기술을 이용한 실시간 동영상 감시 시스템 개발 (Development of Real-time Video Surveillance System Using the Intelligent Behavior Recognition Technique)

  • 장재영;홍성문;손다미;유호진;안형우
    • 한국인터넷방송통신학회논문지
    • /
    • 제19권2호
    • /
    • pp.161-168
    • /
    • 2019
  • 최근에 빠르게 확산되고 있는 CCTV와 같은 영상기기들은 거의 모든 공공기관, 기업, 가정 등에서 비정상적인 상황을 감시하고 대처하기 위한 수단으로 활용되고 있다. 그러나 대부분의 경우 이상상황에 대한 인식은 모니터링하고 있는 사람에 의해 수동적으로 이루어지고 있어 즉각적인 대처가 미흡하며 사후 분석용으로만 활용되고 있다. 본 논문에서는 최신 딥러닝 기술과 실시간 전송기술을 활용하여 이벤트 발생시 스마트폰으로 이상 상황을 동영상과 함께 실시간으로 전송하는 동영상 감시 시스템의 개발 결과를 제시한다. 개발된 시스템은 오픈포즈 라이브러리를 이용하여 실시간으로 동영상으로 부터 인간 객체를 스켈레톤으로 모델링한 후, 딥러닝 기술을 이용하여 인간의 행동을 자동으로 인식하도록 구현하였다. 이를 위해 Caffe 프레임워크를 개발된 오픈포즈 라이브러리를 다크넷 기반으로 재구축하여 실시간 처리 능력을 대폭 향상 시켰으며, 실험을 통해 성능을 검증하였다. 본 논문에서 소개할 시스템은 정확하고 빠른 행동인식 성능과 확장성을 갖추고 있어 다양한 용도의 동영상 감시 시스템에 활용될 수 있을 것으로 기대된다.

다중 라우트 서버를 두는 확장된 가상랜 시스템 (An Extended Virtual LAM System Deploying Multiple Route Server)

  • 서주연;이미정
    • 한국정보과학회논문지:정보통신
    • /
    • 제29권2호
    • /
    • pp.117-128
    • /
    • 2002
  • 가상랜은 물리적 위치에 관계없이 마치 하나의 LAN에 연결되어 있는 것처럼 통신할 수 있는 구조로 브로드캐스트 도메인을 제한하여 대역폭 낭비를 감소시키고 전체 네트워크의 효율을 증가시킨다. Newbridge사는 IP 서브넷의 주소를 가상랜과 매핑하여 ATM-LAN 스위치 망에서 3계층 가상랜을 구성하는 VIVID 시스템을 개발하였다. 이 시스템에서는 하나의 라우트 서버에서 주소 해석과 가상랜 구성 및 브로드캐스트 데이타 전송을 모두 담당하기 때문에 망의 규모가 커지게 되면 라우트 서버가 병목 지점이 될 수 있다. 이와 같은 문제점을 해결하기 위해 택할 수 있는 방법 중 한 가지는 다중의 라우트 서버를 두는 것이다. 본 논문은 VIVID 시스템에 여러 개의 라우트 서버를 두는 구조로서 유기적인 구조와 독립적인 구조 두 가지를 제시하고 시뮬레이션을 통하여 각 구조의 특성을 비교 분석하였다. 시뮬레이션 결과, 브로드캐스트 세션의 길이와 브로드캐스트 세션 내에서의 브로드캐스트 데이타 프레임 발생 간격 등에 의해 제시한 두 가지 모델의 성능이 변하게 되며, 확장성과 데이타 전송의 효율성 간에 서로 상쇄 효과가 있음을 볼 수 있었다.

구인구직사이트의 구인정보 기반 지능형 직무분류체계의 구축 (Development of Intelligent Job Classification System based on Job Posting on Job Sites)

  • 이정승
    • 지능정보연구
    • /
    • 제25권4호
    • /
    • pp.123-139
    • /
    • 2019
  • 주요 구인구직사이트의 직무분류체계가 사이트마다 상이하고 SW분야에서 제안한 'SQF(Sectoral Qualifications Framework)'의 직무분류체계와도 달라 SW산업에서 SW기업, SW구직자, 구인구직사이트가 모두 납득할 수 있는 새로운 직무분류체계가 필요하다. 본 연구의 목적은 주요 구인구직사이트의 구인정보와 'NCS(National Competaency Standars)'에 기반을 둔 SQF를 분석하여 시장 수요를 반영한 표준 직무분류체계를 구축하는 것이다. 이를 위해 주요 구인구직사이트의 직종 간 연관분석과 SQF와 직종 간 연관분석을 실시하여 직종 간 연관규칙을 도출하고자 한다. 이 연관규칙을 이용하여 주요 구인구직사이트의 직무분류체계를 맵핑하고 SQF와 직무 분류체계를 맵핑함으로써 데이터 기반의 지능형 직무분류체계를 제안하였다. 연구 결과 국내 주요 구인구직사이트인 '워크넷,' '잡코리아,' '사람인'에서 3만여 건의 구인정보를 open API를 이용하여 XML 형태로 수집하여 데이터베이스에 저장했다. 이 중 복수의 구인구직사이트에 동시 게시된 구인정보 900여 건을 필터링한 후 빈발 패턴 마이닝(frequent pattern mining)인 Apriori 알고리즘을 적용하여 800여 개의 연관규칙을 도출하였다. 800여 개의 연관규칙을 바탕으로 워크넷, 잡코리아, 사람인의 직무분류체계와 SQF의 직무분류체계를 맵핑하여 1~4차로 분류하되 분류의 단계가 유연한 표준 직무분류체계를 새롭게 구축했다. 본 연구는 일부 전문가의 직관이 아닌 직종 간 연관분석을 통해 데이터를 기반으로 직종 간 맵핑을 시도함으로써 시장 수요를 반영하는 새로운 직무분류체계를 제안했다는데 의의가 있다. 다만 본 연구는 데이터 수집 시점이 일시적이기 때문에 시간의 흐름에 따라 변화하는 시장의 수요를 충분히 반영하지 못하는 한계가 있다. 계절적 요인과 주요 공채 시기 등 시간에 따라 시장의 요구하는 변해갈 것이기에 더욱 정확한 매칭을 얻기 위해서는 지속적인 데이터 모니터링과 반복적인 실험이 필요하다. 본 연구 결과는 향후 SW산업 분야에서 SQF의 개선방향을 제시하는데 활용될 수 있고, SW산업 분야에서 성공을 경험삼아 타 산업으로 확장 이전될 수 있을 것으로 기대한다.

전이학습 기반 다중 컨볼류션 신경망 레이어의 활성화 특징과 주성분 분석을 이용한 이미지 분류 방법 (Transfer Learning using Multiple ConvNet Layers Activation Features with Principal Component Analysis for Image Classification)

  • 바트후 ?바자브;주마벡 알리하노브;팡양;고승현;조근식
    • 지능정보연구
    • /
    • 제24권1호
    • /
    • pp.205-225
    • /
    • 2018
  • Convolutional Neural Network (ConvNet)은 시각적 특징의 계층 구조를 분석하고 학습할 수 있는 대표적인 심층 신경망이다. 첫 번째 신경망 모델인 Neocognitron은 80 년대에 처음 소개되었다. 당시 신경망은 대규모 데이터 집합과 계산 능력이 부족하여 학계와 산업계에서 널리 사용되지 않았다. 그러나 2012년 Krizhevsky는 ImageNet ILSVRC (Large Scale Visual Recognition Challenge) 에서 심층 신경망을 사용하여 시각적 인식 문제를 획기적으로 해결하였고 그로 인해 신경망에 대한 사람들의 관심을 다시 불러 일으켰다. 이미지넷 첼린지에서 제공하는 다양한 이미지 데이터와 병렬 컴퓨팅 하드웨어 (GPU)의 발전이 Krizhevsky의 승리의 주요 요인이었다. 그러므로 최근의 딥 컨볼루션 신경망의 성공을 병렬계산을 위한 GPU의 출현과 더불어 ImageNet과 같은 대규모 이미지 데이터의 가용성으로 정의 할 수 있다. 그러나 이러한 요소는 많은 도메인에서 병목 현상이 될 수 있다. 대부분의 도메인에서 ConvNet을 교육하기 위해 대규모 데이터를 수집하려면 많은 노력이 필요하다. 대규모 데이터를 보유하고 있어도 처음부터 ConvNet을 교육하려면 많은 자원과 시간이 소요된다. 이와 같은 문제점은 전이 학습을 사용하면 해결할 수 있다. 전이 학습은 지식을 원본 도메인에서 새 도메인으로 전이하는 방법이다. 전이학습에는 주요한 두 가지 케이스가 있다. 첫 번째는 고정된 특징점 추출기로서의 ConvNet이고, 두번째는 새 데이터에서 ConvNet을 fine-tuning 하는 것이다. 첫 번째 경우, 사전 훈련 된 ConvNet (예: ImageNet)을 사용하여 ConvNet을 통해 이미지의 피드포워드 활성화를 계산하고 특정 레이어에서 활성화 특징점을 추출한다. 두 번째 경우에는 새 데이터에서 ConvNet 분류기를 교체하고 재교육을 한 후에 사전 훈련된 네트워크의 가중치를 백프로퍼게이션으로 fine-tuning 한다. 이 논문에서는 고정된 특징점 추출기를 여러 개의 ConvNet 레이어를 사용하는 것에 중점을 두었다. 그러나 여러 ConvNet 레이어에서 직접 추출된 차원적 복잡성을 가진 특징점을 적용하는 것은 여전히 어려운 문제이다. 우리는 여러 ConvNet 레이어에서 추출한 특징점이 이미지의 다른 특성을 처리한다는 것을 발견했다. 즉, 여러 ConvNet 레이어의 최적의 조합을 찾으면 더 나은 특징점을 얻을 수 있다. 위의 발견을 토대로 이 논문에서는 단일 ConvNet 계층의 특징점 대신에 전이 학습을 위해 여러 ConvNet 계층의 특징점을 사용하도록 제안한다. 본 논문에서 제안하는 방법은 크게 세단계로 이루어져 있다. 먼저 이미지 데이터셋의 이미지를 ConvNet의 입력으로 넣으면 해당 이미지가 사전 훈련된 AlexNet으로 피드포워드 되고 3개의 fully-connected 레이어의 활성화 틀징점이 추출된다. 둘째, 3개의 ConvNet 레이어의 활성화 특징점을 연결하여 여러 개의 ConvNet 레이어의 특징점을 얻는다. 레이어의 활성화 특징점을 연결을 하는 이유는 더 많은 이미지 정보를 얻기 위해서이다. 동일한 이미지를 사용한 3개의 fully-connected 레이어의 특징점이 연결되면 결과 이미지의 특징점의 차원은 4096 + 4096 + 1000이 된다. 그러나 여러 ConvNet 레이어에서 추출 된 특징점은 동일한 ConvNet에서 추출되므로 특징점이 중복되거나 노이즈를 갖는다. 따라서 세 번째 단계로 PCA (Principal Component Analysis)를 사용하여 교육 단계 전에 주요 특징점을 선택한다. 뚜렷한 특징이 얻어지면, 분류기는 이미지를 보다 정확하게 분류 할 수 있고, 전이 학습의 성능을 향상시킬 수 있다. 제안된 방법을 평가하기 위해 특징점 선택 및 차원축소를 위해 PCA를 사용하여 여러 ConvNet 레이어의 특징점과 단일 ConvNet 레이어의 특징점을 비교하고 3개의 표준 데이터 (Caltech-256, VOC07 및 SUN397)로 실험을 수행했다. 실험결과 제안된 방법은 Caltech-256 데이터의 FC7 레이어로 73.9 %의 정확도를 얻었을 때와 비교하여 75.6 %의 정확도를 보였고 VOC07 데이터의 FC8 레이어로 얻은 69.2 %의 정확도와 비교하여 73.1 %의 정확도를 보였으며 SUN397 데이터의 FC7 레이어로 48.7%의 정확도를 얻었을 때와 비교하여 52.2%의 정확도를 보였다. 본 논문에 제안된 방법은 Caltech-256, VOC07 및 SUN397 데이터에서 각각 기존에 제안된 방법과 비교하여 2.8 %, 2.1 % 및 3.1 %의 성능 향상을 보였다.