• 제목/요약/키워드: 연산시간 감소

검색결과 401건 처리시간 0.024초

3차원 카오스 캣맵을 이용한 JPEG2000 영상의 암호화 기술 (A Encryption Technique of JPEG2000 Image Using 3-Dimensional Chaotic Cat Map)

  • 최현준;김수민;서영호;김동욱
    • 대한전자공학회논문지SP
    • /
    • 제42권5호
    • /
    • pp.173-180
    • /
    • 2005
  • 본 논문에서는 JPEG2000 표준에서 주파수 변환기법으로 채택된 이산 웨이블릿 변환을 기반으로 영상의 부분 데이터만을 암호화하여 계산량을 줄이는 방법을 제안하였다. 또한 계산량이 많은 암호화 알고리즘 대신 비교적 계산량이 적은 캣맵(cat mad)과 카오스 시스템을 이용함으로써 계산량을 더욱 감소시켰다. 이 방법은 영상의 압축비를 유지하기 위해서 양자화와 엔트로피 코딩 사이에서 암호화를 수행하며, 부대역의 선택과 카오스 시스템을 이용한 무작위 변환방법을 사용한다. 영상에 대한 실험방법은 우선 암호화할 부대역을 선택하여 영상데이터를 3차원 블록으로 만든 후 캣맵에 의해 3차원으로 영상의 픽셀값을 교환 하는 방법과 캣맵에 의해 암호화된 부대역을 카오스 시스템을 이용하여 모듈러 연산에 의해 암호화하였다. 또한, JPEG2000의 점진적 전송(Progressive transmission)에 적합하게 암호화하기 위해서 비트 평면을 선택하여 암호화하였다. 제안한 방법을 소프트웨어로 구현하여 500개의 영상을 대상으로 실험한 결과 원 영상 데이터를 부분적으로 암호화함으로써 원 영상을 인식할 수 없을 정도의 암호화효과를 얻을 수 있었다. 본 논문에서는 여러 방식을 제안하였으며, 이들의 암호화 수행시간과 암호화 효율 사이에는 상보적인 관계가 있음을 보여, 적용분야에 따라 선택적으로 사용할 수 있음을 보였다.

디바이스 ID 기반의 하이브리드 PKI 공인 인증 보안 기법 (Hybrid PKI Public Certificate Security Method Based on Device ID)

  • 손영환;최운수;김기현;최한나;이대윤;오충식;조용환
    • 한국컴퓨터정보학회논문지
    • /
    • 제15권5호
    • /
    • pp.113-124
    • /
    • 2010
  • 본 논문에서는 안전한 사용자 인증의 초석인 인증서의 원천지 무결성 보장과 함께 사용자의 편의성 향상을 위한 방안으로써, PKI 인증서 인증기법에 디바이스 ID에 기반한 하이브리드 공인 인증 기법을 제안하여 기존 하이브리드 PKI 공인인증서 인증기법에서의 사용자 편의성과 보안성을 향상시키고자 한다. 본 논문에서 제안하는 모델의 특징은 크게 다섯 가지로 설명할 수 있다. 첫째, 사용자 스스로 각각의 인증 상황 및 보안 수준에 맞는 정책을 선택 할 수 있어 사용자의 편의성을 향상 시킬 수 있다. 둘째, 정책별 디바이스 ID의 해시 값인 DLDI Key(Device Location Dependence ID Key)의 비교를 통해 사용자 인증서의 원천지 무결성을 보장할 수 있다. 셋째, EOTP Key(Event of One Time Password Key)를 통해서 인증서를 암호화, 복호화 하는 키의 값을 매 인증 시도마다 변경시킴으로써 보안성을 향상 시킬 수 있다. 넷째, 인증서에 Index 값을 추가시켜 멀티 디바이스에 인증서의 저장이 가능하다. 다섯째, 보안 카드 등 인증서의 원천지 무결성 보장을 위한 추가적인 장치가 필요치 않아, 인증 처리 시간의 지연을 단축시킬 수 있으며 인증 서버의 연산 부하를 감소시킬 수 있다.

$GF(2^n)$ 곱셈을 위한 효율적인 $MSK_k$ 혼합 방법 (Efficiently Hybrid $MSK_k$ Method for Multiplication in $GF(2^n)$)

  • 지성연;장남수;김창한;임종인
    • 대한전자공학회논문지SD
    • /
    • 제44권9호
    • /
    • pp.1-9
    • /
    • 2007
  • 유한체 $GF(2^n)$ 연산을 바탕으로 구성되는 암호시스템의 효율적 구현을 위하여 유한체의 곱셈의 하드웨어 구현은 중요한 연구 대상이다. 공간 복잡도가 낮은 병렬 처리 유한체 곱셈기를 구성하기 위하여 Divide-and-Conquer와 같은 방식이 유용하게 사용된다. 대표적으로 Karatsuba와 Ofman이 제안한 카라슈바(Karatsuba-Ofman) 알고리즘과 다중 분할 카라슈바(Multi-Segment Karatsuba) 방법이 있다. Leone은 카라슈바 방법을 이용하여 공간 복잡도 효율적인 병렬 곱셈기를 제안하였고 Ernst는 다중 분할 카라슈바 방법의 곱셈기를 제안하였다. [2]에서 제안한 방법을 개선하여 [1]에서 낮은 공간 복잡도를 필요로 하는 $MSK_5$ 방법과 $MSK_7$ 방법을 제안하였으며, [3]에서 곱셈 방법을 혼합하여 곱셈을 수행하는 방법을 제안하였다. 본 논문에서는 [3]에서 제안한 혼합 방법에 [1]에서 제안한 $MSK_5$ 방법을 추가로 혼합하는 혼합 방법을 제안한다. 제안하는 혼합방법을 적용하여 곱셈을 구성하면 l>0, $25{\cdot}2^l-2^l을 만족하는 차수에서 [3]에서 제안한 혼합 방법보다 $116{\cdot}3^l$만큼의 게이트와 $2T_X$ 만큼의 시간 지연이 감소한다.

기업 직무 정보를 활용한 OOPP(Optimized Online Portfolio Platform)설계 (A Design of the OOPP(Optimized Online Portfolio Platform) using Enterprise Competency Information)

  • 정보근;박진욱;이병관
    • 한국정보전자통신기술학회논문지
    • /
    • 제11권5호
    • /
    • pp.493-506
    • /
    • 2018
  • 본 논문에서는 직무별로 취업에 필요한 역량을 나타내고, 구직자가 온라인상에서 포트폴리오를 효율적으로 작성하고 관리하는 OOPP(Optimized Online Portfolio Platform)를 제안한다. 제안하는 OOPP는 세 가지 모듈로 구성된다. 첫째, JDCM(Job Data Collection Module)은 직업정보 사이트의 구인 광고들을 수집하여 스프레드시트에 저장한다. 둘째, CSM(Competency Statistical Medel)은 수집한 구인 광고들을 텍스트 마이닝하여 직무별로 요구되는 핵심 역량을 분류한다. 셋째, OBBM(Optimize Browser Behavior Module)은 브라우저의 처리속도를 개선하여 사용자가 데이터를 빠르게 조회할 수 있게 한다. OBBM은 검색엔진의 연산을 최적화하는 PSES(Parallel Search Engine Sub-Module)과 이미지 텍스트 등의 로드를 최적화하는 OILS(Optimized Image Loading Sub-Module)로 구성된다. 제안하는 OOPP의 성능분석 결과 CSM로 분석된 데이터의 정확도는 최대 100%, 최소 99.4%로 실제 광고와 분석된 데이터의 차이가 거의 발생하지 않았으며, OBBM을 이용한 브라우저 최적화를 실행하면, 작업시간이 약 68.37%가 감소한다. 결과적으로 OOPP는 직현재 직업정보 사이트의 구인 광고를 정확하게 분석하여 사용자가 분석한 결과를 웹페이지에서 신속하게 조회할 수 있다.

인공 신경망 알고리즘을 활용한 플라이애시 콘크리트의 염해 내구성능 예측 (The Prediction of Durability Performance for Chloride Ingress in Fly Ash Concrete by Artificial Neural Network Algorithm)

  • 권성준;윤용식
    • 한국구조물진단유지관리공학회 논문집
    • /
    • 제26권5호
    • /
    • pp.127-134
    • /
    • 2022
  • 본 연구에서는 장기재령(4~6년)으로 양생된 플라이애시 콘크리트를 대상으로 촉진 염화물 이온 통과 시험을 수행하였다. 콘크리트 배합은 3수준의 물-결합재 비(0.37, 0.42, 0.47)와 2수준의 플라이애시 치환율(0, 30 %)을 가지고 있었으며, 시간 의존적으로 개선되는 통과 전하량을 정량적으로 분석하였다. 또한 실험결과를 GRU 알고리즘을 고려한 단별량 시계열 모델을 적용하여 학습하였으며, 그 예측값을 평가하였다. 통과전하량 실험 결과, 플라이애시 콘크리트는 물-결합재 비에 의한 통과 전하량의 변화가 재령이 증가함에 따라 점차 감소하였으며 OPC 콘크리트에 비하여 우수한 염해저항성을 나타내었다. 최종 평가일인 6년에서 플라이애시 콘크리트는 모든 물 결합재 비 조건에서 'Very low' 등급에 해당되는 통과 전하량이 평가되었지만, OPC 콘크리트의 경우 가장 높은 물-결합재 비를 갖는 조건에서 'Moderate' 등급을 나타내었다. 메인 알고리즘으로서 사용한 GRU 알고리즘은 시계열 데이터를 분석할 수 있고 연산 속도가 빠른 장점을 갖고 있다. 4개의 은닉층을 갖는 딥-러닝 모델이 고려되었으며 결과값은 실험값을 합리적으로 예측하고 있었다. 본 연구의 딥-러닝 모델은 단변량 시계열 특성만을 고려할 수 있는 한계점이 존재하지만 추가 연구를 통해 콘크리트의 강도 및 확산계수와 같은 다양한 특성을 고려할 수 있는 모델이 개발 중에 있다.

마이크로 셀룰라 Wide-band CDMA 환경에서의 위치 추정 알고리즘 (Radio location algorithm in microcellular wide-band CDMA environment)

  • 장진원;한일;성단근;신병철;홍인기
    • 한국통신학회논문지
    • /
    • 제23권8호
    • /
    • pp.2052-2063
    • /
    • 1998
  • 본격척인 위치추적 시스템은 2차 세계대전 중에 등장한 전파항법 장치 (ground-based radio navigation system)에서부터 시작하여 꾸준히 연구되어 왔으며 현재 대표적인 위치추적 시스템으로는 GPS (global positioning system)을 들 수 있다. 최근에는 셀룰라 서비스의 보편화에 따라 기지국을 이용하여 위치추적 서비스를 제공하는 연구가 진행되고 있으나 지금까지는 주로 기지국간 동기 시스템인 매크로 셀룰라에 집중되어 왔다. 하지만, 기지국에서 정확한 시간을 이용할 수 없는 wide-band CDMA 시스템의 기지국간 비동기 상황에 대한 연구는 전무하다. 본 논문에서는 기지국간 비동기인 마이크로 셀룰라 wide-band CDMA 시스템 상황에서 두 가지 위치추정 알고리즘을 제안한다. 첫째는 공통영역을 통한 위치추정 방법으로 의사거리에 의해 구성되는 원 사이의 겹치는 공통영역을 사각형으로 근사하여 그 중심을 개인국의 위치로 추정하는 방법이고 둘째는 도로정보를 이용하는 방법으로서 의사거리 하나만을 이용하여 기지국에서 그 의사거리에 해당되는 도로 지점을 확인하고 주변 파일럿 세기를 확인하여 그 지점 중에서 선택하는 방식이다. 이 두 방식은 시뮬레이션을 이용하여 기존의 대표적인 방식들 (Taylor series를 이용한 방식. conjugate gradient 방식 및 공통현 방식)과 비교되며 또한 기지국과 개인국간의 파일럿 채널 송수신의 간섭으로 인한 영향을 조사한다. 기존의 위치추정 알고리즘이 반복 연산을 수행하는 데 비히여 제안 알고리즘은 반복 연산을 하지 않으며 마이크로 셀 환경에서 간접파의 영향을 적게 받기 때문에 보다 적은 위치 에러를 나타낸다., 초과확률 등을 이용한 분석을 실시하였다. 분석 결과 Warm ENSO episode의 경우 강수량 증가와 유의한 상관관계를 나타냈으며, Cold ENSO episode의 경우 강수량 감소와 유의한 상관관계를 나타내었다. 이러한 분석 결과는 최근 들어 우리나라에 발생하고 있는 이상기후발생과 관련된 연구에 유용한 정보를 제공해 줄 수 있을 것으로 판단된다.EX>$\times$2등 LEED패턴을 관찰할 수 있었다.유(思惟)로서 관찰추리(觀察推理)되였기 때문에 현대의학(現代醫學)과의 비교설명(比較說明)이 거의 불가능(不可能)하며 또한 한의학이론(韓醫學理論)의 과학적근거제시(科學的根據提示)도 현재(現在)로서는 어려운 형편(形便)이다. 그러나 이 의학(醫學)은 이미 2,000여년간(餘年間) 동양(東洋)에서 전래(傳來)한 경험의학(經驗醫學)으로서 동양인(東洋人)들은 이 의학(醫學)으로 소화계질환(消化系疾患)을 포함(包含)한 여러 가지 인간(人間)의 질병(疾病)을 치료(治療)해 왔고 현재(現在)도 이 의학(醫學)으로 치료(治療)를 하고 있고 실제적(實際的)으로 많은 치효(治效)를 보고 있는 것이다. 그러므로 이 의학(醫學)속에는 아직도 현대과학(現代科學)으로서 해명(解明)되지 못하는 어떤 요소(要素)들이 깃들여 있는 것이 확실(確實)하며 이것을 밝혀내기 위해서 우리 의학자(醫學者)들은 이 의학(醫學)에 관(關)한 모든 것을 연구(硏究)해 보아야 한다. 이런 뜻에서 본고찰(本考察)은 한방(漢方)의 역대제문헌(歷代諸文獻)을 섭렵(涉獵)하여 소화계질환(消化系疾患)에 관(關)한 제이론(諸理論)들을 발췌(拔萃), 한방(漢方)에서 보는 (1) 소화기관(消化器官)의 생리(生理) (2) 병리(病理), 증후(證候)

  • PDF

모바일 랜드마크 가이드 : LOD와 문맥적 장치 기반의 실외 증강현실 (A Mobile Landmarks Guide : Outdoor Augmented Reality based on LOD and Contextual Device)

  • 조비성;누르지드;장철희;이기성;조근식
    • 지능정보연구
    • /
    • 제18권1호
    • /
    • pp.1-21
    • /
    • 2012
  • 최근 스마트폰의 등장으로 인해 사용자들은 시간과 공간의 제약 없이 스마트폰을 이용한 새로운 의사소통의 방법을 경험하고 있다. 이러한 스마트폰은 고화질의 컬러화면, 고해상도 카메라, 실시간 3D 가속그래픽과 다양한 센서(GPS와 Digital Compass) 등을 제공하고 있으며, 다양한 센서들은 사용자들(개발자, 일반 사용자)로 하여금 이전에 경험하지 못했던 서비스를 경험할 수 있도록 지원하고 있다. 그 중에서 모바일 증강현실은 스마트폰의 다양한 센서들을 이용하여 개발할 수 있는 대표적인 서비스 중 하나이며, 이러한 센서들을 이용한 다양한 방법의 모바일 증강현실 연구들이 활발하게 진행되고 있다. 모바일 증강현실은 크게 위치 정보 기반의 서비스와 내용 기반 서비스로 구분할 수 있다. 위치 정보 기반의 서비스는 구현이 쉬운 장점이 있으나, 증강되는 정보의 위치가 실제의 객체의 정확한 위치에 증강되는 정보가 제공되지 않는 경우가 발생하는 단점이 존재한다. 이와 반대로, 내용 기반 서비스는 정확한 위치에 증강되는 정보를 제공할 수 있으나, 구현 및 데이터베이스에 존재하는 이미지의 양에 따른 검색 속도가 증가하는 단점이 존재한다. 본 논문에서는 위치 정보 기반의 서비스와 내용기반의 서비스의 장점들을 이용한 방법으로, 스마트폰의 다양한 센서(GPS, Digital Compass)로 부터 수집된 정보를 이용하여 데이터베이스의 탐색 범위를 줄이고, 탐색 범위에 존재하는 이미지들의 특징 정보를 기반으로 실제의 랜드마크를 인식하고, 인식한 랜드마크의 정보를 링크드 오픈 데이터(LOD)에서 검색하여 해당 정보를 제공하는 랜드마크 가이드 시스템을 제안한다. 제안하는 시스템은 크게 2개의 모듈(랜드마크 탐색 모듈과 어노테이션 모듈)로 구성되어있다. 첫 번째로, 랜드마크 탐색 모듈은 스마트폰으로 인식한 랜드마크(건물, 조형물 등)에 해당하는 정보들을 (텍스트, 사진, 비디오 등) 링크드 오픈 데이터에서 검색하여 검색된 결과를 인식한 랜드마크의 정확한 위치에 정보를 제공하는 역할을 한다. 스마트폰으로부터 입력 받은 이미지에서 특징점 추출을 위한 방법으로는 SURF 알고리즘을 사용했다. 또한 실시간성을 보장하고 처리 속도를 향상 시키기 위한 방법으로는 입력 받은 이미지와 데이터베이스에 있는 이미지의 비교 연산을 수행할 때 GPS와 Digital Compass의 정보를 사용하여 그리드 기반의 클러스터링을 생성하여 탐색 범위를 줄임으로써, 이미지 검색 속도를 향상 시킬 수 있는 방법을 제시하였다. 두 번째로 어노테이션 모듈은 사용자들의 참여에 의해서 새로운 랜드마크의 정보를 링크드 오픈 데이터에 추가할 수 있는 기능을 제공한다. 사용자들은 키워드를 이용해서 링크드 오픈 데이터로에서 관련된 주제를 검색할 수 있으며, 검색된 정보를 수정하거나, 사용자가 지정한 랜드마크에 해당 정보를 표시할 수 있도록 지정할 수 있다. 또한, 사용자가 지정하려고 하는 랜드마크에 대한 정보가 존재하지 않는다면, 사용자는 랜드마크의 사진을 업로드하고, 새로운 랜드마크에 대한 정보를 생성하는 기능을 제공한다. 이러한 과정은 시스템이 카메라로부터 입력 받은 대상(랜드마크)에 대한 정확한 증강현실 컨텐츠를 제공하기 위해 필요한 URI를 찾는데 사용되며, 다양한 각도의 랜드마크 사진들을 사용자들에 의해 협업적으로 생성할 수 있는 환경을 제공한다. 본 연구에서 데이터베이스의 탐색 범위를 줄이기 위해서 랜드마크의 GPS 좌표와 Digital Compass의 정보를 이용하여 그리드 기반의 클러스터링 방법을 제안하여, 그 결과 탐색시간이 기존에는 70~80ms 걸리는 반면 제안하는 방법을 통해서는 18~20ms로 약 75% 정도 향상된 것을 확인할 수 있었다. 이러한 탐색시간의 감소는 전체적인 검색시간을 기존의 490~540ms에서 438~480ms로 약 10% 정도 향상된 것을 확인하였다.

트랜잭션 가중치 기반의 빈발 아이템셋 마이닝 기법의 성능분석 (Performance analysis of Frequent Itemset Mining Technique based on Transaction Weight Constraints)

  • 윤은일;편광범
    • 인터넷정보학회논문지
    • /
    • 제16권1호
    • /
    • pp.67-74
    • /
    • 2015
  • 최근, 아이템들의 가치를 고려한 빈발 아이템셋 마이닝 방법은 데이터 마이닝 분야에서 가장 중요한 이슈 중 하나로 활발히 연구되어왔다. 아이템들의 가치를 고려한 마이닝 기법들은 적용 방법에 따라 크게 가중화 빈발 아이템셋 마이닝, 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝, 유틸리티 아이템셋 마이닝으로 구분된다. 본 논문에서는 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝들에 대해 실증적인 분석을 수행한다. 일반적으로 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝 기법들은 데이터베이스 내 아이템들의 가치를 고려함으로써 트랜잭션 가중치를 계산한다. 또한, 그 기법들은 계산된 각 트랜잭션의 가중치를 바탕으로 가중화 빈발 아이템셋들을 마이닝 한다. 트랜잭션 가중치는 트랜잭션 내에 높은 가치의 아이템이 많이 포함 될수록 높은 값으로 나타나기 때문에 우리는 각 트랜잭션의 가중치의 분석을 통해 그 가치를 파악할 수 있다. 우리는 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝 기법 중에서 가장 유명한 알고리즘인 WIS와 WIT-FWIs, IT-FWIs-MODIFY, WIT-FWIs-DIFF의 장 단점을 분석하고 각각의 성능을 비교한다. WIS는 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝의 개념과 그 기법이 처음 제안된 알고리즘이며, 전통적인 빈발 아이템셋 마이닝 기법인 Apriori를 기반으로 하고 있다. 또 다른 트랜잭션 가중치 기반의 빈발 아이템셋 마이닝 방법인 WIT-FWIs와 WIT-FWIs-MODIFY, WIT-FWIs-DIFF는 가중화된 빈발 아이템셋 마이닝을 더 효율적으로 수행하기 위해 격자구조(Lattice) 형태의 특별한 저장구조인 WIT-tree를 이용한다. WIT-tree의 각 노드에는 아이템셋 정보와 아이템셋이 포함된 트랜잭션의 ID들이 저장되며, 이 구조를 사용함으로써 아이템셋 마이닝 과정에서 발생되는 다수의 데이터베이스 스캔 과정이 감소된다. 특히, 전통적인 알고리즘들이 수많은 데이터베이스 스캔을 수행하는 반면에, 이 알고리즘들은 WIT-tree를 이용해 데이터베이스를 오직 한번만 읽음으로써 마이닝과정에서 발생 가능한 오버헤드 문제를 해결한다. 또한, 공통적으로 길이 N의 두 아이템셋을 이용해 길이 N+1의 새로운 아이템셋을 생성한다. 먼저, WIT-FWIs는 각 아이템셋이 동시에 발생되는 트랜잭션들의 정보를 활용하는 것이 특징이다. WIT-FWIs-MODIFY는 조합되는 아이템셋의 정보를 이용해 빈도수 계산에 필요한 연산을 줄인 알고리즘이다. WIT-FWIs-DIFF는 두 아이템셋 중 하나만 발생한 트랜잭션의 정보를 이용한다. 우리는 다양한 실험환경에서 각 알고리즘의 성능을 비교분석하기 위해 각 트랜잭션의 형태가 유사한 dense 데이터와 각 트랜잭션의 구성이 서로 다른 sparse 데이터를 이용해 마이닝 시간과 최대 메모리 사용량을 평가한다. 또한, 각 알고리즘의 안정성을 평가하기 위한 확장성 테스트를 수행한다. 결과적으로, dense 데이터에서는 WIT-FWIs와 WIT-FWIs-MODIFY가 다른 알고리즘들보다 좋은 성능을 보이고 sparse 데이터에서는 WIT-FWI-DIFF가 가장 좋은 효율성을 갖는다. WIS는 더 많은 연산을 수행하는 알고리즘을 기반으로 했기 때문에 평균적으로 가장 낮은 성능을 보인다.

충돌 정보와 m-bit인식을 이용한 적응형 RFID 충돌 방지 기법 (Adaptive RFID anti-collision scheme using collision information and m-bit identification)

  • 이제율;신종민;양동민
    • 인터넷정보학회논문지
    • /
    • 제14권5호
    • /
    • pp.1-10
    • /
    • 2013
  • RFID(Radio Frequency Identification)시스템은 하나의 RFDI리더, 다수의 RFID태그 장치들로 이루어진 비접촉방식의 근거리 무선 인식 기술이다. RFID태그는 자체적인 연산 수행이 가능한 능동형 태그와 이에 비해 성능은 떨어지지만 저렴한 가격으로 물류 유통에 적합한 수동형 태그로 나눌 수 있다. 데이터 처리 장치는 리더와 연결되어 리더가 전송받은 정보를 처리한다. RFID 시스템은 무선주파수를 이용해 다수의 태그를 빠른 시간에 인식할 수 있다. RFID시스템은 유통, 물류, 운송, 물품관리, 출입 통제, 금융 등 다양한 분야에서 응용되고 있다. 하지만 RFID시스템을 더욱 확산시키기 위해서는 가격, 크기, 전력소모, 보안 등 해결할 문제가 많다. 그 문제들 중에서 본 논문에서는 다수의 수동형 태그를 인식할 때 발생하는 충돌 문제를 해결하기 위한 알고리즘을 제안한다. RFID 시스템에서 다수의 태그를 인식하기 위한 충돌 방지 기법에는 확률적인 방식과 결정적인 방식 그리고 이를 혼합한 하이브리드 방식이 있다. 본 논문에서는 우선 기존에 있던 확률적 방식의 충돌방지기법인 알로하 기반 프로토콜과 결정적 방식의 충돌방지기법인 트리 기반 프로토콜에 대해 소개한다. 알로하 기반 프로토콜은 시간을 슬롯 단위로 나누고 태그들이 각자 임의로 슬롯을 선택하여 자신의 ID를 전송하는 방식이다. 하지만 알로하 기반 프로토콜은 태그가 슬롯을 선택하는 것이 확률적이기 때문에 모든 태그를 인식하는 것을 보장하지 못한다. 반면, 트리 기반의 프로토콜은 리더의 전송 범위 내에 있는 모든 태그를 인식하는 것을 보장한다. 트리 기반의 프로토콜은 리더가 태그에게 질의 하면 태그가 리더에게 응답하는 방식으로 태그를 인식한다. 리더가 질의 할 때, 두 개 이상의 태그가 응답 한다면 충돌이라고 한다. 충돌이 발생하면 리더는 새로운 질의를 만들어 태그에게 전송한다. 즉, 충돌이 자주 발생하면 새로운 질의를 자주 생성해야하기 때문에 속도가 저하된다. 그렇기 때문에 다수의 태그를 빠르게 인식하기 위해서는 충돌을 줄일 수 있는 효율적인 알고리즘이 필요하다. 모든 RFID태그는 96비트의 EPC(Electronic Product Code)의 태그ID를 가진다. 이렇게 제작된 다수의 태그들은 회사 또는 제조업체에 따라 동일한 프리픽스를 가진 유사한 태그ID를 가지게 된다. 이 경우 쿼리 트리 프로토콜을 이용하여 다수의 태그를 인식 하는 경우 충돌이 자주 일어나게 된다. 그 결과 질의-응답 수는 증가하고 유휴 노드가 발생하여 식별 효율 및 속도에 큰 영향을 미치게 된다. 이 문제를 해결하기 위해 충돌 트리 프로토콜과 M-ary 쿼리 트리 프로토콜이 제안되었다. 하지만 충돌 트리 프로토콜은 쿼리 트리 프로토콜과 마찬가지로 한번에 1비트씩 밖에 인식을 못한다는 단점이 있다. 그리고 유사한 태그ID들이 다수 존재할 경우, M-ary 쿼리 트리 프로토콜을 이용해 인식 하면, 불필요한 질의-응답이 증가한다. 본 논문에서는 이러한 문제를 해결하고자 M-ary 쿼리 트리 프로토콜의 매핑 함수를 이용한 m-비트 인식, 맨체스터 코딩을 이용한 태그 ID의 충돌정보, M-ary 쿼리 트리의 깊이를 하나 감소시킬 수 있는 예측 기법을 이용하여 성능을 향상시킨 적응형 M-ary 쿼리트리 프로토콜을 제안한다. 본 논문에서는 기존의 트리기반의 프로토콜과 제안하는 기법을 동일한 조건으로 실험하여 비교 분석 하였다. 그 결과 제안하는 기법은 식별시간, 식별효율 등에서 다른 기법들보다 성능이 우수하다.

관심영역 암호화 시 발생하는 H.264 영상의 비트레이트 오버헤드 최소화 방법 연구 (A Study on the Method of Minimizing the Bit-Rate Overhead of H.264 Video when Encrypting the Region of Interest)

  • 손동열;김지민;지청민;김강석;김기형;홍만표
    • 정보보호학회논문지
    • /
    • 제28권2호
    • /
    • pp.311-326
    • /
    • 2018
  • H.264/AVC-MPEG의 JM v10.2 코드 기반에서 QCIF ($176{\times}144$) 해상도를 가지는 News 샘플 영상을 사용하여 실험을 하였다. 암호화를 하게 될 관심영역(Region of Interest, ROI)이 H.264 표준의 움직임 예측 및 보상의 특성상 연속적으로 각 프레임마다 불필요하게 참조하여 드리프트를 발생시켰다. 드리프트를 완화하기 위해 암호화가 된 I픽처를 특정 주기로 재삽입하는 최신 관련연구의 방법은 추가 연산량 증가로 이어져 영상 전체의 비트레이트 오버헤드가 증가하는 요인이 된다. 따라서 움직임 예측 및 보상 단계에서 각 프레임마다 암호화가 될 관심영역에서의 Block과 Frame의 참조 탐색 범위를 제한하고, 암호화가 되지 않을 비관심영역에서의 참조 탐색 범위는 정상적인 인코딩 효율을 유지하기 위해 제한하지 않는다. 이와 같이 특정 참조 탐색 범위가 제한된 영상 인코딩을 한 후, 영상 속 개인정보 보호를 위해 얼굴과 같이 개인 식별이 가능한 관심영역에 대해 RC4 비트스트림 암호화 하는 방법을 제안한다. 그리고 동일한 환경의 조건에서 암호화되지 않은 원본 영상과 최신 관련연구 방법과 본 연구의 제안 방법을 각각 구현한 후, 실험 결과들을 비교 분석하였다. 최신 관련연구 방법과 다르게 제안방법을 통해 시간상 드리프트를 완화하면서, 제안방법이 적용된 영상 전체의 비트레이트 오버헤드가 원본 영상보다 2.35% 증가되고 최신 관련연구 방법보다 14.93% 감소되었다. 이와 같이 향상된 결과는 본 연구의 실험을 통해 입증하였다.