• 제목/요약/키워드: 파일이름

검색결과 61건 처리시간 0.028초

비즈니스 인텔러전스를 위한 지능적 웹 로거 (An Intelligent Web Logger for Business Intelligence)

  • 임윤선;정안모;김명
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (1)
    • /
    • pp.271-273
    • /
    • 2001
  • 웹 로그는 웹 서버를 통해 이루어지는 작업들에 관한 기록으로써, OLAP이나 데이터 마이닝과 같은 비즈니스 인텔리전스 기술로 분석되어 고부가가치 창출에 사용되는 중요한 자료이다. 웹 로그에는 파일 이름과 같은 물리적인 데이터가 저장되는데 이러한 데이터는 분석에 사용되기 전에 정제과정을 통해 의미 있는 데이터로 변환되거나 불필요한 경우에는 삭제된다. 웹 로그 데이터의 분량을 적정선으로 유지하면서 데이터 정제 작업의 일부가 해결되도록 하는 방법으로 웹로그 생성단계에서 시스템이 제공하는 필터를 쓸 수 있다. 그러나, 필터로는 웹 페이지의 내용이 동적으로 변경되는 경우 그 상황을 즉시 반영하기가 쉽지 않다. 본 연구에서는 웹 로그가 ‘지능적 웹 로거’를 통해 생성되도록 하여 이러한 문제를 해결하였다. ‘지능적 웹 로거’를 통해 불필요한 데이터의 생성을 막고, 물리적인 데이터를 신속하게 의미 있는 데이터로 변환하도록 하였다. 웹 페이지의 변경 내용을 웹 로그 생성에 즉시 반영하여 의미 있는 데이터 생성에 이용함으로써, 웹 로그 생성 후에 실행되던 데이터 정제작업 자체를 단순화시켰고, 웹사이트 관리자가 편리한 사용자 인터페이스로 로그 규칙을 만들어 적용할 수 있도록 하였다.

  • PDF

프로세스 가상 메모리 데이터 유사성을 이용한 프로세스 할로윙 공격 탐지 (Proposal of Process Hollowing Attack Detection Using Process Virtual Memory Data Similarity)

  • 임수민;임을규
    • 정보보호학회논문지
    • /
    • 제29권2호
    • /
    • pp.431-438
    • /
    • 2019
  • 파일리스 악성코드는 악성 행위를 수행할 페이로드의 흔적을 은닉하기 위해 메모리 주입 공격을 이용한다. 메모리 주입 공격 중 프로세스 할로윙이라는 이름의 공격은 시스템 프로세스 등을 일시정지 상태로 생성시킨 다음, 해당 프로세스에 악성 페이로드를 주입시켜 정상 프로세스인 것처럼 위장해 악성행위를 수행하는 방법이다. 본 논문은 프로세스 할로윙 공격이 발생했을 경우, 악성 행위 실제 수행 여부와 상관없이 메모리 주입 여부를 검출할 수 있는 방법을 제안한다. 메모리 주입이 의심되는 프로세스와 동일한 실행 조건을 갖는 복제 프로세스를 실행시키고, 각 프로세스 가상 메모리 영역에 속해있는 데이터 집합을 퍼지 해시를 이용해 비교한 다음 유사도를 산출한다.

제품군의 재사용 가능한 클론 코드의 메소드 경로 통일을 위한 코드 클러스터링 방법 (A Code Clustering Technique for Unifying Method Full Path of Reusable Cloned Code Sets of a Product Family)

  • 김태영;이지현;김은미
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권1호
    • /
    • pp.1-18
    • /
    • 2023
  • 유사한 소프트웨어는 기존 산출물을 복제하고 수정하는 클론-앤-오운(clone-and-own, CAO) 방법으로 개발되곤 한다. 그러나 클론-앤-오운 방법은 복제된 제품의 수가 늘면서 유지보수를 어렵게 만들기 때문에 나쁜 프랙티스로 간주된다. 소프트웨어 제품라인 공학은 체계적인 재사용을 통해 소프트웨어 제품군을 개발하는 방법으로 클론-앤-오운 방법의 문제를 해결할 수 있다. CAO 방식으로 개발되어 온 제품패밀리를 제품라인 공학으로 마이그레이션하는 작업은 여러 소프트웨어 제품에서 클로닝된 부분들을 찾아 통합하고 재사용 가능한 자산으로 구축하는 것으로부터 시작된다. 그러나 클로닝이 디렉토리부터 코드 라인까지 다양한 수준에서 발생하고 그 과정에서 이들의 구조에 변경이 일어날 수 있어 단순하게 클로닝을 찾아내는 것만으로는 고품질의 제품라인 코드베이스를 구축하기 어렵다. 성공적인 마이그레이션을 위해서는 소스 코드들 사이의 클로닝 관계를 찾는 것 이외에도 소스 코드들의 파일 경로와 클래스 이름, 메소드 시그니처 등의 동일성을 확보는 작업이 선행되어야 한다. 이에 본 연구는 CAO 기반으로 개발된 제품들로부터 마이그레이션 대상 제품들을 선정한 후 제품들에 흩어져 있는 유사 코드 집합을 검출하여 메소드 경로의 통일이 필요한 대상을 식별하는 클러스터링 방법을 제안한다. 제안 방법의 효과를 보이기 위해 CAO 방식으로 진화해온 ApoGames 제품군에 제안 방법을 적용하여 실험을 진행하였다. 그 결과, 전처리 없이 수행된 파일의 상대 경로 기반 클러스터링 방법의 평균 정밀도는 0.91이며 식별된 공통 클러스터의 개수는 0개인 반면에 이 논문에서 제안하는 전처리와 함께 수행된 메소드 시그니처 기반 클러스터링 방법의 평균 정밀도는 0.98로 개선되었으며 식별된 공통 클러스터는 최대 15개까지 증가하였다.

다초점 촬영과 초점후처리 기능을 가진 스마트폰 카메라 앱 (Camera App of Smartphone with Multi-Focus Shooting and Focus Post-processing Functions)

  • 박채원;김경미;유송연;김유진;황기태;정인환;이재문
    • 한국인터넷방송통신학회논문지
    • /
    • 제24권1호
    • /
    • pp.189-196
    • /
    • 2024
  • 이미지 처리 기법을 통해 이미 촬영된 사진의 초점을 다른 곳으로 이동시키는 것은 현재까지 거의 불가능하다. 본 논문은 촬영된 사진 이미지를 사후에 다른 곳으로 초점을 이동시킬 수 있는 기술에 도전하였다. 본 논문은 이 목적을 달성하기 위해 카메라가 사진을 촬영할 당시부터 여러 초점을 가진 사진을 촬영하여 한 장의 JPEG 파일 속에 저장해두었다가, 사용자가 원하는 위치에 초점을 맞춘 사진을 끌어내는 방식을 제안하고 구현하였다. 본 논문은 가까운 곳부터 먼 곳까지 렌즈의 초점 거리를 빠르게 이동시키면서 여러 사진을 촬영하는 기법과 카메라의 뷰파인더에 보이는 객체들을 인식하여 객체별로 초점이 맞추어진 여러 사진을 촬영하는 2가지 기법을 구현하였다. 촬영된 여러 사진들은 한 장의 JPEG에 저장하여 기존의 사진 뷰어들과 호환성을 유지하도록 하였다. 이 때 이 JPEG 파일은 여러 이미지를 저장할 수 있도록 이전의 연구에서 제안한 All-in-JPEG 형식을 활용하였다. 본 논문은 이 기술들을 OnePIC 이름의 안드로이드 앱으로 구현하여 실용성을 검증하였다.

링크드 데이터에서 인물 정보의 식별 및 연계 범위 확장에 관한 연구: 국립중앙도서관 링크드 데이터를 중심으로 (Expanding the Scope of Identifying and Linking of Personal Information in Linked Data: Focusing on the Linked Data of National Library of Korea)

  • 이성숙;박지영;이혜원
    • 정보관리학회지
    • /
    • 제34권3호
    • /
    • pp.7-21
    • /
    • 2017
  • 본 연구에서는 국립중앙도서관 링크드 데이터를 대상으로 인물 정보가 표현되고 연계되는 방식을 분석하고, 이를 확장하기 위한 방안을 제안하였다. 분석 결과, 저자로서의 인물 정보는 링크드 데이터에서도 인물을 표현하는 어휘와 연계되어 기술되고 있는 반면에, 주제로 표현된 인물은 개념으로만 취급되고 있었다. 또한 링크드 데이터 구축과정에서 기존의 전거 정보를 변환한 것 외에는 별도의 부가 정보를 추가했는지를 확인할 수 없었다. 이에 본 연구에서는 저자로서의 인물 정보뿐 아니라 주제로서의 인물 정보도 서지 정보에 포함시키고, 저자로서의 인물정보와 주제로서의 인물 정보를 연계할 때 링크드 데이터의 품질을 제고할 수 있다고 판단하였다. 그리고 이와 더불어 인물과 관련된 부가 링크 정보를 함께 구축하고 이를 활용하여 서지데이터 검색의 접근점을 확장하는 방안도 함께 제안하였다.

개체 타입별 분할공간을 이용한 웹 프락시 캐시의 대체 알고리즘 (Web Proxy Cache Replacement Algorithms using Object Type Partition)

  • Soo-haeng, Lee;Sang-bang, Choi
    • 한국통신학회논문지
    • /
    • 제27권5C호
    • /
    • pp.399-410
    • /
    • 2002
  • 웹 캐시는 클라이언트와 서버사이에 위치하여, 대리자의 역할을 하는 프락시 서버의 기능적측면의 다른 이름이다. 클라이언트와 프락시 서버사이는 주로 LAN을 통해 연결되므로 넓은 대역폭을 갖게 되지만 웹 캐시의 저장공간은 한정되어 있으므로 웹 캐시내에 존재하는 개체들은 대체 알고리즘이라는 어떤 규칙에 의해 새 개체를 위한 공간확보를 위해 삭제되게 된다. 대부분의 대체 알고리즘들은 성능평가기준인 히트율과 바이트히트율 중 단지 하나의 성능평가기준만을 만족하던지, 때때로 어느 한 기준도 만족시키지 못한다. 본 논문에서 우리는 히트율과 바이트히트율 모두에서 높은 성능을 나타내는 두 가지의 대체알고리즘을 제안한다. 첫 번째 알고리즘은 기본모델로서, 캐시를 파일타입에 따라 적절히 분할시킨다. 두 번째 알고리즘에서는 2-레벨의 캐시구조를 사용한다. 상위레벨캐시는 기본 모델에서처럼 운용되고, 하위레벨캐시는 공유공간으로서 모든 타입의 개체들을 집합적으로 수용하게 된다. 트레이스-드리븐 시뮬레이션을 사용하여 히트율과 바이트히트율을 측정함으로써 제안 알고리즘들의 성능을 평가하였다.

HSI 컬러 공간과 신경망을 이용한 내용 기반 이미지 검색 (Content-based Image Retrieval Using HSI Color Space and Neural Networks)

  • 김광백;우영운
    • 한국전자통신학회논문지
    • /
    • 제5권2호
    • /
    • pp.152-157
    • /
    • 2010
  • 컴퓨터와 인터넷의 발달로 정보의 형태가 다양화 되어 문서 위주의 자료들로부터 이미지, 오디오, 비디오, 음성 등의 모습으로 혼합되어 가고 있다. 하지만 대부분의 검색은 문서 위주로 하기 때문에 이미지, 오디오, 비디오 등은 파일의 이름이 명확하게 설정되어 있지 않을 경우에는 검색을 할 수 없다. 이러한 문제점을 해결하기 위해 문서가 아닌 내용을 기반으로 검색하는 방법을 내용 기반 검색이라고 한다. 그리고 이미지의 내용을 기반으로 검색하는 방법을 내용 기반 이미지 검색이라고 한다. 본 논문에서는 HSI 컬러 공간, ART2 알고리즘, SOM 알고리즘을 이용한 내용 기반 이미지 검색 방법을 제안한다. 제안하는 방법은 학습 대상을 선정하기 위해 원 영상의 특징을 분할한다. 그리고 사용자가 학습 대상을 선정하도록 하기 위해 분할된 특징을 SOM 알고리즘에 적용하여 비슷한 특징을 가지는 영상들로 군집화 한다. 군집화된 영상들에 대해 사용자가 학습 대상을 선정하여 ART2 알고리즘에 적용하여 학습한다. 제안한 방법을 적용하여 이미지 검색을 실험한 결과 제안된 방법은 하나의 이미지가 여러 개의 키워드를 가질 수 있기 때문에 이미지에 포함된 정보를 효과적으로 검색하는 것을 확인하였다.

P2P기반 협업 프레임워크: 오픈웨어 (P2P-based Collaboration Framework: Openwar)

  • 송진수;박충식;김윤상;권순범
    • 한국지능정보시스템학회:학술대회논문집
    • /
    • 한국지능정보시스템학회 2005년도 공동추계학술대회
    • /
    • pp.453-460
    • /
    • 2005
  • P2P(Peer to Peer) 기술은 잠재적 능력에도 불구하고 컨텐츠의 저작권문제와 보안문제 등으로 인하여 많은 사람들이 충분히 활용하지 못하고 있다. 본 연구는 인터넷 사용자(개인)와 소규모 서버를 운영하는 조직들이 정보 제공, 분배, 공유의 정보시스템 구조를 자신들의 목적에 맞게 자유롭게 만들 수 있는 프레임워크인 오픈웨어 (Openware)의 개발에 관한 것이다. 오픈웨어는 P2P기반 시스템으로 다음과 같은 특징올 갖는다. 1) 다수의 서버와 클라이언트로 이루어지는 구조로, 사용자의 목적에 맞게 집중형 혹은 분산형 구조를 자유롭게 혼합하여 정보시스템을 구성 할 수 있다. 이러한 정보 구조의 유연성은 다양한 형태의 협업(개인과 개인, 개인과 그룹, 그룹과 그룹)이 요구되는 응용 시스템의 기반을 제공한다. 2) 데이터 관점에서 오픈웨어는 개인이 데이터베이스를 손쉽게 생성, 관리 할 수 있고, 자신의, 데이터 혹은 데이터베이스 구조를 다른 사람이나 그룹과 공유 하거나 통합 할 수 있다. 3) 데이터 통신면에서 오픈웨어는 HTTP(HyperText Transfer Protocol) 프로토콜만을 사용하는 웹 기반 시스템으로 인터넷에 연결 되어있는 누구와도 오픈웨어를 통해 협업이 가능하다. 4) 소프트웨어 이름에서 알 수 있듯이 오픈웨어는 Java, JSP, Apache, Resin등 공개소프트어로 만들어져 있고, 오픈웨어 자체도 공개소프트웨어이다. 오픈웨어는 개인과 그룹의 흠페이지 생성과 관리, 파일 공유 기능이 구현 되어있고, 데이터베이스 공유, 통합 기능을 이용하여 개인이나 그룹의 주소록관리, 일정관리 등이 가능하다. 오픈웨어는 사용자 흑은 개발자가 다양한 형태의 응용컴포넌트를 자유롭게 등록하여 기능을 추가 할 수 있는 확장성올 제공하고 있어서, 앞으로 e-메일, 매신저, 전자결재, 지식관리시스템, 인터넷 방송 시스템의 기반 구조 역할을 할 수 있다. 현재 오픈웨어에 적용하기 위한 P2P 기반의 지능형 BPM(Business Process Management)에 관한 연구와 X인터넷 기술을 이용한 RIA (Rich Internet Application) 기반 웹인터페이스 연구를 진행하고 있다.

  • PDF

전자책 DRM의 상호호환성을 지원하는 ePUB 기반의 권리정보 호환 방법에 관한 연구 (A Study of ePUB-based Interoperability Method of Rights Information Supporting Mutual Comparability of eBook DRM)

  • 김태현;강호갑;윤희돈;조성환
    • 한국인터넷방송통신학회논문지
    • /
    • 제12권2호
    • /
    • pp.205-214
    • /
    • 2012
  • 전자책에 대한 포맷 및 저작권 보호 표준을 정하고 있는 IDPF에서는 2011년 10월 전자책에 대한 기술 표준인 ePUB 3.0을 발표하였다. 이 표준에서는 전자책을 표현하기 위한 방법과 전자책 콘텐츠를 보호하기 위한 기술적 명세서를 포함하고 있는데, 콘텐츠 보호를 위한 기술명세서에는 암호화와 전자서명에 대한 표현방식을 자세히 명시하고 있다. 그러나 콘텐츠 보호를 위해 중요한 정보인 권리정보의 표현방식에 대해서는 참여사들의 이해대립으로 인해 권리정보를 저장하기 위한 파일 이름만을 명시하고 있을 뿐 표준 기술규격을 정하지 않고 있다. 이는 전자책 서비스업체들이 사용하는 권리정보의 표현 및 형식에 아무런 통일성을 제공하지 않는 것으로써, 전자책에 대한 저작권 보호기술이 사용될 경우 ePUB이라는 표준이 존재함에도 불구하고 전자책 열람 장치들에 대한 호환성은 사실상 기대할 수 없는 결과를 낳게 되었다. 본 논문은 서로 다른 전자책 서비스업체들이 다양한 권리표현방식을 사용하더라도 통일된 권리정보처리 방법을 사용하여 전자책 DRM에 대한 호환성을 유지시켜 주는 방법을 제안하고자 한다. 이 연구의 제안 모델은 전체 연구과제의 타 산출물들과 같이 표준 레퍼런스 소프트웨어가 공개 소프트웨어로 등록되어 소스가 무료로 제공될 예정이다.

스마트팜 빅데이터 분석을 위한 이기종간 심층학습 기법 연구 (A Study on Deep Learning Methodology for Bigdata Mining from Smart Farm using Heterogeneous Computing)

  • 민재기;이동훈
    • 한국농업기계학회:학술대회논문집
    • /
    • 한국농업기계학회 2017년도 춘계공동학술대회
    • /
    • pp.162-162
    • /
    • 2017
  • 구글에서 공개한 Tensorflow를 이용한 여러 학문 분야의 연구가 활발하다. 농업 시설환경을 대상으로 한 빅데이터의 축적이 증가함과 아울러 실효적인 정보 획득을 위한 각종 데이터 분석 및 마이닝 기법에 대한 연구 또한 활발한 상황이다. 한편, 타 분야의 성공적인 심층학습기법 응용사례에 비하여 농업 분야에서의 응용은 초기 성장 단계라 할 수 있다. 이는 농업 현장에서 취득한 정보의 난해성 및 완성도 높은 생육/환경 모델링 정보의 부재로 실효적인 전과정 처리 기술 도출에 소요되는 시간, 비용, 연구 환경이 상대적으로 부족하기 때문일 것이다. 특히, 센서 기반 데이터 취득 기술 증가에 따라 비약적으로 방대해진 수집 데이터를 시간 복잡도가 높은 심층 학습 모델링 연산에 기계적으로 단순 적용할 경우 시간 효율적인 측면에서 성공적인 결과 도출에 애로가 있을 것이다. 매우 높은 시간 복잡도를 해결하기 위하여 제시된 하드웨어 가속 기능의 경우 일부 개발환경에 국한이 되어 있다. 일례로, 구글의 Tensorflow는 오픈소스 기반 병렬 클러스터링 기술인 MPICH를 지원하는 알고리즘을 공개하지 않고 있다. 따라서, 본 연구에서는 심층학습 기법 연구에 있어서, 예상 가능한 다양한 자원을 활용하여 최대한 연산의 결과를 빨리 도출할 수 있는 하드웨어적인 접근 방법을 모색하였다. 호스트에서 수행하는 일방적인 학습 알고리즘과 달리 이기종간 심층 학습이 가능하기 위해선 우선, NFS(Network File System)를 이용하여 데이터 계층이 상호 연결이 되어야 한다. 이를 위해서 고속 네트워크를 기반으로 한 NFS의 이용이 필수적이다. 둘째로 제한된 자원의 한계를 극복하기 위한 메모 공유 라이브러리가 필요하다. 셋째로 이기종간 프로세서에 최적화된 병렬 처리용 컴파일러를 이용해야 한다. 가장 중요한 부분은 이기종간의 처리 능력에 따른 작업을 고르게 분배할 수 있는 작업 스케쥴링이 수행되어야 하며, 이는 처리하고자 하는 데이터의 형태에 따라 매우 가변적이므로 해당 데이터 도메인에 대한 엄밀한 사전 벤치마킹이 수행되어야 한다. 이러한 요구조건을 대부분 충족하는 Open-CL ver1.2(https://www.khronos.org/opencl/)를 이용하였다. 최신의 Open-CL 버전은 2.2이나 본 연구를 위하여 준비한 4가지 이기종 시스템에서 모두 공통적으로 지원하는 버전은 1.2이다. 실험적으로 선정된 4가지 이기종 시스템은 1) Windows 10 Pro, 2) Linux-Ubuntu 16.04.4 LTS-x86_64, 3) MAC OS X 10.11 4) Linux-Ubuntu 16.04.4 LTS-ARM Cortext-A15 이다. 비교 분석을 위하여 NVIDIA 사에서 제공하는 Pascal Titan X 2식을 SLI로 구성한 시스템을 준비하였다. 개별 시스템에서 별도로 컴파일 된 바이너리의 이름을 통일하고, 개별 시스템의 코어수를 동일하게 균등 배분하여 100 Hz의 데이터로 입력이 되는 온도 정보와 조도 정보를 입력으로 하고 이를 습도정보에 Linear Gradient Descent Optimizer를 이용하여 Epoch 10,000회의 학습을 수행하였다. 4종의 이기종에서 총 32개의 코어를 이용한 학습에서 17초 내외로 연산 수행을 마쳤으나, 비교 시스템에서는 11초 내외로 연산을 마치는 결과가 나왔다. 기보유 하드웨어의 적절한 활용이 가능한 심층학습 기법에 대한 연구를 지속할 것이다

  • PDF