• 제목/요약/키워드: 로그 구조

검색결과 303건 처리시간 0.03초

전자 카달로그 특성요인이 인터넷 쇼핑몰 사용자의 구매의도에 미치는 영향에 관한 연구

  • 고일상;강주선
    • 한국산업정보학회:학술대회논문집
    • /
    • 한국산업정보학회 2003년도 추계공동학술대회
    • /
    • pp.627-655
    • /
    • 2003
  • 국내 전자상거래 규모가 확대됨에 따라 인터넷 쇼핑몰 사업자들은 전자카달로그를 구축하여 예측된 시장규모에 대비하고 있다. 특히 고객을 유인할 수 있는 제품에 대한 전자카달로그의 정보제공의 질이 중요하다. 따라서 본 연구에서는 먼저 인터넷 쇼핑몰의 컨텐츠 관련 기존 연구조사를 바탕으로 인터넷 쇼핑몰 사용자의 구매의도에 영향을 주는 전자카달로그 특성요인을 추출하고, 이를 실증적으로 검증하였다. 실증분석결과 전자카달로그 특성요인 중 충실성, 최신성, 상호작용성, 구조성이 고객의 구매의도에 유의한 영향을 미침을 확인할 수 있었다. 결론부분에서는 이러한 연구 결과를 바탕으로 인터넷 쇼핑몰 사업자에게 시사점을 제시하였다

  • PDF

효율적인 로그와 지수 연산을 위한 듀얼 페이즈 명령어 설계 (A Design of Dual-Phase Instructions for a effective Logarithm and Exponent Arithmetic)

  • 김치용;이광엽
    • 전기전자학회논문지
    • /
    • 제14권2호
    • /
    • pp.64-68
    • /
    • 2010
  • 본 논문은 작은 사이즈가 요구되는 제한적인 모바일 환경의 프로세서에서 별도의 연산기 없이 제안된 Dual Phase 명령어 구조를 이용해 효율적인 로그와 지수 연산이 가능한 방법을 제안한다. Floating Point 자료형의 지수부와 실수부를 추출하는 명령어 세트와 테일러 급수 전개를 이용해 로그의 근사치를 계산하여 24비트 단정도 부동 소수점을 연산하고, Dual Phase 명령어 구조를 활용해 명령어 실행 사이클을 줄였다. 제안된 구조는 별도의 연산기를 두는 구조보다 작은 사이즈를 유지하면서 성능저하를 33%까지 최소화 할 수 있는 구조이다.

포스트의 구조 유사성과 일일 발행수를 이용한 스플로그 탐지 (Splog Detection Using Post Structure Similarity and Daily Posting Count)

  • 백지현;조정식;김성권
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제37권2호
    • /
    • pp.137-147
    • /
    • 2010
  • 블로그는 웹과 로그의 합성어로, 개개인의 생각이나 관심사 등을 일기처럼 기록할 수 있는 웹 서비스이다. 블로그에는 문자 외에, 그림이나 비디오 파일 등 다양한 컨텐츠를 올릴 수 있다. 일반적으로 블로그의 포스트는 시간상의 역순으로 정렬되어 표현된다. 블로그 검색 엔진은 웹 검색 엔진처럼 블로그를 대상으로 사용자의 질의에 따라 정보를 찾아주는 서비스이다. 블로그 검색 엔진은 때때로 만족스럽지 못한 결과를 내곤 하는데, 이것은 스플로그라고 불리는 블로그 스팸에 의해 발생한다. 스플로그는 다른 블로그나 웹 페이지를 무단 도용하거나 자동으로 생성된 컨텐츠로 구성된 스팸 포스트를 가지고 있다. 스플로그는 검색 엔진의 검색 순위를 높이거나, 회원 가입 사이트로 보다 많은 사람들을 유치하기 위해 사용된다. 본 논문은 스플로그 탐지를 목적으로 한다. 본 논문에서 제안하는 스플로그 탐지 기법은 블로그 포스트의 구조 유사성과 일일 포스트 발행수에 따른 분석으로 토대로 이루어진다. 본 논문에서 제안하는 기법을 바탕으로 한 실험의 결과, 스플로그 탐지에 있어 90% 이상의 높은 정확도를 가지며, 만족할만한 수준을 보여준다.

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.

주기억 장치 데이터베이스 시스템에서 효율적인 POLUG 회복 기법 (Efficient POLUG Recovery Method in Main Memory Databases System)

  • 김명근;조숙경;정광철;이순조;배해영
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 봄 학술발표논문집 Vol.27 No.1 (B)
    • /
    • pp.190-192
    • /
    • 2000
  • MMDBMS(Main Memory Database Management System)에서 사용되는 갱신기법중 퍼지 검사점을 지원하는 직접갱신 기법은 많은 양의 로그를 필요로 하며 회복 과정이 복잡하다는 단점이 있다. 본 논문에서는 퍼지 검사점을 지원하면서 저장해야 할 로그의 양을 줄이고 회복 과정이 단순한 회복 기법을 제안한다. 제안하는 회복 기법은 로그의 양을 줄이고 위해 철회된 트랜잭션의 로그를 비휘발성 메모리에 저장하지 않는 시스템 구조와 많은 양의 메모리를 사용하지 않는 POLUG(Page Oritented Logical Undo loG)를 사용하여 퍼지 검사점을 지원할 수 있는 장점을 가진다.

  • PDF

멀티미디어 파일 시스템을 위한 회복 기법의 설계 및 구현 (Design and Implementation of the Recovery Method for Multimedia File System)

  • 김영철;김홍연;김병섭;원종호;이미영
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 가을 학술발표논문집 Vol.30 No.2 (1)
    • /
    • pp.334-336
    • /
    • 2003
  • 본 논문에서는 차세대 인터넷 서버의 멀티미디어 파일 시스템인 Content Container파일 시스템(CCFS)의 로그 기반 회복 기법을 설계하고 구현한 내용에 대해 기술한다. CCFS에서는 트랜잭션들이 개별적으로 로깅 할 수 있도록 함으로써 동시성을 높이면서 트랜잭션 수행 중에 로깅으로 인한 오버헤드를 줄인다. 그리고 로그 파일을 순환 구조로 사용할 수 있도록 효율적인 관리를 제공한다. 또한 시스템 고장이 발생하였을 때 로그 파일을 한번만 스캔하면서 완료한 트랜잭션에 대한 로그를 재수행함으로써 시스템의 빠른 회복과 재시작을 보장한다.

  • PDF

웹사이트 구조 개선을 위한 웹페이지 연관 규칙 발견과 웹사이트 성능 평가 (Discovering Web Page Association Rules & Evaluating Web Site Performance To Improve Web Site Structure)

  • 김민정;박승수
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (2)
    • /
    • pp.46-48
    • /
    • 2001
  • 현재 수많은 웹사이트들이 웹상에 존재하며 서비스를 하고 있다. 사용자는 여러 웹사이트 중에서 접속하기 편하고 잘 구성된 웹사이트에 접속하기 마련이므로, 잘 구성된 웹사이트 운영은 그 웹사이트의 생존 전략이며 방문자 유지에 필수적이다. 이를 위해 사용자들이 웹사이트에 접속한 기록이 남아 있는 웹서버 로그데이터(이하 웹 로그파일)를 분석하여 사용자들의 브라우징 패턴과 접속 경향, 웹 서버의 에러발생 정보 등을 파악할 수 있다. 본 논문에서는 Web Usage Mining 과 Web Structure Mining 작업으로 로그파일 분석과 웹사이트 구조분석을 수행하여 페이지들의 연관 관계와 웹사이트의 구조 정보를 발견해서 웹사이트의 구조를 개선하는 방안을 제안하고자 한다.

  • PDF

로그구조 디스크 서버에서 부분 세그먼트의 영향 (Partial Segement Effects on the Log-structured Disk Server)

  • 김대웅;남영진;박찬익
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1998년도 가을 학술발표논문집 Vol.25 No.2 (3)
    • /
    • pp.721-723
    • /
    • 1998
  • 본 논문에서는 기존의 로그구조 디스크 서버(Log-structured Disk Server ; LDS)상에서 부분 세그먼트에 의한 디스크 대역폭 이용률 저하 및 높은 공간 정리 부하(cleaning overhead)량과 같은 문제점을 제기하고, 이러한 부분 세그먼트를 제거하기 위한 방법의 하나로 비휘발성 메모리를 사용한 LDS를 제안한다. 이 새로운 LDS를 Solaris운영체제 상에서 구현하였으며, 다양한 실험을 통하여 제안된 구조가 디스크 대역폭 이용률 및 공간 정리 부하 측면에서 기존의 구조에 비해서 월등히 좋은 성능을 보임을 볼 수 있었다.

  • PDF

로그 구조 파일 시스템의 파일 단편화 해소를 위한 클리닝 기법 (An Efficient Cleaning Scheme for File Defragmentation on Log-Structured File System)

  • 박종규;강동현;서의성;엄영익
    • 정보과학회 논문지
    • /
    • 제43권6호
    • /
    • pp.627-635
    • /
    • 2016
  • 로그 구조 파일 시스템에서는 쓰기 작업을 처리할 때 새로운 블록들이 순차적으로 할당된다. 그러나, 다수의 프로세스가 번갈아가며 동기적 쓰기 작업을 요청할 경우, 파일 시스템 상에서는 각 프로세스가 생성한 파일이 단편화될 수 있다. 이 파일 단편화는 읽기 요청을 처리할 때 다수의 블록 I/O를 발생시키기 때문에 읽기 성능을 저하시킨다. 게다가, 미리 읽기 기능은 한 번에 요청되는 데이터의 양을 증가시킴으로써 성능 저하를 더욱 심화시킨다. 이에, 본 논문에서는 파일 단편화 문제를 해결하기 위해 로그구조 파일 시스템의 새로운 클리닝 기법을 제안한다. 제안 기법은 로그 구조 파일 시스템의 클리닝 과정 중 유효 데이터 블록을 아이노드 번호 순으로 정렬함으로써 한 파일의 데이터 블록들을 인접하게 재배치한다. 실험 결과, 제안한 클리닝 기법이 클리닝 전에 비해 약 60%의 파일 단편화를 제거하였고, 그 결과로 미리 읽기 기능을 적용했을 때 읽기 성능을 최고 21%까지 향상시키는 것을 확인하였다.

포아송-로그정규분포 모형에 관한 연구 (A Study on Poisson-lognormal Model)

  • 김용철
    • 응용통계연구
    • /
    • 제13권1호
    • /
    • pp.189-196
    • /
    • 2000
  • 포아송 분포에서 일반적으로 공액 사전 분포를 이용하여 사후확률의 수학적 계산이 간편하도록 한다. 그러나 모수 집합의 제한적 조건 때문에 비공액 사전 분포를 이용할 수 도 있다. 비공액 사전분포의 사용은 사후분포의 형태가 일상적인 분포집합의 형태를 갖지 않으므로 모형의 가정에 따라서 복잡한 구조를 갖을 수 도 있다. 특히 포아송-로그정규분포 모형에서의 모수 추정문제를 몬테 칼로방법을 이용하여 추정하고자 할 때 필요한 완전한 조건부 분포의 형태는 잘 알려진 분포의 형태를 갖지 않는다. 본 논문에서는 계층적 구조를 갖는 포아송-로그정규분포 모형에 대하여 고찰하고 추정에 있어서 잠재적 변수를 활용하여 필요한 난수발생이 쉽도록 하는 방법에 대하여 알아보았다.

  • PDF