• 제목/요약/키워드: 웹 로그 검색

검색결과 73건 처리시간 0.029초

검색 포털의 클릭 집중 문서 분석 평가 (Analysis and Evaluation of Most Clicked Documents of Korean Search Portal)

  • 박소연
    • 한국도서관정보학회지
    • /
    • 제42권1호
    • /
    • pp.325-338
    • /
    • 2011
  • 본 연구에서는 국내 주요 검색 포털인 네이버 통합 검색의 클릭 집중 문서의 특징을 조사, 분석하였다. 즉 이 연구에서는 클릭 집중 문서들을 대상으로 클릭 집중 비율, 컬렉션별 분포, 작성 연도별 분포를 조사하고, 문서의 적합도, 최신성, 신뢰도 등을 평가하였다. 이를 위하여 이용자들이 입력한 통합 검색 질의들로 구성된 질의 로그와 질의에 대한 검색 결과에서 이용자들이 조회한 문서를 기록한 클릭 로그를 분석하였다. 연구 결과, 클릭 집중 문서가 가장 많이 발생한 컬렉션은 블로그였으며, 질의별로 클릭의 절반가량이 한 문서에 집중되고 있는 것으로 나타났다. 또한 클릭 집중 문서의 적합도와 최신성은 상당히 높지만, 신뢰도는 보통 수준인 것으로 나타났다. 본 연구의 결과는 향후 포털의 효과적인 검색 알고리즘 및 인터페이스 개발에 활용될 수 있을 것으로 기대된다.

웹 사용 정보에 기반한 다중 성향 키워드 모델의 설계와 응용 (Design and Application of Multi Concept Keyword Model based on Web-using Information)

  • 윤태복;이승훈;윤광호;이지형
    • 인터넷정보학회논문지
    • /
    • 제10권5호
    • /
    • pp.95-105
    • /
    • 2009
  • 웹의 방대한 데이터에서 사용자에게 유용한 정보를 제공하기 위하여 다양한 연구가 시도되고 있다. 그 중에서 웹 사용 마이닝은 웹 사용자의 로그 정보를 기반으로 의미 있는 패턴을 추출하는 방법이다. 하지만 기존의 웹 사용 마이닝을 이용한 패턴 추출에는 사용자들의 다양한 성향을 고려하지 않은 개별적인 모델을 생성하는데 주를 이루고 있다. 웹에서 사용된 사용자들의 검색 키워드는 그들의 검색 의도나 배경지식에 따라 다양한 의미를 가질 수 있고, 그런 개개인의 검색의도에 맞는 검색 서비스가 제공할 수 있는 기술이 요구된다. 본 논문은 사용자 검색 키워드에 대한 웹 페이지 사용 행위 정보 및 방문한 웹 페이지 리스트를 수집하고 분석하여 다중 성향 키워드 모델(Multi Concept Keyword Model : MCK-Model)을 생성한다. MCK-Model은 사용자들이 특정 키워드를 이용하여 검색 후 방문한 웹 페이지 리스트를 통합하여 생성한 것으로, 사용자들이 검색 키워드에 대해 가지고 있는 다양한 검색 의도에 따라 방문하는 웹 페이지의 정보를 포함하고 있다. 생성된 MCK-Model은 웹 페이지 추천을 위하여 유용하게 사용할 수 있으며, 실험을 통하여 제안하는 방법의 유효함을 확인하였다.

  • PDF

연관규칙을 이용한 개인화 시스템 설계 (Design of Personalized System using an Association Rule)

  • 윤종찬;윤성대
    • 한국정보통신학회논문지
    • /
    • 제11권6호
    • /
    • pp.1089-1098
    • /
    • 2007
  • 최근 웹상에서 사용자들의 요구가 다양해지고 있다. 또한, 웹 사용자들은 보다 편리하고 빠르게 찾고자 하는 자료나 상품을 검색하기를 원하고 있다. 이것은 웹 사용자들마다 검색 기준이나 성향이 다르기 때문에 웹 설계자가 구현한 환경을 사용하려면 불필요한 반복 작업이 따르기 때문이다. 본 논문에서는 로그파일 분석기법을 이용하여 웹 상에서 일어나는 사용자 패턴을 분석하여 웹사이트의 정보를 사용자에게 보다 효과적으로 전달하기 위한 시스템을 제안하였다. 제안한 시스템의 고객 데이터(로그파일분석)은 데이터마이닝의 툴 중의 하나인 EC-Miner를 통해 이뤄지고 각 이동경로에 가중치를 줘서 개인화에 맞도록 적절한 레이아웃을 제공하고자 한다.

구글 애널리틱스를 활용한 웹 사이트의 개선방안 연구 : 앱팩토리를 대상으로 (Research in the Direction of Improvement of the Web Site Utilizing Google Analytics)

  • 김동림;임영환
    • 만화애니메이션 연구
    • /
    • 통권36호
    • /
    • pp.553-572
    • /
    • 2014
  • 인터넷을 이용한 서비스와 정보제공이 활성화 되면서 사용자들은 서비스 품질 및 컨텐츠 품질에 대해 관심 갖기 시작했으며 이러한 변화에 따라 서비스 제공자 또한 사용자의 욕구를 만족 시키는 서비스 및 다수의 사용자가 참여하는 사이트 활성화를 목적으로 하게 되었다. 사용자에게 최상의 서비스를 제공하기 위해 대부분의 서비스 제공자는 이용자 피드백 분석 및 운영시스템 분석 등 자료 분석에 노력하지만 제한된 이용자와의 커뮤니케이션과 자료 수집 및 분석에 상당한 시간과 비용을 들임으로써 사용자들에게 개선된 서비스 제공까지 너무 많은 시간이 소요된다. 본 논문에서는 이러한 이유로 특정 웹 사이트(www.appbelt.net)의 운영현황 분석을 위해 웹 마이닝 기법을 적용한 로그 파일 분석 방식을 채택하였는데 로그 데이터를 가져와 분석하고 별도의 리포트를 만들어 판단하는 번거로움 없이 구글 애널리틱스 툴을 활용하여 정량평가를 시행하였다. 또한 웹 표준 평가(Coolcheck)서비스를 이용한 웹 사이트의 전반적인 품질평가를 통해 해당 웹 사이트의 문제점을 진단하고 개선 방안을 연구하였다. 로그분석이란 사용자가 웹 사이트 이용하면 이에 대한 기록이 로그라는 형태로 흔적이 남게 되는데 이 데이터를 기반으로 사용자가 웹 사이트를 방문하여 행동하는 다양한 정보를 추출해 내는 것이라 할 수 있다. 또한 로그 분석을 통하여 대다수 이용자의 전반적인 이용행태를 분석할 수 있으므로 로그 분석방법은 이용자 계층이 다양하고 이질적인 웹 검색 분야의 연구에 적합한 방법이라고 할 수 있다. 본 논문에서는 로그분석 방법으로 구글 애널리틱스 로그 추적 코드를 웹사이트에 직접 삽입하여 데이터를 수집, 데이터 평가, 리포트 분석 단계를 거쳐 전반적인 웹 사이트의 운영현황을 진단하고 평가한 후 웹 사이트에서 예상하는 사용자의 행동패턴과 실제 방문자의 경로가 일치 하는지 판단하여 문제점 및 개선사항을 도출하였다. 이 판단은 곧 기업의 목표 값 도달 경로의 우선순위(중요도)에 영향을 미치고 사용성이 너무 낮을 경우 경로 설정의 부적절함 등을 웹 사이트의 개선 요소에 포함시키게 된다. 이러한 연구방법은 기업에서 하고자 하는 비즈니스의 방향이 제대로 설정되었는지, 사용자의 요구 및 행태와 일치하는지 분석하여 향 후 비즈니스 방향 재설정 및 웹 사이트 개선에 도움이 될 것으로 보인다.

웹검색 행태 연구 - 사용자가 스스로 쿼리를 뭉치는 방법으로 - (Web Search Behavior Analysis Based on the Self-bundling Query Method)

  • 이중식
    • 한국문헌정보학회지
    • /
    • 제45권2호
    • /
    • pp.209-228
    • /
    • 2011
  • 검색이 편재화 되고 있다. 사용자들은 PC를 너머 스마트폰과 스마트TV에서도 검색을 일상적으로 사용하고 있다. 따라서 사용자의 검색행태도 진화 중이다. 하지만 검색행태 연구는 서버의 트랜잭션 로그(transaction log)를 기반으로 하거나 사용자 로그(user log)를 관찰하는 경우에도 개별 쿼리(query instance)를 분석단위로 삼기에 여러 매체와 여러 시간을 가로지르는 검색 행태를 분석하기에 부족하다. 본 연구에서는 사용자가 직접 덩어리 지운 쿼리 뭉치(bundled query)를 살펴보아 시간과 매체를 가로지르며 궁금증을 해결해 나가는 사용자의 검색행동을 분석해 보았다. 연구를 위해 사용자 PC에 웹로그 캐처를 설치하고, 취합된 웹검색 기록을 사용자들이 직접 덩어리 지워 같은 궁금증을 가진 뭉치를 만들도록 하였다. 또한 각 뭉치에 대한 설문을 통해 검색의 동기, 계기, 만족도 및 검색 후 활동을 조사하였다. 사용자에 의해 만들어진 뭉치는 전화 인터뷰를 통해 검증하였고 맥락을 확인하였다. 뭉치를 통한 인터뷰는 검색 당시의 기억을 떠올리는 힌트로 작용하여 사용자의 검색 회상을 생생하게 하였다. 분석 결과 사용자들은 하루에 평균 4.75개의 검색 뭉치를 발생시키고, 각각의 검색 뭉치는 평균 2.75개의 쿼리로 구성되어 있음을 확인할 수 있었다. 또한 뭉치 내 쿼리의 발전을 '쿼리의 정교화'와 '주제의 정교화'라는 상위 범주 아래 9개의 패턴으로 확인하였다.

국내 웹 이용자의 검색 행태 추이 분석 (Trends of Search Behavior of Korean Web Users)

  • 박소연;이준호
    • 한국문헌정보학회지
    • /
    • 제39권2호
    • /
    • pp.147-160
    • /
    • 2005
  • 본 연구에서는 1년이라는 장기간에 걸쳐 네이버에 입력된 검색 질의들의 표본과 각 질의에 대한 클릭 로그에 근거하여 국내 웹 이용자의 검색 행태 추이를 분석하였다. 질의의 형태에 대한 조사 결과, 계절별, 주중과 주말 요일별 질의 형태의 분포에 있어서 유의한 차이가 있는 것으로 나타났다. 또한 웹 이용자들이 입력한 질의의 주제 역시 계절별, 주중과 주말, 요일별로 변화하는 것으로 나타났다. 반면 1년 동안을 전체적으로 살펴볼 때 사이트 검색과 내용 검색의 비율 그리고 주제의 비율이 큰 변화 없이 일정한 상태를 유지하였다. 본 연구의 결과는 인터넷 검색 포탈 업체들의 효과적인 컨텐츠 구축 및 효율적인 검색 시스템 개발에 기여할 것으로 기대된다.

웹 브라우저 다중 사용 환경과 비영어권 국가에서의 인터넷 사용흔적 조사 방법 (A Method for Tracing Internet Usage in Multi-use Web browser Environment and Non-English Speaking Countries)

  • 이승봉;이상진
    • 정보보호학회논문지
    • /
    • 제20권5호
    • /
    • pp.125-132
    • /
    • 2010
  • 웹 브라우저는 인터넷을 사용하기 위한 필수적인 응용 프로그램이다. 만약 용의자가 범죄 행위 시 웹 브라우저를 사용하였다면, 범죄와 관련된 흔적은 웹 브라우저 로그 파일에 저장이 된다. 따라서 용의자의 컴퓨터에 저장되어 웹 브라우저 로그 파일을 조사 한다면, 사건과 관련된 유용한 정보를 얻을 수 있다. 특히 검색어는 범죄 수사 시 매우 유용한 정보를 제공한다. 그러나 영어가 아닌 언어는 인코딩되어 표현되기 때문에 국내 범죄 수사 시 어려움이 존재한다. 본 논문에서는 웹 브라우저 로그 파일 조사에 관련한 사전 연구와 도구들에 대하여 살펴보고 이러한 보그 파일을 포렌식 관점에서 분석하는 방법을 소개한다. 그리고 소개한 방법을 적용한 도구를 실제 사건에 적용한 사례에 대하여 설명한다.

로그 데이터를 이용한 하둡기반 맞춤형 관광시스템 (A Customized Tourism System Using Log Data on Hadoop)

  • ;김강철
    • 한국전자통신학회논문지
    • /
    • 제13권2호
    • /
    • pp.397-404
    • /
    • 2018
  • 인터넷 사용이 증가함에 따라 많은 사용자 행위가 로그 파일에 기록되고, 최근에 이들을 이용한 연구와 산업이 활성화되고 있다. 본 논문은 오픈 소스 기반 분산 컴퓨팅 플랫폼인 하둡을 사용하고, 로그 파일에 기록된 사용자 행위를 분석하여 맞춤형 관광 정보를 제공하는 시스템을 개발한다. 제안된 시스템은 사용자들이 검색한 웹사이트로부터 로그 파일을 얻기 위하여 구글의 Analytics를 사용하고, 하둡의 MapReduce를 사용하여 검색 항목을 추출하여 HDFS에 저장한다. Octopus 프로그램을 사용하여 여행안내 웹사이트로부터 여행관련 관광지나 도시에 대한 정보를 모으고, MapReduce를 사용하여 관광지의 특징을 추출한다. 그리고 관광지의 특징과 사용자 검색항목을 매칭하여 사용자에게 관광하고 싶은 맞춤형 도시를 제안한다. 본 논문에서는 매칭의 확률을 높이기 위하여 NBP(next bit permutation)알고리즘을 사용하여 검색항목과 관광지 특징을 재정렬하는 기법을 도입한다. 그리고 개발된 시스템의 효용성을 확인하기 위하여 39 명의 사용자에 대한 로그 데이터를 분석하여 맞춤형 관광도시를 제안한다.

맞춤구성을 위한 템플릿과 Option 기반의 추론

  • 이현정;이재규
    • 한국지능정보시스템학회:학술대회논문집
    • /
    • 한국지능정보시스템학회 2002년도 춘계학술대회 논문집
    • /
    • pp.181-190
    • /
    • 2002
  • 전자 카탈로그 상에서의 상품 검색은 카탈로그에 명시되어 있는 상품을 찾는 표준상품검색과 소비자가 원하는 상품을 맞춤 하는 맞춤상품검색으로 분류할 수 있다. 현재의 대부분의 상품 검색은 표준상품검색에 의존하고 있다. 특히 기업간 구성요소기반(Component-based) 상품의 경우 표준상품검색만으로는 구매자의 다양한 요구에 응하기가 어렵다. 따라서 웹 상의 전자 카탈로그에서의 동적인 맞춤검색에 대한 요구가 증가하고 있다. 본 연구에서는 구성기반 상품에 대해서 표준상품검색만으로는 구매자가 원하는 상품의 검색가능성(Feasibility)과 검색된 대안들이 조정(Adjust) 프로세스 과정을 거쳐 최적해 도달 가능성(Admissibility)이 보장되지 않음을 보이고, 이에 대한 효과적인 방법론으로 검색가능성과 최적해 도달 가능성을 지원하는Template-based Reasoning 방법론을 제안 한다. Template-based Reasoning은 구매자의 요구사항에 따른 대안탐색 부분과 선택된 대안에 대한 조정과정의 두 단계로 이루어진다. 구매자의 주요 선호도(MUST Preference)에 근거하여 대안들을 탐색하고, 탐색 된 대안들 간의 우선순위를 결정한다. 조정 단계에서는 옵션(Options)의 확장을 통해 구매자의 맞춤사양에 따른 상품을 제안하고, 제약 및 규칙기반 추론(Constraint and Rule Satisfaction Approach)을 이용하여 옵션(Options)들 간의 제약조건에 따른 호환성(Compatibility)을 조사하고, 적정가격의 상품을 제안한다. 본 방법론은 Template을 사용하여 기본적으로 구매자가 원하는 상품을 검색하기 위한 검색노력을 줄이고, 검색된 대안들로부터 구매자와 시스템이 웹상에서 서로 상호작용(interactivity) 하여 해를 찾고, 제약조건과 규칙들에 의해 적합한 해를 찾아가는 방법을 제시한다. 본 논문은 구성기반 예로서 컴퓨터 부품조립을 사용해서 Template-based reasoning 예를 보인다 본 방법론은 검색노력을 줄이고, 검색에 있어 Feasibility와 Admissibility를 보장한다.

  • PDF

웹 접근로그를 활용한 웹 구조 마이닝 (Web Structure Mining Using Web Access Log)

  • 박철현;이성대;전성환;박휴찬
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2006년도 추계학술발표대회
    • /
    • pp.393-396
    • /
    • 2006
  • 웹의 급속한 성장으로 정보의 양이 많아졌지만 디자인의 비중이 커지면서 웹 문서에 대한 구조를 추출하는데 어려움이 있다. 웹은 사용자가 원하는 정보를 쉽고 정확하게 검색할 수 있도록 웹 문서의 내용을 구조화하여 지속적으로 개선하면서 사용자의 특성과 행동 패턴에 따라 개인화 하여야한다. 이러한 문제를 해결하기 위해서는 웹 문서들 간의 정확한 구조를 추출하는 것이 선행되어야 한다. 본 논문에서는 보다 웹 사이트의 정확한 구조를 추출하기 위한 방법을 제안한다. 제안 방법은 기본적으로 웹문서 태그의 하이퍼링크와 플래시 파일을 2진 형태의 문서로 불러 하이퍼링크를 추출하고 이를 깊이 우선 탐색 알고리즘을 사용하여 방향그래프로 만든다. 하지만 이러한 웹 문서 태그 탐색 시 애플릿이나 스크립트 등에 숨어 있는 하이퍼링크를 찾는 문제와 '뒤로' 버튼 사용 시 웹 접근로그에 기록되지 않는 문제점이 보완되어야 한다. 이를 위해 클릭 스트림을 스택에 저장하여 이미 만들어진 방향그래프와 비교하여 새롭게 찾은 정점과 간선을 추가 삭제함으로써 보다 신뢰성 높은 방향 그래프를 만든다.

  • PDF