• 제목/요약/키워드: 구글 검색

검색결과 178건 처리시간 0.026초

사용자 질의패턴 분석을 이용한 효율적인 확장검색어 추천시스템 (An Efficient Extended Query Suggestion System Using the Analysis of Users' Query Patterns)

  • 김영안;박건우
    • 한국통신학회논문지
    • /
    • 제37권7C호
    • /
    • pp.619-626
    • /
    • 2012
  • 주요 검색엔진들은 확장 및 연관검색어를 추천하는 서비스를 제공함으로써 질의어 확장에 대한 사용자의 검색 편의성을 제공하고 있다. 하지만 많은 수의 사용자가 많이 찾는 검색어 즉, 대중성을 근거하여 제공되는 확장 및 연관검색어 추천 서비스는 사용자의 만족도를 높이는데 한계가 있다. 왜냐하면 사용자마다 생각하는 차이가 존재하며 선호하는 질의 및 관심 분야도 다르기 때문이다. 본 논문에서는 사용자의 정보요구에 적합한 효율적인 확장검색어를 추천하는 시스템을 설계 및 구현하고 웹 사용자의 정보검색 과정에서 최초 질의어 입력 후 질의어 확장 과정에서 사용자의 편의성을 향상시키고자 하였다. 평가결과 제안시스템은 검색엔진에서 추천하지 못한 구글 41% 및 야후 48%의 확장검색어를 추천할 수 있었으며 사용자의 편의성을 위하여 대중성 기반으로 추천되고 있는 확장 및 연관검색어 추천 서비스의 한계를 보완하여 사용자의 편의성을 향상시킬 수 있었다.

검색엔진 최적화(SEO) 기법을 활용한 전자무역 마케팅 성과에 관한 실증연구 (An Empirical Study on the Marketing Performance of e-Trade using Search Engine Optimization)

  • 이상진;정재승
    • 통상정보연구
    • /
    • 제13권1호
    • /
    • pp.3-28
    • /
    • 2011
  • 최근 중소수출기업의 마케팅 기법이 홈페이지, 전자카탈로그를 활용한 인터넷 마케팅에서 검색엔진 마케팅으로 변하고 있다. 그리나 이러한 검색엔진 마케팅 효과에 대한 구체적인 실증연구가 미진한 실정이다. 따라서 본 연구의 목석은 검색엔진 최적화 기법을 기반으로 한 검색엔진 마케팅의 성과를 측정하는 것이다. 이러한 최적의 검색엔진 마케팅 전략을 도출하기 위하여 3년간 홈페이지 방문자수, 페이지 뷰 및 트래픽 소소와 같은 정량적 데이터를 구글 분석기를 이용하여 수집하였다. 동시에 이러한 정량적 데이터를 뒷받침하기 위한 정성적인 효과측정으로 설문조사도 병행하였다. 정량적 연구의 결과로서 기존의 지속효과와 지체효과는 검색엔진 최적화 기법을 통하여 유지된 것으로 나타났다. 한편 정성적인 설문조사 결과로서 홈페이지의 만족도와 인지도는 검색엔진 최적화이후 향상된 것으로 나타났다. 이는 정량적인 분석에서 홈페이지 방문비율의 증가를 논리적으로 뒷받침하고 있다. 또한 수출기업들은 트래픽과 페이지뷰가 검색엔진 최적화 이후 증가되었음을 매우 잘 인지하고 있는 것으로 나타났다.

  • PDF

임상의사의 진료목적 정보원 이용과 장애요인에 관한 질적 연구 (A Qualitative Study of Physicians' Use of Clinical Information Resources and Barriers)

  • 김순;정은경
    • 한국문헌정보학회지
    • /
    • 제50권4호
    • /
    • pp.55-75
    • /
    • 2016
  • 본 논문은 임상의사가 선호하는 임상정보원의 특성과 정보검색 시 장애요인을 심층인터뷰를 통해 분석하였다. 환자 진료를 위한 정보검색은 환자치료방법 결정, 최신 경향 파악, 내부 컨퍼런스 발표자료 준비 등으로 구분되었으며, 이러한 검색행위에 영향을 미치는 변인으로는 주제 배경지식, 진료 경험, 직급, 검색 능력, DB 이용교육, 도서관 홈페이지 친숙도 등으로 나타났다. 온라인 임상정보원은 익숙하고 신뢰성이 높고 방대한 정보의 양 때문에 PubMed가 가장 선호되었으며, 속도가 빠르고 쓰기 쉬운 구글도 많이 사용되었다. 정보내용의 정확성과 최신성이 정보원 선정에 있어 가장 중요한 기준으로 적용되었으며, 시간이 많이 부족한 관계로 검색방법의 용이성, 정보에 대한 접근 편이성도 중요하게 여겨지고 있었다. 사용하기 불편한 검색시스템, 생소한 주제나 용어의 검색 어려움, 너무나 방대한 자료, 원문 접근의 어려움, 복잡한 고급검색 기능 등이 장애요인으로 도출되었다. 본 연구결과는 도서관 서비스 개선이나 임상의사의 정보검색 교육과정을 개선하는데 기초자료로 활용될 수 있을 것이다.

음성인식기술을 활용한 VTS 자동 기록 프로그램 개발의 필요성

  • 박민경;김명수;이상록;허영관
    • 한국항해항만학회:학술대회논문집
    • /
    • 한국항해항만학회 2015년도 춘계학술대회
    • /
    • pp.314-315
    • /
    • 2015
  • 최근 음성인식기술이 눈부시게 발전하여 여러 분야에 걸쳐 폭넓게 활용되고 있는 추세에 맞추어, 음성으로 관제의 대부분을 시행하는 VTS에 적용하고자 하였다. 선박 사고 뿐만 아니라, 기타 선박 비리나 정보 공개 요청 등 여러 분야에서 활용할 수 있는 관제내용을 보다 객관적이고 정확하게 기록하고자 VTS 자동 기록 프로그램을 개발하고자 한다.

  • PDF

CCTV 기능을 포함한 다용도 스마트 미러 (Multi-purpose smart mirror including CCTV function)

  • 이태남
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.863-865
    • /
    • 2022
  • 본 프로젝트는 시간, 날씨, 미세먼지 농도, 캘린더, 뉴스 등을 포함한 기본적인 생활정보를 스마트 미러에 디스플레이 해주며 추가적으로 구글 어시스턴트를 활용해 음성인식으로 유튜브 재생, 인터넷 검색 등 다양한 기능을 내재하고 있다. 아울러 인체 감지 센서를 이용해 움직임이 감지되지 않으면 절전모드로 동작하다 움직임이 감지하면 일반 모드로 동작한다. 마지막으로 CCTV 기능을 내재하고 있어 CCTV 화면을 웹 애플리케이션을 통해 실시간 스트리밍 하며 사람 얼굴이 감지될 시 화면을 녹화하는 기능을 포함하고 있다.

균등한 웹 문서 샘플링을 이용한 웹 검색 서비스들의 커버리지 측정 (Estimating Coverage of the Web Search Services Using Near-Uniform Sampling of Web Documents)

  • 장성수;김광현;이준호
    • 정보처리학회논문지D
    • /
    • 제15D권3호
    • /
    • pp.305-312
    • /
    • 2008
  • 인터넷에는 유익한 정보들이 포함된 웹 문서들이 공개되고 있으며, 이러한 웹 문서들은 웹 검색 서비스를 통하여 접근할 수 있다. 따라서 웹 검색 서비스들은 보다 많은 웹 문서들을 수집하기 위하여 노력하고 있으나, 이들은 수집된 웹 문서들의 커버리지를 파악하는데 많은 어려움을 겪고 있다. 따라서 본 논문에서는 기존의 커버리지 측정 방법들을 분석하고, 효과적인 커버리지 측정 방법을 제안한다. 즉, 인터넷에서 웹 문서를 균등하게 샘플링하고, 이 웹 문서들이 웹 검색 서비스에 색인되어 있는지를 조사함으로써 웹 검색 서비스들의 절대 및 상대 커버리지를 측정한다. 그리고 본 논문에서는 제안한 방법으로 국내 웹 검색 서비스들의 커버리지를 측정하여 비교하였으며, 그 결과 구글, 네이버, 엠파스 순으로 절대 및 상대 커버리지가 높게 나타났다. 이러한 본 논문의 결과는 웹 검색 서비스들의 커버리지를 측정하는데 도움이 될 것으로 기대된다.

검색어 빈도 데이터를 반영한 코로나 19 확진자수 예측 딥러닝 모델 (Predicting the Number of Confirmed COVID-19 Cases Using Deep Learning Models with Search Term Frequency Data)

  • 정성욱
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권9호
    • /
    • pp.387-398
    • /
    • 2023
  • 코로나 19 유행은 인류 생활 방식과 패턴에 큰 영향을 주었다. 코로나 19는 침 방울(비말)은 물론 공기를 통해서도 감염되기 때문에 가능한 대면 접촉을 피하고 많은 사람이 가까이 모이는 장소는 피할 것을 권고하고 있다. 코로나 19 환자와 접촉했거나 코로나 19 환자가 발생한 장소에 있었던 사람이 코로나 19에 감염되었을 것을 염려한다면 구글에서 코로나 19 증상을 찾아볼 것이라고 충분히 예상해 볼 수 있다. 본 연구에서는 과거 독감 감시와 관리에 중요 역할을 했었던 구글 트렌드(Google Trends)를 다시 소환하고 코로나 19 확진자수 데이터와 결합하여 미래의 코로나 19 확진자수를 예측할 수 있을지 딥러닝 모델(DNN & LSTM)을 사용한 탐색적 데이터 분석을 실시하였다. 특히 이 연구에 사용된 검색어 빈도 데이터는 공개적으로 사용할 수 있으며 사생활 침해의 우려도 없다. 심층 신경망 모델(DNN model)이 적용되었을 때 한국에서 가장 많은 인구가 사는 서울(960만 명)과 두 번째로 인구가 많은 부산(340만 명)에서는 검색어 빈도 데이터를 포함하여 예측했을 때 더 낮은 오류율을 기록했다. 이와 같은 분석 결과는 검색어 빈도 데이터가 일정 규모 이상의 인구수를 가진 도시에서 중요한 역할을 할 수 있다는 것을 보여주는 것이다. 우리는 이와 같은 예측이 더 강력한 예방 조치의 실행이나 해제 같은 정책을 결정하는데 근거 자료로 충분히 사용될 수 있을 것으로 믿는다.

노출된 개인정보의 삭제 요청에 관한 연구 (A Study on Removal Request of Exposed Personal Information)

  • 정보름;장병욱;김인석
    • 한국인터넷방송통신학회논문지
    • /
    • 제15권6호
    • /
    • pp.37-42
    • /
    • 2015
  • 검색엔진 서비스는 필요한 정보를 찾아 볼 수 있는 장점을 지녔지만 한편으로는 이용자의 원하지 않은 개인정보까지 검색할 수 있는 위험성이 있다. 이러한 위험성에도 불구하고 많은 이용자들은 검색상에 자신의 개인정보가 노출되어 있는지 인식조차 못하고 있으며, 인식을 하고 있더라도 개인정보 삭제 신청을 어떻게 하는지도 모르는 상황이다. 2015년 국정감사에서는 공무원들의 개인정보 오남용 및 공공기관 개인정보 구글 검색 노출이 지적되었다. 이것은 정부차원에서도 개인정보 검색 노출 문제를 중요히 바라보고 있는 상황이며, 앞으로도 검색으로 인한 개인정보 노출이 개선되어야 함을 지적하고 있다. 본 연구는 검색포털 사이트를 중심으로 개인정보 노출의 실태와 문제점을 조사하였다. 이 결과를 토대로 노출된 개인정보 삭제에 관한 검색엔진 서비스 제공자 측면과 이용자 측면의 해결책을 제시한다.

검색 엔진 기반의 안티 피싱 기법 (An Anti-Phishing Approach based on Search Engine)

  • 이민수;이형규;윤현수
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2010년도 한국컴퓨터종합학술대회논문집 Vol.37 No.1(D)
    • /
    • pp.121-124
    • /
    • 2010
  • 피싱은 인터넷을 이용한 일종의 사기 수법이다. 피싱을 방지하기 위하여 웹 브라우저 밴더에서는 블랙리스트 기반의 피싱 탐지 기술을 제공하고 있다. 또한 기계학습을 이용한 피싱 탐지 기법들이 제안되어 피싱 공격에 대응을 하고 있다. 하지만, 피싱 공격이 진화 함에 따라 기존의 기술들이 탐지 못하는 경우가 발생을 한다. 피싱 페이지가 생성된 후 일정 시간이 지나지 않을 경우는 기존의 리스트 기반의 솔루션이 탐지를 하지 못하며, 이미지 기반의 피싱 공격의 경우 기존의 연구들이 탐지 하지 못한다. 이에 본 연구에서는 구글 검색엔진을 이용하여 이러한 문제점들을 해결하는 방안을 제안한다.

  • PDF

데이터셋 생성을 위한 이미지 URI 및 메타데이터 수집 크롤러 (For creating a Dataset Image URI and Metadata Collection Web Crawler)

  • 박준홍;김석진;정연욱;이동욱;정영주;서동만
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2019년도 추계학술발표대회
    • /
    • pp.1082-1084
    • /
    • 2019
  • 인공지능 학습에 대한 관심이 증가하면서 학습에 필요한 데이터셋 구축에 필요한 많은 양의 데이터가 필요하다. 데이터셋 구축에 필요한 데이터들을 효과적으로 수집하기 위한 키워드 기반 웹크롤러를 제안한다. 구글 검색 API 를 기반으로 웹 크롤러를 설계하였으며 사용자가 입력한 키워드를 바탕으로 이미지의 URI 와 메타데이터를 지속적으로 수집하는 크롤러이다. 수집한 URI 와 메타데이터는 데이터베이스를 통해 관리한다. 향후 다른 검색 API 에서도 동작하고 다중 쓰레드를 활용하여 크롤링하는 속도를 높일 예정이다.