• 제목/요약/키워드: Web Novel

검색결과 253건 처리시간 0.032초

웹소설 키워드를 통한 이용 독자 내적 욕구 및 특성 파악 (Identifying Reader's Internal Needs and Characteristics Using Keywords from Korean Web Novels)

  • 조수연;오하영
    • 한국정보통신학회논문지
    • /
    • 제24권2호
    • /
    • pp.158-165
    • /
    • 2020
  • 모바일 상에서 연재되고 소비되는 웹소설은 다른 문화콘텐츠와 마찬가지로 우리 사회의 한 단면을 포착해낼 수 있는 특징이 있다. 본 논문은 웹소설 키워드 정보를 수집해 웹소설의 주요 모티프 및 트렌드를 파악하고, 나아가 기존 논문들과 연관 지어 이용 독자의 내적 욕구 및 특성을 분석하는 것을 목적으로 한다. 분석 결과 접근성이 높고 가독성이 편리한 모바일 환경과 관련해 현대물과 성인 작품이 인기가 높았다. 남자주인공은 웹소설 상에서 이상적으로 그려지는 경향이 있었으나, 현재 남자주인공의 주요 키워드는 2000년대 초와 비교했을 때 변화를 확인할 수 있었다. 이는 곧 현대인들의 젠더 관념의 변화를 시사한다. 이와 상반되게 여자주인공은 내면에 상처를 지닌 캐릭터가 인기가 많았고, 이에 대한 원인 중 하나로 사회구조적인 환경 속에서 좌절을 겪어야 했던 현대 여성의 현실을 설명했다. 본 논문은 웹 크롤링의 한계로 성인 작품에 대해 심층적인 분석을 진행하지는 못했지만, 정량적 분석이 미흡했던 기존 웹소설 연구들에 키워드라는 파라텍스트를 활용하여 현대인들의 내적 욕구 및 특성을 분석했다는 의의를 지닌다.

Mining Parallel Text from the Web based on Sentence Alignment

  • Li, Bo;Liu, Juan;Zhu, Huili
    • 한국언어정보학회:학술대회논문집
    • /
    • 한국언어정보학회 2007년도 정기학술대회
    • /
    • pp.285-292
    • /
    • 2007
  • The parallel corpus is an important resource in the research field of data-driven natural language processing, but there are only a few parallel corpora publicly available nowadays, mostly due to the high labor force needed to construct this kind of resource. A novel strategy is brought out to automatically fetch parallel text from the web in this paper, which may help to solve the problem of the lack of parallel corpora with high quality. The system we develop first downloads the web pages from certain hosts. Then candidate parallel page pairs are prepared from the page set based on the outer features of the web pages. The candidate page pairs are evaluated in the last step in which the sentences in the candidate web page pairs are extracted and aligned first, and then the similarity of the two web pages is evaluate based on the similarities of the aligned sentences. The experiments towards a multilingual web site show the satisfactory performance of the system.

  • PDF

Improving Fault Traceability of Web Application by Utilizing Software Revision Information and Behavior Model

  • Baek, Seungsuk;Lee, Jung-Won;Lee, Byungjeong
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제12권2호
    • /
    • pp.817-828
    • /
    • 2018
  • Modern software, especially web-based software, is broadly used in various fields. Most web applications employ design patterns, such as a model-view-controller (MVC) pattern and a factory pattern as development technology, so the application can have a good architecture to facilitate maintenance and productivity. A web application, however, may have defects and developers must fix the defects when a user submits bug reports. In this paper, we propose a novel approach to improving fault traceability in web application by using software revision information and software behavior model to reduce costs and effectively handle the software defect. We also provide a case study to show effectiveness of our approach.

점진적인 웹 마이닝을 위한 효율적인 후보패턴 저장 트리구조 및 알고리즘 (An Efficient Candidate Pattern Storage Tree Structure and Algorithm for Incremental Web Mining)

  • 강희성;박병준
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2006년도 심포지엄 논문집 정보 및 제어부문
    • /
    • pp.3-5
    • /
    • 2006
  • Recent advances in the internet infrastructure have resulted in a large number of huge Web sites and portals worldwide. These Web sites are being visited by various types of users in many different ways. Among all the web page access sequences from different users, some of them occur so frequently that may need an attention from those who are interested. We call them frequent access patterns and access sequences that can be frequent the candidate patterns. Since these candidate patterns play an important role in the incremental Web mining, it is important to efficiently generate, add, delete, and search for them. This thesis presents a novel tree structure that can efficiently store the candidate patterns and a related set of algorithms for generating the tree structure adding new patterns, deleting unnecessary patterns, and searching for the needed ones. The proposed tree structure has a kind of the 3 dimensional link structure and its nodes are layered.

  • PDF

OSMU의 진화 경로: 한국과 중국의 웹소설과 웹툰을 중심으로 (Evolution Path of OSMU: Web-novel and Webtoon)

  • 왕이소;신형덕
    • 한국산학기술학회논문지
    • /
    • 제22권2호
    • /
    • pp.119-126
    • /
    • 2021
  • 본 연구는 직접 경험하지 않고는 그 가치를 예측하기 힘든 경험재의 속성을 갖고 있는 문화 콘텐츠의 활용 방식을 보여주는 OSMU(One Source Multi Use)가 원작의 장르에 따라 상이하게 전개되는 현상에 대해 살펴보기 위해 진행되었다. 이에 본 연구에는 원작의 형태를 웹소설과 웹툰으로 구분하여 각 경우에 있어서의 OSMU의 진화 경로에 대해 조사하고, 또한 이러한 경로를 한국과 중국 사례를 비교하여 어떠한 차이가 있는가에 대해 고찰했다. 이를 위해 한국과 중국에서 1999-2012년에 발표된 웹소설 및 웹툰 형태의 콘텐츠를 각각 4개씩 선정하여 원작의 형태에 따라 OSMU 진행 방식이 스토리 활용방식과 캐릭터 활용방식에 있어서 어떤 차이를 보이는지 분석했다. 그 결과 웹소설이 원작인 경우 웹툰에 비해 제한 없이 다른 형태의 콘텐츠로 활용이 되었던 것을 발견할 수 있었는데, 이 결과는 이미지를 동반하지 않는 소설에서 발생할 수 있는 상상력이 다른 형태의 콘텐츠로 활용되는 것에 더 용이하기 때문인 것으로 추측할 수 있다. 또한 스토리와 캐릭터 활용방식에 있어서도 한국에서는 두 방식이 순차적으로 진행되었던 반면에 중국에서는 동시대에 병행되었다는 차이가 존재한다는 것을 발견했다.

홈페이지에 삽입된 악성코드 및 피싱과 파밍 탐지를 위한 웹 로봇의 설계 및 구현 (Implementation of Web Searching Robot for Detecting of Phishing and Pharming in Homepage)

  • 김대유;김정태
    • 한국정보통신학회논문지
    • /
    • 제12권11호
    • /
    • pp.1993-1998
    • /
    • 2008
  • 본 논문에서 제안하는 웹 서버 취약점 및 악성코드를 탐지하는 웹 로봇의 기술은 인터넷에서 개인정보보호사고의 원인분석 을 통해 도출된 요구기 능을 통합 구현하는 기술로 인터넷 이용자의 개인정보 피해 원인을 종합적으로 처리한다는 측면에서 효과가 크다. 인터넷에서 개인정보를 유출하는 홈페이지의 악성 코드 및 피싱과 파밍을 종합적으로 탐지기술을 구현함으로써 개인정보를 유출하기 위하여 사용되는 홈페이지의 악성 코드 및 피싱과 파밍 사이트로 유도되는 웹 사이트를 탐지 할 수 있는 시스템을 구현하였다.

Enhancing Similar Business Group Recommendation through Derivative Criteria and Web Crawling

  • Min Jeong LEE;In Seop NA
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권10호
    • /
    • pp.2809-2821
    • /
    • 2023
  • Effective recommendation of similar business groups is a critical factor in obtaining market information for companies. In this study, we propose a novel method for enhancing similar business group recommendation by incorporating derivative criteria and web crawling. We use employment announcements, employment incentives, and corporate vocational training information to derive additional criteria for similar business group selection. Web crawling is employed to collect data related to the derived criteria from 'credit jobs' and 'worknet' sites. We compare the efficiency of different datasets and machine learning methods, including XGBoost, LGBM, Adaboost, Linear Regression, K-NN, and SVM. The proposed model extracts derivatives that reflect the financial and scale characteristics of the company, which are then incorporated into a new set of recommendation criteria. Similar business groups are selected using a Euclidean distance-based model. Our experimental results show that the proposed method improves the accuracy of similar business group recommendation. Overall, this study demonstrates the potential of incorporating derivative criteria and web crawling to enhance similar business group recommendation and obtain market information more efficiently.

AN EFFICIENT DENSITY BASED ANT COLONY APPROACH ON WEB DOCUMENT CLUSTERING

  • M. REKA
    • Journal of applied mathematics & informatics
    • /
    • 제41권6호
    • /
    • pp.1327-1339
    • /
    • 2023
  • World Wide Web (WWW) use has been increasing recently due to users needing more information. Lately, there has been a growing trend in the document information available to end users through the internet. The web's document search process is essential to find relevant documents for user queries.As the number of general web pages increases, it becomes increasingly challenging for users to find records that are appropriate to their interests. However, using existing Document Information Retrieval (DIR) approaches is time-consuming for large document collections. To alleviate the problem, this novel presents Spatial Clustering Ranking Pattern (SCRP) based Density Ant Colony Information Retrieval (DACIR) for user queries based DIR. The proposed first stage is the Term Frequency Weight (TFW) technique to identify the query weightage-based frequency. Based on the weight score, they are grouped and ranked using the proposed Spatial Clustering Ranking Pattern (SCRP) technique. Finally, based on ranking, select the most relevant information retrieves the document using DACIR algorithm.The proposed method outperforms traditional information retrieval methods regarding the quality of returned objects while performing significantly better in run time.

A Novel Methodology for Auditing the Threats in Cloud Computing - A Perspective based on Cloud Storage

  • Nasreen Sultana Quadri;Kusum Yadav;Yogesh Kumar Sharma
    • International Journal of Computer Science & Network Security
    • /
    • 제24권2호
    • /
    • pp.124-128
    • /
    • 2024
  • Cloud computing is a technology for delivering information in which resources are retrieved from the internet through a web-based tools and applications, rather than a direct connection with the server. It is a new emerging computing based technology in which any individual or organization can remotely store or access the information. The structure of cloud computing allows to store and access various information as long as an electronic device has access to the web. Even though various merits are provided by the cloud from the cloud provides to cloud users, it suffers from various flaws in security. Due to these flaws, data integrity and confidentiality has become a challenging task for both the storage and retrieval process. This paper proposes a novel approach for data protection by an improved auditing based methodology in cloud computing especially in the process of cloud storage. The proposed methodology is proved to be more efficient in auditing the threats while storing data in the cloud computing architecture.

빈발 순회패턴 탐사에 기반한 확장된 동적 웹페이지 추천 알고리즘 (An Extended Dynamic Web Page Recommendation Algorithm Based on Mining Frequent Traversal Patterns)

  • 이근수;이창훈;윤선희;이상문;서정민
    • 한국멀티미디어학회논문지
    • /
    • 제8권9호
    • /
    • pp.1163-1176
    • /
    • 2005
  • 웹은 가장 커다란 분산 정보저장소로서 빠른 속도로 성장했으나, 웹의 정보를 읽고 이해하는 데는 본질적으로 한계가 있다. 웹의 이러한 환경에서 사용자의 순회패턴(traversal Patterns)을 탐사하는 것은 시스템 설계나 정보서비스 제공 측면에서 중요한 문제이다. 본 논문에서는 세션에 나타나는 페이지들간의 연관성 정보를 활용하여 빈발 k-페이지집합을 탐사하여 추천 페이지집합을 생성함으로써 효율적인 웹 정보서비스를 제공할 수 있는 Web Page Recommend(WebPR) 알고리즘[11]을 화장한다. 화장된 내용은 WebPRl(A) 알고리즘을 추가하였으며, WebPR(T)에서 윈도우 개념을 도입한 새로운 winWebPR(T) 알고리즘을 제안하고 있다. 두개의 화장된 알고리즘을 포함하여 두개의 실제 웹로그(Weblog) 데이터에 대해 실험 결과에서 알 수 있듯이 윈도우 개념을 도입한 winWebPR(T) 알고리즘이 세션에 나타나는 페이지들간의 모든 연관성 정보를 활용함으로써 가장 우수한 성능을 보였다.

  • PDF