• 제목/요약/키워드: 네이버

검색결과 492건 처리시간 0.027초

스마트폰의 정보구조와 사용자경험 (A Study on Information Architecture & User Experience of the Smartphone)

  • 이영주
    • 디지털융복합연구
    • /
    • 제13권11호
    • /
    • pp.383-390
    • /
    • 2015
  • 본 연구에서는 스마트 폰의 사용 시 가장 많은 이용 목적을 가진 정보 검색의 인터페이스의 정보 구조와 사용자 경험 패턴을 분석하여 보다 효율적인 사용자 경험을 제공하는데 목적을 두었다. 대표적인 모바일 인터넷 접속 기기인 스마트폰의 특징과 사용자 경험 요소에 대해 알아보는 것을 우선으로 정보 검색에 있어 가장 많이 사용되는 포털 사이트인 네이버와 다음의 메인 페이지를 중심으로 분석하였다. 연구의 결과 네이버와 다음은 각각 28개와 15개의 카테고리로 구성되어 있었다. 또 네이버와 다음 모두 하향식 순차 구조를 가지고 있었으며 네이버의 카테고리에서는 3Depth 계층을 가지고 있음을 알 수 있었다. 네이버의 경우는 중복된 뉴스 콘텐츠와 과도한 스크롤의 사용으로 인지 부하의 가능성이 제기 되었으며 다음의 경우는 하단의 쇼핑 카테고리에 있어 터치 제스처 사용의 오류 가능성이 제기 되었다.

Bi-Cross 사전 학습을 통한 자연어 이해 성능 향상 (The Bi-Cross Pretraining Method to Enhance Language Representation)

  • 김성주;김선훈;박진성;유강민;강인호
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.320-325
    • /
    • 2021
  • BERT는 사전 학습 단계에서 다음 문장 예측 문제와 마스킹된 단어에 대한 예측 문제를 학습하여 여러 자연어 다운스트림 태스크에서 높은 성능을 보였다. 본 연구에서는 BERT의 사전 학습 문제 중 다음 문장 예측 문제에 대해 주목했다. 다음 문장 예측 문제는 자연어 추론 문제와 질의 응답 문제와 같이 임의의 두 문장 사이의 관계를 모델링하는 문제들에 성능 향상을 위해 사용되었다. 하지만 BERT의 다음 문장 예측 문제는 두 문장을 특수 토큰으로 분리하여 단일 문자열 형태로 모델에 입력으로 주어지는 cross-encoding 방식만을 학습하기 때문에 문장을 각각 인코딩하는 bi-encoding 방식의 다운스트림 태스크를 고려하지 않은 점에서 아쉬움이 있다. 본 논문에서는 기존 BERT의 다음 문장 예측 문제를 확장하여 bi-encoding 방식의 다음 문장 예측 문제를 추가적으로 사전 학습하여 단일 문장 분류 문제와 문장 임베딩을 활용하는 문제에서 성능을 향상 시키는 Bi-Cross 사전 학습 기법을 소개한다. Bi-Cross 학습 기법은 영화 리뷰 감성 분류 데이터 셋인 NSMC 데이터 셋에 대해 학습 데이터의 0.1%만 사용하는 학습 환경에서 Bi-Cross 사전 학습 기법 적용 전 모델 대비 5점 가량의 성능 향상이 있었다. 또한 KorSTS의 bi-encoding 방식의 문장 임베딩 성능 평가에서 Bi-Cross 사전 학습 기법 적용 전 모델 대비 1.5점의 성능 향상을 보였다.

  • PDF

RELIC기반 엔터티 임베딩을 이용한 한국어 엔터티 링킹 (Entity embedding based on RELIC for Entity linking of Korean)

  • 최형준;나승훈;김현호;김선훈;강인호
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2020년도 제32회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.128-131
    • /
    • 2020
  • 엔터티 링킹은 주어진 문서 상에서 엔터티가 내포된 부분에 어떤 엔터티가 연결되어야 하는 지를 판단하는 작업이다. 따라서, 이 과정에서 엔터티의 표상을 얻어내는 것이 엔터티 링킹의 성능에 큰 영향을 끼치게 된다. 이 논문에서는 RELIC을 통해 엔터티 임베딩을 얻어내고, 이를 엔터티 링킹에 적용시킨 결과 0.57%p의 성능 향상을 이루었다.

  • PDF

Span Matrix를 이용한 다중 범위 추출 기계독해 시스템 (Machine Reading Comprehension System for Multiple Span Extraction using Span Matrix)

  • 장영진;이현구;신동욱;박찬훈;강인호;김학수
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.31-35
    • /
    • 2021
  • 기계독해 시스템은 주어진 질문에 대한 답변을 문서에서 찾아 사용자에게 제공해주는 질의응답 작업 중 하나이다. 기존의 기계독해는 대부분 문서에 존재하는 짧고 간결한 답변 추출 문제를 풀고자 했으며 최근엔 불연속적인 범위를 추출하는 등의 확장된 문제를 다루는 데이터가 공개되었다. 불연속적인 답변 추출은 실제 애플리케이션에서 사용자에게 정보를 유연하게 제공해줄 수 있다. 따라서 본 논문에서는 기존의 간결한 단일 범위 추출에서 확장된 다중 범위 추출 시스템을 제안하고자 한다. 제안 모델은 문서를 구성하는 모든 토큰의 조합으로 구성된 Span Matrix를 통하여 다중 범위 추출 문제를 해결하고자 하며 실험을 통해 기존 연구들과 비교하여 가장 높은 86.8%의 성능을 보였다.

  • PDF

더 좋은 인코더 표현을 위한 뇌 동기화 모방 이중 번역 (Dual Translation Imitating Brain-To-Brain Coupling for Better Encoder Representations)

  • 최규현;김선훈;장헌석;강인호
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2019년도 제31회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.333-338
    • /
    • 2019
  • 인코더-디코더(Encoder-decoder)는 현대 기계 번역(Machine translation)의 가장 기본이 되는 모델이다. 인코딩은 마치 인간의 뇌가 출발어(Source language) 문장을 읽고 이해를 하는 과정과 유사하고, 디코딩은 뇌가 이해한 의미를 상응하는 도착어(Target language) 문장으로 재구성하는 행위와 비슷하다. 그렇다면 벡터로 된 인코더 표현은 문장을 읽고 이해함으로써 변화된 뇌의 상태에 해당한다고 볼 수 있다. 사람이 어떤 문장을 잘 번역하기 위해서는 그 문장에 대한 이해가 뒷받침되어야 하는 것처럼, 기계 역시 원 문장이 가진 의미를 제대로 인코딩해야 향상된 성능의 번역이 가능할 것이다. 본 논문에서는 뇌과학에서 뇌 동기화(Brain-to-brain coupling)라 일컫는 현상을 모방해, 출발어와 도착어의 공통된 의미를 인코딩하여 기계 번역 성능 향상에 도움을 줄 수 있는 이중 번역 기법을 소개한다.

  • PDF

Prefix-tuning에 기반한 한국어 자연언어 처리 (Prefix-tuning for Korean Natural language processing)

  • 민진우;나승훈;신동욱;김선훈;강인호
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.622-624
    • /
    • 2021
  • 현재 BERT와 같은 대용량의 코퍼스로부터 학습된 사전 학습 언어 모델을 자연어 응용 태스크에 적용하기 위해 일반적으로 널리 사용되는 방법은 Fine-tuning으로 각 응용 태스크에 적용 시 모델의 모든 파라미터를 조정하기 때문에 모든 파라미터를 조정하는데 필요한 시간적 비용과 함께 업데이트된 파라미터를 저장하기 위한 별도의 저장공간이 요구된다. 언어 모델이 커지면 커질수록 저장 공간의 비용이 증대됨에 따라 이러한 언어모델을 효율적으로 튜닝 할 수 있는 방법들이 연구되었다. 본 연구에서는 문장의 입력 임베딩에 연속적 태스크 특화 벡터인 prefix를 추가하여 해당 prefix와 관련된 파라미터만 튜닝하는 prefix-tuning을 한국어 네이버 감성 분석 데이터 셋에 적용 후 실험결과를 보인다.

  • PDF

문장 표현 단위를 활용한 기계독해 시스템 (Machine Reading Comprehension System using Sentence units Representation)

  • 장영진;이현구;신동욱;박찬훈;강인호;김학수
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.568-570
    • /
    • 2021
  • 기계독해 시스템은 주어진 질문에 대한 답변을 문서에서 찾아 사용자에게 제공해주는 질의응답 작업 중 하나이다. 하지만 대부분의 기계독해 데이터는 간결한 답변 추출을 다루며, 이는 실제 애플리케이션에서 유용하지 않을 수 있다. 실제 적용 단계에서는 짧고 간결한 답변 뿐 아니라 사용자에게 자세한 정보를 제공해줄 수 있는 긴 길이의 답변 제공도 필요하다. 따라서 본 논문에서는 짧은 답변과 긴 답변 모두 추출할 수 있는 모델을 제안한다. 실험을 통해 Baseline과 비교하여 짧은 답변 추출에서는 F1 score 기준 0.7%, 긴 답변 추출에는 1.4%p의 성능 향상을 보이는 결과를 얻었다.

  • PDF

자연어 이해 모델의 성능 향상을 위한 교차 게이트 메커니즘 방법 (Cross Gated Mechanism to Improve Natural Language Understanding)

  • 김성주;김원우;설용수;강인호
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2019년도 제31회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.165-169
    • /
    • 2019
  • 자연어 이해 모델은 대화 시스템의 핵심적인 구성 요소로서 자연어 문장에 대해 그 의도와 정보를 파악하여 의도(intent)와 슬롯(slot)의 형태로 분석하는 모델이다. 최근 연구에서 의도와 슬롯의 추정을 단일 합동 모델(joint model)을 이용하여 합동 학습(joint training)을 하는 연구들이 진행되고 있다. 합동 모델을 이용한 합동 학습은 의도와 슬롯의 추정 정보가 모델 내에서 암시적으로 교류 되도록 하여 의도와 슬롯 추정 성능이 향상된다. 본 논문에서는 기존 합동 모델이 암시적으로 추정 정보를 교류하는 데서 더 나아가 모델 내의 의도와 슬롯 추정 정보를 명시적으로 교류하도록 모델링하여 의도와 슬롯 추정 성능을 높일 수 있는 교차 게이트 메커니즘(Cross Gated Mechanism)을 제안한다.

  • PDF

셀룰라 오토마타를 이용한 김해시의 도시성장모형에 관한 연구 - 1987~2001년을 중심으로 - (A study on the Urban Growth Model of Gimhae City Using Cellular Automata)

  • 이성호;윤정미;서경천;남광우;박상철
    • 한국지리정보학회지
    • /
    • 제7권3호
    • /
    • pp.118-125
    • /
    • 2004
  • 본 논문은 향후 도시의 물리적 성장형태를 예측하고자 하는 일련의 연구로서 김해의 과거 도시 성장과정을 분석함으로써 김해지역에 적합한 셀룰라 오토마타의 네이버후드 및 전이규칙을 결정하는 것을 목적으로 한다. 동적모델과 시간에 따른 변화를 다룰 수 있는 셀룰라 오토마타를 도입하여 1987년부터 2001년까지 김해지역의 도시성장을 분석하였으며, 다양한 네이버후드와 전이규칙의 시뮬레이션을 통해 김해지역에 적합한 네이버후드와 전이규칙을 정립하였다. 결론으로 김해지역은 네이버후드의 행렬이 작을수록, 또한 동일한 거리를 가진 circle 형태보다 정사각형의 네이버후드가 적합하였고, 도시성장속도를 조절하는 ${\alpha}$값이 작을수록, 그리고 전환가능성 ($P_{ij}$) 이 클수록 적합한 것으로 나타났다.

  • PDF

FubaoLM : 연쇄적 사고 증류와 앙상블 학습에 의한 대규모 언어 모델 자동 평가 (FubaoLM : Automatic Evaluation based on Chain-of-Thought Distillation with Ensemble Learning)

  • 김희주;전동현;권오준;권순환;김한수;이인권;김도현;강인호
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.448-453
    • /
    • 2023
  • 대규모 언어 모델 (Large Language Model, LLM)을 인간의 선호도 관점에서 평가하는 것은 기존의 벤치마크 평가와는 다른 도전적인 과제이다. 이를 위해, 기존 연구들은 강력한 LLM을 평가자로 사용하여 접근하였지만, 높은 비용 문제가 부각되었다. 또한, 평가자로서 LLM이 사용하는 주관적인 점수 기준은 모호하여 평가 결과의 신뢰성을 저해하며, 단일 모델에 의한 평가 결과는 편향될 가능성이 있다. 본 논문에서는 엄격한 기준을 활용하여 편향되지 않은 평가를 수행할 수 있는 평가 프레임워크 및 평가자 모델 'FubaoLM'을 제안한다. 우리의 평가 프레임워크는 심층적인 평가 기준을 통해 다수의 강력한 한국어 LLM을 활용하여 연쇄적 사고(Chain-of-Thought) 기반 평가를 수행한다. 이러한 평가 결과를 다수결로 통합하여 편향되지 않은 평가 결과를 도출하며, 지시 조정 (instruction tuning)을 통해 FubaoLM은 다수의 LLM으로 부터 평가 지식을 증류받는다. 더 나아가 본 논문에서는 전문가 기반 평가 데이터셋을 구축하여 FubaoLM 효과성을 입증한다. 우리의 실험에서 앙상블된 FubaoLM은 GPT-3.5 대비 16% 에서 23% 향상된 절대 평가 성능을 가지며, 이항 평가에서 인간과 유사한 선호도 평가 결과를 도출한다. 이를 통해 FubaoLM은 비교적 적은 비용으로도 높은 신뢰성을 유지하며, 편향되지 않은 평가를 수행할 수 있음을 보인다.

  • PDF