• 제목/요약/키워드: intelligent network

검색결과 3,266건 처리시간 0.03초

개선된 퍼지 ART 기반 RBF 네트워크와 PCA 알고리즘을 이용한 여권 인식 및 얼굴 인증 (A Passport Recognition and face Verification Using Enhanced fuzzy ART Based RBF Network and PCA Algorithm)

  • 김광백
    • 지능정보연구
    • /
    • 제12권1호
    • /
    • pp.17-31
    • /
    • 2006
  • 본 논문에서는 출입국자 관리의 효율성과 체계적인 출입국 관리를 위하여 여권 코드를 자동으로 인식하고 위조 여권을 판별할 수 있는 여권 인식 및 얼굴 인증 방법을 제안한다. 여권 이미지가 기울어진 상태로 스캔되어 획득되어질 경우에는 개별 코드 인식과 얼굴 인증에 많은 영향을 미칠 수도 있으므로 기울기 보정은 문자 분할 및 인식, 얼굴 인증에 있어 매우 중요하다. 따라서 본 논문에서는 여권 영상을 스미어링한 후, 추출된 문자열 중에서 가장 긴 문자열을 선택하고 이 문자열의 좌측과 우측 부분의 두께 중심을 연결하는 직선과 수평선과의 기울기를 이용하여 여권 영상에 대한 각도 보정을 수행한다. 여권 코드 추출은 소벨 연산자와 수평 스미어링, 8 방향 윤곽선 추적 알고리즘을 적용하여 여권 코드의 문자열 영역을 추출하고, 추출된 여권 코드 문자열 영역에 대해 반복 이진화 알고리즘을 적용하여 코드의 문자열 영역을 이진화한다. 이진화된 문자열 영역에 대해 CDM 마스크를 적용하여 문자열의 코드들을 복원하고 8 방향 윤곽선 추적 알고리즘을 적용하여 개별 코드를 추출한다. 추출된 개별 코드 인식은 개선된 RBF 네트워크를 제안하여 적용한다. 개선된 퍼지 ART 기반 RBF 네트워크는 퍼지 논리 접속 연산자를 이용하여 경계 변수를 동적으로 조정하는 퍼지 ART 알고리즘을 제안하여 RBF 네트워크의 중간층으로 적용한다. 얼굴 인증을 위해서는 얼굴 인증에 가장 보편적으로 사용되는 PCA 알고리즘을 적용한다. PCA 알고리즘은 고차원의 벡터를 저 차원의 벡터로 감량하여 전체 입력 영상들의 직교적인 공분산 행렬을 계산한 후, 그것의 고유 값에 따라 각 영상의 고유 벡터를 구한다. 따라서 본 논문에서는 PCA 알고리즘을 적용하여 얼굴의 고유 벡터를 구한 후, 특징 벡터를 추출한다. 그리고 여권 영상에서 획득되어진 얼굴 영상의 특징 벡터와 데이터베이스에 있는 얼굴 영상의 특징 벡터와의 거리 값을 계산하여 사진 위조 여부를 판별한다. 제안된 여권 인식 및 얼굴 인증 방법의 성능을 평가를 위하여 원본 여권에서 얼굴 부분을 위조한 여권과 기울어진 여권 영상을 대상으로 실험한 결과, 제안된 방법이 여권의 코드 인식 및 얼굴 인증에 있어서 우수한 성능이 있음을 확인하였다.

  • PDF

개인화 서비스를 위한 모바일 콘텐츠 변환 시스템 연구 (Mobile Contents Transformation System Research for Personalization Service)

  • 배종환;조영희;이정재;김남진
    • 지능정보연구
    • /
    • 제17권2호
    • /
    • pp.119-128
    • /
    • 2011
  • 최근 사용자 정보와 주변 환경의 정보를 수집할 수 있는 센서의 기술과 휴대 디바이스의 성능이 매우 발달되어 왔다. 이러한 기술 발달로 인해 사용자는 매우 다양한 콘텐츠를 이용할 수 있게 되었다. 그러나 사용자가 휴대한 디바이스의 특성에 따라 이용할 수 있는 콘텐츠가 제한적이다. 이것을 해결하기 위해 하나의 콘텐츠를 여러 디바이스에서 사용하기 위한 연구가 활발히 진행 중이다. 본 연구에서는 사용자 주변의 센서를 통한 다양한 정보를 수집하여 사용자의 상황에 맞는 특정 콘텐츠를 선정하고, 선정된 콘텐츠를 사용자가 휴대한 디바이스 특성에 맞게 변환하여 서비스를 제공하는 시스템을 제안한다.

빅데이터 시대의 개인정보 과잉이 사용자 저항에 미치는 영향 (Personal Information Overload and User Resistance in the Big Data Age)

  • 이환수;임동원;조항정
    • 지능정보연구
    • /
    • 제19권1호
    • /
    • pp.125-139
    • /
    • 2013
  • 최근 주목 받기 시작한 빅데이터 기술은 대량의 개인 정보에 대한 접근, 수집, 저장을 용이하게 할 뿐만 아니라 개인의 원하지 않는 민감한 정보까지 분석할 수 있게 한다. 이러한 기술이나 서비스를 이용하는 사람들은 어느 정도의 프라이버시 염려를 가지고 있으며, 이것은 해당 기술의 사용을 저해하는 요인으로 작용할 수 있다. 대표적 예로 소셜 네트워크 서비스의 경우, 다양한 이점이 존재하는 서비스이지만, 사용자들은 자신이 올린 수많은 개인 정보로 인해 오히려 프라이버시 침해 위험에 노출될 수 있다. 온라인 상에서 자신이 생성하거나 공개한 정보일 경우에도 이러한 정보가 의도하지 않은 방향으로 활용되거나 제3자를 의해 악용되면서 프라이버시 문제를 일으킬 수 있다. 따라서 본 연구는 사용자들이 이러한 환경에서 인지할 수 있는 개인정보의 과잉이 프라이버시 위험과 염려에 어떠한 영향을 주는지를 살펴보고, 사용자 저항과 어떠한 관계가 있는지 분석한다. 데이터 분석을 위해 설문과 구조방정식 방법론을 활용했다. 연구결과는 소셜 네트워크 상의 개인정보 과잉 현상은 사용자들의 프라이버시 위험 인식에 영향을 주어 개인의 프라이버시 염려 수준을 증가 시키는 요인으로 작용할 수 있음을 보여준다.

텍스트 마이닝 기법을 활용한 고전 추리 소설 작가 간 문체적 차이와 문체 구조에 대한 연구 (A study on detective story authors' style differentiation and style structure based on Text Mining)

  • 문석형;강주영
    • 지능정보연구
    • /
    • 제25권3호
    • /
    • pp.89-115
    • /
    • 2019
  • 본 연구는 고전 추리 소설 작가로 유명한 아서 코난 도일과 애거서 크리스티의 문체적 차이점을 데이터 분석을 통해 제시하고, 나아가 텍스트 마이닝에 입각한 문체 연구의 해석적 방법론을 제시하고자 시행되었다. 추리 소설의 핵심 요소인 사건과 인물에 더해 작가의 문법적인 집필 방식을 문체로 정의하고 분석을 시도하였다. 작가 별로 각 2권, 총 4권의 책을 선정하였으며 문장 단위로 텍스트를 나누어 데이터를 확보하였다. 각 문장에 따른 감성 점수를 부여한 뒤 페이지 진행에 따른 감성을 시각화하였으며, 페이지에 따라 토픽 모델링을 적용하여 소설 속 사건 진행 흐름을 파악할 수 있었다. 동시 발생 매트릭스(co-occurrence matrix)를 구성하고 네트워크 분석(Network Analysis)을 시행함으로써 사건이 진행되는 과정에서 인물들 간 관계의 변화를 확인할 수 있었다. 또한 전체 문장을 총 6가지 문체를 기준으로 문법적인 체계를 나누어 작가 간, 그리고 작품 간 집필 방식의 차이점을 확인하였다. 이러한 일련의 연구 과정은 문체에 대한 이해를 바탕으로 글 전체의 맥락을 파악할 수 있도록 도움을 줄 수 있으며, 나아가 기존에 개별적으로 진행되었던 문체 연구를 통합시킴으로써 문체 구조에 대한 이해를 도울 수 있다. 그리고 이러한 선행된 이해를 통해 온라인 텍스트를 비롯한 비정형 데이터 속 문체의 존재를 발견하고 구체화하는 작업에 기여할 수 있다. 뉴미디어를 포함한 온라인 텍스트를 심도 있게 분석하고자 하는 시도가 증가하고 있는 상황에서 해당 연구들과 연계를 통해 보다 의미 있는 온라인 텍스트 분석에 기여할 것으로 기대된다.

감정예측모형의 성과개선을 위한 Support Vector Regression 응용 (Application of Support Vector Regression for Improving the Performance of the Emotion Prediction Model)

  • 김성진;유은정;정민규;김재경;안현철
    • 지능정보연구
    • /
    • 제18권3호
    • /
    • pp.185-202
    • /
    • 2012
  • 오늘날 정보사회에서는 정보에 대한 가치를 인식하고, 이를 위한 정보의 활용과 수집이 중요해지고 있다. 얼굴 표정은 그림 하나가 수천개의 단어를 표현할 수 있듯이 수천 개의 정보를 지니고 있다. 이에 주목하여 최근 얼굴 표정을 통해 사람의 감정을 판단하여 지능형 서비스를 제공하기 위한 시도가 MIT Media Lab을 필두로 활발하게 이루어지고 있다. 전통적으로 기존 연구에서는 인공신경망, 중회귀분석 등의 기법을 통해 사람의 감정을 판단하는 연구가 이루어져 왔다. 하지만 중회귀모형은 예측 정확도가 떨어지고, 인공신경망은 성능은 뛰어나지만 기법 자체가 지닌 과적합화 문제로 인해 한계를 지닌다. 본 연구는 사람들의 자극에 대한 반응으로서 나타나는 얼굴 표정을 통해 감정을 추론해내는 지능형 모형을 개발하는 것을 목표로 한다. 기존 얼굴 표정을 통한 지능형 감정판단모형을 개선하기 위하여, Support Vector Regression(이하 SVR) 기법을 적용하는 새로운 모형을 제시한다. SVR은 기존 Support Vector Machine이 가진 뛰어난 예측 능력을 바탕으로, 회귀문제 영역을 해결하기 위해 확장된 것이다. 본 연구의 제안 모형의 목적은 사람의 얼굴 표정으로부터 쾌/불쾌 수준 그리고 몰입도를 판단할 수 있도록 설계되는 것이다. 모형 구축을 위해 사람들에게 적절한 자극영상을 제공했을 때 나타나는 얼굴 반응들을 수집했고, 이를 기반으로 얼굴 특징점을 도출 및 보정하였다. 이후 전처리 과정을 통해 통계적 유의변수를 추출 후 학습용과 검증용 데이터로 구분하여 SVR 모형을 통해 학습시키고, 평가되도록 하였다. 다수의 일반인들을 대상으로 수집된 실제 데이터셋을 기반으로 제안모형을 적용해 본 결과, 매우 우수한 예측 정확도를 보임을 확인할 수 있었다. 아울러, 중회귀분석이나 인공신경망 기법과 비교했을 때에도 본 연구에서 제안한 SVR 모형이 쾌/불쾌 수준 및 몰입도 모두에서 더 우수한 예측성과를 보임을 확인할 수 있었다. 이는 얼굴 표정에 기반한 감정판단모형으로서 SVR이 상당히 효과적인 수단이 될 수 있다는 점을 알 수 있었다.

지능형 시뮬레이션 모형을 기반으로 한 정보기술 투자 성과 요인 및 전략 도출에 관한 연구 (A study on the Success Factors and Strategy of Information Technology Investment Based on Intelligent Economic Simulation Modeling)

  • 박도형
    • 지능정보연구
    • /
    • 제19권1호
    • /
    • pp.35-55
    • /
    • 2013
  • 최근 기업 경영에 있어 정보기술의 도입 및 전략적인 활용은 선택이 아닌 필수로 자리잡고 있다. 기업의 전략적인 목표와 정보기술 간의 상호 의존은 기업의 생존 및 성장에 중요한 역할을 하고 있으며, 이에 따라 이미 많은 기업이 지속적으로 정보기술에 투자하고 있다. 정보기술 투자 성과 관련해서는 기업 내부의 요인들과 전략들, 기업외부의 고객까지 여러 가지 복합적인 요소들이 서로 상호작용하고 있기 때문에, 각 요인들을 독립적으로 분리하여 정보기술 투자 성과에 미치는 영향력을 분석하는 것이 쉽지 않다. 이에 본 연구는 기존의 연구들을 바탕으로 정보기술 투자성과에 영향을 줄 수 있는 변수들을 도출하여, 각 변수들의 관계를 수리적인 모델링을 통해 단순화시키고, 시뮬레이션 방법론을 이용하여 각 변수들의 변화에 정보기술 투자 성과는 어떻게 달라지는지를 밝혔다. 본 연구의 결과는 정보기술 투자는 서비스의 품질을 증가시켜 경제학적인 성과들에 간접적으로 영향을 주고, 정보기술 투자와 동시에 소비자 잉여는 증가되지만, 큰 투자비용으로 회사의 이익은 감소하게 된다. 그리고 시간이 지남에 따라 품질 증가에 관한 정보가 고객들 사이에 퍼져 나가게 되므로 최종적으로 기업의 수익을 증가시켜준다. 또한, 정보기술 투자 성과 극대화를 위해서는 회사가 제공하는 서비스와 소비자들의 네트워크 효과 등이 고려되어 정보기술 투자 여부를 결정하고, 회사에 맞는 정보기술 투자 전략을 세워야 함을 시뮬레이션 모형을 통해 확인할 수 있었다. 구체적으로, 한 번에 많은 투자를 할 경우는 단기적인 성과는 클 것으로 기대되나, 장기적으로 좋은 성과가 이뤄지지 않는다. 그러나 정보의 확산 속도가 빠르거나 정보의 장벽이 될 수 있는 정보를 받지 못하는 소비자가 적을 경우 단기에 집중 투자 하는 것이 많은 수요를 얻을 수 있다. 또, 여러 번에 걸쳐 투자하는 경우는 적당한 주기를 가지게 될 경우 장기적으로 큰 성과를 낼 수 있음을 확인할 수 있었다. 본 연구는 경제학 모델링과 시뮬레이션을 결합시켜, 각각의 한계를 모두 극복할 수 있는 방법론을 활용했다는 측면과, 정보기술 투자의 성과를 제품 품질의 매개 효과 모형에 적용하여 정보기술 투자와 기업 성과간의 관계를 보여주었다는 측면, 마지막으로 정보기술 투자 전략 및 정보의 확산 효과를 반영하여 정보기술 투자의 성과를 확인할 수 있다는 측면에서 의의가 있다.

온톨로지와 토픽모델링 기반 다차원 연계 지식맵 서비스 연구 (A Study on Ontology and Topic Modeling-based Multi-dimensional Knowledge Map Services)

  • 정한조
    • 지능정보연구
    • /
    • 제21권4호
    • /
    • pp.79-92
    • /
    • 2015
  • 미래 핵심 가치 기술 발굴 및 탐색을 위해서는 범국가적인 국가R&D정보와 과학기술정보의 연계 융합이 필요하다. 본 논문에서는 국가R&D정보와 과학기술정보를 온톨로지와 토픽모델링을 사용하여 연계 융합하여 지식베이스를 구축한 방법론을 소개하고, 이를 기반으로 한 다차원 연계 지식맵 서비스를 소개한다. 국가R&D정보는 국가R&D과제와 참여인력, 해당 과제에 대한 성과 정보, 논문, 특허, 연구보고서 정보들을 포함한다. 과학기술정보는 논문, 특허, 동향 등의 과학기술연구에 대한 기술 문서를 일컫는다. 본 논문에서는 지식베이스에서의 지식 처리 및 관리의 효율성을 높이기 위해 Lightweight 온톨로지를 사용한다. Lightweight 온톨로지는 국가R&D과제 참여자와 성과정보, 과학기술정보를 과제-성과 관계, 문서-저자 관계, 저자-소속기관 관계 등의 단순한 연관관계를 이용하여 국가R&D정보와 과학기술정보를 융합한다. 이러한 단순한 연관관계만을 이용함으로써 지식 처리의 효율성을 높이고 온톨로지 구축 과정을 자동화한다. 보다 구체적인 Concept 레벨에서의 온톨로지 구축을 위해 토픽모델링을 활용한다. 토픽모델링을 활용하여 국가R&D정보와 과학기술정보 문서들의 토픽 주제어를 추출하고 각 문서 간 연관관계를 추출한다. 일반적인 Concept 레벨에서의 Fully-Specified 온톨로지를 구축하기 위해서는 거의 100% 수동으로 해야 하기 때문에, 많은 시간과 비용이 소모된다. 본 연구에서는 이러한 수동적인 온톨로지 구축이 아닌 자동화된 온톨로지 구축을 위해 토픽모델링을 활용한다. 토픽모델링을 활용하여 온톨로지 구축에 필요한 문서와 토픽 키워드 간의 관계, 문서 간 의미 상 연관관계를 자동으로 추출한다. 마지막으로, 이와 같이 구축된 지식베이스의 트리플(Triple) 정보를 활용하여, 연구자들의 공동저자관계, 문서간의 공통주제어관계 등을 연구자, 주제어, 기관, 저널 등의 다차원 연관관계를 방사형 네트워크 형식을 이용하여 시각화한 지식맵 서비스들을 소개한다.

SVM과 meta-learning algorithm을 이용한 고지혈증 유병 예측모형 개발과 활용 (Development and application of prediction model of hyperlipidemia using SVM and meta-learning algorithm)

  • 이슬기;신택수
    • 지능정보연구
    • /
    • 제24권2호
    • /
    • pp.111-124
    • /
    • 2018
  • 본 연구는 만성질환 중의 하나인 고지혈증 유병을 예측하는 분류모형을 개발하고자 한다. 이를 위해 SVM과 meta-learning 알고리즘을 이용하여 성과를 비교하였다. 또한 각 알고리즘에서 성과를 향상시키기 위해 변수선정 방법을 통해 유의한 변수만을 선정하여 투입하여 분석하였고 이 결과 역시 각각 성과를 비교하였다. 본 연구목적을 달성하기 위해 한국의료패널 2012년 자료를 이용하였고, 변수 선정을 위해 세 가지 방법을 사용하였다. 먼저 단계적 회귀분석(stepwise regression)을 실시하였다. 둘째, 의사결정나무(decision tree) 알고리즘을 사용하였다. 마지막으로 유전자 알고리즘을 사용하여 변수를 선정하였다. 한편, 이렇게 선정된 변수를 기준으로 SVM, meta-learning 알고리즘 등을 이용하여 고지혈증 환자분류 예측모형을 비교하였고, TP rate, precision 등을 사용하여 분류 성과를 비교분석하였다. 이에 대한 분석결과는 다음과 같다. 첫째, 모든 변수를 투입하여 분류한 결과 SVM의 정확도는 88.4%, 인공신경망의 정확도는 86.7%로 SVM의 정확도가 좀 더 높았다. 둘째, stepwise를 통해 선정된 변수만을 투입하여 분류한 결과 전체 변수를 투입하였을 때보다 각각 정확도가 약간 높았다. 셋째, 의사결정나무에 의해 선정된 변수 3개만을 투입하였을 때 인공신경망의 정확도가 SVM보다 높았다. 유전자 알고리즘을 통해 선정된 변수를 투입하여 분류한 결과 SVM은 88.5%, 인공신경망은 87.9%의 분류 정확도를 보여 주었다. 마지막으로, 본 연구에서 제안하는 meta-learning 알고리즘인 스태킹(stacking)을 적용한 결과로서, SVM과 MLP의 예측결과를 메타 분류기인 SVM의 입력변수로 사용하여 예측한 결과, 고지혈증 분류 정확도가 meta-learning 알고리즘 중에서는 가장 높은 것으로 나타났다.

집중형센터를 가진 역물류네트워크 평가 : 혼합형 유전알고리즘 접근법 (Evaluating Reverse Logistics Networks with Centralized Centers : Hybrid Genetic Algorithm Approach)

  • 윤영수
    • 지능정보연구
    • /
    • 제19권4호
    • /
    • pp.55-79
    • /
    • 2013
  • 본 연구에서는 집중형 센터를 가진 역물류네트워크(Reverse logistics network with centralized centers : RLNCC)를 효율적을 해결하기 위한 혼합형 유전알고리즘(Hybrid genetic algorithm : HGA) 접근법을 제안한다. 제안된 HGA에서는 유전알고리즘(Genetic algorithm : GA)이 주요한 알고리즘으로 사용되며, GA 실행을 위해 0 혹은 1의 값을 가질 수 있는 새로운 비트스트링 표현구조(Bit-string representation scheme), Gen and Chang(1997)이 제안한 확장샘플링공간에서의 우수해 선택전략(Elitist strategy in enlarged sampling space) 2점 교차변이 연산자(Two-point crossover operator), 랜덤 돌연변이 연산자(Random mutation operator)가 사용된다. 또한 HGA에서는 혼합형 개념 적용을 위해 Michalewicz(1994)가 제안한 반복적언덕오르기법(Iterative hill climbing method : IHCM)이 사용된다. IHCM은 지역적 탐색기법(Local search technique) 중의 하나로서 GA탐색과정에 의해 수렴된 탐색공간에 대해 정밀하게 탐색을 실시한다. RLNCC는 역물류 네트워크에서 수집센터(Collection center), 재제조센터(Remanufacturing center), 재분배센터(Redistribution center), 2차 시장(Secondary market)으로 구성되며, 이들 각 센터 및 2차 시장들 중에서 하나의 센터 및 2차 시장만 개설되는 형태를 가지고 있다. 이러한 형태의 RLNCC는 혼합정수계획법(Mixed integer programming : MIP)모델로 표현되며, MIP 모델은 수송비용, 고정비용, 제품처리비용의 총합을 최소화하는 목적함수를 가지고 있다. 수송비용은 각 센터와 2차 시장 간에 제품수송에서 발생하는 비용을 의미하며, 고정비용은 각 센터 및 2차 시장의 개설여부에 따라 결정된다. 예를 들어 만일 세 개의 수집센터(수집센터 1, 2, 3의 개설비용이 각각 10.5, 12.1, 8.9)가 고려되고, 이 중에서 수집센터 1이 개설되고, 나머지 수집센터 2, 3은 개설되지 않을 경우, 전체고정비용은 10.5가 된다. 제품처리비용은 고객으로부터 회수된 제품을 각 센터 및 2차 시장에서 처리할 경우에 발생되는 비용을 의미한다. 수치실험에서는 본 연구에서 제안된 HGA접근법과 Yun(2013)의 연구에서 제안한 GA접근법이 다양한 수행도 평가 척도에 의해 서로 비교, 분석된다. Yun(2013)이 제안한 GA는 HGA에서 사용되는 IHCM과 같은 지역적탐색기법을 가지지 않는 접근법이다. 이들 두 접근법에서 동일한 조건의 실험을 위해 총세대수 : 10,000, 집단의 크기 : 20, 교차변이 확률 : 0.5, 돌연변이 확률 : 0.1, IHCM을 위한 탐색범위 : 2.0이 사용되며, 탐색의 랜덤성을 제거하기 위해 총 20번의 반복실행이 이루어 졌다. 사례로 제시된 두 가지 형태의 RLNCC에 대해 GA와 HGA가 각각 실행되었으며, 그 실험결과는 본 연구에서 제안된 HGA가 기존의 접근법인 GA보다 더 우수하다는 것이 증명되었다. 다만 본 연구에서는 비교적 규모가 작은 RLNCC만을 고려하였기에 추후 연구에서는 보다 규모가 큰 RLNCC에 대해 비교분석이 이루어 져야 할 것이다.

빅데이터의 효과적인 처리 및 활용을 위한 클라이언트-서버 모델 설계 (Design of Client-Server Model For Effective Processing and Utilization of Bigdata)

  • 박대서;김화종
    • 지능정보연구
    • /
    • 제22권4호
    • /
    • pp.109-122
    • /
    • 2016
  • 최근 빅데이터 분석은 기업과 전문가뿐만 아니라 개인이나 비전문가들도 큰 관심을 갖는 분야로 발전하였다. 그에 따라 현재 공개된 데이터 또는 직접 수집한 이터를 분석하여 마케팅, 사회적 문제 해결 등에 활용되고 있다. 국내에서도 다양한 기업들과 개인이 빅데이터 분석에 도전하고 있지만 빅데이터 공개의 제한과 수집의 어려움으로 분석 초기 단계에서부터 어려움을 겪고 있다. 본 논문에서는 빅데이터 공유를 방해하는 개인정보, 빅트래픽 등의 요소들에 대한 기존 연구와 사례들을 살펴보고 정책기반의 해결책이 아닌 시스템을 통해서 빅데이터 공유 제한 문제를 해결 할 수 있는 클라이언트-서버 모델을 이용해 빅데이터를 공개 및 사용 할 때 발생하는 문제점들을 해소하고 공유와 분석 활성화를 도울 수 있는 방안에 대해 기술한다. 클라이언트-서버 모델은 SPARK를 활용해 빠른 분석과 사용자 요청을 처리하며 Server Agent와 Client Agent로 구분해 데이터 제공자가 데이터를 공개할 때 서버 측의 프로세스와 데이터 사용자가 데이터를 사용하기 위한 클라이언트 측의 프로세스로 구분하여 설명한다. 특히, 빅데이터 공유, 분산 빅데이터 처리, 빅트래픽 문제에 초점을 맞추어 클라이언트-서버 모델의 세부 모듈을 구성하고 각 모듈의 설계 방법에 대해 제시하고자 한다. 클라이언트-서버 모델을 통해서 빅데이터 공유문제를 해결하고 자유로운 공유 환경을 구성하여 안전하게 빅데이터를 공개하고 쉽게 빅데이터를 찾는 이상적인 공유 서비스를 제공할 수 있다.