• 제목/요약/키워드: 프로세스기반신뢰

검색결과 217건 처리시간 0.024초

BaaS를 이용한 하이브리드 블록체인 기반 전자투표 시스템 (A Hybrid Blockchain-Based E-Voting System with BaaS)

  • 강명조;김미희
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제12권8호
    • /
    • pp.253-262
    • /
    • 2023
  • 전자투표는 정해진 장소에서의 키오스크 투표, 정해지지 않은 장소에서의 인터넷 투표 등의 행위를 포함한 개념으로, 오프라인 투표 수행 시 많은 자원과 비용이 소모되는 문제를 완화하기 위해 등장했다. 전자투표를 사용하면 투표 및 개표 업무의 효율성 증대, 비용 감소, 투표율 상승, 오류 감소 등 기존 투표시스템에 비해 많은 이점을 가진다. 하지만 중앙집중식 전자투표는 타인에 의한 데이터 위·변조 및 해킹 우려로 투표 결과를 신뢰할 수 없어 공적 선거 및 기업 안건 투표에 주목받지 못했다. 이를 해결하기 위해 최근에는 블록체인 기술을 활용한 전자투표 시스템을 설계하여 투표정보의 신뢰성 증가, 투명성 확보 등 기존의 전자투표에서 부족한 개념을 보완하는 연구가 활발히 진행되어왔다. 본 논문에서는 퍼블릭 블록체인과 프라이빗 블록체인을 융합하여 사용하는 하이브리드 블록체인 기술을 도입한 전자투표 시스템을 제안하였다. 하이브리드 블록체 인은 프라이빗 블록체인을 이용해 느린 트랜잭션 처리 속도와 수수료 문제를 해결하고, 퍼블릭 블록체인을 통해 거래의 투명성과 데이터 무결성 부족 문제를 보완할 수 있다. 또한, 설계한 시스템을 BaaS로 구현하여 블록체인의 타입 변환 용이성 및 확장성을 확보하고 강력한 연산력을 제공할 수 있도록 한다. BaaS란, Blockchain as a Service의 약어로 클라우드 컴퓨팅 기술 중 하나이며 인터넷을 통해 블록체인 플랫폼 및 소프트웨어를 제공하는 서비스를 의미한다. 본 논문에서는 타당성을 평가하기 위해 제안시스템과 국내외에서 진행한 전자투표 관련 연구를 블록체인 타입, 익명성, 검증 프로세스, 스마트 계약, 성능, 확장성 측면에서 비교 분석한다.

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.

CIA-Level 기반 보안내재화 개발 프레임워크 (CIA-Level Driven Secure SDLC Framework for Integrating Security into SDLC Process)

  • 강수영;김승주
    • 정보보호학회논문지
    • /
    • 제30권5호
    • /
    • pp.909-928
    • /
    • 2020
  • 미국 정부는 1970년대 초반부터 모의해킹만으로는 제품의 보안 품질을 향상시킬 수 없다는 것을 인지하기 시작하였다. 모의해킹팀의 역량에 따라 찾을 수 있는 취약점이 달라지며, 취약점이 발견되지 않았다고 해서 해당 제품에 취약점이 없는 것은 아니기 때문이다. 제품의 보안 품질을 향상시키기 위해서는 결국 개발 프로세스 자체가 체계적이고 엄격하게 관리되어야 함을 깨달은 미국 정부는 1980년대부터 보안내재화(Security by Design) 개발 방법론 및 평가 조달 체계와 관련한 각종 표준을 발표하기 시작한다. 보안내재화란 제품의 요구사항 분석 및 설계 단계에서부터 일찍 보안을 고려함으로써 제품의 복잡도(complexity)를 감소시키고, 궁극적으로는 제품의 신뢰성(trustworthy)을 달성하는 것을 의미한다. 이후 이러한 보안내재화 철학은 Microsoft 및 IBM에 의해 Secure SDLC라는 이름으로 2002년부터 민간에 본격적으로 전파되기 시작하였으며, 현재는 자동차 및 첨단 무기 체계 등 다양한 분야에서 활용되고 있다. 하지만 문제는 현재 공개되어 있는 Secure SDLC 관련 표준이나 가이드라인들이 매우 일반적이고 선언적인 내용들만을 담고 있기 때문에 이를 실제 현장에서 구현하기란 쉽지 않다는 것이다. 따라서 본 논문에서 우리는 Secure SDLC를 기업체가 원하는 수준에 맞게 구체화시키는 방법론에 대해 제시한다. 우리가 제안하는 CIA(functional Correctness, safety Integrity, security Assurance)-Level 기반 보안내재화 프레임워크는 기존 Secure SDLC에 증거 기반 보안 방법론(evidence-based security approach)을 접목한 것으로, 우리의 방법론을 이용할 경우 첫째 경쟁사와 자사간의 Secure SDLC 프로세스의 수준 차이를 정량적으로 분석할 수 있으며, 둘째 원하는 수준의 Secure SDLC를 구축하는데 필요한 상세한 세부 활동 및 산출해야 할 문서 등을 쉽게 도출할 수 있으므로 실제 현장에서 Secure SDLC를 구축하고자 할 때 매우 유용하다.

FPGA와 Dual Port SRAM 적용한 Radar System Positive Afterimage 고속 정보 표출에 관한 연구 (A Study on the high-speed Display of Radar System Positive Afterimage using FPGA and Dual port SRAM)

  • 신현종;유형근
    • 한국위성정보통신학회논문지
    • /
    • 제11권4호
    • /
    • pp.1-9
    • /
    • 2016
  • 본 연구는 PPI Scop 레이더 장치에서 수신된 정보신호 중 영상신호 분리와 합성과정을 거쳐 영상신호 생성, 심볼생성, 양성 잔상 신호 생성 결합 처리 과정을 거쳐 레이더 정보 분석용 화면에서 운영자의 판별 용이성, 가독성 향상과 더불어 운영 편리성을 획기적으로 향상시킬 수 있는 기술적 구현방안에 대하여 2가지 형태로 연구하였다. 첫째, FPGA기반 고속 프로세스 정보처리 연산시스템으로 구성된 하드웨어 자원을 이용하여 시스템의 고속화 안정성을 갖추도록 하였다. 둘째, 소프트웨어 자원인 함수곡선 알고리즘과 지능화된 알고리즘을 연계 구현하여 레이더 정보, 분석 시스템에서 필요한 제약요건을 충족할 수 있도록 연구하였다. 기존의 레이더 시스템에서 구현이 불가능 하였던 프레임 단위 영상데이터 분석을 위해 영상캡처와 저장, 레이더 정보 표출 영상을 MPEG4 동영상으로 저장을 할 수 있도록 하였다. 연구의 핵심은 영상 양성 처리 함수곡선 알고리즘을 통해 육안판별에서 관찰 목표물, 특정 감시 대상물체 정보를 강조, 지연표출 및 색상 표현도 할 수 있도록 하였다. 고속 FPGA기반에 탑재된 ARM Processor Support in Pro ASIC3 적용하여 지능화된 알고리을 부분적으로 탑재시켜 시스템의 신뢰성과 효율 제고로 운영자 정보판독 가독성 향상은 물론 최적화된 고해상도 영상, 고속의 정보 분석 및 다양한 정보 표출을 유지할 수 있도록 구현하였다.

서비스디자인 품질요인과 유용성이 사용자만족에 미치는 영향 (The Effects of Service Design Quality Factors and Availability on User Satisfaction)

  • 안진호
    • 서비스연구
    • /
    • 제5권2호
    • /
    • pp.133-147
    • /
    • 2015
  • 본 연구는 서비스디자인이 단순히 새로운 디자인 방법론이 아니라, 기존 유형의 시각화 중심의 디자인 관점을 서비스라는 무형의 관점으로 전환하는 디자인의 패러다임 변화를 제시하고, 증명하고자 하였다. 다양한 문헌연구를 기반으로 서비스 디자인을 정의하고 그 특징을 규명하여 기존 디자인적 접근과 사고와의 차이점 등을 증명하였다. 이를 위하여 서비스디자인에 대한 이론적 고찰과 프로세스와 방법론을 연구하였으며, 서비스디자인의 품질요인과 유용성, 사용자만족을 정의하였고, 입증할 가설을 세웠다. 본 연구는 서비스디자인 전문기업과 서비스디자이너, 그리고 그들의 고객들을 대상으로 하여 설문조사를 실시하였고, 설문결과를 기반으로 구조방정식을 통해서 가설을 검증하였다. 검증 결과 서비스디자인의 품질요인으로 신뢰성, 유형성, 확신성, 공감성을 검증하였고, 반응성은 품질요인에서 기각 되었다. 또한 품질요인이 유용성에 긍정의 영향을 미치고, 궁극적으로 사용자만족에 정(+)의 영향을 미친다는 것을 알 수 있었다. 이러한 정량적 연구결과는 서비스디자인을 받아들이는 디자인전문기업과 서비스 중심 디자인 환경으로 변화하는 관점에서 디자이너에게 시사하는 바가 있을 것이며, 디자인의 전략적 접근에 있어서 서비스 본질에 대한 이해의 중요성을 보여줄 것이다.

데이터 레이크 구축을 위한 Apache NiFi기반 ETL 프로세스 (Apache NiFi-based ETL Process for Building Data Lakes)

  • 이경민;이경희;조완섭
    • 한국빅데이터학회지
    • /
    • 제6권1호
    • /
    • pp.145-151
    • /
    • 2021
  • 최근 들어 인간의 모든 활동 영역에서 디지털 데이터가 생성되고 있고 데이터를 안전하게 저장하고 가공하여 유용한 서비스를 개발하려는 시도가 많아지고 있다. 데이터 레이크는 데이터의 출처나 데이터를 활용하는 분석 프레임워크에 독립된 데이터 저장소를 말한다. 본 논문에서는 스마트시티에서 생성되는 다양한 빅데이터를 데이터 레이크에 안전하게 저장하고 서비스에서 활용할 수 있게 ETL 하는 도구와 이를 효과적으로 사용하는데 필요한 웹기반 도구를 설계하고 구현한다. 원천 데이터를 품질검사하고 정제하여 데이터 레이크에 안전하게 저장한 다음 데이터 수명주기 정책에 따라 관리하는 일련의 과정(ETL)은 대부분 비용이 많이 드는 인프라와 개발 및 유지 관리에 상당한 노력이 필요한 기술이다. 구현기술을 통해 IT분야 전문지식이 없어도 가시적이고 효율적으로 ETL 작업 모니터링, 데이터 수명주기 관리 설정과 실행이 가능하다. 이와는 별개로 데이터 레이크에 신뢰할 수 있는 데이터를 저장하고 사용하려면 데이터 품질검사 리스트 가이드가 필요하다. 또한, 데이터 수명주기 관리 도구를 통해 데이터 마이그레이션 및 삭제 주기를 설정하고 예약하여 데이터 관리 비용을 줄일 수 있어야 한다.

분산 원장을 이용한 토큰 기반 사물 인터넷 접근 제어 기술 (Token-Based IoT Access Control Using Distributed Ledger)

  • 박환;김미선;서재현
    • 정보보호학회논문지
    • /
    • 제29권2호
    • /
    • pp.377-391
    • /
    • 2019
  • 최근 사물 인터넷에서 인증, 접근 제어 등을 위해 토큰과 블록체인을 이용한 시스템 연구들이 국내외에서 진행되고 있다. 그러나 기존 토큰을 이용한 방식의 시스템은 중앙 집중적인 특성을 가지고 있으므로 보안성, 신뢰성, 확장성 측면에서 사물 인터넷과는 적합하지 않다. 또한 블록체인을 이용한 방식의 시스템은 블록체인을 유지하기 위해서 해시 등의 계산을 반복적으로 수행하고 모든 블록을 저장해야하므로 IoT 디바이스에 과부하가 따른다. 본 논문에서는 사물 인터넷에 적합한 접근 제어를 위하여 토큰을 기반으로 권한 관리를 한다. 또한 탱글을 적용한 P2P 분산 원장 네트워크 환경을 구성하여 중앙 집중적인 구조의 문제점을 해결하고 토큰을 관리한다. 인증 과정과 접근 권한 부여 과정을 수행하여 토큰을 발급하고 토큰 발급에 대한 트랜잭션을 공유하여 모든 노드들이 토큰에 대한 유효성을 검증할 수 있다. 기존 발급 받은 토큰을 재사용하여 반복적인 인증 과정과 접근 권한 부여 과정을 줄여서 접근 제어 프로세스를 경량화할 수 있다.

감성 분석을 위한 FinBERT 미세 조정: 데이터 세트와 하이퍼파라미터의 효과성 탐구 (FinBERT Fine-Tuning for Sentiment Analysis: Exploring the Effectiveness of Datasets and Hyperparameters)

  • 김재헌;정희도;장백철
    • 인터넷정보학회논문지
    • /
    • 제24권4호
    • /
    • pp.127-135
    • /
    • 2023
  • 본 논문에서는 금융 뉴스 데이터로 추가적인 사전 학습이 진행된 BERT 기반 모델인 FinBERT 모델을 사용하여 금융 영역에서 감성 분석 시 학습시킬 데이터와 그에 맞는 하이퍼파라미터를 찾는 방법을 소개한다. 우리의 목표는 다양한 데이터 세트를 활용하고 하이퍼파라미터를 미세 조정하여 정확한 감성 분석을 위해 FinBERT 모델을 가장 잘 활용하는 방법에 대한 포괄적인 가이드를 제공하는 것이다. 이 연구에서는 제안된 FinBERT 모델 미세 조정 접근법의 아키텍처와 워크플로우를 개괄적으로 설명하고, 감성 분석 태스크를 위한 다양한 데이터 세트와 하이퍼파라미터의 성능을 강조한다. 또한, 감성 라벨링 작업에 GPT-3를 사용함으로써 GPT-3가 적절한 라벨러 역할을 하는지에 대한 신뢰성을 검증한다. 결과적으로 미세 조정된 FinBERT 모델이 다양한 데이터 세트에서 우수한 성능을 발휘 한다는 것을 보여주었고, 각 데이터 세트에 대해 전반적으로 우수한 성능을 보이는 학습률 5e-5와 배치 크기 64의 최적의 조합을 찾았다. 또 일반 도메인의 뉴스보다 일반 도메인의 트위터 데이터 세트에서 성능이 크게 향상됨을 기반으로 금융 뉴스 데이터만으로만 추가적으로 학습시키는 FinBERT 모델에 대한 의구심을 제시한다. 이를 통해 FinBERT 모델에 대한 최적의 접근 방식을 결정하는 복잡한 프로세스를 간소화하고 금융 분야 감성 분석 모델을 위한 추가적인 학습 데이터 세트와 미세 조정 시 하이퍼파라미터 선정에 대한 가이드라인을 제시한다.

기술가치평가 과제관리의 갈등관리에 관한 사례연구 (A Case Study on Conflict Types and Management for Technology Valuation Project)

  • 이윤희;손영환;유명관
    • 기술혁신학회지
    • /
    • 제21권1호
    • /
    • pp.130-150
    • /
    • 2018
  • 기술가치평가(Technology Valuation)는 특정 기술이나 기술을 기반으로 사업화 하는 데 있어 해당기술과 사업화 가치를 평가하는 행위, 절차 및 기법 등을 일컫는다. 기술의 가치와 기술을 기반으로 하는 사업화에 대한 가치를 평가하는 데 있어서는 기술가치의 기술거래, 투자 및 융자, 현물출자, 전략수립, 등의 다양한 평가목적에 따라 평가 기한과 프로세스 계획이 수립된다. 기술가치평가의 전체 프로세스는 특정 기술에 대한 기술성, 권리성, 시장성, 사업성 분석 및 평가와 이의 결과를 근거로 한 기술가치의 화폐적 가치산출 모듈로 구성되며, 각 모듈의 분석과 평가 수행에 있어서는 특정 기술에 대한 지식보유자인 전문가들로 이루어진 평가팀을 구성하여 평가가 수행된다. 특정 개별 기술에 대한 평가수행은 하나의 독립된 과제(project)로서 다뤄지며 각 모듈들을 통합하여 관리하는 과제관리자(project manager, PM)에 의해서 관리된다. 기술가치평가의 PM은 평가의 객관성과 신뢰성 확보를 위해서 과제 수행지원과 관리에 있어서의 체계적인 수행에 대한 전문성 확보가 필요하다. 또한 기술가치평가 수행의 특성 상 평가팀은 각각의 모듈별로 상이한 지식을 보유한 전문가들로 이루어진 이해관계자들로 구성되어 있는데 이들 간에 기술과 기술가치평가 전체 절차에 대한 지식공유가 원활하게 진행되기 위해서는 이들의 평가 수행을 지원하고 관리하는 PM의 의사소통 능력과 역할이 중요하다. PM의 역할 중 무엇보다도 서로 상이한 지식으로 과제에 참여하게 되는 평가자들 간, 평가자들과 피평가자들, 기술보유자와 기술이전대상자들 간에 빈번하게 발생되는 갈등에 따른 문제해결 방안을 확보하고 있어야 한다. 본 연구는 기술가치평가 PM들의 기술가치평가 수행 지원에 있어서 다양한 이해관계자들 간에 빈번하게 발생되는 4개의 갈등과 해결사례에 관해서 실제 수행되었던 기술가치평가 사례를 중심으로 살펴보고, PM들의 갈등 해결방안을 모색하고자 한다. 향후, 본 연구를 통해 논의된 갈등사례와 해결방안을 근거로 기술가치평가 과제관리에 있어서 보다 전문적인 PM의 역할과 체계화된 기술가치평가 수행지원 및 관리방안이 마련되는 실증적 근거가 될 수 있을 것으로 기대된다.

오버레이 멀티캐스트 및 콘텐츠 전달 네트워크를 적용한 개방형 IPTV 플랫폼 (Open IPTV Platform using Overlay Multicast and Content Delivery Network)

  • 정승문;강임철;전진한
    • 한국콘텐츠학회논문지
    • /
    • 제9권12호
    • /
    • pp.528-536
    • /
    • 2009
  • 일정 수준의 서비스 품질, 보안, 양방향성, 신뢰성 등을 제공하는 관리된 IP 기반의 네트워크에서 멀티미디어 서비스를 주로 수행하는 IPTV 서비스는 최근 상용화 서비스 제공으로 인해 그 중요성이 증가하고 있다. 그러나 IPTV 서비스 사업자들의 주요 서비스들이 폐쇄형 플랫폼에 의존하고 있어 개인형, 개방형 서비스를 통해 언제, 어디서나, 어떤 디바이스 환경에서도 콘텐츠를 생산하고 동시에 소비하는 IPTV 서비스의 본래 취지를 충족하지 못하고 있다. 본 논문에서는 개방형 IPTV 서비스 플랫폼을 제안하여 개인이나 소규모 사업자가 쉽게 콘텐츠를 생산하고 기존의 IPTV 망에 종속되지 않은 상태에서 서비스를 제공할 수 있는 방안을 제공하였다. 제안된 플랫폼은 제한적인 네트워크 및 프로세스 자원에서 서비스를 지원할 수 있는 오버레이 멀티캐스트 전송 방법과 콘텐츠의 품질을 보장하기 위해 사용하는 콘텐츠 전달 네트워크(Content Delivery Network)와 유사한 전송 방법을 동시에 적용하였다. 제안 IPTV 플랫폼은 성능 시험을 통해 전송되는 콘텐츠의 품질, 콘텐츠 전송량 및 채널 Zapping Time에서 개방형 서비스 플랫폼으로서의 가능성을 보여 주었으며, 향후 지속적인 기능 및 사용자 인터페이스의 개선을 통해 개방형 IPTV 플랫폼을 이용한 IPTV 서비스를 제공할 수 있음을 보여 주고 있다.