• 제목/요약/키워드: Hardware Resources

검색결과 442건 처리시간 0.039초

시뮬레이션을 이용한 정보시스템 아키텍쳐 모델링에 관한 연구 (A Study on the Architecture Modeling of Information System using Simulation)

  • 박상국;김종배
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2013년도 추계학술대회
    • /
    • pp.455-458
    • /
    • 2013
  • 종래의 정보시스템 아키텍쳐 설계는 설계자 개인의 경험을 바탕으로 진행되어 정보시스템의 적절한 자원 배분 활용과 성능 향상에 한계로 작용되어 오고 있다. 개인 경험에 의존한 아키텍쳐 설계는 설계자 경험의 다양성, 관련 업무 및 환경에서의 지식수준, 개인의 성향에 따른 아키텍쳐 품질수준에 많은 차이가 발생한다. 이러한 문제점은 결국 고비용의 하드웨어 자원 낭비라는 결과를 초래한다. 업무 현장에서는 아키텍쳐의 성능 모니터링, 병목구간 발견 및 정보시스템 운영 프로세스 상의 문제점을 발견하고 대응할 목적으로 사후적 모니터링 Tool 들이 다양하게 개발되어 운영되고 있다. 그러나 아키텍쳐 설계 초기에 사전적으로 예측하여 대응하기 위한 시뮬레이션 툴이나 모델들은 거의 없으며, 있더라도 제한적인 모델에서만 적용 가능하다. 이러한 문제점들을 개선하고자 정보시스템 아키텍쳐 설계를 위한 시뮬레이션 모델을 우선 파이롯 형태로 개발, 실험을 통하여 타당성을 검증한다. 실험의 결과 오차율이 허용범위 이내에서 발생되면 시뮬레이션 모델이 현실 세계의 정보시스템 아키텍쳐 특성을 잘 반영하고 있다고 할 수 있다. 향후에 본 개발 모델이 다양하게 활용 가능한 수준으로 개발된다면 그동안 수식계산에 의존해 오던 방식을 벗어나 정확한 성능산정이 가능할 것이고 잘못된 아키텍쳐 설계로 인한 유휴자원의 발생 및 예산낭비를 예방할 수 있다.

  • PDF

RCP 시나리오 기반 밀양댐 미래 유입량 산정 및 결과분석 (The Estimation and Analysis of Miryang Dam Inflow based on RCP Scenario)

  • 추태호;고현수;윤현철;노현석;손희삼
    • 한국산학기술학회논문지
    • /
    • 제16권5호
    • /
    • pp.3469-3476
    • /
    • 2015
  • 우리나라는 여름철에 강수량이 집중되고 동고서저형의 지형을 가지고 있다. 이러한 지형과 조건을 가진 나라는 기본적으로 하드웨어적인 대책이 뒷받침되어야 한다. 하지만 점차 그 적지는 감소하고 있고 국가 수자원 정책에 대한 시민 및 언론의 반발은 거세지고 있는 상황에 처해있다. 이러한 상황에서 기후변화는 수자원에 많은 영향을 주고 밀접한 관계를 가지고 있다. 따라서 본 논문에서는 기상청 기후변화 시나리오인 RCP 4.5와 8.5 시나리오를 검 보정한 SWAT모형에 적용하여 밀양다목적댐 유역의 미래 유입량을 산정하고 이에 대한 분석 결과를 바탕으로 댐을 운영하는데 있어 미래 방향을 제시하였다. 기존의 봉우리형 강우패턴에서 겨울철에도 비가 오는 평탄한 형상으로 변화할 것으로 예측되었다. 따라서 기존의 운영룰에서 변화하는 강우 패턴에 맞는 방향으로 댐의 운영룰을 수정하고 이에 대처할 수 있는 방안의 마련이 필요할 것으로 판단된다.

멀티코어 시스템에서 흐름 수준 병렬처리에 기반한 리눅스 TCP/IP 스택의 성능 개선 (A Performance Improvement of Linux TCP/IP Stack based on Flow-Level Parallelism in a Multi-Core System)

  • 권희웅;정형진;곽후근;김영종;정규식
    • 정보처리학회논문지A
    • /
    • 제16A권2호
    • /
    • pp.113-124
    • /
    • 2009
  • 최근 멀티코어가 장착된 시스템이 증가하면서 이를 통한 애플리케이션 성능향상에 대한 노력이 계속 되어왔다. 하나의 시스템에 다수의 처리장치가 존재함으로 인해 프로세싱 파워는 기존보다 증가했지만 기존의 소프트웨어나 하드웨어들은 싱글코어 시스템에 적합하게 설계된 경우가 많아 멀티코어의 이점을 충분히 활용하지 못하고 있는 경우가 많다. 기존의 많은 소프트웨어들은 멀티코어 상에서 공유 자원에 대한 병목현상과 비효율적인 캐시 메모리 사용으로 인하여 충분한 성능향상을 기대하기 어려우며 이러한 문제점들로 인하여 기존 소프트웨어는 코어의 개수에 비례한 성능을 얻지 못하며, 최악의 경우 오히려 감소될 수 있다. 본 논문에서는 TCP/IP를 사용하는 기존의 네트워크 애플리케이션과 운영체제에 흐름 수준 병렬처리 기법을 적용하여 성능을 증가 시킬 수 있는 방법을 제안한다. 제안된 방식은 개별 코어단위로 네트워크 애플리케이션, 운영체제의 TCP/IP 스택, 디바이스 드라이버, 네트워크 인터페이스가 서로 간섭 없이 작동할 수 있는 환경을 구성하며, L2 스위치를 통해 각 코어 단위로 트래픽을 분산하는 방법을 적용하였다. 이를 통해 각 코어 간에 애플리케이션의 데이터 및 자료구조, 소켓, 디바이스 드라이버, 네트워크 인터페이스의 공유를 최소화하여, 각 코어간의 자원을 차지하기 위한 경쟁을 최소화하고 캐시 히트율을 증가시킨다. 이를 통하여 8개의 멀티코어를 사용하였을 경우 네트워크 접속속도와 대역폭이 코어의 개수에 따라 선형적으로 증가함을 실험을 통해 입증하였다.

유도비행체계 내부 통신채널 상태 검사를 위한 신호 품질 지시자 설계 (Design of Signal Quality Indicator(SQI) for the Verification of the Communication Channel Condition in Guided Flight Systems)

  • 홍언표;정상문;공민식
    • 한국항공우주학회지
    • /
    • 제46권12호
    • /
    • pp.1049-1055
    • /
    • 2018
  • 본 논문은 유도비행체계 내부 부체계들 사이에 연결된 유선 통신채널의 상태를 검사할 수 있는 신호 품질 지시자(SQI)를 제안한다. 유선 통신채널을 통해 전달되는 통신신호는 빈약한 통신채널 연결 상태, 전자기적 간섭신호, 부가 백색 가우시안 잡음 등에 의해서 왜곡이 발생할 수 있다. 통신채널의 상태를 검사하는 방법으로서, 해밍 거리 기반으로 수신신호 왜곡정도를 계산하는 H-SQI와 유클리디언 거리 기반으로 계산하는 E-SQI를 제안한다. 제안하는 두 SQI는 왜곡정도에 대한 분해성능인 SQI 분해성능과 필요 하드웨어 자원 양에 대하여 서로 비교하였다. E-SQI는 뛰어난 SQI 분해성능을 가짐에도 불구하고 H-SQI보다 약 10배의 FPGA 자원과 아날로그-디지털 변환기가 더 필요하다. 또한, H-SQI는 오버샘플링 비율을 증가시켜 채널상태를 확인할 수 있을 정도의 충분한 SQI 분해성능을 얻을 수 있으므로 H-SQI가 E-SQI보다 유도비행체계의 신호 품질 지시자로서 더 적절하다.

산업화시대 한국 하청애니메이션에 대한 연구 - 1970-80년대 애니메이션을 중심으로 - (A Study on Subcontract Animation in Korea during the Industrialization Era - Centered around Animations in 1970-80s -)

  • 김종옥
    • 만화애니메이션 연구
    • /
    • 통권43호
    • /
    • pp.47-75
    • /
    • 2016
  • 본 연구는 1966년 TBC 동화부의 황금박쥐로 시작된 한국 하청애니메이션의 역사를 1980년대 시기까지 분석하여, 한국애니메이션에서 30년 넘게 진행되어 온 하청애니메이션의 역사를 재조명하였다. 이를 위해 하청애니메이션 제작사 제작현황 산업의 규모 등 하청애니메이션 개괄적인 상황을 통해 당시 OEM산업의 실태를 점검하였고, 애니메이션이 하청제작산업으로 고착화된 배경을 시대상황과 연계하여 분석하였다. 또한 이를 기반으로 하청애니메이션산업이 발생시킨 문제점과 한계 그리고 이를 극복하고 창작애니메이션을 활성화하기 위한 새로운 모색에 대한 분석을 통해 애니메이션 역사 연구의 지평을 넓혀보고자 하였다. 1970년대는 중화학공업 육성과 수출주도형 경제성장이 국가적 목표였던 시기였다. 70년대 후반부터 애니메이션도 해외애니메이션 하청 수주를 통해 수출 주력산업으로 주목받았다. 하청 해니메이션 제작의 확대는 당시 대중문화에 대한 국가의 정책과 칼라TV보급, 비디오 제작 시장 활성화 등의 매체 변화로 극장용 애니메이션 관객이 축소된 점에도 영향을 받았으며 경제적 논리로 자체 애니메이션 제작을 기피했던 방송사 등 플랫폼 부재도 그 원인이었다. 하청애니메이션산업은 애니메이션 인프라의 구축과 신진 인력 양성 등 애니메이션 환경을 확장시켰다는 측면에서 긍정적인 평가를 할 수 있다. 그러나 기술집약적인 '프로덕션' 단계 중심의 발전은 기획력 등 '프리 프로덕션'의 부재와 '포스트 프로덕션(후반작업)'에 대한 인식 부족으로 전문인력 양성에 왜곡된 구조를 만들었고, OEM산업으로 축적된 자본을 창작애니메이션 제작에 재투자하여 내수시장을 형성하지 못한 점은 부정적 측면으로 평가된다. 애니메이션은 한 나라의 문화적, 정신적 산물이다. 따라서 전문인력의 양성과 우수한 작품의 창작, 선순환 구조를 만들 수 있는 시장의 형성 등 창작애니메이션 활성화를 위한 체계적인 지원 정책이 모색되어야 한다. 그러나 애니메이션은 산업이지만 하드웨어 중심의 제조업이 아닌 창의력에 기반한 문화산업이라는 인식은 없었다. 이러한 인식의 부재로 이 시기 한국 애니메이션은 독자적인 작품 제작을 위한 장기적인 계획과 투자를 통해 시장을 만들고, 창작애니메이션을 활성화하는 어떠한 정책 방안도 마련하지 못했다. 이러한 시도는 1990년대 이후 한국도 창작 애니메이션 보호 육성을 위한 다각적인 모색을 통해 새롭게 시작된다.

개별 기업에 대한 인터넷 검색량과 주가변동성의 관계: 국내 코스닥시장에서의 산업별 실증분석 (The Relationship between Internet Search Volumes and Stock Price Changes: An Empirical Study on KOSDAQ Market)

  • 전새미;정여진;이동엽
    • 지능정보연구
    • /
    • 제22권2호
    • /
    • pp.81-96
    • /
    • 2016
  • 최근 인터넷의 보편화와 정보통신 기술의 발달로 인해 인터넷을 통한 정보검색이 일상화 됨에 따라 주식에 관한 정보 역시 검색엔진, 소셜네트워크서비스, 인터넷 커뮤니티 등을 통해 획득하는 경우가 잦아졌다. 특정 단어에 대한 키워드 검색량은 사용자의 관심도를 반영하기 때문에 다양한 연구에서 개별 기업에 대한 인터넷 검색량은 투자자의 관심도에 대한 척도로서의 사용가능성을 각광받았다. 특정 주식에 대한 투자자의 관심이 증가할 때 일시적으로 주가가 상승하였다가 회복하는 반전현상은 여러 연구를 통해 검증되어 왔지만 그 동안 투자자의 관심도는 주로 주식거래량, 광고 비용 등을 사용해 간접적으로 측정되었다. 본 연구에서는 국내 코스닥 시장에 상장된 기업에 대한 인터넷 검색량을 투자자의 관심의 척도로 사용하여 투자자의 관심에 근거한 주가변동성의 변화를 전체 시장 측면과 산업별 측면에서 관찰한다. 또한 투자자 관심이 야기한 가격압박에 의한 주가 반전현상의 존재를 코스닥 시장에서 검증하고 산업 간의 반전정도의 차이를 비교한다. 실증분석 결과 비정상적인 인터넷 검색량 증가는 주가변동성의 유의적인 증가를 가져왔고 이러한 현상은 IT S/W, 건설, 유통 산업군에서 특히 강하게 나타났다. 비정상적인 인터넷 검색량의 증가 이후 2주 간 주가변동성이 증가하였고 3~4주 후에는 오히려 변동성이 감소하는 것을 확인하였다. 이러한 주가 반전현상 역시 IT S/W, 건설, 유통 산업군에서 보다 극단적으로 발생하는 것으로 나타난다.

역사기록물(Archives)의 항구적인 보존화 이용 : 보존전략과 디지털정보화 (Permanent Preservation and Use of Historical Archives : Preservation Issues Digitization of Historical Collection)

  • 이상민
    • 기록학연구
    • /
    • 제1호
    • /
    • pp.23-76
    • /
    • 2000
  • In this paper, I examined what have been researched and determined about preservation strategy and selection of preservation media in the western archival community. Archivists have primarily been concerned with 'preservation' and 'use' of archival materials worth of being preserved permanently. In the new information era, preservation and use of archival materials were faced with new challenge. Life expectancy of paper records was shortened due to acidification and brittleness of the modem papers. Also emergence of information technology affects the traditional way of preservation and use of archival materials. User expectations are becoming so high technology-oriented and so complicated as to make archivists act like information managers using computer technology rather than traditional archival handicraft. Preservation strategy plays an important role in archival management as well as information management. For a cost-effective management of archives and archival institutions, preservation strategy is a must. The preservation strategy encompasses all aspects of archival preservation process and practices, from selection of archives, appraisal, inventorying, arrangement, description, conservation, microfilming or digitization, archival buildings, and access service. Those archival functions should be considered in their relations to each other to ensure proper preservation of archival materials. In the integrated preservation strategy, 'preservation' and 'use' should be combined and fulfilled without sacrificing the other. Preservation strategy planning is essential to determine the policies of archives to preserve their holdings safe and provide people with a maximum access in most effective ways. Preservation microfilming is to ensure permanent preservation of information held in important archival materials. To do this, a detailed standardization has been developed to guarantee the permanence of microfilm as well as its product quality. Silver gelatin film can last up to 500 years in the optimum storage environment and the most viable option for permanent preservation media. ISO and ANIS developed such standards for the quality of microfilms and microfilming technology. Preservation microfilming guidelines was also developed to ensure effective archival management and picture quality of microfilms. It is essential to assess the need of preservation microfilming. Limit in resources always put a restraint on preservation management. Appraisal (and selection) of what to be preserved was the most important part of preservation microfilming. In addition, microfilms with standard quality can be scanned to produce quality digital images for instant use through internet. As information technology develops, archivists began to utilize information technology to make preservation easier and more economical, and to promote use of archival materials through computer communication network. Digitization was introduced to provide easy and universal access to unique archives, and its large capacity of preserving archival data seems very promising. However, digitization, i.e., transferring images of records to electronic codes, still, needs to be standardized. Digitized data are electronic records, and st present electronic records are very unstable and not to be preserved permanently. Digital media including optical disks materials have not been proved as reliable media for permanent preservation. Due to their chemical coating and physical character using light, they are not stable and can be preserved at best 100 years in the optimum storage environment. Most CD-R can last only 20 years. Furthermore, obsolescence of hardware and software makes hard to reproduce digital images made from earlier versions. Even if when reformatting is possible, the cost of refreshing or upgrading of digital images is very expensive and the very process has to be done at least every five to ten years. No standard for this obsolescence of hardware and software has come into being yet. In short, digital permanence is not a fact, but remains to be uncertain possibility. Archivists must consider in their preservation planning both risk of introducing new technology and promising possibility of new technology at the same time. In planning digitization of historical materials, archivists should incorporate planning for maintaining digitized images and reformatting them in the coming generations of new applications. Without the comprehensive planning, future use of the expensive digital images will become unavailable. And that is a loss of information, and a final failure of both 'preservation' and 'use' of archival materials. As peter Adelstein said, it is wise to be conservative when considerations of conservations are involved.

개발도상국 학생들을 위한 블랜디드 IT/STEM교육: 탄자니아에서의 경험 및 시사점 (Blended IT/STEM Education for Students in Developing Countries: Experiences in Tanzania)

  • 이지영;헤리엘 아요;이협승
    • 적정기술학회지
    • /
    • 제6권2호
    • /
    • pp.151-162
    • /
    • 2020
  • 2020년 코로나로 인해 테크놀러지를 사용하는 교육(온라인교육 포함)이 그 가치를 확실히 인정받았다. 교사 위주였던 예전 교습 방법이 완전히 바뀌어졌다. 주어진 교과 과정을 온라인으로 예습하고 클라스에서는 토론을 하는 "flipped 학습"이 자리를 잡아가고있다. 아프리카에서는 온라인 클라스는 현지인들에게는 상상이 되지 않는 옵션이다. 하지만 이제 기술을 통한 교육 가치가 인정받기 시작했다. 먼 학교를 가야하는 학생들을 위해 작은 분교/정보 센타가 많이 세워져야한다. 한꺼번에 모이지 못하고, 정해진 소수의 팀이 와서 거리를 두고 컴퓨터를 통해 학습을 하고, 그후에 다음 팀이 와서 학습한다. 몇대의 컴퓨터를 공유하면서 교사가 없는 상황에서도 각자 인트라넷 전자 도서관을 통해서 학습을 한다. 학생들은 생전 처음 경험하는 힉습방법이지만, 오히려 자유롭게 스스로 주도하여 배우는 것을 경험한다. 학생들뿐 아니라, 교사 훈련도 되며 커뮤니티의 정보 센타가 되어 공동체가 힘을 얻을 것이다. 이렇게 훈련된 교사, 스텝들이 곳곳에 정보센터를 세워 훈련을 확장해 나갈 수 있다. 기술과 문제 파악, 현지 적용의 몇가지 STEM 프로젝트를 통하여 스스로 배울 수 있다는 깨달음으로 학생들은 배움에 대한 기쁨을 얻는다. 지난 2-3년간수행된 3천여명에 대한 STEM/IT교육의 결과가 이를 증명하고 있다. 스스로 배움을 터득해 나가고, 먼저 배운 학생들이 인턴이 되어 다른 학생들을 가르치는 실제적인 새로운 인재상을 통하여 임파워링의 플랫폼과 연속 채널을 구축하는데는 "IT" 가 최적이다. 그동안 탄자니아의 10개 도시에서 진행된 STEM교육의 결과와 앞으로 진행될 유니세프 프로젝트와 코이카 프로젝트를 통하여 Scale-up에 대한 내용도 본 발표에서 소개된다.

위성비행소프트웨어를 위한 XtratuM 가상화 기반의 RTEMS SMP 플랫폼 (Development of RTEMS SMP Platform Based on XtratuM Virtualization Environment for Satellite Flight Software)

  • 김선욱;최종욱;정재엽;유범수
    • 한국항공우주학회지
    • /
    • 제48권6호
    • /
    • pp.467-478
    • /
    • 2020
  • 위성비행소프트웨어의 역할이 커짐에 따라 가상화 기술이 위성에도 도입되고 있다. 가상화 기술 중 하나인 하이퍼바이져는 하드웨어 자원의 가상화를 통해 하드웨어를 보다 효율적으로 쓸 수 있도록 도와준다. 동시에 가상화 기술은 소프트웨어의 복잡도를 낮추어 신뢰성을 높이는 역할도 수행한다. 한국항공우주연구원에서는 위성용 하이퍼바이져 중 하나인 XtratuM을 차세대 하이퍼바이져 후보군으로 선정하고, 이를 위성비행소프트웨어에 적용할 수 있는지 가능성을 확인하고 있다. XtratuM은 하드웨어 효율성을 높일 수 있지만 SMP를 지원하지 않아 인공위성의 자세제어 알고리즘과 같이 고성능/병렬처리가 필요한 부분에 적용이 어렵다는 한계점을 지니고 있다. 본 논문에서는 XtratuM의 기능 확장과 RTEMS XM-SMP BSP를 추가적으로 구현하여 RTEMS 기반 SMP를 지원하도록 만든다. XtratuM을 분석하여 SMP에 필요한 기능을 하이퍼콜로 추가한다. 그 후 BSP를 수정하여 SMP에 필요한 다수의 프로세서를 초기화하는 과정과 프로세서간의 통신을 위한 초기화 과정을 구현한다. 나아가 문맥 교환, 인터럽트와 같이 SMP에 의한 충돌이 발생할 수 있는 부분에 대해서도 개선한다. 이렇게 개발한 RTEMS XM-SMP는 4개의 코어를 가지고 있는 GR740 보드를 이용하여 SMP 벤치마크 함수를 수행하여 검증하고 SMP를 통한 성능 변화를 확인한다.

ATM ABR의 공평성들을 위한 새로운 스케쥴링 알고리즘 (New Scheduling Algorithm for Fairness Criteria of ATM ABR)

  • 정경택;박준성;박현;전병실
    • 대한전자공학회논문지TC
    • /
    • 제39권4호
    • /
    • pp.188-200
    • /
    • 2002
  • WRR 스케줄링 알고리즘은 계산의 단순성과 저 비용 구현의 장점을 가지고 있어서 고속 패킷 스위칭 네트워크에서 널리 쓰이고 있지만 버스티한 트래픽에 대해서는 입력 트래픽을 일정 비율로 스케쥴링하기 때문에 효율성이 낮다는 문제점이 있다. 또한, WRR 알고리즘은 ABR 서비스 클래스의 공정성 기준인 MCR plus equal share와 Maximum of MCR or Max-Min share 공평성을 만족시키지 못한다. 또한 Nabeshima et al의 기법은 여분 대역에 대한 weight 값을 보정하지 않고 RR 방식으로 각 VC에 할당을 해주기 때문에 네트워크의 변화에 신속하게 적응하지 못할 뿐 만 아니라 대역폭을 효율적으로 이용하지 못한다. 따라서 ABR 서비스를 위한 공평성 기준을 만족시키고 빠르게 적응할 수 있는 스케줄링 알고리즘이 필요하다. 본 논문에서는 ABR 서비스를 위한 6가지 공평성 기준들 중 MCR plus equal share와 Maximum of MCR or Max-Min share 두 기준을 만족시키는 스케줄링 알고리즘을 제안한다. 제안된 알고리즘이 공평성 기준을 만족시키고, 네트워크 자원을 각 ABR VC들에게 신속하고 공평하게 할당해 주는지를 컴퓨터 시뮬레이션을 통하여 WRR, Nabeshima et al 알고리즘들과 비교, 분석한다.