• 제목/요약/키워드: information redundancy

검색결과 658건 처리시간 0.031초

철도 교량의 BIM 구축을 위한 3차원 모델 생성 자동화 시스템 개발 (Development of Automated 3D Modeling System to Construct BIM for Railway Bridge)

  • 이헌민;김현승;이일수
    • 한국전산구조공학회논문집
    • /
    • 제31권5호
    • /
    • pp.267-274
    • /
    • 2018
  • 구조물의 "3차원 설계"는 성공적인 BIM(building information modeling) 정착을 위한 핵심 기술이다. 이를 위해 다양한 BIM 라이브러리들이 개발되고 있지만 선형기반으로 구조물이 가설되는 교통 인프라의 설계업무에 적용하기에는 한계가 있다. 상용화된 BIM 소프트웨어들이 지원하는 라이브러리를 계획된 선형을 기반으로 구조물이 가설되는 교통 인프라의 설계업무에 적용하는 것은 사용성 측면에서 한계가 있다. 더욱이 조합을 고려하지 않고 개발된 라이브러리로 생성된 모델은 다양한 설계변경 상황에 대응하기가 쉽지 않다. 따라서 본 논문에서는 교통인프라 구조물인 철도 교량을 대상으로, 유관 시설 또는 부재에 대한 3차원 객체를 설계변경에 효율적으로 대처할 수 있도록 매개변수 기법을 적용한 'BIM기반 3D 모델 생성자동화 모듈'을 구축하였다. 모듈의 주요기능은 기준선형을 바탕으로 기준경로를 도출하고 다른 객체와의 조합을 고려하여 목표객체를 연장 및 배열하는 것이다. 또한 모듈의 조합으로 구성된 철도교량의 통합모델에 대하여 설계변수를 입력할 수 있는 사용자 인터페이스를 구성하여 설계변경 대응능력에 대한 적용성을 검증하였다.

DCT 직류 값을 이용한 움직임 추정기 설계에 관한 연구 (A Study on Motion Estimator Design Using DCT DC Value)

  • 이권철;박종진;조원경
    • 대한전자공학회논문지SP
    • /
    • 제38권3호
    • /
    • pp.258-268
    • /
    • 2001
  • 정보량이 많은 고화질의 동영상을 실시간으로 전송하기 위하여 압축 알고리즘을 필수적으로 사용하고 있으며, 시간적 중복성을 제거하는 동영상의 압축방법은 움직임 추정 알고리즘을 사용한다. 본 연구에서 설계하고자 하는 움직임 추정기는 블록정합 알고리즘이며, MPEG 부호기에서 사용되는 DCT 연산 결과인 DC 값을 이용하여 화면의 밝기를 판단한다. 움직임 추정기는 휘도 신호 8비트 모두를 사용하지 않고, 화면 밝기에 따른 비트 플레인(bit plane)에서 3비트만 선택하는 비교선택기를 이용한다. 본 연구에서 제안한 비교 선택기는 I-Picture만을 계산한다. I-Picture에 의해 계산된 선택 비트는 I, P와 B Picture의 움직임 추정 연산에 사용함으로서 움직임 추정기의 크기를 줄일 수 있는 구조를 제안하였다. 제안된 움직임 추정기의 고찰을 위하여 실험에 사용된 표준 동영상의 해상도는 352×288이며, DCT 연산의 처리 블록은 8×8이며, 탐색 영역은 23×23이다. 제안된 알고리즘은 C언어로 모델링하였으며, 기존 완전탐색방법과 PSNR을 비교한 결과 사람의 시각으로 거의 구별할 수 없는 작은 차이(0~0.83dB)가 나타남을 알 수 있었다. 본 연구에서 제안한 움직임 추정기의 하드웨어 크기는 기존 구조Ⅰ보다 38.3%, 기존 구조Ⅱ보다 30.7% 줄일 수 있었고, 메모리 크기는 기존 구조Ⅰ,Ⅱ보다 31.3% 줄일 수 있었다.

  • PDF

인도의 언어이론과 파니니 (Linguistic Theory in India and Panini)

  • 김형엽
    • 인문언어
    • /
    • 제1권2호
    • /
    • pp.123-139
    • /
    • 2001
  • In the history of linguistics in the world the scholars in India could be regarded as the representative linguists, who had provided the cornerstone of the academic development at linguistics. Without looking into the contents of Indian linguistic theories devised and developed in the past it would be almost impossible to account for the origin of descriptive linguistics and historical linguistics. These linguistics trends became full-fledged in 19 and 20 century and are still accepted by a lot of researchers in order to analyze newly revealed languages and train students only coming up the toddling level of linguistic studies. In this paper I will show how far the influence of Indian linguistics has colored the flow of linguistic growth historically. Especially through the analysis of Panini grammar I will prove the intimate relationship between the Indian linguistic theory and the generative grammar - it is the most active theory at present. The methods that Panini applied to constitute the rules like sutra include lots of information, that also could be discovered at the rules postulated in the generative grammar. One of the common features found at both linguistic theories is the simplicity of rule representation. At the generative grammar a rule has to be established without any redundancy. When certain number of sounds like p, b, m show the same phonological. change relevant to lips (labial in linguistic term) different rules need not to be given for each sound separately. It is better to find a way of putting the sounds together in a rule with grouping the 3 sounds with the shared phonetic feature 'labial'. In Panini grammar the form of a rule was decided based on the simplicity, too. For example, sutra 6.1.77 shows the phonological connection between the vowels i, u r 1 and the semi-vowels y, v, r, 1. However, it does not require to postulate 4 individual rules respectively. Instead a rule in which the vowels and the semi-vowels are involved is suggested, and linguistically the rule make it clear that the more simpler the rules will be the better they can reflect the efficiency of human language acquisition. Although the systems introduced at Panini grammar have some sense of distance from the language education itself we cannot deny the fact that the grammar formulates the a turning point of linguistic development. It is essential for us to think over the grammar from the view point of the modem linguistic theories to understand their root and trunk more thoroughly. It will also help us to predict in which way linguistic tendency will proceed to in future.

  • PDF

SVM-기반 제약 조건과 강화학습의 Q-learning을 이용한 변별력이 확실한 특징 패턴 선택 (Variable Selection of Feature Pattern using SVM-based Criterion with Q-Learning in Reinforcement Learning)

  • 김차영
    • 인터넷정보학회논문지
    • /
    • 제20권4호
    • /
    • pp.21-27
    • /
    • 2019
  • RNA 시퀀싱 데이터 (RNA-seq)에서 수집된 많은 양의 데이터에 변별력이 확실한 특징 패턴 선택이 유용하며, 차별성 있는 특징을 정의하는 것이 쉽지 않다. 이러한 이유는 빅데이터 자체의 특징으로써, 많은 양의 데이터에 중복이 포함되어 있기 때문이다. 해당이슈 때문에, 컴퓨터를 사용하여 처리하는 분야에서 특징 선택은 랜덤 포레스트, K-Nearest, 및 서포트-벡터-머신 (SVM)과 같은 다양한 머신러닝 기법을 도입하여 해결하려고 노력한다. 해당 분야에서도 SVM-기반 제약을 사용하는 서포트-벡터-머신-재귀-특징-제거(SVM-RFE) 알고리즘은 많은 연구자들에 의해 꾸준히 연구 되어 왔다. 본 논문의 제안 방법은 RNA 시퀀싱 데이터에서 빅-데이터처리를 위해 SVM-RFE에 강화학습의 Q-learning을 접목하여, 중요도가 추가되는 벡터를 세밀하게 추출함으로써, 변별력이 확실한 특징선택 방법을 제안한다. NCBI-GEO와 같은 빅-데이터에서 공개된 일부의 리보솜 단백질 클러스터 데이터에 본 논문에서 제안된 알고리즘을 적용하고, 해당 알고리즘에 의해 나온 결과와 이전 공개된 SVM의 Welch' T를 적용한 알고리즘의 결과를 비교 평가하였다. 해당결과의 비교가 본 논문에서 제안하는 알고리즘이 좀 더 나은 성능을 보여줌을 알 수 있다.

정밀 위치결정 서비스에 연계한 국가 GNSS 인프라 활용현황 분석 (Analysis of Utilization Status about National GNSS Infrastructure Linked to Precise Positioning Service)

  • 박준규;정갑용
    • 예술인문사회 융합 멀티미디어 논문지
    • /
    • 제7권2호
    • /
    • pp.401-408
    • /
    • 2017
  • GNSS(Global Navigation Satellite System)는 인공위성을 이용한 위치결정 및 항법 체계로 인공위성 신호를 이용하여 전 세계 모든 지역에서 정확한 위치결정이 가능하다. 우리나라는 1980년대 말 GPS를 도입하였으며 항법 및 측량, GIS 등 다양한 분야의 연구 및 업무에 활용하고 있다. 국토지리정보원은 1995년부터 GNSS 측량의 실용화를 위해 위성기준점을 설치 및 운영하고 있다. 현재 RINEX 데이터 다운로드, VRS 등 위치결정을 위한 서비스를 제공하고 있으며, 현재 측량 관련 분야에서 이러한 서비스에 대한 수요가 폭발적으로 증가하고 있어 향후 원활한 서비스의 제공을 위한 연구가 필요한 실정이다. 본 연구에서는 정밀 위치결정 서비스에 연계한 국가 GNSS 인프라 활용현황을 분석하였다. 연구를 통해 위성기준점 관련 서비스 현황의 변화를 파악하였으며, VRS 서비스의 이용자 수가 큰 폭으로 증가하고 있음을 알 수 있었다. 향후 안정적인 위치결정 서비스 제공 및 측량 선진화를 위해 다양한 GNSS 위성군에 대한 서비스 제공, 데이터 센터의 서버 이중화를 통한 안정성 확보 등 서비스의 지속적인 고도화가 필요하다.

Hardware Approach to Fuzzy Inference―ASIC and RISC―

  • Watanabe, Hiroyuki
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.975-976
    • /
    • 1993
  • This talk presents the overview of the author's research and development activities on fuzzy inference hardware. We involved it with two distinct approaches. The first approach is to use application specific integrated circuits (ASIC) technology. The fuzzy inference method is directly implemented in silicon. The second approach, which is in its preliminary stage, is to use more conventional microprocessor architecture. Here, we use a quantitative technique used by designer of reduced instruction set computer (RISC) to modify an architecture of a microprocessor. In the ASIC approach, we implemented the most widely used fuzzy inference mechanism directly on silicon. The mechanism is beaded on a max-min compositional rule of inference, and Mandami's method of fuzzy implication. The two VLSI fuzzy inference chips are designed, fabricated, and fully tested. Both used a full-custom CMOS technology. The second and more claborate chip was designed at the University of North Carolina(U C) in cooperation with MCNC. Both VLSI chips had muliple datapaths for rule digital fuzzy inference chips had multiple datapaths for rule evaluation, and they executed multiple fuzzy if-then rules in parallel. The AT & T chip is the first digital fuzzy inference chip in the world. It ran with a 20 MHz clock cycle and achieved an approximately 80.000 Fuzzy Logical inferences Per Second (FLIPS). It stored and executed 16 fuzzy if-then rules. Since it was designed as a proof of concept prototype chip, it had minimal amount of peripheral logic for system integration. UNC/MCNC chip consists of 688,131 transistors of which 476,160 are used for RAM memory. It ran with a 10 MHz clock cycle. The chip has a 3-staged pipeline and initiates a computation of new inference every 64 cycle. This chip achieved an approximately 160,000 FLIPS. The new architecture have the following important improvements from the AT & T chip: Programmable rule set memory (RAM). On-chip fuzzification operation by a table lookup method. On-chip defuzzification operation by a centroid method. Reconfigurable architecture for processing two rule formats. RAM/datapath redundancy for higher yield It can store and execute 51 if-then rule of the following format: IF A and B and C and D Then Do E, and Then Do F. With this format, the chip takes four inputs and produces two outputs. By software reconfiguration, it can store and execute 102 if-then rules of the following simpler format using the same datapath: IF A and B Then Do E. With this format the chip takes two inputs and produces one outputs. We have built two VME-bus board systems based on this chip for Oak Ridge National Laboratory (ORNL). The board is now installed in a robot at ORNL. Researchers uses this board for experiment in autonomous robot navigation. The Fuzzy Logic system board places the Fuzzy chip into a VMEbus environment. High level C language functions hide the operational details of the board from the applications programme . The programmer treats rule memories and fuzzification function memories as local structures passed as parameters to the C functions. ASIC fuzzy inference hardware is extremely fast, but they are limited in generality. Many aspects of the design are limited or fixed. We have proposed to designing a are limited or fixed. We have proposed to designing a fuzzy information processor as an application specific processor using a quantitative approach. The quantitative approach was developed by RISC designers. In effect, we are interested in evaluating the effectiveness of a specialized RISC processor for fuzzy information processing. As the first step, we measured the possible speed-up of a fuzzy inference program based on if-then rules by an introduction of specialized instructions, i.e., min and max instructions. The minimum and maximum operations are heavily used in fuzzy logic applications as fuzzy intersection and union. We performed measurements using a MIPS R3000 as a base micropro essor. The initial result is encouraging. We can achieve as high as a 2.5 increase in inference speed if the R3000 had min and max instructions. Also, they are useful for speeding up other fuzzy operations such as bounded product and bounded sum. The embedded processor's main task is to control some device or process. It usually runs a single or a embedded processer to create an embedded processor for fuzzy control is very effective. Table I shows the measured speed of the inference by a MIPS R3000 microprocessor, a fictitious MIPS R3000 microprocessor with min and max instructions, and a UNC/MCNC ASIC fuzzy inference chip. The software that used on microprocessors is a simulator of the ASIC chip. The first row is the computation time in seconds of 6000 inferences using 51 rules where each fuzzy set is represented by an array of 64 elements. The second row is the time required to perform a single inference. The last row is the fuzzy logical inferences per second (FLIPS) measured for ach device. There is a large gap in run time between the ASIC and software approaches even if we resort to a specialized fuzzy microprocessor. As for design time and cost, these two approaches represent two extremes. An ASIC approach is extremely expensive. It is, therefore, an important research topic to design a specialized computing architecture for fuzzy applications that falls between these two extremes both in run time and design time/cost. TABLEI INFERENCE TIME BY 51 RULES {{{{Time }}{{MIPS R3000 }}{{ASIC }}{{Regular }}{{With min/mix }}{{6000 inference 1 inference FLIPS }}{{125s 20.8ms 48 }}{{49s 8.2ms 122 }}{{0.0038s 6.4㎲ 156,250 }} }}

  • PDF

최적의 산악기상관측망 적정위치 선정 연구 - 호남·제주 권역을 대상으로 (A Study on Optimal Site Selection for Automatic Mountain Meteorology Observation System (AMOS): the Case of Honam and Jeju Areas)

  • 윤석희;원명수;장근창
    • 한국농림기상학회지
    • /
    • 제18권4호
    • /
    • pp.208-220
    • /
    • 2016
  • 본 연구는 매년 발생하고 있는 산불, 산사태 등의 산림 재해방지를 위해 호남과 제주의 산악지역을 대상으로 최적의 산악기상관측망 입지를 선정하는 연구를 수행하였다. 먼저 적정위치 선정을 위해 고려해야 하는 항목들을 공간자료화한 후 공간 분석을 통해서 후보지를 선정하고 현장 조사를 통해 정량적 평가를 수행함으로써 최종적인 적정위치를 선정하였다. 공간자료는 과거 10년간의 산불발생 정보와 과거 7년간의 산사태위험등급 정보, 산림청의 국사경계도, 국유지의 임도와 등산로 그리고 기상청의 자동기상관측소(AWS)와 산림청의 산악기상관측소 위치정보, 30m 해상도의 수치표고모델(DEM)을 사용하였다. 공간분석은 산불과 산사태의 1-2등급의 위험지에 대한 추출 및 중첩 분석, 산림청 국유지 내에 100m 버퍼를 준 임도와 등산로의 접근성 분석, 기상관측소의 2.5km 버퍼를 준 중복성 분석, 산악기상관측 입지 환경 조성을 위한 고도 200m 이상의 지형특성 분석을 통해 종합적인 중첩분석을 수행하였다. 공간분석 결과, 총 159개의 중첩 폴리곤이 추출되었고 구글어스 등을 활용하여 능선과 정상부에 총 64개의 적정위치 후보지를 선정하였다. 선정된 후보지는 기상관측환경, 접근성, 통신 및 전력공급 환경, 기상관측소의 중복성에 대한 정량적인 현장 평가를 통해서 총점이 70점 이상인 지점을 '적합'으로 판정하여 고득점 순으로 산악기상관측망의 적정위치 26개소를 선정하였다. 따라서 적정위치 선정 기법에 의해 구축된 산악기상관측망의 기상정보는 향후 산불, 산사태 등과 같은 산림재해위험 예측력의 향상과 산림 복잡 지형에 대한 미기상 연구에 활용이 가능할 것으로 판단된다.

시계열 데이타베이스에서 서브시퀀스 매칭의 성능 병목 : 관찰, 해결 방안, 성능 평가 (The Performance Bottleneck of Subsequence Matching in Time-Series Databases: Observation, Solution, and Performance Evaluation)

  • 김상욱
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제30권4호
    • /
    • pp.381-396
    • /
    • 2003
  • 서브시퀀스 매칭은 주어진 질의 시퀀스와 변화의 추세가 유사한 서브시퀀스들을 시계열 데이타베이스로부터 검색하는 연산이다. 본 논문에서는 서브시퀀스 매칭 처리의 성능 병목을 파악하고, 이를 해결함으로써 전체 서브시퀀스 매칭의 성능을 크게 개선하는 방안에 관하여 논의한다. 먼저, 사전 실험을 통하여 전체 서브시퀀스 매칭의 처리 시간 중 인덱스 검색 단계와 후처리 단계에서 디스크 액세스 시간 및 CPU 처리 시간이 차지하는 비중을 분석한다. 이를 바탕으로 후처리 단계가 서브시퀀스 매칭의 성능 병목이며, 후처리 단계의 최적화가 기존의 서브시퀀스 매칭 기법들이 간과한 매우 중요한 이슈임을 지적한다. 이러한 서브시퀀스 매칭의 성능 병목을 해결하기 위하여 후처리 단계를 최적으로 처리할 수 있는 간단하면서도 매우 효과적인 기법을 제안한다. 제안된 기법은 후처리 단계에서 후보 서브시퀀스들이 질의 시퀀스와 실제로 유사한가를 판단하는 순서를 조정함으로써 기존의 후처리 단계의 처리에서 발생하는 많은 디스크 액세스의 중복과 CPU 처리의 중복을 완전히 제거한 수 있다 제안된 기법이 착오 기각을 발생시키지 않음과 후처리 단계를 처리하기 위한 최적의 기법임을 이론적으로 증명한다. 또한, 실제 데이타와 생성 데이타를 이용한 다양한 실험들을 통하여 제안된 기법의 성능 개선 효과를 정량적으로 검증한다. 실험 결과에 의하면, 제안된 기법은 기존 기법의 후처리 단계 수행 시간을 실제 주식 데이타를 이용한 실험의 경우 ,3.91 배에서 9.42배까지, 대규모의 생성 데이터를 이용한 실험의 경우 4.97 배에서 5.61배까지 개선시키는 것으로 나타났다. 또한, 제안된 기법을 채택함으로써 전체 서브시퀀스 매칭 처리 시간의 90%에 이르던 후처리 단계의 비중을 70%이하로 내릴 수 있었다. 이것은 제안된 기법이 서브시퀀스 매칭의 성능 병목을 성공적으로 해결하였음을 보여주는 것이다. 이 견과, 제안된 기법은 전체 서브시퀀tm 매칭의 성능을 실제 주식 데이타를 사용한 실험의 경우 3.05 배에서 5.60 배까지, 대규모의 생성 데이타를 이용한 실험의 경우 3.68 배에서 4.21 배까지 개선시킬 수 있었다.