• 제목/요약/키워드: Computation cost

검색결과 647건 처리시간 0.032초

XML 질의의 수행성능 향상을 위한 트리 구조 XPath 질의의 축약 기법에 관한 연구 (A Tree-structured XPath Query Reduction Scheme for Enhancing XML Query Processing Performance)

  • 이민수;김윤미;송수경
    • 정보처리학회논문지D
    • /
    • 제14D권6호
    • /
    • pp.585-596
    • /
    • 2007
  • 일반적으로 XML 데이터는 트리 형태의 계층적인 구조를 가지고 있으며, XML 데이터의 저장 및 검색도 이러한 특성을 반영한다. 따라서 XML 데이터를 데이터베이스화 할 때에 XML 엘리먼트 간의 이러한 계층 관계를 반영하여 XML 데이터를 구조화하여 저장하고, 사용자의 검색을 지원하기 위해서는 질의에 명세 된 엘리먼트 구조 간의 계층 관계를 계산하여 처리하는 방법이 필요하다. 구조적 조인(structural joins) 연산은 이 문제의 한 해결책으로서 노드 번호 매기기 방식(node numbering scheme)에 기반한 XML 데이터베이스에 대하여 효율적인 계층 관계 연산 기법을 제시하고 있다. 하지만 계층 관계가 복잡하게 중첩되어 있는 트리 구조의 XML 질의를 처리하려면 여전히 다수의 구조적 조인을 수행해야 하기 때문에 질의 처리 비용이 많이 드는 또 다른 문제를 갖게 된다. 이에 본 논문에서는 선행 연구에서 제안된 트리 구조의 XML 질의 처리시에 필요한 다수의 중첩된 구조적 조인들의 수행비용을 효과적으로 줄이기 위한 사전 처리 방법으로서 동등 클래스 개념을 적용한 정규 표현식(regular expression)으로 된 경로 질의(path query)의 길이를 단축하는 경로식 단축 알고리즘을 소개하며 특히 분기 노드(branch node)가 포함된 경로식 단축 알고리즘을 제안한다. 제안한 알고리즘이 XML 경로식 질의 처리 시간을 평균적으로 1/3로 단축할 수 있음을 실험을 통해서 확인한다.

무선 센서 네트워크에서 Compromised Aggregator에 대응을 위한 모니터링 기반 시큐어 데이터 병합 프로토콜 (Monitoring-Based Secure Data Aggregation Protocol against a Compromised Aggregator in Wireless Sensor Networks)

  • ;이경석;박승규
    • 정보처리학회논문지C
    • /
    • 제18C권5호
    • /
    • pp.303-316
    • /
    • 2011
  • 데이터 병합은 무선 센서 네트워크의 주요 기술이지만 다수의 보안 문제를 유발할 수 있으며, 이들 가운데 하나가 데이터 병합 과정 중의 compromised node에 의한 허위 데이터 삽입이나 메시지 누락이다. 이 문제에 대한 대부분의 기존 해결책은 암호화에 의존하고 있는데, 이들은 많은 연산량과 통신 부하를 필요로 한다. 이와 같은 요구 조건에도 불구하고 기존 방법들은 공격 노드의 탐지가 아닌 공격의 확인 기능만을 가진다. 이러한 제약 사항은 공격이 반복적으로 발생하는 경우, 센서 노드의 에너지 낭비를 유발한다. 비록 기존의 한 연구에서 허위 데이터 삽입점을 식별하는 기능을 제공하고 있지만, 이 방법은 전체 노드 중 최대 50%의 노드만이 데이터 전송에 참여하는 단점을 가진다. 따라서 공격자 확인이 가능할 뿐만 아니라, 동시에 데이터 전송에 참여하는 노드의 수를 증가시킬 수 있는 새로운 접근 방법이 요구된다. 본 논문에서는 허위 데이터 삽입 혹은 메시지 누락을 수행하는 compromised aggregator에 대한 대응을 위해 모니터링 기반 시큐어 데이터 병합 프로토콜을 제안한다. 제안된 프로토콜은 크게 병합 트리 작성과 시큐어 데이터 병합으로 구성되는데, 시큐어 데이터 병합에는 모니터링을 기반으로 하는 비정상 데이터 삽입 탐지와 최소한의 암호화 기법이 사용된다. 시뮬레이션 결과에 따르면 제안된 프로토콜은 데이터 전송에 참여하는 노드의 수를 95% 수준으로 증가시키는 동시에, 허위 데이터 삽입 혹은 메시지 누락을 수행하는 compromised node의 탐지가 가능한 것으로 확인되었다. 한편 제안된 프로토콜에서 compromised node를 추적하는데 요구하는 통신 오버헤드는 전체 노드의 수가 n일 때, O(n)으로 기존 연구보다 우수하거나 유사한 수준을 가진다.

비용 요소에 근거한 신뢰도 최적화 및 On-Line SIS 지원 도구 연구 (Advanced Optimization of Reliability Based on Cost Factor and Deploying On-Line Safety Instrumented System Supporting Tool)

  • 아디스;박명남;김현승;신동일
    • 한국가스학회지
    • /
    • 제21권2호
    • /
    • pp.32-40
    • /
    • 2017
  • SIS는 공정안전시스템 분야에서 폭넓게 활용될 수 있는 계장안전시스템이다. SIS는 유해화학물질 누출 사고로부터 인간, 물질적 자산 그리고 환경에 미치는 피해를 줄이기 위해 필수적이다. 현재 전기, 전자 그리고 프로그래밍 가능한 전자 (E / E/ PE) 장치가 기계, 공압 및 유압 시스템과 상호 작용하는 통합 안전 시스템은 IEC 61508과 같은 국제 안전 표준을 따르도록 되어있다. IEC 61508은 안전 수명주기의 모든 사항을 규정한다. SIS 지원 도구 없이 안전 수명주기에 따라 IEC 61508의 요구 사항을 충족시키는 것은 복잡한 일이다. 본 연구에서는, 사용자가 보다 쉽게 안전 수명주기의 설계 단계를 구현할 수 있도록 도움을 줄 수 있는 On-Line SIS 지원 도구를 제시하였다. On-Line SIS 지원 도구는 데이터 읽기 및 수정 시스템과 통합될 수 있는 안드로이드 응용 프로그램의 형태로 되어있다. 이 도구는 안전 수명주기의 설계 단계에서 소요되는 계산 시간을 줄이고 계산 과정에서 발생할 수 있는 오류를 줄인다. 또한 On-Line SIS 지원 도구는 비용 요소에 근거한 최적화 접근법을 제시할 수 있으며, multi-objective GA를 사용하여 최적의 솔루션 조합을 찾을 수 있도록 하였다.

저장 공간 및 연산 효율적인 RFID 경계 결정 프로토콜 (A Storage and Computation Efficient RFID Distance Bounding Protocol)

  • 안해순;윤은준;부기동;남인길
    • 한국통신학회논문지
    • /
    • 제35권9B호
    • /
    • pp.1350-1359
    • /
    • 2010
  • 최근에 근접 인증(proximity authentication)을 위해 사용하는 RFID 시스템이 경계 위조(distance fraud), 마피아 위조(mafia fraud), 테러리스트 위조(terrorist fraud) 공격들과 같은 다양한 위치 기반의 중계 공격(relay attack)들에 취약함이 증명되었다. 이러한 중계 공격들을 방지하기 위해 리더와 태그사이의 데이터 왕복 전송 시간을 측정하는 경계 결정(distance-bounding) 프로토콜이 한 해결책으로 연구되고 있다. 2008년에 Munilla와 Peinado는 Hancke-Kuhn이 제안한 프로토콜을 수정하여 보이드-시도(void-challenge) 기법을 적용한 RFID 경계 결정 프로토콜을 제안하였다. Hancke-Kuhn 프로토콜과 비교하여 Munilla-Peinado의 프로토콜은 공격자에게 n번의 왕복에서(5/8)n의 성공 확률을 제공함으로써 공격 성공 확률을 감소시켜준다. 하지만 저장 공간 낭비와 많은 해쉬 함수 연산으로 인해 저비용 수동형 태그에는 비효율적이다. 이에 본 논문에서는 태그측의 해쉬 함수 연산량을 줄이고, 적은 저장 공간을 요구함으로써 저비용 수동형 태그에 적합한 새로운 RFID 경계 결정 프로토콜을 제안한다. 결론적으로 제안한 경계 결정 프로토콜은 Munilla-Peinado의 프로토콜과 비교하여 저장 공간 효율성과 연산 효율성을 높여줄 뿐만 아니라, $(5/8)^n$의 공격자 성공 확률을 보장함으로써 동일한 안전성을 제공할 수 있다.

납사열분해 가스분리공정에서의 Petlyuk Column 설계 (Design of Naphtha Cracker Gas Splitter Process in Petlyuk Column)

  • 이주영
    • 한국가스학회지
    • /
    • 제24권1호
    • /
    • pp.17-22
    • /
    • 2020
  • Naphtha Cracker Gas Splitter Unit 공정은 증류공정에서 얻어지는 경질납사(Light Naphtha)를 Furnace에서 열분해하여 나오는 유분을 각각 끓는점 차이에 따라 메탄, 에틸렌, 프로필렌 반제품등으로 순차적으로 분리한다. 이런 전통적인 분리방법은 2성분을 분리하는 증류탑을 연속으로 설치하여 생산한다. 이러한 분리방법은 Reboiler에서 발생하는 에너지가 증류탑 내부의 성분들을 분리하는 데 사용된 후 증류탑 상부 Condenser에서 응축열로 버려지기 때문에 에너지 낭비가 큰 것으로 알려져 있다. 본 연구에서는 납사 열분해공정내의 가스분리공정의 2개의 증류탑을 Petlyuk Column으로 설계하였다. 증류탑내 조성분포가 평형관계만으로 계산되는 이상단수 효율하에서 stage to stage 계산방법으로 구조적 설계를 하였고 일반 증류탑과 비교한 결과 제시된 Petlyuk Column의 설계방법이 기존의 설계 방법인 3-Column 모델법보다 설계 시간이 단축될 뿐만 아니라 증류탑내의 Liquid의 조성분포를 평형증류 조성곡선과 유사하도록 설계함으로써 에너지 효율측면에서도 효율적임을 증명하였다. 또한 같은 tray 단수하에서 Petlyuk Column은 일반 증류탑 대비 12.1% 에너지가 절약되어 국내 총생산량 기준할 때 하루 4,400만원 비용 절감을 가져오고 추가로 Condenser 및 Reboiler 사용량 감소에 따른 초기 투자비도 절감됨을 알 수 있었다. 12.1% 에너지가 절약될 뿐만 아니라 Condenser 및 Reboiler 사용량 감소에 따른 초기 투자비도 절감됨을 알 수 있었다.

Hardware Approach to Fuzzy Inference―ASIC and RISC―

  • Watanabe, Hiroyuki
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.975-976
    • /
    • 1993
  • This talk presents the overview of the author's research and development activities on fuzzy inference hardware. We involved it with two distinct approaches. The first approach is to use application specific integrated circuits (ASIC) technology. The fuzzy inference method is directly implemented in silicon. The second approach, which is in its preliminary stage, is to use more conventional microprocessor architecture. Here, we use a quantitative technique used by designer of reduced instruction set computer (RISC) to modify an architecture of a microprocessor. In the ASIC approach, we implemented the most widely used fuzzy inference mechanism directly on silicon. The mechanism is beaded on a max-min compositional rule of inference, and Mandami's method of fuzzy implication. The two VLSI fuzzy inference chips are designed, fabricated, and fully tested. Both used a full-custom CMOS technology. The second and more claborate chip was designed at the University of North Carolina(U C) in cooperation with MCNC. Both VLSI chips had muliple datapaths for rule digital fuzzy inference chips had multiple datapaths for rule evaluation, and they executed multiple fuzzy if-then rules in parallel. The AT & T chip is the first digital fuzzy inference chip in the world. It ran with a 20 MHz clock cycle and achieved an approximately 80.000 Fuzzy Logical inferences Per Second (FLIPS). It stored and executed 16 fuzzy if-then rules. Since it was designed as a proof of concept prototype chip, it had minimal amount of peripheral logic for system integration. UNC/MCNC chip consists of 688,131 transistors of which 476,160 are used for RAM memory. It ran with a 10 MHz clock cycle. The chip has a 3-staged pipeline and initiates a computation of new inference every 64 cycle. This chip achieved an approximately 160,000 FLIPS. The new architecture have the following important improvements from the AT & T chip: Programmable rule set memory (RAM). On-chip fuzzification operation by a table lookup method. On-chip defuzzification operation by a centroid method. Reconfigurable architecture for processing two rule formats. RAM/datapath redundancy for higher yield It can store and execute 51 if-then rule of the following format: IF A and B and C and D Then Do E, and Then Do F. With this format, the chip takes four inputs and produces two outputs. By software reconfiguration, it can store and execute 102 if-then rules of the following simpler format using the same datapath: IF A and B Then Do E. With this format the chip takes two inputs and produces one outputs. We have built two VME-bus board systems based on this chip for Oak Ridge National Laboratory (ORNL). The board is now installed in a robot at ORNL. Researchers uses this board for experiment in autonomous robot navigation. The Fuzzy Logic system board places the Fuzzy chip into a VMEbus environment. High level C language functions hide the operational details of the board from the applications programme . The programmer treats rule memories and fuzzification function memories as local structures passed as parameters to the C functions. ASIC fuzzy inference hardware is extremely fast, but they are limited in generality. Many aspects of the design are limited or fixed. We have proposed to designing a are limited or fixed. We have proposed to designing a fuzzy information processor as an application specific processor using a quantitative approach. The quantitative approach was developed by RISC designers. In effect, we are interested in evaluating the effectiveness of a specialized RISC processor for fuzzy information processing. As the first step, we measured the possible speed-up of a fuzzy inference program based on if-then rules by an introduction of specialized instructions, i.e., min and max instructions. The minimum and maximum operations are heavily used in fuzzy logic applications as fuzzy intersection and union. We performed measurements using a MIPS R3000 as a base micropro essor. The initial result is encouraging. We can achieve as high as a 2.5 increase in inference speed if the R3000 had min and max instructions. Also, they are useful for speeding up other fuzzy operations such as bounded product and bounded sum. The embedded processor's main task is to control some device or process. It usually runs a single or a embedded processer to create an embedded processor for fuzzy control is very effective. Table I shows the measured speed of the inference by a MIPS R3000 microprocessor, a fictitious MIPS R3000 microprocessor with min and max instructions, and a UNC/MCNC ASIC fuzzy inference chip. The software that used on microprocessors is a simulator of the ASIC chip. The first row is the computation time in seconds of 6000 inferences using 51 rules where each fuzzy set is represented by an array of 64 elements. The second row is the time required to perform a single inference. The last row is the fuzzy logical inferences per second (FLIPS) measured for ach device. There is a large gap in run time between the ASIC and software approaches even if we resort to a specialized fuzzy microprocessor. As for design time and cost, these two approaches represent two extremes. An ASIC approach is extremely expensive. It is, therefore, an important research topic to design a specialized computing architecture for fuzzy applications that falls between these two extremes both in run time and design time/cost. TABLEI INFERENCE TIME BY 51 RULES {{{{Time }}{{MIPS R3000 }}{{ASIC }}{{Regular }}{{With min/mix }}{{6000 inference 1 inference FLIPS }}{{125s 20.8ms 48 }}{{49s 8.2ms 122 }}{{0.0038s 6.4㎲ 156,250 }} }}

  • PDF

스펙트럼 분석을 응용한 단일 균열 규모확장과 투수계수 산정 (Scaling up of single fracture using a spectral analysis and computation of its permeability coefficient)

  • 채병곤
    • 지질공학
    • /
    • 제14권1호
    • /
    • pp.29-46
    • /
    • 2004
  • 균열을 따른 지하수 유동은 균열 기하양상에 의해 속도와 유동형태가 결정되므로, 암반 내 지하수 유동특성 해석 시 유동경로 역할을 하는 균열의 기하양상을 정확하게 파악하는 것은 중요하다. 그러나, 실제 현장규모에서는 노두의 불연속적 분포와 지표 하 정보의 연속적 획득이 불가능하기 때문에 전체적인 균열 정보를 얻기 어렵다. 따라서, 해석대상 균열 전체양상을 표현할 수 있는 방법의 개발이 요구된다. 이 연구는 퓨리에 변환을 토대로 해석대상 균열의 전체 기하양상을 파악하는 방법을 개발하고자 새로운 접근을 시도하였다. 시추코아로부터 해석대상 균열을 따라 시료를 채취한 후, 각 시료별로 퓨리에 변환을 통해 거칠기 구성성분 중 영향력이 큰 성분을 선택하였다. 그리고, 선정된 성분들을 평균하여 평균 스펙트럼을 구하였다. 평균 스펙트럼은 각 시료의 모든 성분을 포함하고 있으므로, 해석 대상 균열의 거칠기 성분 중 대표성분을 나타낸다. Low pass filtering을 수행한 후, 퓨리에 역변환을 실시하여 평균화 된 전체 균열의 거칠기 형상을 재현하였다. 재현된 거칠기 형상 또한 각 시료의 전체 기하특성을 포함하는 해석대상 지표하 균열의 대표적 거칠기 양상을 나타내는 것이다. 또한, 이는 규모확장을 통한 균열 전체의 거칠기 양상을 의미하는 것이다. 해석대상 균열을 따른 투수계수 특성을 파악하기 위해 재현된 거칠기 양상을 바탕으로 균열모델을 구성하였다. 투수계수는 균열 기하특성을 최대한 반영하여 정확한 투수계수를 구할 수 있는 균질화 해석법을 통해 산정 하였다. 해석결과는 $10^{-4}{\;}and{\;}10^{-3}{\;}cm/sec$ 범위의 투수계수 분포를 보이는데, 이는 큰 규모의 균열을 따른 투수계수 값이라 할 수 있다. 이러한 시도는 전술한 바와 같이 제한된 단속적 균열정보를 이용해 해석대상의 균열전체에 대한 기하양상은 물론 투수계수를 산정 할 수 있는 방법이 될 것이다.도는 매립된 폐기물의 성상과 밀접한 관계를 보이며 해안가를 따라 매립되어 있는 지역의 토양 내 중금속의 용출은 주변 환경에 대한 잠재적인 환경위험을 결정 시 중요한 역할을 한다.로 제거할 수 있는 것으로 나타났다. 오염 지도에 근거하여 산출된 복원 물량에 대하여 토양세척법을 이용하는 경우 복원 비용을 산출하였으며, 이와 같은 자료는 고로폐광산 주변 오염 토양에 대한 실제 복원 공정의 설계에 중요한 자료로 활용될 수 있을 것으로 판단된다.om the sampling and analytical procedures. There is a cost involved in order to improve the precision of sampling and analytical methods so as to decrease the degree of measurement uncertainty. The economical point of compromise in an investigation planning can be achieved when the allowable degree of uncertainty has been set before-hand. The investigation can then be planned accordingly not to exceed the uncertainty limit. Furthermore, if the measurement uncertainty estimated from the preliminary investigation can be separated into sampling and analytical uncertainties, it can be used as a criterion where the resources for the investigation should be allotted cost-effectively to reinforce the weakest link of

농지 공간격자 자료의 층화랜덤샘플링: 농업시스템 기후변화 영향 공간모델링을 위한 국내 농지 최적 층화 및 샘플 수 최적화 연구 (A stratified random sampling design for paddy fields: Optimized stratification and sample allocation for effective spatial modeling and mapping of the impact of climate changes on agricultural system in Korea)

  • 이민영;김용은;홍진솔;조기종
    • 환경생물
    • /
    • 제39권4호
    • /
    • pp.526-535
    • /
    • 2021
  • 공간 샘플링은 공간모델링 연구에 활용되어 샘플링 비용을 줄이면서 모델링의 효율성을 높이는 역할을 한다. 농업분야에서는 기후변화 영향을 예측하고 평가하기 위한 고해상도 공간자료 기반 모델링에 대한 연구 수요가 빠르게 증가하고 있으며, 이에 따라 공간 샘플링의 필요성과 중요성이 증가하고 있다. 본 연구는 국내 농지 공간샘플링 연구를 통해 농업분야 기후변화연구의 공간자료 활용의 효율성을 제고하고자 하였다. 본 연구는 층화랜덤샘플링을 기반으로 하였으며, 1 km 해상도의 농지 공간격자자료 모집단(11,386개 격자)에 대해서 RCP 시나리오별(RCP 4.5/8.5) 연대별(2030/2050/2080년대) 공간샘플링을 설계하였다. 국내 농지는 기상 및 토양 특성에 따라 계층화 되었으며, 샘플링 효율 극대화를 위해 최적 층화 및 샘플 배정 최적화를 수행하였다. 최적화는 작물수량, 온실가스 배출량, 해충 분포 확률을 포함하는 16개 목표 변수에 대해 주어진 정밀도 제한 내에서 샘플 수를 최소화하는 방향으로 진행되었다. 샘플링의 정밀도와 정확도 평가는 각각 변동계수(CV)와 상대적 편향을 기반으로 하였다. 국내 농지 공간격자 모집단 계층화 및 샘플 배정 및 샘플 수 최적화 결과, 전체 농지는 5~21개 계층, 46~69개 샘플 수 수준에서 최적화되었다. 본 연구결과물들은 국내 농업시스템 대표 공간격자로써 널리 활용될 수 있을 것으로 기대된다. 또한, 기후변화 영향예측 공간모델링 연구들에 활용되어 샘플링 비용 및 계산 시간을 줄이면서도 모델의 효율성을 높이는 데에 기여할 수 있다.

열전도 문제에 관한 위상 최적설계의 실험적 검증 (Topology Design Optimization and Experimental Validation of Heat Conduction Problems)

  • 차송현;김현석;조선호
    • 한국전산구조공학회논문집
    • /
    • 제28권1호
    • /
    • pp.9-18
    • /
    • 2015
  • 본 논문에서는 애조인 설계민감도(DSA)를 사용하여 평형상태의 열전도문제에서 수치적으로 얻어진 위상 최적설계를 실험적으로 검증하였다. 애조인 변수법을 이용하면 해석에서 사용되었던 행렬시스템을 애조인 문제를 풀 때 그대로 활용가능하기 때문에 설계민감도를 얻는데 필요한 계산을 매우 효율적으로 수행할 수 있다. 위상 최적설계를 위해서 설계변수는 정규화된 재료밀도 함수로 정하였다. 목적함수는 구조물의 열 컴플라이언스이고 제한조건은 허용 가능한 재료량이다. 또한 열화상카메라를 활용하여 이러한 위상 최적설계로 얻어진 수치적 결과를 부피가 동일하도록 직관적으로 설계된 디자인과 비교하여 실험적으로 검증하였다. 위상 최적설계로 얻어진 결과를 실제로 제작하기 위해 간단한 수치기법을 통해 점 정보로 변환한 후 역설계 상용프로그램을 이용하여 CAD 모델링을 수행한다. 이를 바탕으로 위상 최적설계 결과를 CNC(Computerized Numerically Controlled machine tools) 선반으로 제작하였다.

회계정보의 차별적 요인에 관한 실증연구 (An Empirical Study on Differential factors of Accounting Information)

  • 오성근;김현기
    • 경영과정보연구
    • /
    • 제12권
    • /
    • pp.137-160
    • /
    • 2003
  • The association between accounting earnings and the stock price of an entity is the subject that has been most heavily researched during the past 25 years in accounting literature. Researcher's common finding is that there are positive relationships between accounting earnings and stock prices. However, the explanatory power of accounting earnings which was measured by $R^2$ of regression functions used was rather low. To be connected with these low results, The prior studies propose that there will be additional information, errors in variables. This study investigates empirically determinants of earnings response coefficients(ERCs), which measure the correlation between earnings and stock prices, using earnings level / change, as the dependent variable in the return/earnings regression. Specifically, the thesis tests whether the factors such as earnings persistence, growth, systematic risk, image, information asymmetry and firm size. specially, the determinable variables of ERC are explained in detail. The image / information asymmetry variables are selected to be connected with additional information stand point, The debt / growth variables are selected to be connected with errors in variables. In this study, The sample of firms, listed in Korean Stock Exchange was drawn from the KIS-DATA and was required to meet the following criteria: (1) Annual accounting earnings were available over the 1986-1999 period on the KIS-FAS to allow computation of variables parameter; (2) sufficient return data for estimation of market model parameters were available on the KIS-SMAT month returns: (3) each firm had a fiscal year ending in December throughout the study period. Implementation of these criteria yielded a sample of 1,141 firm-year observation over the 10-year(1990-1999) period. A conventional regression specification would use stock returns(abnormal returns) as a dependent variable and accounting earnings(unexpected earnings) changes interacted with other factors as independent variables. In this study, I examined the relation between other factors and the RRC by using reverse regression. For an empirical test, eight hypotheses(including six lower-hypotheses) were tested. The results of the performed empirical analysis can be summarized as follows; The first, The relationship between persistence of earnings and ERC have significance of each by itself, this result accord with one of the prior studies. The second, The relationship between growth and ERC have not significance. The third, The relationship between image and ERC have significance of each by itself, but a forecast code doesn't present. This fact shows that image cost does not effect on market management share, is used to prevent market occupancy decrease. The fourth, The relationship between information asymmetry variable and ERC have significance of each by. The fifth, The relationship between systematic risk$(\beta)$ and ERC have not significance. The sixth, The relationship between debt ratio and ERC have significance of each by itself, but a forecast code doesn't present. This fact is judged that it is due to the effect of financial leverage effect and a tendency of interest.

  • PDF