• 제목/요약/키워드: Reduced Frequency

검색결과 3,041건 처리시간 0.034초

임플랜트 식립부위 형성시 골조직의 온도변화에 관한 연구 (A STUDY ON THE TEMPERATURE CHANGES OF BONE TISSUES DURING IMPLANT SITE PREPARATION)

  • 김평일;김영수;장경수;김창회
    • 대한치과보철학회지
    • /
    • 제40권1호
    • /
    • pp.1-17
    • /
    • 2002
  • The purpose of this study is to examine the possibility of thermal injury to bone tissues during an implant site preparation under the same condition as a typical clinical practice of $Br{\aa}nemark$ implant system. All the burs for $Br{\aa}nemark$ implant system were studied except the round bur The experiments involved 880 drilling cases : 50 cases for each of the 5 steps of NP, 5 steps of RP, and 7 steps of WP, all including srew tap, and 30 cases of 2mm twist drill. For precision drilling, a precision handpiece restraining system was developed (Eungyong Machinery Co., Korea). The system kept the drill parallel to the drilling path and allowed horizontal adjustment of the drill with as little as $1{\mu}m$ increment. The thermocouple insertion hole. that is 0.9mm in diameter and 8mm in depth, was prepared 0.2mm away from the tapping bur the last drilling step. The temperatures due to countersink, pilot drill, and other drills were measured at the surface of the bone, at the depths of 4mm and 8mm respectively. Countersink drilling temperature was measured by attaching the tip of a thermocouple at the rim of the countersink. To assure temperature measurement at the desired depths, 'bent-thermocouples' with their tips of 4 and 8mm bent at $120^{\circ}$ were used. The profiles of temperature variation were recorded continuously at one second interval using a thermometer with memory function (Fluke Co. U.S.A.) and 0.7mm thermocouples (Omega Co., U.S.A.). To simulate typical clinical conditions, 35mm square samples of bovine scapular bone were utilized. The samples were approximately 20mm thick with the cortical thickness on the drilling side ranging from 1 to 2mm. A sample was placed in a container of saline solution so that its lower half is submerged into the solution and the upper half exposed to the room air, which averaged $24.9^{\circ}C$. The temperature of the saline solution was maintained at $36.5^{\circ}C$ using an electric heater (J. O Tech Co., Korea). This experimental condition was similar to that of a patient s opened mouth. The study revealed that a 2mm twist drill required greatest attention. As a guide drill, a twist drill is required to bore through a 'virgin bone,' rather than merely enlarging an already drilled hole as is the case with other drills. This typically generates greater amount of heat. Furthermore, one tends to apply a greater pressure to overcome drilling difficulty, thus producing even greater amount heat. 150 experiments were conducted for 2mm twist drill. For 140 cases, drill pressure of 750g was sufficient, and 10 cases required additional 500 or 100g of drilling pressure. In case of the former. 3 of the 140 cases produced the temperature greater than $47^{\circ}C$, the threshold temperature of degeneration of bone tissue (1983. Eriksson et al.) which is also the reference temperature in this study. In each of the 10 cases requiring extra pressure, the temperature exceeded the reference temperature. More significantly, a surge of heat was observed in each of these cases This observations led to addtional 20 drilling experiments on dense bones. For 10 of these cases, the pressure of 1,250g was applied. For the other 10, 1.750g were applied. In each of these cases, it was also observed that the temperature rose abruptly far above the thresh old temperature of $47^{\circ}C$, sometimes even to 70 or $80^{\circ}C$. It was also observed that the increased drilling pressure influenced the shortening of drilling time more than the rise of drilling temperature. This suggests the desirability of clinically reconsidering application of extra pressures to prevent possible injury to bone tissues. An analysis of these two extra pressure groups of 1,250g and 1,750g revealed that the t-statistics for reduced amount of drilling time due to extra pressure and increased peak temperature due to the same were 10.80 and 2.08 respectively suggesting that drilling time was more influenced than temperature. All the subsequent drillings after the drilling with a 2mm twist drill did not produce excessive heat, i.e. the heat generation is at the same or below the body temperature level. Some of screw tap, pilot, and countersink showed negative correlation coefficients between the generated heat and the drilling time. indicating the more the drilling time, the lower the temperature. The study also revealed that the drilling time was increased as a function of frequency of the use of the drill. Under the drilling pressure of 750g, it was revealed that the drilling time for an old twist drill that has already drilled 40 times was 4.5 times longer than a new drill The measurement was taken for the first 10 drillings of a new drill and 10 drillings of an old drill that has already been used for 40 drillings. 'Test Statistics' of small samples t-test was 3.49, confirming that the used twist drills require longer drilling time than new ones. On the other hand, it was revealed that there was no significant difference in drilling temperature between the new drill and the old twist drill. Finally, the following conclusions were reached from this study : 1 Used drilling bur causes almost no change in drilling temperature but increase in drilling time through 50 drillings under the manufacturer-recommended cooling conditions and the drilling pressure of 750g. 2. The heat that is generated through drilling mattered only in the case of 2mm twist drills, the first drill to be used in bone drilling process for all the other drills there is no significant problem. 3. If the drilling pressure is increased when a 2mm twist drill reaches a dense bone, the temperature rises abruptly even under the manufacturer-recommended cooling conditions. 4. Drilling heat was the highest at the final moment of the drilling process.

완전성과 간결성을 고려한 텍스트 요약 품질의 자동 평가 기법 (Automatic Quality Evaluation with Completeness and Succinctness for Text Summarization)

  • 고은정;김남규
    • 지능정보연구
    • /
    • 제24권2호
    • /
    • pp.125-148
    • /
    • 2018
  • 다양한 스마트 기기 및 관련 서비스의 증가에 따라 텍스트 데이터가 폭발적으로 증가하고 있으며, 이로 인해 방대한 문서로부터 필요한 정보만을 추려내는 작업은 더욱 어려워졌다. 따라서 텍스트 데이터로부터 핵심 내용을 자동으로 요약하여 제공할 수 있는 텍스트 자동 요약 기술이 최근 더욱 주목을 받고 있다. 텍스트 요약 기술은 뉴스 요약 서비스, 개인정보 약관 요약 서비스 등을 통해 현업에서도 이미 활발하게 적용되고 있으며, 학계에서도 문서의 주요 요소를 선별하여 제공하는 추출(Extraction) 접근법과 문서의 요소를 발췌한 뒤 이를 조합하여 새로운 문장을 구성하는 생성(Abstraction) 접근법에 따라 많은 연구가 이루어지고 있다. 하지만 문서의 자동 요약 기술에 비해, 자동으로 요약된 문서의 품질을 평가하는 기술은 상대적으로 많은 진전을 이루지 못하였다. 요약문의 품질 평가를 다룬 기존의 대부분의 연구들은 사람이 수작업으로 요약문을 작성하여 이를 기준 문서(Reference Document)로 삼고, 자동 요약문과 기준 문서와의 유사도를 측정하는 방식으로 수행되었다. 하지만 이러한 방식은 기준 문서의 작성 과정에 막대한 시간과 비용이 소요될 뿐 아니라 요약자의 주관에 의해 평가 결과가 다르게 나타날 수 있다는 한계를 갖는다. 한편 이러한 한계를 극복하기 위한 연구도 일부 수행되었는데, 대표적으로 전문에 대해 차원 축소를 수행하고 이렇게 축소된 전문과 자동 요약문의 유사도를 측정하는 기법이 최근 고안된 바 있다. 이 방식은 원문에서 출현 빈도가 높은 어휘가 요약문에 많이 나타날수록 해당 요약문의 품질이 우수한 것으로 평가하게 된다. 하지만 요약이란 본질적으로 많은 내용을 줄여서 표현하면서도 내용의 누락을 최소화하는 것을 의미하므로, 단순히 빈도수에 기반한 "좋은 요약"이 항상 본질적 의미에서의 "좋은 요약"을 의미한다고 보는 것은 무리가 있다. 요약문 품질 평가의 이러한 기존 연구의 한계를 극복하기 위해, 본 연구에서는 요약의 본질에 기반한 자동 품질 평가 방안을 제안한다. 구체적으로 요약문의 문장 중 서로 중복되는 내용이 얼마나 적은지를 나타내는 요소로 간결성(Succinctness) 개념을 정의하고, 원문의 내용 중 요약문에 포함되지 않은 내용이 얼마나 적은지를 나타내는 요소로 완전성(Completeness)을 정의한다. 본 연구에서는 간결성과 완전성의 개념을 적용한 요약문 품질 자동 평가 방법론을 제안하고, 이를 TripAdvisor 사이트 호텔 리뷰의 요약 및 평가에 적용한 실험 결과를 소개한다.

일부 농촌과 도시의 건강선별조사 자료로 본 백혈구수와 고혈압과의 관계 (Leukocyte count and hypertension in the health screening data of some rural and urban residents)

  • 이충원;윤능기;이성관
    • Journal of Preventive Medicine and Public Health
    • /
    • 제24권3호
    • /
    • pp.363-372
    • /
    • 1991
  • 백혈구수와 고혈압과의 관계를 알아보기 위해 1985년에 일부 농촌 거주자와 1986년에 일부 도시 거주자를 대상으로 혈액학적인 검사와 장기별로 기능검사를 통해서 건강선별조사를 했던 자료를 이용했다. 농촌거주자는 1985년에 경상북도 경산군에서 남자 206명, 여자 203명을 마을, 통, 반을 기준으로 다단계 집락추출법으로 추출했다. 도시 거주 대상자는 1985년 12월에 대구시에 거주하고 있는 20세 이상의 주민의 성별, 연령별 구성비율에 부합되게 농촌과 같은 표본추출방법으로 600명을 선정했으나 600명중 384명만이 본 조사에 응해주어서 나머지 인원은 피보험대상자들의 정기 신체검사를 위해 대학병원 건강관리과에 내원한 사람들 중에서 성, 연령을 짝지어서 추출했다. 이들 자료에서 백혈구수 측정이 빠진 사람, 고혈압력을 포함한 질병 유소견자와 검사상 극도의 비정상적인 수치를 보이는 자들을 농촌 거주자에서 36명 (8.8%), 도시 거주자에서 29명 (4.8%)을 제외시켜서 최종분석에 이용된 자는 도시가 571명, 농촌이 373명이었다. 백혈구수 측정은 ELT-8 Laser shadow method 를 이용했으며 단위는 $cells/mm^3$ 였다. 혈압 측정은 Aneroid 혈압계를 사용해서 표준화한 후 측정했다. 고혈압자의 정의는 수축기혈압 140 mmHg/확장기혈압이 90 mmHg 이상인 자로 했다. 농촌과 도시를 합한 총대상자에대해 고혈압자와 정상 혈압자간의 백혈구수의 평균을 비교하면 정상 혈압자에서 $6490.61{\pm}1941.32$, 고혈압에서 $6965.93{\pm}1997.01$로서 고혈압자에서 백혈구수의 평균이 통계적으로 유의하게 더 높았으며 (P=0.00), 농촌에서 동일한 방향의 유의한 차이를 보였다 (P=0.03). 그 외의 거주지와 성별로 층화한 각 층에서는 유의한 평균차이를 보이는 결과는 없었다. 총대상자에서 백혈구수 1/5분위수를 기준으로 했을 때 2/5분위수의 비차비가 0.99 (95% confidence interval, CI 0.62-1.59), 3/5분위수가 1.41 (95% CI 0.90-2.21), 4/5분위수가 1.76(95% CI 1.14-2.72), 5/5분위수가 1.80 (95% CI 1.15-2.82)로서 백혈구수가 증가 함에따라 고혈압의 유병율이 일정하게 상승하는 것을 알 수 있었으며 경향분석에서도 유의한 경향($X^2_{trend}=5.53,\;df=1,\;P<0.05$)을 나타내었다. 나머지 층에서는 유의한 비차비도 없었으며 유의한 경향 역시 보이지 않았다. 그러나 거주지와 성별로 층화한 각 층에서 연령, 흡연과 음주량을 다중지수회귀분석으로 통제를 했을 때 단일분석시 통계적인 유의성을 보였던 전체 대상자의 비차비는 통계적으로 유의하지 않게 되었고 그 크기 역시 작아지고 불안정해졌다. 전체적으로 비차비의 크기가 조금씩 줄었으며 경향분석에서도 유의한 경향을 보인 층은 없었다. 이러한 사실은 백혈구수와 고혈압과의 가설을 처음으로 제시했던 Friedman등의 연구가 고혈압의 예측변수를 찾기위해 800여개의 변수와 고혈압발생과의 관계를 보는 과정에서 우연히 발견된 통계적인 1종오차의 결과 일지도 모른다는 것을 시사해주는 결과이다.

  • PDF

노천굴착에서 발파진동의 크기를 감량 시키기 위한 정밀파실험식 (On the vibration influence to the running power plant facilities when the foundation excavated of the cautious blasting works.)

  • 허진
    • 화약ㆍ발파
    • /
    • 제9권1호
    • /
    • pp.3-13
    • /
    • 1991
  • 발파에 의한 지반진동의 크기는 화약류의 종류에 따른 화약의 특성, 장약량, 기폭방법, 전새의 상태와 화약의 장전밀도, 자유면의 수, 폭원과 측간의 거리 및 지질조건 등에 따라 다르지만 지질 및 발파조건이 동일한 경우 특히 측점으로부터 발파지점 까지의 거리와 지발당 최대장약량 (W)간에 깊은 함수관계가 있음이 밝혀졌다. 즉 발파진동식은 $V=K{\cdot}(\frac{D}{W^b})^n{\;}{\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots}$ (1) 여기서 V ; 진동속도, cm /sec D ; 폭원으로부터의 거리, m W ; 지발 장약량, kg K ; 발파진동 상수 b ; 장약지수 R ; 감쇠지수 이 발파진동식에서 b=1/2인 경우 즉 $D{\;}/{\;}\sqrt{W}$를 자승근 환산거리(Root scaled distance), $b=\frac{1}{3}$인 경우 즉 $D{\;}/{\;}\sqrt[3]{W}$를 입방근환산거리(Cube root scaled distance)라 한다. 이 장약 및 감쇠지수와 발파진동 상수를 구하기 위하여 임의거리와 장약량에 대한 진동치를 측정, 중회귀분석(Multiple regressional analysis)에 의해 일반식을 유도하고 Root scaling과 Cube root scaling에 대한 회귀선(regression line)을 구하여 회귀선에 대한 적합도가 높은 쪽을 택하여 비교, 검토하였다. 위 (1)식의 양변에 log를 취하여 linear form(직선형)으로 바꾸어 쓰면 (2)式과 같다. log V=A+BlogD+ClogW ----- (2) 여기서, A=log K B=-n C=bn (2)식은 다시 (3)식으로 표시할 수 있다. $Yi=A+BXi_{1}+CXi_{2}+{\varepsilon}i{\;}{\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots}$(3) 여기서, $Xi_{1},{\;}Xi_{2} ;(두 독립변수 logD, logW의 i번째 측정치. Yi ; ($Xi_1,{\;}Xi_2$)에 대한 logV의 측정치 ${\varepsilon}i$ ; error term 이다. (3)식에서 n개의 자료를 (2)식의 회귀평면으로 대표시키기 위해서는 $S={\sum}^n_{i=1}\{Yi-(A+BXi_{1}+CXi_{2})\}\^2$을 최소로하는 A, B, C 값을 구하면 된다. 이 방법을 최소자승법이 라 하며 S를 최소로 하는 A, B, C의 값은 (4)식으로 표시한다. $\frac{{\partial}S}{{\partial}A}=0,{\;}\frac{{\partial}S}{{\partial}B}=0,{\;}\frac{{\partial}S}{{\partial}C}=0{\;}{\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots}$ (4) 위식을 Matrix form으로 간단히 나타내면 식(5)와 같다. [equation omitted] (5) 자료가 많아 계산과정이 복잡해져서 본실험의 정자료들은 전산기를 사용하여 처리하였다. root scaling과 Cube root scaling의 경우 각각 $logV=A+B(logD-\frac{1}{2}W){\;}logV=A+B(logD-\frac{1}{3}W){\;}\}{\;}{\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots}$ (6) 으로 (2)식의 특별한 형태이며 log-log 좌표에서 직선으로 표시되고 이때 A는 절편, B는 기울기를 나타낸다. $\bullet$ 측정치의 검토 본 자료의 특성을 비교, 검토하기 위하여 지금까지 발표된 국내의 몇몇 자료를 보면 다음과 같다. 물론, 장약량, 폭원으로 부터의 거리등이 상이하지만 대체적인 경향성을 추정하는데 참고할수 있을 것이다. 금반 총실측자료는 총 88개이지만 환산거리(5.D)와 진동속도의 크기와의 관계에서 차이를 보이고 있어 편선상 폭원과 측점지점간의 거리에 따라 l00m말만인 A지역과 l00m이상인B지역으로 구분하였다. 한편 A지역의 자료 56개중, 상하로 편차가 큰 19개를 제외한 37개자료와 B지역의 29개중 2개를 낙외한 27개(88개 자료중 거리표시가 안된 12월 1일의 자료3개는 원래부터 제외)의 자료를 computer로 처리하여 얻은 발파진동식은 다음과 같다. $V=41(D{\;}/{\;}\sqrt[3]{W})^{-1.41}{\;}{\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots}$ (7) (-100m)(R=0.69) $V=124(D{\;}/{\;}\sqrt[3]{W})^{-1.66){\;}{\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots\cdots}$ (8) (+100m)(R=0.782) 식(7) 및 (8)에서 R은 구한 직선식의 적합도를 나타내는 상관계수로 R=1인때는 모든 측정자료가 하나의 직선상에 표시됨을 의미하며 그 값이 낮을수록 자료가 분산됨을 뜻한다. 본 보고에서는 상관계수가 자승근거리때 보다는 입방근일때가 더 높기 때문에 발파진동식을 입방근($D{\;}/{\;}\sqrt[3]{W}$)으로 표시하였다. 특히 A지역에서는 R=0.69인데 비하여 폭원과 측점지점간의 거리가 l00m 이상으로 A지역보다 멀리 떨어진 B지역에서는 R=0.782로 비교적 높은 값을 보이는 것은 진동성분중 고주파성분의 상당량이 감쇠를 당하기 때문으로 생각된다.

  • PDF

단위유량도와 비수갑문 단면 및 방조제 축조곡선 결정을 위한 조속계산 (Calculation of Unit Hydrograph from Discharge Curve, Determination of Sluice Dimension and Tidal Computation for Determination of the Closure curve)

  • 최귀열
    • 한국농공학회지
    • /
    • 제7권1호
    • /
    • pp.861-876
    • /
    • 1965
  • During my stay in the Netherlands, I have studied the following, primarily in relation to the Mokpo Yong-san project which had been studied by the NEDECO for a feasibility report. 1. Unit hydrograph at Naju There are many ways to make unit hydrograph, but I want explain here to make unit hydrograph from the- actual run of curve at Naju. A discharge curve made from one rain storm depends on rainfall intensity per houre After finriing hydrograph every two hours, we will get two-hour unit hydrograph to devide each ordinate of the two-hour hydrograph by the rainfall intensity. I have used one storm from June 24 to June 26, 1963, recording a rainfall intensity of average 9. 4 mm per hour for 12 hours. If several rain gage stations had already been established in the catchment area. above Naju prior to this storm, I could have gathered accurate data on rainfall intensity throughout the catchment area. As it was, I used I the automatic rain gage record of the Mokpo I moteorological station to determine the rainfall lntensity. In order. to develop the unit ~Ydrograph at Naju, I subtracted the basic flow from the total runoff flow. I also tried to keed the difference between the calculated discharge amount and the measured discharge less than 1O~ The discharge period. of an unit graph depends on the length of the catchment area. 2. Determination of sluice dimension Acoording to principles of design presently used in our country, a one-day storm with a frequency of 20 years must be discharged in 8 hours. These design criteria are not adequate, and several dams have washed out in the past years. The design of the spillway and sluice dimensions must be based on the maximun peak discharge flowing into the reservoir to avoid crop and structure damages. The total flow into the reservoir is the summation of flow described by the Mokpo hydrograph, the basic flow from all the catchment areas and the rainfall on the reservoir area. To calculate the amount of water discharged through the sluiceCper half hour), the average head during that interval must be known. This can be calculated from the known water level outside the sluiceCdetermined by the tide) and from an estimated water level inside the reservoir at the end of each time interval. The total amount of water discharged through the sluice can be calculated from this average head, the time interval and the cross-sectional area of' the sluice. From the inflow into the .reservoir and the outflow through the sluice gates I calculated the change in the volume of water stored in the reservoir at half-hour intervals. From the stored volume of water and the known storage capacity of the reservoir, I was able to calculate the water level in the reservoir. The Calculated water level in the reservoir must be the same as the estimated water level. Mean stand tide will be adequate to use for determining the sluice dimension because spring tide is worse case and neap tide is best condition for the I result of the calculatio 3. Tidal computation for determination of the closure curve. During the construction of a dam, whether by building up of a succession of horizontael layers or by building in from both sides, the velocity of the water flowinii through the closing gapwill increase, because of the gradual decrease in the cross sectional area of the gap. 1 calculated the . velocities in the closing gap during flood and ebb for the first mentioned method of construction until the cross-sectional area has been reduced to about 25% of the original area, the change in tidal movement within the reservoir being negligible. Up to that point, the increase of the velocity is more or less hyperbolic. During the closing of the last 25 % of the gap, less water can flow out of the reservoir. This causes a rise of the mean water level of the reservoir. The difference in hydraulic head is then no longer negligible and must be taken into account. When, during the course of construction. the submerged weir become a free weir the critical flow occurs. The critical flow is that point, during either ebb or flood, at which the velocity reaches a maximum. When the dam is raised further. the velocity decreases because of the decrease\ulcorner in the height of the water above the weir. The calculation of the currents and velocities for a stage in the closure of the final gap is done in the following manner; Using an average tide with a neglible daily quantity, I estimated the water level on the pustream side of. the dam (inner water level). I determined the current through the gap for each hour by multiplying the storage area by the increment of the rise in water level. The velocity at a given moment can be determined from the calcalated current in m3/sec, and the cross-sectional area at that moment. At the same time from the difference between inner water level and tidal level (outer water level) the velocity can be calculated with the formula $h= \frac{V^2}{2g}$ and must be equal to the velocity detertnined from the current. If there is a difference in velocity, a new estimate of the inner water level must be made and entire procedure should be repeated. When the higher water level is equal to or more than 2/3 times the difference between the lower water level and the crest of the dam, we speak of a "free weir." The flow over the weir is then dependent upon the higher water level and not on the difference between high and low water levels. When the weir is "submerged", that is, the higher water level is less than 2/3 times the difference between the lower water and the crest of the dam, the difference between the high and low levels being decisive. The free weir normally occurs first during ebb, and is due to. the fact that mean level in the estuary is higher than the mean level of . the tide in building dams with barges the maximum velocity in the closing gap may not be more than 3m/sec. As the maximum velocities are higher than this limit we must use other construction methods in closing the gap. This can be done by dump-cars from each side or by using a cable way.e or by using a cable way.

  • PDF

Video UGC 제작 동기와 행위 과정에 관한 이해: 구현의도이론 (Theory of Implementation Intentions)의 적용을 중심으로 (Understanding User Motivations and Behavioral Process in Creating Video UGC: Focus on Theory of Implementation Intentions)

  • 김형진;송세민;이호근
    • Asia pacific journal of information systems
    • /
    • 제19권4호
    • /
    • pp.125-148
    • /
    • 2009
  • UGC(User Generated Contents) is emerging as the center of e-business in the web 2.0 era. The trend reflects changing roles of users in production and consumption of contents on websites and helps us to understand new strategies of websites such as web portals and social network websites. Nowadays, we consume contents created by other non-professional users for both utilitarian (e.g., knowledge) and hedonic values (e.g., fun). Also, contents produced by ourselves (e.g., photo, video) are posted on websites so that our friends, family, and even the public can consume those contents. This means that non-professionals, who used to be passive audience in the past, are now creating contents and share their UGCs with others in the Web. Accessible media, tools, and applications have also reduced difficulty and complexity in the process of creating contents. Realizing that users create plenty of materials which are very interesting to other people, media companies (i.e., web portals and social networking websites) are adjusting their strategies and business models accordingly. Increased demand of UGC may lead to website visits which are the source of benefits from advertising. Therefore, they put more efforts into making their websites open platforms where UGCs can be created and shared among users without technical and methodological difficulties. Many websites have increasingly adopted new technologies such as RSS and openAPI. Some have even changed the structure of web pages so that UGC can be seen several times to more visitors. This mainstream of UGCs on websites indicates that acquiring more UGCs and supporting participating users have become important things to media companies. Although those companies need to understand why general users have shown increasing interest in creating and posting contents and what is important to them in the process of productions, few research results exist in this area to address these issues. Also, behavioral process in creating video UGCs has not been explored enough for the public to fully understand it. With a solid theoretical background (i.e., theory of implementation intentions), parts of our proposed research model mirror the process of user behaviors in creating video contents, which consist of intention to upload, intention to edit, edit, and upload. In addition, in order to explain how those behavioral intentions are developed, we investigated influences of antecedents from three motivational perspectives (i.e., intrinsic, editing software-oriented, and website's network effect-oriented). First, from the intrinsic motivation perspective, we studied the roles of self-expression, enjoyment, and social attention in forming intention to edit with preferred editing software or in forming intention to upload video contents to preferred websites. Second, we explored the roles of editing software for non-professionals to edit video contents, in terms of how it makes production process easier and how it is useful in the process. Finally, from the website characteristic-oriented perspective, we investigated the role of a website's network externality as an antecedent of users' intention to upload to preferred websites. The rationale is that posting UGCs on websites are basically social-oriented behaviors; thus, users prefer a website with the high level of network externality for contents uploading. This study adopted a longitudinal research design; we emailed recipients twice with different questionnaires. Guided by invitation email including a link to web survey page, respondents answered most of questions except edit and upload at the first survey. They were asked to provide information about UGC editing software they mainly used and preferred website to upload edited contents, and then asked to answer related questions. For example, before answering questions regarding network externality, they individually had to declare the name of the website to which they would be willing to upload. At the end of the first survey, we asked if they agreed to participate in the corresponding survey in a month. During twenty days, 333 complete responses were gathered in the first survey. One month later, we emailed those recipients to ask for participation in the second survey. 185 of the 333 recipients (about 56 percentages) answered in the second survey. Personalized questionnaires were provided for them to remind the names of editing software and website that they reported in the first survey. They answered the degree of editing with the software and the degree of uploading video contents to the website for the past one month. To all recipients of the two surveys, exchange tickets for books (about 5,000~10,000 Korean Won) were provided according to the frequency of participations. PLS analysis shows that user behaviors in creating video contents are well explained by the theory of implementation intentions. In fact, intention to upload significantly influences intention to edit in the process of accomplishing the goal behavior, upload. These relationships show the behavioral process that has been unclear in users' creating video contents for uploading and also highlight important roles of editing in the process. Regarding the intrinsic motivations, the results illustrated that users are likely to edit their own video contents in order to express their own intrinsic traits such as thoughts and feelings. Also, their intention to upload contents in preferred website is formed because they want to attract much attention from others through contents reflecting themselves. This result well corresponds to the roles of the website characteristic, namely, network externality. Based on the PLS results, the network effect of a website has significant influence on users' intention to upload to the preferred website. This indicates that users with social attention motivations are likely to upload their video UGCs to a website whose network size is big enough to realize their motivations easily. Finally, regarding editing software characteristic-oriented motivations, making exclusively-provided editing software more user-friendly (i.e., easy of use, usefulness) plays an important role in leading to users' intention to edit. Our research contributes to both academic scholars and professionals. For researchers, our results show that the theory of implementation intentions is well applied to the video UGC context and very useful to explain the relationship between implementation intentions and goal behaviors. With the theory, this study theoretically and empirically confirmed that editing is a different and important behavior from uploading behavior, and we tested the behavioral process of ordinary users in creating video UGCs, focusing on significant motivational factors in each step. In addition, parts of our research model are also rooted in the solid theoretical background such as the technology acceptance model and the theory of network externality to explain the effects of UGC-related motivations. For practitioners, our results suggest that media companies need to restructure their websites so that users' needs for social interaction through UGC (e.g., self-expression, social attention) are well met. Also, we emphasize strategic importance of the network size of websites in leading non-professionals to upload video contents to the websites. Those websites need to find a way to utilize the network effects for acquiring more UGCs. Finally, we suggest that some ways to improve editing software be considered as a way to increase edit behavior which is a very important process leading to UGC uploading.

자율 주행을 위한 Edge to Edge 모델 및 지연 성능 평가 (Edge to Edge Model and Delay Performance Evaluation for Autonomous Driving)

  • 조문기;배경율
    • 지능정보연구
    • /
    • 제27권1호
    • /
    • pp.191-207
    • /
    • 2021
  • 오늘날 이동통신은 급증하는 데이터 수요에 대응하기 위해서 주로 속도 향상에 초점을 맞추어 발전해 왔다. 그리고 5G 시대가 시작되면서 IoT, V2X, 로봇, 인공지능, 증강 가상현실, 스마트시티 등을 비롯하여 다양한 서비스를 고객들에게 제공하기위한 노력들이 진행되고 있고 이는 우리의 삶의 터전과 산업 전반에 대한 환경을 바꿀 것으로 예상되고 되고 있다. 이러한 서비스를 제공하기위해서 고속 데이터 속도 외에도, 실시간 서비스를 위한 지연 감소 그리고 신뢰도 등이 매우 중요한데 5G에서는 최대 속도 20Gbps, 지연 1ms, 연결 기기 106/㎢를 제공함으로써 서비스 제공할 수 있는 기반을 마련하였다. 하지만 5G는 고주파 대역인 3.5Ghz, 28Ghz의 높은 주파수를 사용함으로써 높은 직진성의 빠른 속도를 제공할 수 있으나, 짧은 파장을 가지고 있어 도달할 수 있는 거리가 짧고, 회절 각도가 작아서 건물 등을 투과하지 못해 실내 이용에서 제약이 따른다. 따라서 기존의 통신망으로 이러한 제약을 벗어나기가 어렵고, 기반 구조인 중앙 집중식 SDN 또한 많은 노드와의 통신으로 인해 처리 능력에 과도한 부하가 발생하기 때문에 지연에 민감한 서비스 제공에 어려움이 있다. 그래서 자율 주행 중 긴급 상황이 발생할 경우 사용 가능한 지연 관련 트리 구조의 제어 기능이 필요하다. 이러한 시나리오에서 차량 내 정보를 처리하는 네트워크 아키텍처는 지연의 주요 변수이다. 일반적인 중앙 집중 구조의 SDN에서는 원하는 지연 수준을 충족하기가 어렵기 때문에 정보 처리를 위한 SDN의 최적 크기에 대한 연구가 이루어져야 한다. 그러므로 SDN이 일정 규모로 분리하여 새로운 형태의 망을 구성 해야하며 이러한 새로운 형태의 망 구조는 동적으로 변하는 트래픽에 효율적으로 대응하고 높은 품질의 유연성 있는 서비스를 제공할 수 있다. 이러한 SDN 구조 망에서 정보의 변경 주기, RTD(Round Trip Delay), SDN의 데이터 처리 시간은 지연과 매우 밀접한 상관관계를 가진다. 이 중 RDT는 속도는 충분하고 지연은 1ms 이하이기에 유의미한 영향을 주는 요인은 아니지만 정보 변경 주기와 SDN의 데이터 처리 시간은 지연에 크게 영향을 주는 요인이다. 특히, 5G의 다양한 응용분야 중에서 지연과 신뢰도가 가장 중요한 분야인 지능형 교통 시스템과 연계된 자율주행 환경의 응급상황에서는 정보 전송은 매우 짧은 시간 안에 전송 및 처리돼야 하는 상황이기때문에 지연이라는 요인이 매우 민감하게 작용하는 조건의 대표적인 사례라고 볼 수 있다. 본 논문에서는 자율 주행 시 응급상황에서 SDN 아키텍처를 연구하고, 정보 흐름(셀 반경, 차량의 속도 및 SDN의 데이터 처리 시간의 변화)에 따라 차량이 관련정보를 요청해야 할 셀 계층과의 상관관계에 대하여 시뮬레이션을 통하여 분석을 진행하였다.

한정된 O-D조사자료를 이용한 주 전체의 트럭교통예측방법 개발 (DEVELOPMENT OF STATEWIDE TRUCK TRAFFIC FORECASTING METHOD BY USING LIMITED O-D SURVEY DATA)

  • 박만배
    • 대한교통학회:학술대회논문집
    • /
    • 대한교통학회 1995년도 제27회 학술발표회
    • /
    • pp.101-113
    • /
    • 1995
  • The objective of this research is to test the feasibility of developing a statewide truck traffic forecasting methodology for Wisconsin by using Origin-Destination surveys, traffic counts, classification counts, and other data that are routinely collected by the Wisconsin Department of Transportation (WisDOT). Development of a feasible model will permit estimation of future truck traffic for every major link in the network. This will provide the basis for improved estimation of future pavement deterioration. Pavement damage rises exponentially as axle weight increases, and trucks are responsible for most of the traffic-induced damage to pavement. Consequently, forecasts of truck traffic are critical to pavement management systems. The pavement Management Decision Supporting System (PMDSS) prepared by WisDOT in May 1990 combines pavement inventory and performance data with a knowledge base consisting of rules for evaluation, problem identification and rehabilitation recommendation. Without a r.easonable truck traffic forecasting methodology, PMDSS is not able to project pavement performance trends in order to make assessment and recommendations in the future years. However, none of WisDOT's existing forecasting methodologies has been designed specifically for predicting truck movements on a statewide highway network. For this research, the Origin-Destination survey data avaiiable from WisDOT, including two stateline areas, one county, and five cities, are analyzed and the zone-to'||'&'||'not;zone truck trip tables are developed. The resulting Origin-Destination Trip Length Frequency (00 TLF) distributions by trip type are applied to the Gravity Model (GM) for comparison with comparable TLFs from the GM. The gravity model is calibrated to obtain friction factor curves for the three trip types, Internal-Internal (I-I), Internal-External (I-E), and External-External (E-E). ~oth "macro-scale" calibration and "micro-scale" calibration are performed. The comparison of the statewide GM TLF with the 00 TLF for the macro-scale calibration does not provide suitable results because the available 00 survey data do not represent an unbiased sample of statewide truck trips. For the "micro-scale" calibration, "partial" GM trip tables that correspond to the 00 survey trip tables are extracted from the full statewide GM trip table. These "partial" GM trip tables are then merged and a partial GM TLF is created. The GM friction factor curves are adjusted until the partial GM TLF matches the 00 TLF. Three friction factor curves, one for each trip type, resulting from the micro-scale calibration produce a reasonable GM truck trip model. A key methodological issue for GM. calibration involves the use of multiple friction factor curves versus a single friction factor curve for each trip type in order to estimate truck trips with reasonable accuracy. A single friction factor curve for each of the three trip types was found to reproduce the 00 TLFs from the calibration data base. Given the very limited trip generation data available for this research, additional refinement of the gravity model using multiple mction factor curves for each trip type was not warranted. In the traditional urban transportation planning studies, the zonal trip productions and attractions and region-wide OD TLFs are available. However, for this research, the information available for the development .of the GM model is limited to Ground Counts (GC) and a limited set ofOD TLFs. The GM is calibrated using the limited OD data, but the OD data are not adequate to obtain good estimates of truck trip productions and attractions .. Consequently, zonal productions and attractions are estimated using zonal population as a first approximation. Then, Selected Link based (SELINK) analyses are used to adjust the productions and attractions and possibly recalibrate the GM. The SELINK adjustment process involves identifying the origins and destinations of all truck trips that are assigned to a specified "selected link" as the result of a standard traffic assignment. A link adjustment factor is computed as the ratio of the actual volume for the link (ground count) to the total assigned volume. This link adjustment factor is then applied to all of the origin and destination zones of the trips using that "selected link". Selected link based analyses are conducted by using both 16 selected links and 32 selected links. The result of SELINK analysis by u~ing 32 selected links provides the least %RMSE in the screenline volume analysis. In addition, the stability of the GM truck estimating model is preserved by using 32 selected links with three SELINK adjustments, that is, the GM remains calibrated despite substantial changes in the input productions and attractions. The coverage of zones provided by 32 selected links is satisfactory. Increasing the number of repetitions beyond four is not reasonable because the stability of GM model in reproducing the OD TLF reaches its limits. The total volume of truck traffic captured by 32 selected links is 107% of total trip productions. But more importantly, ~ELINK adjustment factors for all of the zones can be computed. Evaluation of the travel demand model resulting from the SELINK adjustments is conducted by using screenline volume analysis, functional class and route specific volume analysis, area specific volume analysis, production and attraction analysis, and Vehicle Miles of Travel (VMT) analysis. Screenline volume analysis by using four screenlines with 28 check points are used for evaluation of the adequacy of the overall model. The total trucks crossing the screenlines are compared to the ground count totals. L V/GC ratios of 0.958 by using 32 selected links and 1.001 by using 16 selected links are obtained. The %RM:SE for the four screenlines is inversely proportional to the average ground count totals by screenline .. The magnitude of %RM:SE for the four screenlines resulting from the fourth and last GM run by using 32 and 16 selected links is 22% and 31 % respectively. These results are similar to the overall %RMSE achieved for the 32 and 16 selected links themselves of 19% and 33% respectively. This implies that the SELINICanalysis results are reasonable for all sections of the state.Functional class and route specific volume analysis is possible by using the available 154 classification count check points. The truck traffic crossing the Interstate highways (ISH) with 37 check points, the US highways (USH) with 50 check points, and the State highways (STH) with 67 check points is compared to the actual ground count totals. The magnitude of the overall link volume to ground count ratio by route does not provide any specific pattern of over or underestimate. However, the %R11SE for the ISH shows the least value while that for the STH shows the largest value. This pattern is consistent with the screenline analysis and the overall relationship between %RMSE and ground count volume groups. Area specific volume analysis provides another broad statewide measure of the performance of the overall model. The truck traffic in the North area with 26 check points, the West area with 36 check points, the East area with 29 check points, and the South area with 64 check points are compared to the actual ground count totals. The four areas show similar results. No specific patterns in the L V/GC ratio by area are found. In addition, the %RMSE is computed for each of the four areas. The %RMSEs for the North, West, East, and South areas are 92%, 49%, 27%, and 35% respectively, whereas, the average ground counts are 481, 1383, 1532, and 3154 respectively. As for the screenline and volume range analyses, the %RMSE is inversely related to average link volume. 'The SELINK adjustments of productions and attractions resulted in a very substantial reduction in the total in-state zonal productions and attractions. The initial in-state zonal trip generation model can now be revised with a new trip production's trip rate (total adjusted productions/total population) and a new trip attraction's trip rate. Revised zonal production and attraction adjustment factors can then be developed that only reflect the impact of the SELINK adjustments that cause mcreases or , decreases from the revised zonal estimate of productions and attractions. Analysis of the revised production adjustment factors is conducted by plotting the factors on the state map. The east area of the state including the counties of Brown, Outagamie, Shawano, Wmnebago, Fond du Lac, Marathon shows comparatively large values of the revised adjustment factors. Overall, both small and large values of the revised adjustment factors are scattered around Wisconsin. This suggests that more independent variables beyond just 226; population are needed for the development of the heavy truck trip generation model. More independent variables including zonal employment data (office employees and manufacturing employees) by industry type, zonal private trucks 226; owned and zonal income data which are not available currently should be considered. A plot of frequency distribution of the in-state zones as a function of the revised production and attraction adjustment factors shows the overall " adjustment resulting from the SELINK analysis process. Overall, the revised SELINK adjustments show that the productions for many zones are reduced by, a factor of 0.5 to 0.8 while the productions for ~ relatively few zones are increased by factors from 1.1 to 4 with most of the factors in the 3.0 range. No obvious explanation for the frequency distribution could be found. The revised SELINK adjustments overall appear to be reasonable. The heavy truck VMT analysis is conducted by comparing the 1990 heavy truck VMT that is forecasted by the GM truck forecasting model, 2.975 billions, with the WisDOT computed data. This gives an estimate that is 18.3% less than the WisDOT computation of 3.642 billions of VMT. The WisDOT estimates are based on the sampling the link volumes for USH, 8TH, and CTH. This implies potential error in sampling the average link volume. The WisDOT estimate of heavy truck VMT cannot be tabulated by the three trip types, I-I, I-E ('||'&'||'pound;-I), and E-E. In contrast, the GM forecasting model shows that the proportion ofE-E VMT out of total VMT is 21.24%. In addition, tabulation of heavy truck VMT by route functional class shows that the proportion of truck traffic traversing the freeways and expressways is 76.5%. Only 14.1% of total freeway truck traffic is I-I trips, while 80% of total collector truck traffic is I-I trips. This implies that freeways are traversed mainly by I-E and E-E truck traffic while collectors are used mainly by I-I truck traffic. Other tabulations such as average heavy truck speed by trip type, average travel distance by trip type and the VMT distribution by trip type, route functional class and travel speed are useful information for highway planners to understand the characteristics of statewide heavy truck trip patternS. Heavy truck volumes for the target year 2010 are forecasted by using the GM truck forecasting model. Four scenarios are used. Fo~ better forecasting, ground count- based segment adjustment factors are developed and applied. ISH 90 '||'&'||' 94 and USH 41 are used as example routes. The forecasting results by using the ground count-based segment adjustment factors are satisfactory for long range planning purposes, but additional ground counts would be useful for USH 41. Sensitivity analysis provides estimates of the impacts of the alternative growth rates including information about changes in the trip types using key routes. The network'||'&'||'not;based GMcan easily model scenarios with different rates of growth in rural versus . . urban areas, small versus large cities, and in-state zones versus external stations. cities, and in-state zones versus external stations.

  • PDF

환경 변동에 따른 경ㆍ연질 소맥의 등숙 및 품질의 변화에 관한 연구 (Studies on Grain Filling and Quality Changes of Hard and Soft Wheat Grown under the Different Environmental Conditions)

  • 함영수
    • 한국작물학회지
    • /
    • 제17권
    • /
    • pp.1-44
    • /
    • 1974
  • 본연구는 1972년에 수원에서 그리고 1973년에는 다시 수원, 매리 및 이리 광주의 3개 지역에서 경질 소맥인 NB 68513, Caprock와 중간질 소맥인 영광, 연질 소맥인 수계 169호를 공시하여 시비량 및 재배시기를 각각 3수준의 처리를 두어 등숙 및 품질의 변화에 관한 실험을 수행하였다. 한편 1973년 및 1974년에는 수원에서 중간질 소맥인 영광과 경질 소맥인 NB 68513을 공시하고 온실에서 온도, 습도 및 일사량을 달리하여 이들이 소맥의 등숙과 품질에 미치는 영향을 추구하였으며, 얻어진 결과는 다음과 같다. 1. 소맥립의 등숙: 1) 1립중의 변이폭은 대립종이 소립종에 비하여 크고, 립중별 소맥립의 분포는 대립종이 평균치에 가까이 분포된 율이 높았고, 소립종은 넓은 분산을 보였다. 2) 립중의 증가에 미치는 립장, 립후 및 립폭의 영향의 정도는 립장보다 립후와 립폭이 컸다. 3) 등숙 시기별 립중의 변화에 있어서 영광은 개화후 14일부터 35일까지, NB 68513은 14일부터 28일까지에 급증하였고, 대립종인 영광은 소립종인 NB68513에 비하여 등숙기간이 길었으며 배란비율도 완만한 증가를 보였다. 4) 1000립중은 대체로 저온에서보다 고온에서, 다습보다 건조한 공중습도 조건에서 가벼웠고, 저온이나 고온에서라도 다습 조건하에서는 무거운 경향을 보였다. 또한 서광의 영향은 저온에서보다 고온에서 컸으며, 다습한 경우에는 일정한 경향이 없었다. 5) 등숙기간중 온도, 습도 및 서광의 영향은 소립종인 NB 68513보다 대립종인 영광에서 컸으며, 1000립중의 증감과 등숙일수 간에는 높은 정의 상관이 있었다. 6) 1000립중과 1$\ell$중은 시비량의 증가에 따라 무거워졌으나, 보비와 다비구간에는 그 증가율이 비교적 낮았고, 조숙재배는 만파재배보다 무거웠으며, 이와 같은 경향은 수원에서 현저하였고 광주 및 이리에서는 미미하였다. 2. 제분성: 7) 동일 품종에서 1000립중이 무겁게 나타난 저온다습 조건 및 조숙재배가 고온, 건조, 조건 및 만파재배에 비하여 제분율이 높았고, 지역간 차이는 일정한 경향이 없었다. 8) 제분율은 영광이 가장 높고 수계 169호가 가장 낮았으며, 경질 소립종인 Caprock, NB 68513은 연질 소립종인 수계 169호보다 높았다. 9) 회분 함량은 지역, 시비량 및 재배시기에 따른 차이는 작았고, 품종간 차이는 컸으며, NB 68513 및 Caprock는 영광 및 수계 169호보다 현저히 높았다. 3. 단백질 함량: 10) 단백질 함량은 1000립중이 가벼웠든 고온, 건조 및 서광 조건에서 저온, 다습 조건에서보다 높았으며, 이러한 경향은 영광에서 현저하고 NB 68513에서 적었다. 11) 종질의 단백질 함량은 개화후 1~2주일 사이에 높았는데, 이는 배란에 대한 배와 종피의 비율이 크기 때문이었고, 등숙이 진전됨에 따라 배, 종피의 영향은 감소되며, 달서 단백질 함량도 감소되었으나 개화후 3~4주부터는 다시 단백질함량이 증가되어 개화후 7주에 최대에 달하였다. 등숙 중기(개화후 3~4주) 이후의 단백질함량 증가는 대체로 1000립중의 증가와 비슷하였으나, 성숙된 종실의 단백질 함량의 증감은 등숙기간의 장단의 영향보다는 역일상에 따른 기상적 환경, 특히 기온에 의한 영향을 많이 받은 것으로 보였다. 12) 소맥분의 단백질 함량은 종실의 단백질 함량의 변화와 같아서 이 양자간에는 높은 정의 상관이 있었다. 13) 단백질 함량은 각 품종 모두 시비량이 증가할수록, 또 재배시기가 늦어질수록 증가하는 경향이었고, 수원에서는 광주, 이리에서보다 그 경향이 현저하였다. 14) 품종별로 존 단백질 함량은 영광, NB 68513 및 Caprock은 비슷하였으며 비교적 높았고, 수계 169호는 낮았는데 이 품종은 재배법에 따른 단백질 함량의 변이도 적었다. 15) 단위 면적당 단백질 수량은 시비량이 많을수록, 재배시기가 빠를수록 높은 경향이었고, 조숙재배에서는 질소질 비료의 이용율이 높았으며, 영광은 시비량 증가에 따른 단백질 수량 증가가 비교적 컸다. 4. 분의 물리화학적 특성: 16) Sedimentation value는 저온, 다습, 소비 조건에서보다 고온, 건조, 다비 조건에서 컸고, NB 68513 및 Caprock는 그 경향이 현저하였는데 영광 및 수계 169호는 뚜렷하지 않았었고, 광주, 이리보다는 수원에서 Sedimentation value의 변이가 컸다. Sedimentation value의 증감은 단백질 함량의 증감과 관계가 깊으나, 다습조건에서는 Sedimentation value가 감소되었다. 한편 Sedimentation value는 단백질 함량의 증가에 따라 증가되었으며, 성숙기에 최대에 달하였다. 17) Pelshenke value는 재배방법 및 지역 간의 차이가 Sedimentation value의 경우와 대체로 같은 경향을 보였다. 18) Mixing time은 NB 68513이 4~6분, Caprock가 5~7분 소요되었으며, 영광 및 수계 169호는 NB 68513 및 Caprock보다 지역 및 재배법에 따른 변이가 컸다. Mixing height와 Mixing area는 NB 68513 및 Caprock에서 컸고 영광 및 수계 169호에서는 작았으며, 재배방법에 따른 변이는 일정한 경향이 없었고, 지역에 따른 차이는 이리, 광주에서 낮고 수원에서 높았다. 19) NB 68513 및 Caprock의 품질에 있어서 제분성은 고온, 건조 조건, 또는 다비, 만파재배에서 떨어졌으나 분의 물리화학적 특성은 양호하여 제빵 적성이 좋고, 조숙재배는 물리화학적 특성이 다소 불량하였으나 제분성이 높고 단위 면적당 단백질 수량인 높은 경향이었다. 지역간에서 보면 이리, 광주보다는 수원이 NB 68513 및 Caprock의 재배에 적합한 것으로 판단되었다. 5. 분의 물리화학적 특성의 상호관계: 20) 제분율 및 회분함량과 분의 물리화학적 특성과는 직접적인 상관이 없었으며, 1000립중이 가벼운 것이 단백질 함량이 높았고 분의 물리화학적 특성도 양호하였다. 21) NB 68513 및 Caprock에 있어서 단백질 함량과 Sedimentation value, Pelshenke value 및 mixing height와는 정의 상관이 있었으며, 단백질 함량이 높으면 분의 Gluten strength도 강하고 따라서 제빵 적성도 양호하였다. 영광 및 수계 169호에 있어서는 단백질 함량과 Sedimentation value와는 정의 상관이 있으나 Pelshenke value와 Mixing height와는 상관이 없었다. 따라서 단백질 함량 증가에 따라 Gluten strength 양자와 연결됨이 크고, Pelshenke value와 Mixogram은 Gluten strength와 연관됨으로 경질과 연질의 품종 구분에는 Mixogram, Pelshenke value의 검정이 유리하고, Sedimentation valuer검정은 같은 품종내에서 재배법 차이에 따른 품질 평가에 알맞은 것으로 보았다.

  • PDF

동해안지대 도작의 냉조풍피해와 피해경감대책 (Cultural Practices for Reducing Cold Wind Damage of Rice Plant in Eastern Coastal Area of Korea)

  • 이승필;김칠용
    • 한국작물학회지
    • /
    • 제36권5호
    • /
    • pp.407-428
    • /
    • 1991
  • 우리나라 동해안지대는 태백산맥이 동서로 뻗쳐있고 해안을 끼고있어 기후의 변화가 다양한 동시에 풍해를 입기 쉬운 환경에 놓여있다. 이지대에 풍해를 일으키는 바람의 종류는 태백산맥을 넘어오면서 휀(Fohn) 현상에 의해 상승기류된 고온건조한 편서풍에 의해 백수, 경업의 절상, 찰과상, 탈수해, 변색립, 탈립, 도복 등의 수분장해형풍해와 한냉다습한 오호츠크기단이 발달하면 냉조풍이 심하여 하계 저온현상이 일어나서 생육지연, 지경 및 영화의 퇴화, 등숙장해 등이 발생되어 동해안지대를 중심으로 전국에서 84,532M/T의 수량감소를 가져오는 큰 문제지역으로 대두되어 있다. 본논문은 우리나라 동해안지대의 냉조풍피해상습지 6,160ha에 대한 풍해경감대책을 수립코자 1982년부터 1989년까지 8개년간 경북 영덕, 울진지방에서 경북농촌진흥원과 영남작물시험장 영덕출장소에서 실시된 품종선발, 재배시기, 시비법개선, 농토배양, 방풍강설치 등의 시험성적들을 검토한 결과 몇가지 결과를 얻었기에 금후 이지대의 풍해경감대책 자료로 제공코자 한다. 1. 동해안냉조지대의 1954년부터 1989년까지 36년동안 강풍발생빈도는 8월 10일부터 9월 l0일 사이에 높아 이지역의 수도안전출수한계기는 8월10일 이전이 안전하다고 생각된다. 2. 이지대에 주로 풍해를 유발시키는 바람의 종류는 태백산맥을 넘어오면서 휀(Fohn) 현상에 의한 고온건조한 편서풍과 해양에서 내륙으로 부는 한냉다습한 냉조풍이었으며 도작기간중 발생 빈도는 각각 25%였다 3. 태풍내습의 위험시기(8월 10일~9월 10일)를 회피할수 있도록 출수기를 달리하는 3~4품종을 필지별로 접배하거나 유사시에 피해를 분산토록 하는 것이 제 1차적인 대책이 될 것이다. 4 동해안지대에서 수량생산기간(40일간)의 최적등숙온도(22.2$^{\circ}C$)와 최대기상생산력으로 본 최적출수기는 8월 10일이며, 이앙에서 출수기까지의 유효적산온도(GDD)를 이용한 최적이앙기는조생종이 6월 10일, 중생종이 5월 20일 만생종이 5월 10일 이었다. 5. 동해안냉조풍지대는 사질답(38%), 미숙답(28%)로써 저위생산답이 많고 지하수위가 높아 수직배수가 불량하여 답면수온이 낮아 요소비료는 분해가 잘 안되고 비효가 늦어서 생육지연 및 불임의 유발원인이 되고 특히 과용하면 도숙병을 격증시키게 되므로 유안을 시용하는 것이 효과적이다 6. 동해안냉조풍지대는 벼 생육초기에 답면수온이 낮아 인산가용성세균의 활동이 미약하여 토양환원작용이 발달하지 못하여 벼가 흡수 이용할 수 있는 가용성인산함량이 불량하므로 인산을 전량기비 또는 증시하는것보다 이앙후 30일에서 유수형성기에 추비하는것이 효과적이다. 7 이지대는 사질답(38%)이 많아 보통답이나 전질답에 비하여 풍해를 받아 숙색이 나쁘며 등숙이 저하되므로 규산퇴비, 산적토 등의 종합개량처리를 하면 효과가 크다. 8, 동해안냉조풍지대에 방풍강을 설치하면 풍속경감효과(30%)가 크고 기온, 지온, 수온 등의 미기상을 조절하는 효과가 있어 생육촉진, 백수 및 변색립 감소, 고엽방지, 미질향상, 수량증수등의 효과가 현저하였다. 9. 방풍강의 재료는 화학사로 된 방서강과 방오강이며 설치방법은 방서강을 포장둘레에 2m 높이로 치고 그 위에 방오강을 덮어 편서건조풍과 편동냉조풍을 동시에 방풍하여 20%의 증수효과가 있었으며 적정강목은 0.5$\times$0.5cm이고, 설치시기는 유수형성기(8월 1일) 전후였다. 10. 동해안냉조풍지대에서 태풍 통과직후 백수나 변색립발생시 논에 물을 깊게 관수함과 아울러 고성능청무기 등으로 지상부에 충분히 미수를 하면 임실비율 현미천립중 등이 향상되어 증수효과를 얻을 것으로 판단된다.

  • PDF