• 제목/요약/키워드: equivalent kernel

검색결과 29건 처리시간 0.03초

제빵용 우리밀과 수입밀 원맥의 이화학, 미생물, 항산화 특성 비교 (Comparison of Physicochemical, Microbial and Antioxidant Properties in Domestic and Imported Wheat Kernels for Bread Making)

  • 곽한섭;김미정;허정애;김민정;심재원;김의웅;김훈;김상숙
    • 한국식품영양학회지
    • /
    • 제31권1호
    • /
    • pp.17-23
    • /
    • 2018
  • The objective of this study was to compare physicochemical, microbial, and antioxidant properties of domestic and imported wheat kernels for bread making. Two domestic (JK1, 2) and three imported (ND, DNS, and CWRS) kernels were compared. Domestic kernels had higher moisture contents, and lower ash and protein contents (p<0.05). In grain characteristics, JK1 had 13.62% of damaged kernels, which was the highest among the samples (p<0.05). JK2 was similar to imported kernels in the ratio of sound kernels, foreign materials, and damaged kernels. Kernel size of JK1, 2 was larger than the imported kernels; therefore, kernels area and perimeter were higher by the image analyzer. Domestic kernels hid lower total aerobic counts the imported kernels (p<0.05). Domestic kernels and DNS had no yeast, while NS and CWRS had yeast in kernels. DNS (3.08 mg gallic acid equivalent (GAE)/g) had the highest total polyphenol content (TPC), followed by JK1 (2.81 mg GAE/g). JK2 had the lowest amount of TPC as 2.26 mg GAE/g. Total flavonoid content (TFC) was the highest in DNS as 0.44 mg catechin equivalent (CE)/g and JK2 was the lowest as 0.12 mg CE/g. Domestic wheat kernels had lower protein content and lightness than the imported wheat kernels so that flour from domestic wheat kernels may have lower quality for baking.

Legacy 실시간 소프트웨어의 운영체제 호출을 Ada로 번역하기 위한 방법론 (A Methodology for Translation of Operating System Calls in Legacy Real-time Software to Ada)

  • 이문근
    • 한국정보처리학회논문지
    • /
    • 제4권11호
    • /
    • pp.2874-2890
    • /
    • 1997
  • 이 논문은 운영체제에 대한 호출들로 표현된 소프트웨어의 병렬성을 Ada로 번역하기 위한 방법론을 기술하고 있다. Legacy 소프트웨어들에 내재하는 병렬성은 주로 병렬 Process 또는 task들을 제어하는 운영체제 호출들로 표현된다. 본 논문에서 다루고 있는 예로서는 C 프로그램내부에서 사용하는 Unix 운영체제에 대한 호출과 더불어 CMS-2 프로그램에서 사용하는 ATES나 SDEX-20 운영체제의 Executive Service Routine들에 대한 호출들을 볼 수 있다. 소프트웨어 이해를 위한 다른 연구에서는 legacy 소프트웨어에 있는 운영체제호출을 또 다른 운영체제에 대한 호출로 번역하는 데에 역점을 두고 있다. 이런 연구에서는 소프트웨어를 이해하기 위해서 소프트웨어가 수행되는 운영체제에 대한 이해가 필수적으로 요구된다. 그런데 이런 운영체제는 보통 매우 복잡하거나 체계적으로 문서화되어 있지 않다. 본 논문에서의 연구는 legacy 소프트웨어에 있는 운영체제호출을 Ada 메커니즘을 이용한 동일한 프로토콜로 번역하는 데에 역점을 두고 있다. Ada로의 번역에 있어 이러한 호출들은 메시지에 기초한 kernel 중심 구조의scheme에 맞는 의미적으로 동일한 Ada 코드로 대표된다. 번역을 용이하게 하기 위하여 데이터 구조, task, Procedure, message들을 위해 library에 있는 template들을 사용한다. 이 방법론은 소프트웨어 재 ${\cdot}$ 역공학측면에서 운영체제를 Ada로 modeling하는 새로운 접근방식이다. 이 방식에는 소프트웨어 이해를 위하여 기존 운영 체제에 대한 지식이 필요하지 않다. 왜냐하면, legacy 소프트웨어에 내재했던 운영체제에 대한 종속성이 제거되었기 때문이다. 이렇게 번역된 Ada 소프트웨어는 여러 Ada실행환경 에서 이식이 가능하고 또한 소프트웨어들간에 상호작동성이 좋다. 이 방식은 다른 legacy 소프트웨어 시스템의 운영체제호출들도 처리할 수 있다.

  • PDF

분류 및 회귀문제에서의 분류 성능과 정확도를 동시에 향상시키기 위한 새로운 바이어스 스케줄링 방법 (A New Bias Scheduling Method for Improving Both Classification Performance and Precision on the Classification and Regression Problems)

  • 김은미;박성미;김광희;이배호
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제32권11호
    • /
    • pp.1021-1028
    • /
    • 2005
  • 분류 및 회계문제에서의 일반적인 해법은, 현실 세계에서 얻은 정보를 행렬로 사상하거나, 이진정보로 변형하는 등 주어진 데이타의 가공과 이를 이용한 학습에서 찾을 수 있다. 본 논문은 현실세계에 존재하는 순수한 데이타를 근원공간이라 칭하며, 근원 데이타가 커널에 의해 사상된 행렬을 이원공간이라 한다. 근원공간 혹은 이원공간에서의 분류문제는 그 역이 존재하는 문제 즉, 완전해가 존재하는 문제와, 그 역이 존재하지 않거나, 역의 원소 값들이 무한히 커지는 불량조건 흑은 특이조건인 두 가지 형태로 존재한다. 특히, 실제 문제에 있어서 완전 해를 가진 문제이기 보다는 후자에 가까운 형태로 나타나게 된다. 결론적으로 근원데이타나 이원데이타를 이용한 문제를 해결하기 위해서는 많은 경우에 완전 해를 갖는 문제로 변형시키는 정규화과정이 필요하다. 본 논문에서는 이러한 정규화 인수를 찾는 문제를 기존의 GCV, L-Curve, 그리고 이원공간에서의 데이타를 RBF 신경회로망에 적용시킨 커널 학습법에 대한 각각의 성능을 비교실험을 통해 고찰한다. GCV와 L-Curve는 정규화 인수를 찾는 대표적인 방법으로 두 방법 모두 성능면에서 동등하며 문제의 조건에 따라 다소 차이를 보인다. 그러나 이러한 두 방법은 문제해를 구하기 위해서는 정규화 인수를 구한후 문제를 재정의하는 이원적인 문제해결이라는 취약점을 갖는다. 반면, RBF 신경회로망을 이용한 방법은 정규화 인수와 해를 동시에 학습하는 단일화된 방법이 된다. 이때 커널을 이용한 학습법의 성능을 향상하기 위해, 전체학습과 성능의 제한적 비례관계라는 설정아래, 각각의 학습에 따라 능동적으로 변화하는 동적모멘텀의 도입을 제안한다. 동적모멘트는 바이어스 학습을 포함한 방법과 포함하지 않은 방법에 각각 적용분석하였다. 끝으로 제안된 동적모멘텀이 분류문제의 표준인 Iris 데이터, Singular 시스템의 대표적 모델인 가우시안 데이타, 그리고 마지막으로 1차원 이미지 복구문제인 Shaw데이타를 이용한 각각의 실험에서 분류문제와 회계문제 양쪽 모두에 있어 기존의 GCV, L-Curve와 동등하거나 우수한 성능이 있음을 보인다.

인도네시아 오일 팜 바이오매스 잠재량 평가 (Assessment of The Biomass Potential Recovered from Oil Palm Plantation and Crude Palm Oil Production in Indonesia)

  • 안병준;한규성;최돈하;조성택;이수민
    • Journal of the Korean Wood Science and Technology
    • /
    • 제42권3호
    • /
    • pp.231-243
    • /
    • 2014
  • 본 연구에서는 인도네시아 오일 팜 재배 및 CPO 생산 공정으로부터 발생되는 바이오매스의 에너지 이용 가능성을 조사하기 위하여 오일 팜 플렌테이션에서 발생하는 바이오매스의 잠재성을 분석하였다. 인도네시아의 오일 팜 재배 면적은 2011년 8.9 백만 ha에 달하고 있으며, 2020년까지 13 백만 ha로 확대될 것으로 예상된다. 본 연구에서는 2011년 면적을 기준으로 하였으며, 바이오매스의 분석은 오일 팜 재배 시에 발생되는 바이오매스와 CPO 생산 공정 중 발생하는 바이오매스 부산물의 양으로 단계를 구분하여 연구를 수행하였다. 그 결과로 2011년 오일 팜 재배 과정에서 발생하는 바이오매스는 줄기, 가지, 뿌리를 포함하여 최소 3 백만 ton에서 최대 16 백만 ton에 이를 것으로 분석되었으며, CPO 제조 공정에서는 건조 중량 기준 49 백만 ton이 발생하는 것으로 분석되었다. 이것을 건조 기준 고위발열량으로 환산을 할 경우, 593 천 TOE에서 3,197 천 TOE의 에너지가 발생하며, CPO 제조 공정 중 발생하는 바이오매스는 건조중량 기준 48,914 천 ton이 발생하는 것으로 추정되며, 바이오매스 부산물의 에너지량은 고위발열량 기준 22,722 천 TOE, 저위발열량 기준으로 16,330 천 TOE가 발생하는 것으로 추정되었다. 따라서, 2011년 인도네시아의 오일 팜 재배와 CPO 생산으로부터 고위 발열량 기준으로 25,919 천 TOE의 오일 팜 바이오매스 부산물이 발생한 것으로 분석되었다.

고농도 대두가공폐수의 처리를 위한 개선 활성슬러지법 (Soybean Wastewater Treatment by Activated Sludge Process)

  • 조권익;이정수;이태규;김종화
    • Applied Biological Chemistry
    • /
    • 제45권1호
    • /
    • pp.25-29
    • /
    • 2002
  • 활성슬러지에 의한 생물학적 폐수처리에 있어 주된 관리인자는 유기물의 효율적인 제거와 슬러지의 침강성을 일정치 이하로 유지하는 것이다. 식품폐수의 하나인 고농도의 대두가공폐수를 일반적인 활성슬러지법을 적용한 결과 최적 F/M비(food-to-microorganism ratio)는 0.24(kg-BOD/kg-MLVSS day)였으며 그 이상의 농도인 0.48(kg-BOD/kg-MLVSS day)에서는 슬러지 팽화현상이 발생하여 고농도의 식품폐수처리에는 효율적이지 못하였다. 이를 개선하기 위하여 응집보조제(NaOH)를 활용하여 유입폐수의 pH를 9.0으로 조절한 결과, 2.88(kg-BOD/kg-MLVSS day)의 고농도 폐수를 유입하여도 슬러지의 팽화현상없이 SVI(sludge volume index)를 150 이하로 유지하였다. 이것은 최대 허용부하를 일반적인 활성슬러지법에 비하여 7.2배 높일 수 있는 효율적인 방법으로 평가되었다.

History of the Photon Beam Dose Calculation Algorithm in Radiation Treatment Planning System

  • Kim, Dong Wook;Park, Kwangwoo;Kim, Hojin;Kim, Jinsung
    • 한국의학물리학회지:의학물리
    • /
    • 제31권3호
    • /
    • pp.54-62
    • /
    • 2020
  • Dose calculation algorithms play an important role in radiation therapy and are even the basis for optimizing treatment plans, an important feature in the development of complex treatment technologies such as intensity-modulated radiation therapy. We reviewed the past and current status of dose calculation algorithms used in the treatment planning system for radiation therapy. The radiation-calculating dose calculation algorithm can be broadly classified into three main groups based on the mechanisms used: (1) factor-based, (2) model-based, and (3) principle-based. Factor-based algorithms are a type of empirical dose calculation that interpolates or extrapolates the dose in some basic measurements. Model-based algorithms, represented by the pencil beam convolution, analytical anisotropic, and collapse cone convolution algorithms, use a simplified physical process by using a convolution equation that convolutes the primary photon energy fluence with a kernel. Model-based algorithms allowing side scattering when beams are transmitted to the heterogeneous media provide more precise dose calculation results than correction-based algorithms. Principle-based algorithms, represented by Monte Carlo dose calculations, simulate all real physical processes involving beam particles during transportation; therefore, dose calculations are accurate but time consuming. For approximately 70 years, through the development of dose calculation algorithms and computing technology, the accuracy of dose calculation seems close to our clinical needs. Next-generation dose calculation algorithms are expected to include biologically equivalent doses or biologically effective doses, and doctors expect to be able to use them to improve the quality of treatment in the near future.

A comparative study of the physical and cooking characteristics of common types of rice collected from the market by quantitative statistical analysis

  • Evan Butrus Ilia;Mahmood Fadhil Saleem;Hamed Hassanzadeh
    • 한국식품저장유통학회지
    • /
    • 제30권4호
    • /
    • pp.602-616
    • /
    • 2023
  • Fifteen types of rice collected from Kurdistan region-Iraq were investigated by principal component analysis (PCA) in terms of physical properties and cooking characteristics. The dimensions of evaluated grains correspond to 5.05-8.75 mm for length, 1.54-2.47 mm for width, and 1.37-1.95 for thickness. The equivalent diameter was in the range of 5.23-10.03 mm, and the area took 13.30-28.25 mm2. The sphericity analysis values varied from 0.32 to 0.56, the aspect ratio from 0.17 to 0.39, and the volume of the grain was measured in the range from 4.48 to 17.74 mm3, hectoliter weight values were 730-820 kg/m3, and true density from 0.6 to 0.96 g/cm3. The broken grain ratio was 1.5-18.3%, thousand kernel weight corresponded to 15.88 to 22.42 g. The water uptake ratios for 30 min of soaking were increased at 60℃ compared to 30 and 45℃. The PCA was used to study the correlation of the most effective factors. Results of PCA showed that the first (PC1) and second (PC2) components retained 63.4% and 34.8% of the total variance, which PC1 was mostly related to hectoliter, broken ratio, and moisture content characteristics while PC2 was mostly concerned with hardness and true density. For cooking properties, the PC1 and PC2 retained 88.5% and 9.3% of the total variance, respectively. PC1 was mostly related to viscosity, spring value, and hardness after cooking, while PC2 was mostly concerned with spring value, hardness before cooking, and hardness after cooking.

LIDAR 데이터로부터 지표점 추출을 위한 피쳐 기반 방법 (A Feature Based Approach to Extracting Ground Points from LIDAR Data)

  • 이임평
    • 대한원격탐사학회지
    • /
    • 제22권4호
    • /
    • pp.265-274
    • /
    • 2006
  • 지표점의 추출은 DTM 생성을 위한 가장 중요한 과정이다. 기존의 지표점 추출 방법은 대부분 점기반방법으로 분류될 수 있다. 점기반방법은 모든 개별점(point)에 대하여 해당 점이 지표를 구성하는 점인지를 시험하는 방법이다. 이 때 시험의 회수는 점의 개수와 동일하기 때문에, 특히 점의 수가 많은 데이터를 처리할 경우 계산량이 심각하게 늘어나 시험에 보다 정교한 기준과 전략을 사용하는데 어려움이 있었다. 이로 인해 많은 연구에도 불구하고 아직 만족할만한 결과를 제공하는 방법이 개발되지 못하였다. 이에 본 연구는 시험하는 개체의 수를 줄이면서 보다 안정적인 결과를 얻을 수 있도록 점이 아닌 피쳐에 기반한 방법을 제안한다. 여기서, 피쳐란 점을 그룹화하여 얻을 수 있는 개체를 의미한다. 제안된 방법에서는 먼저 점들로부터 표면패치들을 생성하고, 이어서 표면패치들로부터 표면집단들을 구성한다. 구성된 표면집단들로부터 지표에 해당하는 표면집단을 식별한 후 식별된 표면집단에 포함된 모든 점들을 지표점으로 명시한다. 이 방법을 항공 LIDAR 실측데이터에 적용하여 제안된 방법의 뛰어난 성능을 실험적으로 증명하였다.

온라인 주식 포럼의 핫토픽 탐지를 위한 감성분석 모형의 개발 (Development of Sentiment Analysis Model for the hot topic detection of online stock forums)

  • 홍태호;이태원;리징징
    • 지능정보연구
    • /
    • 제22권1호
    • /
    • pp.187-204
    • /
    • 2016
  • 소셜 미디어를 이용하는 사용자들이 직접 작성한 의견 혹은 리뷰를 이용하여 상호간의 교류 및 정보를 공유하게 되었다. 이를 통해 고객리뷰를 이용하는 오피니언마이닝, 웹마이닝 및 감성분석 등 다양한 연구분야에서의 연구가 진행되기 시작하였다. 특히, 감성분석은 어떠한 토픽(주제)를 기준으로 직접적으로 글을 작성한 사람들의 태도, 입장 및 감성을 알아내는데 목적을 두고 있다. 고객의 의견을 내포하고 있는 정보 혹은 데이터는 감성분석을 위한 핵심 데이터가 되기 때문에 토픽을 통한 고객들의 의견을 분석하는데 효율적이며, 기업에서는 소비자들의 니즈에 맞는 마케팅 혹은 투자자들의 시장동향에 따른 많은 투자가 이루어지고 있다. 본 연구에서는 중국의 온라인 시나 주식 포럼에서 사용자들이 직접 작성한 포스팅(글)을 이용하여 기존에 제시된 토픽들로부터 핫토픽을 선정하고 탐지하고자 한다. 기존에 사용된 감성 사전을 활용하여 토픽들에 대한 감성값과 극성을 분류하고, 군집분석을 통해 핫토픽을 선정하였다. 핫토픽을 선정하기 위해 k-means 알고리즘을 이용하였으며, 추가로 인공지능기법인 SOM을 적용하여 핫토픽 선정하는 절차를 제시하였다. 또한, 로짓, 의사결정나무, SVM 등의 데이터마이닝 기법을 이용하여 핫토픽 사전 탐지를 하는 감성분석을 위한 모형을 개발하여 관심지수를 통해 선정된 핫토픽과 탐지된 핫토픽을 비교하였다. 본 연구를 통해 핫토픽에 대한 정보 제공함으로써 최신 동향에 대한 흐름을 알 수 있게 되고, 주식 포럼에 대한 핫토픽은 주식 시장에서의 투자자들에게 유용한 정보를 제공하게 될 뿐만 아니라 소비자들의 니즈를 충족시킬 수 있을 것이라 기대된다.