• Title/Summary/Keyword: Address Allocation

검색결과 146건 처리시간 0.021초

The major factors effecting the decrease of forest cover in the Huaphanh Province, Northern Laos

  • Alounsavath, Phayvanh;Kim, Sebin;Lee, Bohwi
    • 농업과학연구
    • /
    • 제46권2호
    • /
    • pp.219-228
    • /
    • 2019
  • The forest of the Huaphanh Province (HP) has continued to decrease at 0.6% (10,560 ha) per year from 1992 to 2010. In the past few decades, the government of Laos and the Huaphanh Provincial Authority have been trying to address the root causes of deforestation. This study attempts to examine the factors effecting the decrease of the forest cover in the HP by analyzing the influence of the local socio-economic development and implementation of forest management policies on changes in the forest cover. The social data of the province focused on population growth and distribution between urban and rural areas including the number of poor people and the economic growth of three sectors, namely agriculture and forestry, industry, and service, while the implementation of the state forest management policy focused on the state forest management plan, tree plantation, forest land use planning and allocation to households, and shifting cultivation including annual upland rice and maize cultivation. In addition, government reports on socio-economic and rural development including poverty eradication of other provinces, where an increase in the forest cover was observed, were also collected and analyzed using qualitative and comparative analysis. The results from this study indicate that the decrease in forest cover in the Huaphanh Province appears to depend on a very slow economic growth and reduction in rural poverty of the province. The increase in the rural population in the province led to an increase in farm households and are as for shifting cultivation. As a result, forests were cleared leading to a decrease in the forest cover.

빅데이터 LDA 토픽 모델링을 활용한 국내 코로나19 대유행 기간 마스크 관련 언론 보도 및 태도 변화 분석 (An analysis of the change in media's reports and attitudes about face masks during the COVID-19 pandemic in South Korea: a study using Big Data latent dirichlet allocation (LDA) topic modelling)

  • 서예령;고금석;이재우
    • 한국정보통신학회논문지
    • /
    • 제25권5호
    • /
    • pp.731-740
    • /
    • 2021
  • 본 연구는 LDA 토픽모델링 분석을 적용하여 한국 내 세 번의 코로나19 대유행 시기를 기준으로 마스크와 관련된 뉴스 빅데이터를 수집, 분석하였다. 분석 결과 각 시기별 마스크라는 단어를 중심으로 언론보도가 마스크 정책과 관련된 주제에서 사건사고 위주로 바뀌어가는 것을 실증적으로 살펴볼 수 있었다. 즉 제1차 시기의 경우 마스크 생산과 공급이, 제2차 시기에서는 마스크 착용 의무화 및 관련 사건사고가, 마지막인 제 3차 시기에는 주로 사건사고 위주로 토픽이 다뤄진 것을 확인 할 수 있었다. 해당 연구를 통해 마스크 공급, 확보, 착용 외 다른 보건정보에는 상대적으로 소홀했을 가능성을 확인할 수 있었으며, 제2,3차 시기 보도가 사건사고에 치우친 부분은 향후 언론보도의 접근성 및 태도에 대한 개선점이 있음을 시사한다. 따라서 코로나19에 보다 효과적으로 대응하기 위해서는 보다 거시적이고 사회 전체적인 논의가 진행될 수 있도록 언론보도가 변화해야 할 것이다.

Analyzing Soybean Growth Patterns in Open-Field Smart Agriculture under Different Irrigation and Cultivation Methods Using Drone-Based Vegetation Indices

  • Kyeong-Soo Jeong;Seung-Hwan Go;Kyeong-Kyu Lee;Jong-Hwa Park
    • 대한원격탐사학회지
    • /
    • 제40권1호
    • /
    • pp.45-56
    • /
    • 2024
  • Faced with aging populations, declining resources, and limited agricultural productivity, rural areas in South Korea require innovative solutions. This study investigated the potential of drone-based vegetation indices (VIs) to analyze soybean growth patterns in open-field smart agriculture in Goesan-gun, Chungbuk Province, South Korea. We monitored multi-seasonal normalized difference vegetation index (NDVI) and the normalized difference red edge (NDRE) data for three soybean lots with different irrigation methods (subsurface drainage, conventional, subsurface drip irrigation) using drone remote sensing. Combining NDVI (photosynthetically active biomass, PAB) and NDRE (chlorophyll) offered a comprehensive analysis of soybean growth, capturing both overall health and stress responses. Our analysis revealed distinct growth patterns for each lot. LotA(subsurface drainage) displayed early vigor and efficient resource utilization (peaking at NDVI 0.971 and NDRE 0.686), likely due to the drainage system. Lot B (conventional cultivation) showed slower growth and potential limitations (peaking at NDVI 0.963 and NDRE 0.681), suggesting resource constraints or stress. Lot C (subsurface drip irrigation) exhibited rapid initial growth but faced later resource limitations(peaking at NDVI 0.970 and NDRE 0.695). By monitoring NDVI and NDRE variations, farmers can gain valuable insights to optimize resource allocation (reducing costs and environmental impact), improve crop yield and quality (maximizing yield potential), and address rural challenges in South Korea. This study demonstrates the promise of drone-based VIs for revitalizing open-field agriculture, boosting farm income, and attracting young talent, ultimately contributing to a more sustainable and prosperous future for rural communities. Further research integrating additional data and investigating physiological mechanisms can lead to even more effective management strategies and a deeper understanding of VI variations for optimized crop performance.

Edge Computing Model based on Federated Learning for COVID-19 Clinical Outcome Prediction in the 5G Era

  • Ruochen Huang;Zhiyuan Wei;Wei Feng;Yong Li;Changwei Zhang;Chen Qiu;Mingkai Chen
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권4호
    • /
    • pp.826-842
    • /
    • 2024
  • As 5G and AI continue to develop, there has been a significant surge in the healthcare industry. The COVID-19 pandemic has posed immense challenges to the global health system. This study proposes an FL-supported edge computing model based on federated learning (FL) for predicting clinical outcomes of COVID-19 patients during hospitalization. The model aims to address the challenges posed by the pandemic, such as the need for sophisticated predictive models, privacy concerns, and the non-IID nature of COVID-19 data. The model utilizes the FATE framework, known for its privacy-preserving technologies, to enhance predictive precision while ensuring data privacy and effectively managing data heterogeneity. The model's ability to generalize across diverse datasets and its adaptability in real-world clinical settings are highlighted by the use of SHAP values, which streamline the training process by identifying influential features, thus reducing computational overhead without compromising predictive precision. The study demonstrates that the proposed model achieves comparable precision to specific machine learning models when dataset sizes are identical and surpasses traditional models when larger training data volumes are employed. The model's performance is further improved when trained on datasets from diverse nodes, leading to superior generalization and overall performance, especially in scenarios with insufficient node features. The integration of FL with edge computing contributes significantly to the reliable prediction of COVID-19 patient outcomes with greater privacy. The research contributes to healthcare technology by providing a practical solution for early intervention and personalized treatment plans, leading to improved patient outcomes and efficient resource allocation during public health crises.

Near-Optimal Low-Complexity Hybrid Precoding for THz Massive MIMO Systems

  • Yuke Sun;Aihua Zhang;Hao Yang;Di Tian;Haowen Xia
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제18권4호
    • /
    • pp.1042-1058
    • /
    • 2024
  • Terahertz (THz) communication is becoming a key technology for future 6G wireless networks because of its ultra-wide band. However, the implementation of THz communication systems confronts formidable challenges, notably beam splitting effects and high computational complexity associated with them. Our primary objective is to design a hybrid precoder that minimizes the Euclidean distance from the fully digital precoder. The analog precoding part adopts the delay-phase alternating minimization (DP-AltMin) algorithm, which divides the analog precoder into phase shifters and time delayers. This effectively addresses the beam splitting effects within THz communication by incorporating time delays. The traditional digital precoding solution, however, needs matrix inversion in THz massive multiple-input multiple-output (MIMO) communication systems, resulting in significant computational complexity and complicating the design of the analog precoder. To address this issue, we exploit the characteristics of THz massive MIMO communication systems and construct the digital precoder as a product of scale factors and semi-unitary matrices. We utilize Schatten norm and Hölder's inequality to create semi-unitary matrices after initializing the scale factors depending on the power allocation. Finally, the analog precoder and digital precoder are alternately optimized to obtain the ultimate hybrid precoding scheme. Extensive numerical simulations have demonstrated that our proposed algorithm outperforms existing methods in mitigating the beam splitting issue, improving system performance, and exhibiting lower complexity. Furthermore, our approach exhibits a more favorable alignment with practical application requirements, underlying its practicality and efficiency.

아파트 수선유지 비용 예측을 위한 딥러닝 프레임워크 제안 (A Deep Learning Framework for Prediction of Apartment Repair and Maintenance Costs)

  • 김지명;손승현
    • 한국건축시공학회지
    • /
    • 제24권3호
    • /
    • pp.355-362
    • /
    • 2024
  • 본 연구의 주요 목표는 아파트 단지 수선유지 비용을 예측하기 위해 딥러닝 기법을 적용한 예측 모델 구축 프레임워크를 제안하는 것이다. 아파트 건물을 이상적인 상태로 관리하기 위해서는 지속적인 유지 및 시의적절한 수리가 필수적이다. 아파트 단지는 광범위한 면적, 공동 시설, 다수의 주거 동, 서비스 지역 등으로 인해 유지관리가 복잡하다. 또한, 아파트의 안전성 보장, 가치 유지 및 경제적 효율성 때문에 경제적이고 합리적인 유지보수의 중요성이 점점 커지고 있다. 그러나 아파트 단지 수선유지는 다양한 외부 요인의 영향을 받고 데이터 수집이 어려워 연구가 부족한 상황이다. 따라서 본 연구는 실제 아파트 단지 유지보수 비용 데이터를 기반으로 딥러닝 기법을 활용해 유지보수 비용을 예측하는 모델 개발 프레임워크를 제시하고자 한다. 본 연구의 프레임워크 및 결과는 실질적으로 아파트 단지의 유지보수 비용 예측에 활용될 수 있으며, 궁극적으로 아파트 단지의 시설 관리 향상에 기여할 것이다.

저전력을 위한 버퍼 캐쉬 관리 기법 (Buffer Cache Management for Low Power Consumption)

  • 이민;서의성;이준원
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제35권6호
    • /
    • pp.293-303
    • /
    • 2008
  • 컴퓨팅 환경이 무선과 휴대용 시스템으로 변화하면서, 전력효율이 점점 중요해지고 있다. 특히 내장형 시스템일 경우에 더욱 그러한데 이중 메모리에서 소모되는 전력이 전체 전력소모의 두 번째 큰 요소가 되고 있다. 메모리 시스템에서의 전력소모를 줄이기 위해서 SDRAM의 저전력 모드를 활용할 수 있다. RDRAM의 경우 냅모드(nap mode)는 액티브 모드(active mode)의 5%이하의 전력만을 소모한다. 하지만 하드웨어 컨트롤러는 운영체제가 협조하지 않으면 이 기능을 효율적으로 활용하지 못한다. 이 논문에서는 SDRAM의 액티브 유닛(active unit)의 수를 최소화하는 방법에 초점을 맞춘다. 운영체제는 참조되지 않는 메모리를 저전력 모드에 놓음으로써 최소한의 유닛들만을 액티브 모드에 놓은 상태로 프로그램이 수행될 수 있도록 피지컬(physical) 페이지들을 할당한다. 이것은 PAVM(Power Aware Virtual Memory) 연구의 일반화된 시스템 전반에 대한 연구라고 할 수 있다. 우리는 모든 피지컬 메모리를 고려하고 있으며, 특히 평균적으로 전체 메모리의 절반을 사용하는 버퍼 캐시를 고려하고 있다. 버퍼 캐시의 용량과 그 중요성 때문에 PAVM 방식은 버퍼 캐시를 고려하지 않고는 완전한 해법이 되지 못한다. 이 논문에서 우리는 메모리의 사용처를 분석하고 저전력 페이지 할당 정책을 제안한다. 특히 프로세스의 주소공간에 매핑(mapping)된 페이지들과 버퍼 캐시가 고려된다. 이 두 종류의 페이지들간의 상호작용과 그 관계를 분석하고 저전력을 위해 이러한 관계를 이용한다.

교통카드 데이터를 이용한 버스 승객 대기시간 최소화 알고리즘 개발 (Development of an Algorithm for Minimization of Passengers' Waiting Time Using Smart Card Data)

  • 전상우;이정우;전철민
    • Spatial Information Research
    • /
    • 제22권5호
    • /
    • pp.65-75
    • /
    • 2014
  • 버스 배차간격은 승객의 대기시간 및 차내 혼잡도 등 서비스 수준에 직접적인 영향을 미치고 간접적으로는 버스 운행비용 및 이용자의 교통수단 선택에 영향을 미치는 중요한 요소이다. 대부분의 선행연구에서 버스 배차간격은 첨두시와 비첨두시 구간 통행량을 기반으로 시간대별 수요의 차이만을 반영하고 있다. 이러한 방식의 배차계획하에서는 세분화된 시간적 수요의 차이까지 고려하지 못하므로 승객들의 대기시간 비용이 증가하게 되는 요인이 될 수 있다. 또한, 승객의 승차패턴은 노선, 도로, 정류장의 공간적 배치 특성에 따라 다를 수 있으므로 버스 승객들의 시공간적 수요분포 특성과 변화를 고려한 배차간격 조절에 관한 연구가 필요하다. 본 연구에서는 교통카드 데이터에서 획득한 승객 탑승정보를 바탕으로 정책적 대기시간 제약과 운행 대수 제약조건 및 노선 특성을 반영하여 승객들의 대기시간을 최소화하는 방향으로 배차간격을 조절하는 알고리즘을 제안하였다. 개발 알고리즘의 활용성 검증을 위해 서울시 간선노선 중 143번 노선에 적용한 결과, 승객 대기시간 감축비용을 계산하였을 때 비용절감 효과는 일일 기준 약 600,000원에 이르는 것으로 나타났다. 따라서 개발 알고리즘의 적용 노선을 확장할 경우 버스 승객의 편익 증진에 이바지할 것으로 기대된다.

Parameter estimation and assessment of bias in genetic evaluation of carcass traits in Hanwoo cattle using real and simulated data

  • Mohammed Bedhane;Julius van der Werf;Sara de las Heras-Saldana;Leland Ackerson IV;Dajeong Lim;Byoungho Park;Mi Na Park;Seunghee Roh;Samuel Clark
    • Journal of Animal Science and Technology
    • /
    • 제65권6호
    • /
    • pp.1180-1193
    • /
    • 2023
  • Most carcass and meat quality traits are moderate to highly heritable, indicating that they can be improved through selection. Genetic evaluation for these types of traits is performed using performance data obtained from commercial and progeny testing evaluation. The performance data from commercial farms are available in large volume, however, some drawbacks have been observed. The drawback of the commercial data is mainly due to sorting of animals based on live weight prior to slaughter, and this could lead to bias in the genetic evaluation of later measured traits such as carcass traits. The current study has two components to address the drawback of the commercial data. The first component of the study aimed to estimate genetic parameters for carcass and meat quality traits in Korean Hanwoo cattle using a large sample size of industry-based carcass performance records (n = 469,002). The second component of the study aimed to describe the impact of sorting animals into different contemporary groups based on an early measured trait and then examine the effect on the genetic evaluation of subsequently measured traits. To demonstrate our objectives, we used real performance data to estimate genetic parameters and simulated data was used to assess the bias in genetic evaluation. The results of our first study showed that commercial data obtained from slaughterhouses is a potential source of carcass performance data and useful for genetic evaluation of carcass traits to improve beef cattle performance. However, we observed some harvesting effect which leads to bias in genetic evaluation of carcass traits. This is mainly due to the selection of animal based on their body weight before arrival to slaughterhouse. Overall, the non-random allocation of animals into a contemporary group leads to a biased estimated breeding value in genetic evaluation, the severity of which increases when the evaluation traits are highly correlated.

쿠버네티스 환경에서 컨테이너 워크플로의 실행 시간 개선을 위한 컨테이너 재시작 감소 기법 (Technique to Reduce Container Restart for Improving Execution Time of Container Workflow in Kubernetes Environments)

  • 강태신;유헌창
    • 정보처리학회 논문지
    • /
    • 제13권3호
    • /
    • pp.91-101
    • /
    • 2024
  • 데이터 집약적이고 메모리 변동성이 높은 워크플로의 이식성 보장을 위해 컨테이너 가상화 기술이 사용되고 있다. 그리고 쿠버네티스는 이러한 컨테이너 애플리케이션들을 관리하기 위한 오케스트레이션 도구로써 사실상 표준으로 사용되고 있다. 클라우드 사용자는 리소스 부족으로 인한 컨테이너 재시작을 방지하기 위해 컨테이너 애플리케이션을 오버프로비저닝하는 경향이 있다. 그러나 과도한 오버프로비저닝은 CPU, 메모리 등 시스템 리소스의 사용량을 낮아지게 만든다. 이 문제를 해결하기 위해 컨테이너 리소스를 초과 사용하는 방식이 널리 사용되고 있으나, 지나친 메모리 리소스 초과 사용은 노드의 메모리 부족으로 인해 연쇄적인 컨테이너 재시작을 유발할 수 있다. 컨테이너 재시작 발생 시 작업을 처음부터 다시 시작해야 하므로 많은 상태저장 애플리케이션이 포함된 메모리 변동성이 높은 컨테이너에 큰 오버헤드를 유발할 수 있다. 본 논문은 쿠버네티스 환경에서 메모리 초과 사용 시 컨테이너 재시작을 완화하는 기법을 제안한다. 메모리 사용량이 많은 노드에서 메모리 할당을 요청할 가능성이 큰 컨테이너를 식별하고 이러한 컨테이너를 일시정지한다. 컨테이너의 CPU 사용량을 크게 줄이면 컨테이너가 일시정지하는 상태와 유사한 효과를 얻을 수 있다. 해당 노드의 메모리 사용량이 개선된 것으로 판단되면 컨테이너의 일시정지를 해제한다. 제안기법을 적용하여 쿠버네티스 환경에서 메모리 변동성이 높은 워크플로를 구동한 경우 제안기법을 사용하지 않았을 때에 비해 컨테이너의 재시작 횟수가 평균 40%, 최대 58% 감소하였다. 그리고 컨테이너 재시작 횟수 감소로 인해 컨테이너 워크플로의 총 실행 시간이 평균 7%, 최대 13% 단축되었다.