• 제목/요약/키워드: Deleted Data

검색결과 221건 처리시간 0.032초

디지털영상의 특정영역 인식과 처리 방안 (Methods on Recognition and Recovery Process of Censored Areas in Digital Image)

  • 김감래;김욱남;김훈정
    • 한국측량학회지
    • /
    • 제20권1호
    • /
    • pp.1-11
    • /
    • 2002
  • 본 연구에서는 보안목표물의 효율적인 활용에 목적을 두고 있으며 이를 위하여 항공사진 영상에 표현된 보안 삭제구역에 대한 문제점을 분석하고 영상의 특정영역 인식을 위하여 클러스터링과 레이블링을 실시하였으며, 후처리 알고리즘을 통하여 디지털 영상 데이터의 다양한 활용성을 극대화시키려 하였다. 이러한 연구성과를 토대로 영상의 밝기 값은 지형ㆍ지물의 수량에 따라 증가하는 것으로 나타났으며, 이는 영상 전체에 포함되어 있는 지형·지물의 정보량 판단에 유용한 평가자료로 활용할 수 있는 것으로 평가되었다. 또한 영상인식 및 후 처리에 있어서 도심지나 교외지의 경우 기존 보안목표물의 삭제를 위한 처리절차와 유사하게 인식되는 지형ㆍ지물의 다수 포함으로 인해 산악지에 비해 좋은 결과 값이 도출되지 않았으며. 이는 지형·지물의 수량이 인식 및 처리에 절대적인 영향을 미치는 것으로 나타났다.

대학 기숙사 급식의 메뉴 운영 특성을 고려한 Menu Engineering기법 개발 및 적용 (Development and Application of Menu Engineering Technique for University Residence Hall Foodservice)

  • 양일선;이해영;신서영;도현욱
    • 대한지역사회영양학회지
    • /
    • 제8권1호
    • /
    • pp.62-70
    • /
    • 2003
  • This article aims to summarize the development and application of menu engineering technique, 'Menu Engineering Modified by Preference (MEMP)'. The site selected for this project was a foodservice operation in Yonsei University residence hall. Sales and food costs data were collected from the daily sales reports for 1 month, and the survey of food preference was conducted during May, 1999. Statistical data analysis was completed using the SAS/Win 6.12 for descriptive analysis. The calculation for menu analysis were carried out with MS 2000 Excel spreadsheet program. This MEMP technique developed had 6 category criteria and 2 dimensions of the contribution margin (CM) and the menu mix modified% (MMM%) . The MMM% was calculated by the sales volumes and also weighted by food preference. The CM and MMM% for each item were compared with a mean menu CM as well as a 70% rule. Four possible classifications by MEMP were fumed out as 'STAR', 'PLOWHORSE', 'PUZZLE', 'DOG'. 'STAR' items were the most popular and profitable items and required to maintain rigid specifications for quality. The decision actions for 'PLOWHORSE' menu items which were relatively popular, but yield a low menu average CM included combining a plowhorse item with lower cost products and reducing the frequency of serving or serving size. There was a need for 'PUZZLE' items to be changed in the menu combination, improve recipe, and promote menu. The last DOG' items were desired to be deleted. This study demonstrates that menu information can be interpreted more easily with MEMP. The use of MEMP is therefore an effective way to improve management decisions about menu of university residence hall foodservice.

효율적 일상 관리를 위한 일정관리 어플리케이션의 설계와 구현 (Design and Implementation of Scheduler Applications for Efficient Daily Management)

  • 박은주;한승준;윤지민;임한규
    • 인터넷정보학회논문지
    • /
    • 제22권2호
    • /
    • pp.41-50
    • /
    • 2021
  • IT기술과 정보처리 기술의 발전에 따라 인터넷 사용량이 급증하고 다양한 스마트 기기들이 출현하고 있다. 이에 따라 현대인들은 장소와 시간에 구애받지 않고 원하는 정보 획득, 여가활동과 같은 일상생활에 스마트 폰을 사용한다. 본 논문에서는 일정을 기록하고 약속을 공유하는 등 일상생활의 효과적 관리에 도움이 되는 일정관리 어플리케이션을 설계하고 이를 구현하였다. 본 논문의 일정관리 어플리케이션은 일정등록과 함께 일기작성 기능, 등록한 일정을 카카오톡을 이용하여 다른 사용자들과 공유할 수 있는 기능, 삭제 시 특정 폴더로 삭제한 일정이나 일기를 저장하는 기능, 하루 일정에 대한 연속적인 알림 기능 등을 제공한다. 다른 일정관리 앱들과 차별점을 가지며 사용성을 높인 본 논문의 어플리케이션은 바쁜 일상생활의 효율적 관리에 도움이 될 것이라 기대한다.

모바일 포렌식의 무결성 보장을 위한 효과적인 통제방법 (An Effective Control Method for Improving Integrity of Mobile Phone Forensics)

  • 김동국;장성용;이원영;김용호;박창현
    • 정보보호학회논문지
    • /
    • 제19권5호
    • /
    • pp.151-166
    • /
    • 2009
  • 포렌식 수사 절차상의 무결성을 입증하기 위한 방안으로 해쉬 함수 알고리즘을 적용한 디지털 증거의 경우, 무결성이 손상되면 그 자료는 폐기되어야만 했다. 즉, 주요 사건의 핵심 부분에 대한 증거 확보를 위해서는 삭제 영역에 대한 증거 복원이 필수적임에도 불구하고, 전체적인 해쉬값이 처음 해쉬값과 달라 증거 데이터가 훼손됨으로 인하여 결정적인 증거 능력 확보에 어려움이 있었다. 본 논문에서는 이와 같은 문제점을 해결하기 위한 방안으로서 새로운 모바일 포렌식 절차 모델인"Evidence-Finder (이하 E-Finder) 모바일 포렌식 절차 모델"을 제안한다. E-Finder 절차는 5개 영역의 총 15개 절차 모델로 구성되며 E-Finder 절차를 기존 NIST(National Institute of Standards and Technology)모델, Tata Elxsi Security Group 모델과 비교 및 고찰하였다. 이로 인하여, 현재까지 모바일 포렌식 분야에서 표준화 되지 않고, 검증되지 않은 방법론을 개선하는 기대효과를 달성하였다.

대사판정시험을 이용한 젖소의 우유증산 (Production Increase of Milk in Dairy Cow by Metabolic Profile Test)

  • 이창우;김본원;라정찬;신상태;김두;김종택;홍순일
    • 한국임상수의학회지
    • /
    • 제10권1호
    • /
    • pp.65-94
    • /
    • 1993
  • This study examined metabolic profiles of 1349 Holstein cows from 91 commercial herds. Thirteen parameters which are consisted of twelve blood components and body condition score were examined and their mean values. standard deviations and standard limits, which are 80% confidential limits, in each lactational stage were reported. The variations of each parameter affected by season, individual milk yield, adjusted corrected milk yield of herd. and lactation number were also reported. A model of metabolic profile test applicable to this country where the average number of cows in a herd is small as to be fifteen is designed. Metabolic profiles as reflected in each parameter were discussed in relation to adequacy of dietary intake for production, milk production, reproductive performance, and diseases, and the possible measure to improve productivity of dairy cows were proposed. Much of the variation in parameters was due to differences between herds, and less to differences between seasons, differences between individual milk yield, and differences between lactational stages. As the average herd size in this country is small, it is believed that all the cows in a herd must be sampled, and the individual result of each parameter was compared with the standard limit for each lactational stage, and the percentage of cows which are outside the standard limits in a herd was calculated to use as a criteria for evaluation of the herd. Data outside the 99% confidential limits were to be deleted at first, but when the trends of the data outside the 99% confidential limits are same as the trends of the data within 99% confidential limits, the deleted data must be reviewed again, otherwise some important informations would be missed. The mean concentration of blood urea nitrogen in this study was much higher than that was reported in England, U.S.A. and Japan, and it was similar to the upper limits reported in England, U.S.A. and Japan. So it was thought that the concentration of blood urea nitrogen is improper as a criteria for protein intake. The increase of serum total protein cocentration beyond standard limits was due to increase of serum globulin concentration in most of the cows. The correlation coefficient between serum and protein and serum globulin concentration was 0.83. Serum globulin concentration was negatively related to adjusted corrected milk of herd. Serum albumin, calcium and magnessium concentrations were negatively related to adjusted corrected milk of herd, which indicate that high-producing individual or high-producing herd have not taken sufficient protein/amino acids, calcium and magnessium. Packed cell volume was negatively related to adjusted corrected milk of the herd, and the trend was same In each lactational stage. The correlation coefficient between serum and packed cell volume was 0.16 and the correlation was very weak. Blood glucose concentration was lowest in early lactational stage, which indicates negative energy balance in early lactational stage. Blood glucose concentration was negatively related to adjusted corrected milk of herd from peak to late lactational stage, which indicates negative energy balance during the period in high-producing individuals or high-producing herds. Correlation coefficient between serum aspartate aminotransferase activity and serum ${\gamma}$-glutamyltransferase activity was 0.41, and this indicates that serum ${\gamma}$-glutamyltransferase should be included as a parameter of metabolic profile test to evaluate liver function. Body condition score of dairy cows in this country was lower than that of Japan in every lactational stages, and the magnitude of increase in body condition score during middle and late lactational stages was small. Metabolic profile can not be evaluated with solely nutritional intake. When an individual or large percentage of cows in a herd have adnormal values In parameters of metabolic profile test, veterinary clinician and nutritionist should cooperate so as to diagnose diseases and to calculate the e of no운ents simultaneously.

  • PDF

SSD의 성능향상을 위한 접근빈도에 따른 데이터 할당 및 교체기법 (Data allocation and Replacement Method based on The Access Frequency for Improving The Performance of SSD)

  • 양유석;김덕환
    • 전자공학회논문지CI
    • /
    • 제48권5호
    • /
    • pp.74-82
    • /
    • 2011
  • SSD는 낸드 플래시 메모리의 배열로 구성되어 있기 때문에 하드 디스크와는 달리 블록 당 쓰기 가능 횟수가 정해져 있고, 덮어쓰기가 불가능 하다는 특성을 가지고 있다. 이와 같이 기존의 하드 디스크와는 다른 특징을 갖는 SSD를 효과적으로 관리하기 위해 FTL을 이용한다. FTL은 맵핑 방식에 따라 페이지, 블록, 로그 블록 맵핑 방식으로 구분하는데, 그 중 로그 블록 맵핑 방식 기법 중 BAST와 FAST는 합병 연산 시 페이지 복사와 삭제 연산이 많이 발생하여 SSD의 성능이 떨어지는 문제를 갖고 있다. 본 논문에서는 이를 해결하기 위하여 SSD 내부에 PRAM을 접근빈도 체크영역 및 로그 블록과 Hot 데이터를 저장하는 영역으로 할당하여 접근빈도에 따라 데이터를 할당하는 기법 및 교체기법을 제안한다. 제안된 방법은 접근빈도에 따라 Cold 데이터는 플래시 메모리에 할당하며 덮어쓰기가 가능한 PRAM에 로그 블록과 접근 빈도가 높은 데이터를 할당함으로써, 합병 연산 및 삭제 연산을 줄여 SSD의 성능과 수명을 향상시킬 수 있다. 또한 용량의 한계가 있는 PRAM의 활용률을 높이기 위해 데이터 교체 방법을 사용한다. 실험결과 삭제연산의 경우 제안한 방법이 BAST에 비해 약 46%정도 FAST에 비해 약 38%정도 횟수가 감소되었고, 쓰기 성능의 경우 각각 기존 BAST, FAST에 비해 34%, 19%의 성능이 향상되었고, 읽기 성능 역시 각각 5%, 3%의 성능 향상을 보였다.

비정형 데이터와 딥러닝을 활용한 내수침수 탐지기술 개발 (Development of a method for urban flooding detection using unstructured data and deep learing)

  • 이하늘;김형수;김수전;김동현;김종성
    • 한국수자원학회논문집
    • /
    • 제54권12호
    • /
    • pp.1233-1242
    • /
    • 2021
  • 본 연구에서는 비정형 데이터인 사진자료를 이용하여 침수의 발생여부를 판단하는 모델을 개발하였다. 침수분류를 모델 개발을 위하여 CNN기반의 VGG16, VGG19을 이용하였다. 모델을 개발하기 위하여 침수사진과 침수가 발생하지 않은 사진을 웹크롤링 방법을 이용하여 사진을 수집하였다. 웹크롤링 방법을 이용하여 수집한 데이터는 노이즈 데이터가 포함되어 있기 때문에 1차적으로 본 연구와 상관없는 데이터는 소거하였으며, 2차적으로 모델 적용을 위하여 224 × 224로 사진 사이즈를 일괄 변경하였다. 또한 사진의 다양성을 위해서 사진의 각도를 변환하여 이미지 증식을 수행하였으며. 최종적으로 침수사진 2,500장과 침수가 발생하지 않은 사진 2,500장을 이용하여 학습을 수행하였다. 모델 평가결과 모델의 평균 분류성능은 97%로 나타났으며. 향후 본 연구결과를 통하여 개발된 모델을 CCTV관제센터 시스템에 탑재한다면 신속하게 침수피해에 대한 대처가 이루어 질 수 있을 것이라 판단된다.

프라이버시를 보호하는 동적 데이터의 재배포 기법 (Privacy Preserving Data Publication of Dynamic Datasets)

  • 이주창;안성준;원동호;김응모
    • 정보보호학회논문지
    • /
    • 제18권6A호
    • /
    • pp.139-149
    • /
    • 2008
  • 조직이나 기관에서 수집한 개인정보를 통계 분석, 공공 의료 연구 등을 목적으로 배포할 때는 데이터에 포함된 개인의 민감한 정보가 노출되지 않도록 보호해야 한다. 한편, 배포되는 데이터는 가능한 정확한 통계 정보를 제공해야 한다. k-anonymity와 l-diversity 모델은 이러한 프라이버시 침해 문제 해결을 위해 제안되었다. 그러나 두 모델은 데이터에 삽입과 삭제가 발생하지 않는 정적인 데이터를 단 한번 배포하는 상황을 가정하기 때문에 삽입과 삭제가 발생하는 동적인 데이터에 그대로 적용할 수 없다. 동적인 데이터의 프라이버시 보호 문제를 해결하기 위해 최근 m-invariance 모델이 제안되었다. 그러나 m-invariant 일반화 기법은 일반화로 인해 통계 정보로써 데이터의 품질을 저하시킨다는 단점이 있고, 배포된 데이터 중 일부 개인의 민감한 속성이 노출되었을 경우에 그 영향이 다른 부분으로 전이된다. 본 논문에서는 일반화를 사용하지 않으면서 간단한 삽입과 삭제 연산을 지원하는 동적 데이터의 배포 기법을 제안한다. 제안 기법은 데이터의 품질을 높이면서 m-invariance와 동등한 수준의 프라이버시 보호 정도를 제공한다.

RSP-DS: 데이터 스트림에서의 실시간 순차 패턴 분석 (RSP-DS: Real Time Sequential Patterns Analysis in Data Streams)

  • 신재진;김호석;김경배;배해영
    • 한국멀티미디어학회논문지
    • /
    • 제9권9호
    • /
    • pp.1118-1130
    • /
    • 2006
  • 데이터 스트림에 대한 기존의 패턴 분석 알고리즘은 대부분 속도 향상과 효율적인 메모리 사용에 대하여 연구되어 왔다. 그러나 기존의 연구들은 새로운 패턴을 가진 데이터 스트림이 입력되었을 경우, 이 전에 분석된 패턴을 버리고 다시 패턴을 분석하여야 한다. 이러한 방법은 데이터의 실시간적인 패턴 분석을 필요로 하는 실제 환경에서는 많은 속도와 계산 비용이 소모된다. 본 논문에서는 끊임없이 입력되는 데이터 스트림의 패턴을 실시간으로 분석하는 방법을 제안한다. 이 것은 먼저 빠르게 패턴을 분석하고 그 다음부터는 이전에 분석된 패턴을 효율적으로 갱신하여 실시간적인 패턴을 얻어내는 방법이다. 데이터 스트림이 입력되면 시간 기반 윈도우로 나누어 여러 개의 순차들을 생성한다. 그리고 생성된 순차들의 정보는 해시 테이블에 입력되어 정해진 개수의 순차가 해시 테이블에 채워질 때마다 해시 테이블에서 패턴을 분석해 낸다. 이렇게 분석된 패턴은 패턴 트리를 형성하게 되고, 이 후에 새로 분석된 패턴들은 이 패턴 트리 안의 패턴 별로 갱신하여 현재 패턴을 유지하게 된다. 새로운 패턴 추가를 위해 패턴을 분석할 때 이전에 이미 발견된 패턴이 Suffix로 나올 수 있다. 그러면 패턴 트리에서 이 전 패턴으로의 포인터를 생성하여 중복되는 패턴 분석으로 인한 계산 시간의 낭비를 방지한다. 그리고 FIFO방법을 사용하여 오랫동안 입력이 안 된 패턴을 손쉽게 제거한다. 패턴이 조금씩 바뀌는 데이터 스트림 환경에서 RSP-DS가 기존의 알고리즘보다 우수하다는 것을 성능 평가를 통하여 증명하였다. 또한 패턴 분석을 수행할 데이터 순차의 개수와 자주 등장하는 데이터를 판별하는 기준을 조절하여 성능의 변화를 살펴보았다.

  • PDF

동적 XML 조각 스트림에 대한 메모리 효율적 질의 처리 (Memory Efficient Query Processing over Dynamic XML Fragment Stream)

  • 이상욱;김진;강현철
    • 정보처리학회논문지D
    • /
    • 제15D권1호
    • /
    • pp.1-14
    • /
    • 2008
  • 본 논문은 메모리 용량이 제약되어 있는 이동 단말기에서의 XML 데이터에 대한 질의 처리 기술에 관한 것이다. 대량의 XML 데이터에 대한 질의를 메모리 용량이 크지 않은 단말기에서 처리하는 경우 XML 데이터를 XML 조각(fragment)으로 분할하여 스트림으로 전송하고 처리하는 기술이 필요하다. 이는 전체 XML 문서를 재구성하지 않고 XML 데이터에 대한 질의 처리를 가능하게 한다. XFrag[4], XFPro[5], XFLab[6] 등 기존에 제시된 기법들은 질의 처리를 위해 조각에 대한 정보를 저장하고 사용한 후 더 이상 불필요해진 것들을 식별하여 삭제하지 못하기 때문에 조각 정보가 메모리에 계속 누적되어 대용량의 XML 데이터에 대해 질의 처리를 수행하기에는 문서 크기에 따른 확장성(scalability)이 떨어진다. 특히, XML 조각이 동적으로 생성되어 무한정 스트리밍되는 경우에 한정된 메모리로는 질의 처리를 보장할 수 없다. 본 논문에서는 동적 XML 조각 스트림에 대한 질의 처리에 있어 문서 크기에 따른 확장성 있는 질의 처리를 수행하기 위하여 누적된 조각 정보 삭제 기법들을 제시하고 이들을 바탕으로 기존 기법의 확장을 제시한다. 구현 및 성능 실험 결과 본 논문에서 확장된 기법이 기존의 기법보다 메모리 효율성이 현저히 높고 문서 크기에 따른 확장성이 월등히 우수한 것으로 나타났다.