• Title/Summary/Keyword: 순서도와 알고리즘

Search Result 117, Processing Time 0.027 seconds

A Study of Image Coding Technique Using Adaptive Wavelet Transform (적응적 웨이블릿 변환을 사용한 영상 코딩 기법에 관한 연구)

  • 김혜경;이옥경;오해석
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10b
    • /
    • pp.386-388
    • /
    • 1999
  • 본 논문은 이미지 데이터의 효율적인 코딩에 대한 새로운 방법을 나타낸다. 웨이블릿 변환을 기초로 한, 알고리즘은 서브밴드 간의 남아 있는 상관관계를 이용한다. 웨이블릿 계수들에 대한 성공적인 대략값은 계층적인 심볼 스트림을 초래하고, 그것은 PSD(의미있는 자손에 대한 예언)과 함께 매우 높게 압축된다. 코딩 알고리즘은 이미지 컨텐트에 대한 높은 적응성에 의해 그 자체를 구별한다. 초래하는 비트스트림은 그것들의 중요도에 대한 순서에 있어서 모든 이미지 정보를 구성한다. 그러므로 그것은 위험한 디코딩 과정 없이 어떤 지점에서 절단하는 것이 가능하다. 이러한 내장된 비트스트림의 이점은 공간적인 규모성(scalability)과 왜곡율이다. 좀 더 나은 향상은 웨이블릿 패킷으로 알려진 새로운 적응적인 웨이블릿 변환을 사용하여 획득된다. 초기의 기법들과 적합하지 않은 현재의 서브밴드에 대한 관련성있는 통계적인 특성들(특히 상관관계)은 처음으로 분석된다. 그것들에 의존하는, 서브밴드가 분해 유무에 관계없이 분해 결정이 만들어진다. 이러한 결과는 최고의 기본적인 선택이 아니고 최적에 가까운 분해 구조를 초래한다. 본 논문에서 제안한 모델의 가장 주요한 이점은 계산적인 비용의 축소이다.

  • PDF

Development of Cluster Tool Dispatching Algorithm for Next Generation Wafer Production System (차세대 웨이퍼 생산시스템을 위한 클러스터 툴 디스패칭 알고리즘 개발)

  • Hur, Sun;Lee, Hyun;Park, Eu-Gene
    • Proceedings of the KAIS Fall Conference
    • /
    • 2010.11b
    • /
    • pp.792-796
    • /
    • 2010
  • 차세대 반도체 공정인 450mm 웨이퍼 생산 환경의 가장 큰 특징은 반도체 생산의 전 공정에 대한 완전 자동화이다. 이러한 완전 자동화는 작업자의 공정개입을 불가능하게 하고 개별 웨이퍼의 중요도를 크게 증가시키며 전체 반도체 생산 공정에 대한 견고한 디스패칭 시스템을 필요로 한다. 또한, 차세대 반도체 공정의 디스패칭 시스템은 개별 웨이퍼에 대한 실시간 모니터링과 데이터 수집이 가능해야 하며, 수집된 반도체 공정의 정보를 반영한 실시간 디스패칭이 가능해야 한다. 본 연구에서는 차세대 반도체 환경인 450mm 웨이퍼 생산 환경에서 중요한 역할을 하는 클러스터 툴에 대해 분석하고 클러스터 툴에서 웨이퍼의 작업순서를 결정할 수 있는 디스패칭 알고리즘을 제안한다.

  • PDF

An Adaptive and Fast Motion Estimation Algorithm using Initial Matching Errors (초기 매칭 에러를 통한 적응적 고속 움직임 예측 알고리즘)

  • Jeong, Tae-Il
    • Journal of Korea Multimedia Society
    • /
    • v.10 no.11
    • /
    • pp.1439-1445
    • /
    • 2007
  • In this paper, we propose a fast motion estimation algorithm using initial matching errors by sorting square sub-blocks to find complex sub-block area adaptively based on partial calculation of SAD(sum of absolute difference) while keeping the same prediction quality compared with the PDE(partial distortion elimination) algorithm. We reduced unnecessary calculations with square sub-block adaptive matching scan based initial SAD calculation of square sub-block in each matching block. Our algorithm reduces about 45% of computations for block matching error compared with conventional PDE(partial distortion elimination) algorithm without any degradation of prediction quality, and for algorithm will be useful to real-time video coding applications using MPEG-4 AVC or MPEG-2.

  • PDF

XGBoost Based Prediction Model for Virtual Metrology in Semiconductor Manufacturing Process (반도체 공정에서 가상계측 위한 XGBoost 기반 예측모델)

  • Hahn, Jung-Suk;Kim, Hyunggeun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.05a
    • /
    • pp.477-480
    • /
    • 2022
  • 반도체 성능 향상으로 신호를 전달하는 회로의 단위가 마이크로 미터에서 나노미터로 미세화되어 선폭(linewidth)이 점점 좁아지고 있다. 이러한 변화는 검출해야 할 불량의 크기가 작아지고, 정상 공정상태와 비정상 공정상태의 차이도 상대적으로 감소되어, 공정오차 및 공정조건의 허용범위가 축소되었음을 의미한다. 따라서 검출해야 할 이상징후 탐지가 더욱 어렵게 되어, 높은 정밀도와 해상도를 갖는 검사공정이 요구되고 있다. 이러한 이유로, 미세 공정변화를 파악할 수 있는 신규 검사 및 계측 공정이 추가되어 TAT(Turn-around Time)가 증가하게 되었고, 웨이퍼가 가공되어 완제품까지 도달하는데 필요한 공정시간이 증가하여 제조원가 상승의 원인으로 작용한다. 본 논문에서는 웨이퍼의 검계측 데이터가 아닌, 제조공정 과정에서 발생하는 다양한 센서 및 장비 데이터를 기반으로 웨이퍼 제조 결과가 양품인지 그렇지 않으면 불량인지 구별할 수 있는 가상계측 모델을 제안한다. 기계학습의 여러 알고리즘 중에서 다양한 장점을 갖는 XGBoost 알고리즘을 이용하여 예측모델을 구축하였고, 데이터 전처리(data-preprocessing), 주요변수 추출(feature selection), 모델 구축(model design), 모델 평가(model evaluation)의 순서로 연구를 수행하였다. 결과적으로 약 94% 이상의 정확성을 갖는 모형을 구축하는데 성공하였으나 더욱 높은 정확성을 확보하기 위해서는 반도체 공정과 관련된 Domain Knowledge 를 반영한 모델구축과 같은 추가적인 연구가 필요하다.

Prefetching for Broadcasting Correlated Data (상호 연관 데이터(correlated data)의 브로드캐스트를 위한 prefetching)

  • 최정필;신성욱
    • Proceedings of the Korea Society for Simulation Conference
    • /
    • 2004.05a
    • /
    • pp.30-35
    • /
    • 2004
  • 모바일 환경에서 브로드캐스트는 그 확장성 때문에 매우 유용한 데이터 전송 방법이다. 'push-based' 데이터 전송 방식에서 서버는 넓은 대역폭을 통해 클라이언트에게 다양한 데이터를 반복적으로 브로드캐스트 한다. 〔1,2〕 브로드캐스트에 기반을 둔 정보 시스템의 데이터간의 연관성에 관한 연구는 미흡한 실정이다. 상호 연관 데이터의 브로드캐스트에서, 클라이언트는 자연스럽게 상호 연관된 데이터의 집합을 요청하게 되며, 데이터의 상호 연관성을 고려할 때 기존의 스케줄링 및 캐싱 기법 등은 달라져야 한다. CBS〔3〕에서는 모든 데이터간의 연관도를 계산하여 최소 비용 경로를 구해, 이 순서대로 브로드캐스트하는 기법을 제안하였다. CBS 기법은, 클라이언트가 연관된 데이터를 동시에 요청하지 않고, NP-문제인 최소 비용 경로를 많은 데이터에 대해서 실시간에 계산해야 되며, 데이터 아이템간의 상호 연관성이 클라이언트마다 다르게 정의되는 문제점이 있다. 따라서 본 논문에서는 응답 시간을 줄이기 위해, 브로드캐스트 되는 상호 연관 데이터의 prefetching기법을 제안한다, 제안된 CT 기법은 상호 연관도와 브로드캐스트 대기시간을 고려하여 캐시를 관리한다. CT를 현실적으로 적용한 ACT의 알고리즘을 소개하였으며, 시뮬레이션을 통해 CT의 성능과 특징을 실험하였다.

  • PDF

A Motion Correspondence Algorithm based on Point Series Similarity (점 계열 유사도에 기반한 모션 대응 알고리즘)

  • Eom, Ki-Yeol;Jung, Jae-Young;Kim, Moon-Hyun
    • Journal of KIISE:Software and Applications
    • /
    • v.37 no.4
    • /
    • pp.305-310
    • /
    • 2010
  • In this paper, we propose a heuristic algorithm for motion correspondence based on a point series similarity. A point series is a sequence of points which are sorted in the ascending order of their x-coordinate values. The proposed algorithm clusters the points of a previous frame based on their local adjacency. For each group, we construct several potential point series by permuting the points in it, each of which is compared to the point series of the following frame in order to match the set of points through their similarity based on a proximity constraint. The longest common subsequence between two point series is used as global information to resolve the local ambiguity. Experimental results show an accuracy of more than 90% on two image sequences from the PETS 2009 and the CAVIAR data sets.

On-line Scheduling Algorithms for Reducing the Largest Weighted Error Incurred by Imprecise Tasks (부정확 타스크의 최대가중치 오류를 최소화시키는 온라인 스케쥴링 알고리즘)

  • Lee, Chun-Hi;Ryu, Won;Song, Ki-Hyun;Choi, Kyung-Hee;Jung, Gy-Hyun;Park, Seung-Kyu
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.24 no.6B
    • /
    • pp.1032-1041
    • /
    • 1999
  • This paper proposes on-line scheduling algorithms that reduce the largest weighted error incurred by preemptive imprecise tasks running on a single processor system. The first one is a two-level algorithm. The top-level scheduling, which is executed whenever a new task arrives, determines the processing times to be allotted to tasks in such a way to minimize maximum weighted error as well as to minimize total error. The lower-level algorithm actually allocates the processor to the tasks. The second algorithm extends the on-line algorithm studied by Shih and Liu[4] by formalizing the top-level algorithm mathematically. The numerical simulation shows that the proposed algorithm outperforms the previous works in the sense that it greatly reduces the largest weighted error.

  • PDF

GORank: Semantic Similarity Search for Gene Products using Gene Ontology (GORank: Gene Ontology를 이용한 유전자 산물의 의미적 유사성 검색)

  • Kim, Ki-Sung;Yoo, Sang-Won;Kim, Hyoung-Joo
    • Journal of KIISE:Databases
    • /
    • v.33 no.7
    • /
    • pp.682-692
    • /
    • 2006
  • Searching for gene products which have similar biological functions are crucial for bioinformatics. Modern day biological databases provide the functional description of gene products using Gene Ontology(GO). In this paper, we propose a technique for semantic similarity search for gene products using the GO annotation information. For this purpose, an information-theoretic measure for semantic similarity between gene products is defined. And an algorithm for semantic similarity search using this measure is proposed. We adapt Fagin's Threshold Algorithm to process the semantic similarity query as follows. First, we redefine the threshold for our measure. This is because our similarity function is not monotonic. Then cluster-skipping and the access ordering of the inverted index lists are proposed to reduce the number of disk accesses. Experiments with real GO and annotation data show that GORank is efficient and scalable.

A Fast Full-Search Motion Estimation Algorithm using Adaptive Matching Scans based on Image Complexity (영상 복잡도와 다양한 매칭 스캔을 이용한 고속 전영역 움직임 예측 알고리즘)

  • Kim Jong-Nam
    • Journal of KIISE:Software and Applications
    • /
    • v.32 no.10
    • /
    • pp.949-955
    • /
    • 2005
  • In this Paper, we propose fast block matching algorithm by dividing complex areas based on complexity order of reference block and square sub-block to reduce an amount of computation of full starch(FS) algorithm for fast motion estimation, while keeping the same prediction quality compared with the full search algorithm. By using the fact that matching error is proportional to the gradient of reference block, we reduced unnecessary computations with square sub-block adaptive matching scan based image complexity instead of conventional sequential matching scan and row/column based matching scan. Our algorithm reduces about $30\%$ of computations for block matching error compared with the conventional partial distortion elimination(PDE) algorithm without any prediction quality, and our algorithm will be useful in real-time video coding applications using MPEG-4 AVC or MPEG-2.

Development of a Ranking System for Tourist Destination Using BERT-based Semantic Search (BERT 기반 의미론적 검색을 활용한 관광지 순위 시스템 개발)

  • KangWoo Lee;MyeongSeon Kim;Soon Goo Hong;SuGyeong Roh
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.29 no.4
    • /
    • pp.91-103
    • /
    • 2024
  • A tourist destination ranking system was designed that employs a semantic search to extract information with reasonable accuracy. To this end the process involves collecting data, preprocessing text reviews of tourist spots, and embedding the corpus and queries with SBERT. We calculate the similarity between data points, filter out those below a specified threshold, and then rank the remaining tourist destinations using a count-based algorithm to align them semantically with the query. To assess the efficacy of the ranking algorithm experiments were conducted with four queries. Furthermore, 58,175 sentences were directly labeled to ascertain their semantic relevance to the third query, 'crowdedness'. Notably, human-labeled data for crowdedness showed similar results. Despite challenges including optimizing thresholds and imbalanced data, this study shows that a semantic search is a powerful method for understanding user intent and recommending tourist destinations with less time and costs.