• 제목/요약/키워드: FAST software

검색결과 782건 처리시간 0.026초

계층적 군집화 기반 Re-ID를 활용한 객체별 행동 및 표정 검출용 영상 분석 시스템 (Video Analysis System for Action and Emotion Detection by Object with Hierarchical Clustering based Re-ID)

  • 이상현;양성훈;오승진;강진범
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.89-106
    • /
    • 2022
  • 최근 영상 데이터의 급증으로 이를 효과적으로 처리하기 위해 객체 탐지 및 추적, 행동 인식, 표정 인식, 재식별(Re-ID)과 같은 다양한 컴퓨터비전 기술에 대한 수요도 급증했다. 그러나 객체 탐지 및 추적 기술은 객체의 영상 촬영 장소 이탈과 재등장, 오클루전(Occlusion) 등과 같이 성능을 저하시키는 많은 어려움을 안고 있다. 이에 따라 객체 탐지 및 추적 모델을 근간으로 하는 행동 및 표정 인식 모델 또한 객체별 데이터 추출에 난항을 겪는다. 또한 다양한 모델을 활용한 딥러닝 아키텍처는 병목과 최적화 부족으로 성능 저하를 겪는다. 본 연구에서는 YOLOv5기반 DeepSORT 객체추적 모델, SlowFast 기반 행동 인식 모델, Torchreid 기반 재식별 모델, 그리고 AWS Rekognition의 표정 인식 모델을 활용한 영상 분석 시스템에 단일 연결 계층적 군집화(Single-linkage Hierarchical Clustering)를 활용한 재식별(Re-ID) 기법과 GPU의 메모리 스루풋(Throughput)을 극대화하는 처리 기법을 적용한 행동 및 표정 검출용 영상 분석 시스템을 제안한다. 본 연구에서 제안한 시스템은 간단한 메트릭을 사용하는 재식별 모델의 성능보다 높은 정확도와 실시간에 가까운 처리 성능을 가지며, 객체의 영상 촬영 장소 이탈과 재등장, 오클루전 등에 의한 추적 실패를 방지하고 영상 내 객체별 행동 및 표정 인식 결과를 동일 객체에 지속적으로 연동하여 영상을 효율적으로 분석할 수 있다.

텍스트 마이닝 기법을 활용한 인공지능 기술개발 동향 분석 연구: 깃허브 상의 오픈 소스 소프트웨어 프로젝트를 대상으로 (A Study on the Development Trend of Artificial Intelligence Using Text Mining Technique: Focused on Open Source Software Projects on Github)

  • 정지선;김동성;이홍주;김종우
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.1-19
    • /
    • 2019
  • 제4차 산업혁명을 이끄는 주요 원동력 중 하나인 인공지능 기술은 이미지와 음성 인식 등 여러 분야에서 사람과 유사하거나 더 뛰어난 능력을 보이며, 사회 전반에 미치게 될 다양한 영향력으로 인하여 높은 주목을 받고 있다. 특히, 인공지능 기술은 의료, 금융, 제조, 서비스, 교육 등 광범위한 분야에서 활용이 가능하기 때문에, 현재의 기술 동향을 파악하고 발전 방향을 분석하기 위한 노력들 또한 활발히 이루어지고 있다. 한편, 이러한 인공지능 기술의 급속한 발전 배경에는 학습, 추론, 인식 등의 복잡한 인공지능 알고리즘을 개발할 수 있는 주요 플랫폼들이 오픈 소스로 공개되면서, 이를 활용한 기술과 서비스들의 개발이 비약적으로 증가하고 있는 것이 주요 요인 중 하나로 확인된다. 또한, 주요 글로벌 기업들이 개발한 자연어 인식, 음성 인식, 이미지 인식 기능 등의 인공지능 소프트웨어들이 오픈 소스 소프트웨어(OSS: Open Sources Software)로 무료로 공개되면서 기술확산에 크게 기여하고 있다. 이에 따라, 본 연구에서는 온라인상에서 다수의 협업을 통하여 개발이 이루어지고 있는 인공지능과 관련된 주요 오픈 소스 소프트웨어 프로젝트들을 분석하여, 인공지능 기술 개발 현황에 대한 보다 실질적인 동향을 파악하고자 한다. 이를 위하여 깃허브(Github) 상에서 2000년부터 2018년 7월까지 생성된 인공지능과 관련된 주요 프로젝트들의 목록을 검색 및 수집하였으며, 수집 된 프로젝트들의 특징과 기술 분야를 의미하는 토픽 정보들을 대상으로 텍스트 마이닝 기법을 적용하여 주요 기술들의 개발 동향을 연도별로 상세하게 확인하였다. 분석 결과, 인공지능과 관련된 오픈 소스 소프트웨어들은 2016년을 기준으로 급격하게 증가하는 추세이며, 토픽들의 관계 분석을 통하여 주요 기술 동향이 '알고리즘', '프로그래밍 언어', '응용분야', '개발 도구'의 범주로 구분하는 것이 가능함을 확인하였다. 이러한 분석 결과를 바탕으로, 향후 다양한 분야에서의 활용을 위해 개발되고 있는 인공지능 관련 기술들을 보다 상세하게 구분하여 확인하는 것이 가능할 것이며, 효과적인 발전 방향 모색과 변화 추이 분석에 활용이 가능할 것이다.

Hardware Approach to Fuzzy Inference―ASIC and RISC―

  • Watanabe, Hiroyuki
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.975-976
    • /
    • 1993
  • This talk presents the overview of the author's research and development activities on fuzzy inference hardware. We involved it with two distinct approaches. The first approach is to use application specific integrated circuits (ASIC) technology. The fuzzy inference method is directly implemented in silicon. The second approach, which is in its preliminary stage, is to use more conventional microprocessor architecture. Here, we use a quantitative technique used by designer of reduced instruction set computer (RISC) to modify an architecture of a microprocessor. In the ASIC approach, we implemented the most widely used fuzzy inference mechanism directly on silicon. The mechanism is beaded on a max-min compositional rule of inference, and Mandami's method of fuzzy implication. The two VLSI fuzzy inference chips are designed, fabricated, and fully tested. Both used a full-custom CMOS technology. The second and more claborate chip was designed at the University of North Carolina(U C) in cooperation with MCNC. Both VLSI chips had muliple datapaths for rule digital fuzzy inference chips had multiple datapaths for rule evaluation, and they executed multiple fuzzy if-then rules in parallel. The AT & T chip is the first digital fuzzy inference chip in the world. It ran with a 20 MHz clock cycle and achieved an approximately 80.000 Fuzzy Logical inferences Per Second (FLIPS). It stored and executed 16 fuzzy if-then rules. Since it was designed as a proof of concept prototype chip, it had minimal amount of peripheral logic for system integration. UNC/MCNC chip consists of 688,131 transistors of which 476,160 are used for RAM memory. It ran with a 10 MHz clock cycle. The chip has a 3-staged pipeline and initiates a computation of new inference every 64 cycle. This chip achieved an approximately 160,000 FLIPS. The new architecture have the following important improvements from the AT & T chip: Programmable rule set memory (RAM). On-chip fuzzification operation by a table lookup method. On-chip defuzzification operation by a centroid method. Reconfigurable architecture for processing two rule formats. RAM/datapath redundancy for higher yield It can store and execute 51 if-then rule of the following format: IF A and B and C and D Then Do E, and Then Do F. With this format, the chip takes four inputs and produces two outputs. By software reconfiguration, it can store and execute 102 if-then rules of the following simpler format using the same datapath: IF A and B Then Do E. With this format the chip takes two inputs and produces one outputs. We have built two VME-bus board systems based on this chip for Oak Ridge National Laboratory (ORNL). The board is now installed in a robot at ORNL. Researchers uses this board for experiment in autonomous robot navigation. The Fuzzy Logic system board places the Fuzzy chip into a VMEbus environment. High level C language functions hide the operational details of the board from the applications programme . The programmer treats rule memories and fuzzification function memories as local structures passed as parameters to the C functions. ASIC fuzzy inference hardware is extremely fast, but they are limited in generality. Many aspects of the design are limited or fixed. We have proposed to designing a are limited or fixed. We have proposed to designing a fuzzy information processor as an application specific processor using a quantitative approach. The quantitative approach was developed by RISC designers. In effect, we are interested in evaluating the effectiveness of a specialized RISC processor for fuzzy information processing. As the first step, we measured the possible speed-up of a fuzzy inference program based on if-then rules by an introduction of specialized instructions, i.e., min and max instructions. The minimum and maximum operations are heavily used in fuzzy logic applications as fuzzy intersection and union. We performed measurements using a MIPS R3000 as a base micropro essor. The initial result is encouraging. We can achieve as high as a 2.5 increase in inference speed if the R3000 had min and max instructions. Also, they are useful for speeding up other fuzzy operations such as bounded product and bounded sum. The embedded processor's main task is to control some device or process. It usually runs a single or a embedded processer to create an embedded processor for fuzzy control is very effective. Table I shows the measured speed of the inference by a MIPS R3000 microprocessor, a fictitious MIPS R3000 microprocessor with min and max instructions, and a UNC/MCNC ASIC fuzzy inference chip. The software that used on microprocessors is a simulator of the ASIC chip. The first row is the computation time in seconds of 6000 inferences using 51 rules where each fuzzy set is represented by an array of 64 elements. The second row is the time required to perform a single inference. The last row is the fuzzy logical inferences per second (FLIPS) measured for ach device. There is a large gap in run time between the ASIC and software approaches even if we resort to a specialized fuzzy microprocessor. As for design time and cost, these two approaches represent two extremes. An ASIC approach is extremely expensive. It is, therefore, an important research topic to design a specialized computing architecture for fuzzy applications that falls between these two extremes both in run time and design time/cost. TABLEI INFERENCE TIME BY 51 RULES {{{{Time }}{{MIPS R3000 }}{{ASIC }}{{Regular }}{{With min/mix }}{{6000 inference 1 inference FLIPS }}{{125s 20.8ms 48 }}{{49s 8.2ms 122 }}{{0.0038s 6.4㎲ 156,250 }} }}

  • PDF

과학기술정보 서비스 지원을 위한 지식 공유 플랫폼 - 데이터, 기술 S/W 및 활용 사례를 중심으로 (A Study on Knowledge Open Platform for Science and Technology Information Service: With a Focus on Data, Technology Software and Utilization-Case)

  • 김광영;이석형;이혜진;박정훈;설재욱;김진영;오흥선;윤정선;정서영
    • 디지털콘텐츠학회 논문지
    • /
    • 제18권6호
    • /
    • pp.1183-1191
    • /
    • 2017
  • 과학기술정보 서비스를 효율적으로 지원하기 위해서는 동일한 콘텐츠와 기술을 상호 공유할 수 있는 과학기술정보만의 플랫폼이 필요하다. 따라서 본 논문에서 다양한 콘텐츠 및 기술을 공통의 활용 요소로 사용할 수 있는 플랫폼을 설계함으로써 신속하고 효율적인 서비스를 지원하고자 한다. 더불어 과학기술 데이터와 기술들을 용도에 따라 활용할 수 있는 플랫폼 환경 체제에서의 다양한 API 활용 사례를 제시하였다. 이를 통해 각종 콘텐츠와 기술들은 플랫폼 상에서 API Gateway를 통해 상호작용하고 식별된 연구자, 기관, 용어 데이터를 중심으로 과학기술콘텐츠를 융합할 수 있을 것이다.

홍채 인식을 위한 고속 홍채 영역 추출 방법 (A Fast Iris Region Finding Algorithm for Iris Recognition)

  • 송선아;김백섭;송성호
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제30권9호
    • /
    • pp.876-884
    • /
    • 2003
  • 홍채 인식을 위해서는 먼저 홍채 영역을 추출해야 하는데 이를 위해서는 홍채의 안쪽 경계인 동공 경계와 바깥쪽 경계인 홍채 경계를 검출해야 한다. 경계를 검출하는데는 Daugman이 제안한 원형경계 검출기가 가장 일반적이고 효과적인 방법으로 알려져 있다. 이 방법은 전역적인 탐색에 의존하기 때문에 정확하지만 계산 시간이 많이 걸리는 단점이 있다. 계산 시간을 줄이기 위해 경험적 방법들이 사용되기도 하지만 정확성이 떨어지는 문제점이 있었다. 본 논문에서는 정확성을 떨어뜨리지 않으면서 계산 속도를 줄이는 홍채 영역 추출 알고리즘을 제안한다. 제안된 방법은 동공 경계와 홍채 경계가 가지는 문제에 대한 지식(problem knowledge)을 사용하여 제한조건을 부가하여 탐색한다. 경계 검출을 위한 탐색 영역은 동공을 포함하는 최대 원과 최소 원을 이용하여 제한하여 탐색 시간을 줄인다 동공 경계의 경우 이진화된 동공 영상에서 최대 원과 최소 원을 구하고, 홍채 경계의 경우 영상의 분산을 이용하여 얻은 경계점으로부터 최대 원과 최소 원을 구한다. 제안된 방법을 Daugman방법, 히스토그램 분석법, 가중치를 이용한 허프변환 방법 둥과 실험을 통해 비교하였다. 그 결과 제안된 방법은 Daugman방법과 동일한 정확도를 보이며, Daugman방법이나 가중치를 이용한 허프변환 방법보다 빠르다는 것을 알 수 있었다.

다목적 유전 알고리즘을 이용한 실시간 태스크의 정적 스케줄링 기법 (A Multiobjective Genetic Algorithm for Static Scheduling of Real-time Tasks)

  • 오재원;김희천;우치수
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권3호
    • /
    • pp.293-307
    • /
    • 2004
  • 본 본문에서는 다중 처리기 시스템에서 실시간 태스크를 정적으로 스케줄링하기 위한 새로운 기법을 제안한다. 태스크는 실행 시간과 마감시간을 지니고, 태스크 사이에는 선행 관계가 존재하며 이러한 사항을 태스크 그래프로 표현한다. 본 논문에서는 스케줄링을 위해 사용하는 처리기의 개수를 줄이면서 태스크들의 마감시간 지연의 총합을 최소화하는 스케줄을 생성하는 것에 목적을 둔다. 이 문제는 같은 단위로 측정할 수 없고 또한 서로 상충하는 두 가지 목적을 지닌 것이다. 그렇지만 기존 방법들은 마감시간 지연의 총합만을 최소화하려하거나 두 가지 목적을 하나의 기준으로 결합시킨 후 최적화하고자 한다. 본 논문에서는 두 개의 목적을 독립적으로 고려하며 최적화를 위하여 다목적 유전 알고리즘을 사용한다 태스크 스케줄링 문제에 적합한 문제 표현 전략, 우세 개념에 기초한 선택 연산, 그리고 교차 연산을 제시한다. 그리고 지역 개선 작업을 위해 세 개의 휴리스틱을 제안하였으며 이 것을 통해 유전 알고리즘의 수렴성을 높이고자 하였다. 성능 평가를 위해 기존에 알려진 유전 알고리즘과 4 개의 리스트 스케줄링 알고리즘과 비교한다. 평가 결과를 보면 제안한 기법이 180 개의 임의로 생성한 태스크 그래프 중에서 178 개에 대해 기존 5 개의 알고리즘과 유사하거나 더 나은 스케줄을 생성하였다.

은닉 마르코프 모델을 이용한 MPEG 압축 비디오에서의 점진적 변환의 검출 (Detection of Gradual Transitions in MPEG Compressed Video using Hidden Markov Model)

  • Choi, Sung-Min;Kim, Dai-Jin;Bang, Sung-Yang
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권3호
    • /
    • pp.379-386
    • /
    • 2004
  • 비디오 요약의 첫 걸음은 샷(shot) 변환의 검출이다. 이러한 샷 변환은 점진적인 변환과 급진적인 변환이 있다. 지금까지 급진적인 샷 변환은 이미 주어진 한계치나 연속된 두 프레임의 이미지에 기반을 둔 거리를 이용하여 검출하였고 점진적 변환 또한 일반적으로 한계치를 이용하여 검출하였다. 그러나 한계치에 따라 그 결과가 확연히 달라지고 또한 그 한계치를 정하는 것도 어려운 문제이다. 이 논문에서는 이런 문제의 해결과 MPEG 압축 비디오 상에서 점진적 변화의 검출뿐만 아니라 분류를 해결하는 방법을 제시하였다. 논문에서는 한계치를 사용하지 않은 은닉 마르코프 모델과 MPEG의 근사 DC 값을 이용하여 보다 빠르고 정확한 결과를 얻도록 하였다. 그리고 히스토그램의 차이뿐만 아니라 매크로 블록 (macro block)의 차이라 불리는 새로운 척도를 도입하여 보다 정확한 값을 얻도록 하였다. 은닉 마르코프 모델은 샷, 페이드(fade), 디졸브(dissolve), 컷(cut) 등의 4개의 상태를 갖게 하고 학습은 Baum-Welch 알고리즘으로 필요한 변수들을 추정하였다. 그리고 특정 벡터에 Viterbi 알고리즘을 적용하여 원하는 상태를 얻을 수 있다. 대부분의 실험 결과를 보면 새로 제안한 척도를 사용한 방법이 히스토그램의 차만을 이용한 방법보다 더 좋은 결과를 나타내었으며 이산적 마르코프 모델보다 연속적 마르코프 모델이 좋은 결과를 보여준다.

Authentication and classification of strawberry varieties by analysis of their leaves using near infrared spectroscopy.

  • Lopez, Mercedes G.
    • 한국근적외분광분석학회:학술대회논문집
    • /
    • 한국근적외분광분석학회 2001년도 NIR-2001
    • /
    • pp.1617-1617
    • /
    • 2001
  • It is well known now that near infrared spectroscopy (NIRS) is a fast, no destructive, and inexpensive analytical technique that could be used to classify, identify, and authenticate a wide range of foods and food items. Therefore, the main aims of this study were to provide a new insight into the authentication of five strawberry (Fragaria x ananassa) varieties and to correlate them with geographical zones and the propagating methods used. Three weeks plants of five different strawberry varieties (F. x ananassa Duch. cv Camarosa, Seascape, Chandler, F. Chiloensis, and F. Virginiana) were cultivated in vitro first and then transferred to pots with special soil, and grown in a greenhouse at CINVESTAV, all varieties were acquired from California (USA). After 18 months, ten leaves from each variety were collected. Transmission spectra from each leave were recorded over a range of 10, 000-4, 000 cm$-^{1}$, 32 scans of each strawberry leave were collected using a resolution of 4 cm$-^{1}$ with a Paragon IdentiCheck FT-NIR System Spectrometer. Triplicates of each strawberry leave were used. All spectra were analyzed using principal component analysis (PCA) and soft independent modeling class analogy (SIMCA). The optimum number of components to be used in the regression was automatically determined by the software. Camarosa was the only variety grown from the same shoot but propagated by a different method (direct or in vitro). Five different classes (varieties) or clusters were observed among samples, however, larger inter class distances were presented by the two wildtype samples (F. Chiloensis and F. Virginiana). Camarosa direct and Camarosa in vitro displayed a small overlapping region between them. On the other hand, Seascape variety presented the smallest rejection percentage among all varieties (more similarities with the rest of the samples). Therefore, it can be concluded that the application of NIRS technique allowed the authentication of all strawberry varieties and geographical origin as well. It was also possible to form subclasses of the same materials. The results presented here demonstrate that NIRS is a very powerful and promising analytical tool since all materials were authenticated and classified based on their variety, origin, and treatment. This is of a tremendous relevance since the variety and origin of a plant material can be established even before it gives its typical fruit or flower.

  • PDF

Near Infrared Spectroscopy for Measuring Purine Derivatives in Urine and Estimation of Microbial Protein Synthesis in the Rumen for Sheep

  • Atanassova, Stefka;Iancheva, Nana;Tsenkova, Roumiana
    • 한국근적외분광분석학회:학술대회논문집
    • /
    • 한국근적외분광분석학회 2001년도 NIR-2001
    • /
    • pp.1273-1273
    • /
    • 2001
  • The efficiency of the luminal fermentation process influences overall efficiency of luminal production, animal health and reproduction. Ruminant production systems have a significant impact on the global environment, as well. Animal wastes contribute to pollution of the environment as ammonia volatilized to the air and nitrate leached to ground water. Microbial protein synthesis in the rumen satisfies a large proportion of the protein requirements of animals. Quantifying the microbial synthesis is possible by using markers for lumen bacteria and protozoa such as nucleic acids, purine bases, some specific amino acids, or by isotopic $^{15}N,^{32}P,\;and\;^{35}S$ labelled feeds. All those methods require cannulated animals, they are time-consuming and some methods are very expensive as well. Many attempts have been made to find an alternative method for indirect measurement of microbial synthesis in intact animals. The present investigations aimed to assess possibilities of NIRS for prediction of purine nitrogen excretion and ruminal microbial nitrogen synthesis by NIR spectra of urine. Urine samples were collected from 12 growing sheep,6 of them male, and 6- female. The sheep were included in feeding experiment. The ration consisted of sorghum silage and protein supplements -70:30 on dry matter basis. The protein supplements were chosen to differ in protein degradability. The urine samples were collected daily in a vessel containing $60m{\ell}$ 10% sulphuric acid to reduce pH below 3 and diluted with tap water to 4 liters. Samples were stored in plastic bottles and frozen at $-20^{\circ}C$ until chemical and NIRS analysis. The urine samples were analyzed for purine derivates - allantoin, uric acid, xantine and hypoxantine content. Microbial nitrogen synthesis in the lumen was calculated according to Chen and Gomes, 1995. Transmittance urine spectra with sample thickness 1mm were obtained by NIR System 6500 spectrophotometer in the spectral range 1100-2500nm. The calibration was performed using ISI software and PLS regression, respectively. The following statistical results of NIRS calibration for prediction of purine derivatives and microbial protein synthesis were obtained.(Table Omitted). The result of estimation of purine nitrogen excretion and microbial protein synthesis by NIR spectra of urine showed accuracy, adequate for rapid evaluation of microbial protein synthesis for a large number of animals and different diets. The results indicate that the advantages of the NIRS technology can be extended into animal physiological studies. The fast and low cost NIRS analyses could be used with no significant loss of accuracy when microbial protein synthesis in the lumen and the microbial protein flow in the duodenum are to be assessed by NIRS.

  • PDF

제한된 한글 입력환경을 위한 음소기반 근사 문자열 검색 시스템 (A Phoneme-based Approximate String Searching System for Restricted Korean Character Input Environments)

  • 윤태진;조환규;정우근
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제37권10호
    • /
    • pp.788-801
    • /
    • 2010
  • 모바일 기기가 발전함에 따라 입력 수단에 대한 연구는 중요한 이슈이다 키패드, 쿼티키패드, 터치, 음성인식 등 다양한 입력장치가 사용되고 있으나 아직 데스크톱 입력장치에 비해 편의성이 떨어져서 입력 시의 오타나 탈자 등의 오류가 포함되는 경우가 많다. 이러한 입력 오류는 문자 메시지 등 사람과의 의사소통에는 문제를 일으키지 않으나 사전, 주소록 등의 데이터베이스 검색에는 치명적인 오류로서 원하는 검색 결과를 얻지 못하게 된다. 특히 한글의 경우 자음과 모음의 조합을 통해 글자를 생성하는 특성상 1만자가 넘는 글자의 조합이 가능하여 영문에 비하여 오류의 빈도가 높다. 기존의 검색 시스템은 Suffix Tree등을 이용하여 입력 오류를 처리하지만 다양한 오류에 대응하기에는 한계가 있다. 본 논문에서는 오자, 탈자 등의 입력 오류를 허용하면서 빠른 검색이 가능한 근사 한글 단어 검색 시스템을 제안하고자 한다. 이 시스템은 기존의 알파벳에 적용된 근사 문자열 검색(Approximate String Searching)을 한글에 효과적으로 적용할 수 있는 여러 가지 알고리즘과 기법이 포함되어 있다. 그리고 제안된 시스템을 이용한 변형 욕설 필터링 시스템의 개발에 대해 이야기하고자 한다. 이 시스템은 유저의 각종 변형 욕설 입력에 대해 90% 이상의 필터링 성능을 보였다.