• 제목/요약/키워드: Information Processing Technology

검색결과 7,830건 처리시간 0.04초

테이핑 또는 시각적 피드백을 병행한 드로우-인 교각운동이 복부 근활성도에 미치는 영향 (Effects of Draw-In Bridge Exercise with Taping or Visual Feedback on Abdominal Muscle Activity)

  • 배원식;이화경
    • 대한통합의학회지
    • /
    • 제12권2호
    • /
    • pp.177-186
    • /
    • 2024
  • Purpose : The purpose of this study was to use oral instruction and taping to induce abdominal draw-in in the previous study, but there is a lack of research on the comparison of effects. Therefore, in this study, we would like to study how the effect of oral instruction, taping, and no feedback can affect muscle activity when performing abdominal draw-in pier exercises. Methods : Before the experiment, group A trained piers and applied only draw-in piers, group B applied taping feedback, and group C were divided into three groups per week for six weeks, and three sets of contractions for five seconds per group were performed five times, and a minute break was provided between each exercise. As a measurement tool, a wireless surface electromyography (EMG) was used to measure surface electromyography (Telemyo-DTS, NORAXON, USA) that derives a synthetic unit of muscle using a surface electrode. For statistical processing of data, the analysis is performed using the SPSS/PC Version 25.0 statistical program for Windows, and the statistical significance level is a=.05 Results : First, the duration was somewhat shorter in order to more accurately compare the muscle activity of the core muscles. Therefore, future research needs to be research that can be exercises with precise biofeedback and taping applied over a longer period of time. Secondly, it is believed that there is no significant difference, since the subjects were studied in healthy young adult men and women, not patients. Thirdly, they could not control the daily life of the subjects. Through future research, it is necessary to analyze the correlation between muscle activity and abdominal muscle thickness by adding ultrasound in addition to muscle activity in various age groups. Conclusion : During draw-in bridge exercise according to feedback, the muscle activity of the back muscle increased, and there was no significant difference in the muscle activity of the back muscle according to each feedback. Therefore, both the feedback applied during the draw-in pier exercise and the control group are effective in changing the thickness of the abdominal muscles.

Conditional Generative Adversarial Network(CGAN) 기반 협업 필터링 추천 시스템 (Conditional Generative Adversarial Network based Collaborative Filtering Recommendation System)

  • 강소이;신경식
    • 지능정보연구
    • /
    • 제27권3호
    • /
    • pp.157-173
    • /
    • 2021
  • 소비자의 욕구와 관심에 맞추어 개인화된 제품을 추천하는 추천 시스템은 비즈니스에 필수적인 기술로서의 그 중요성이 증가하고 있다. 추천 시스템의 대표적인 모형 중 협업 필터링은 우수한 성능으로 다양한 분야에서 활용되고 있다. 그러나 협업필터링은 사용자-아이템의 선호도 정보가 충분하지 않을 경우 성능이 저하되는 희소성의 문제가 있다. 또한 실제 평점 데이터의 경우 대부분 높은 점수에 데이터가 편향되어 있어 심한 불균형을 갖는다. 불균형 데이터에 협업 필터링을 적용할 경우 편향된 클래스에 과도하게 학습되어 추천 성능이 저하된다. 이러한 문제를 해결하기 위해 많은 선행연구들이 진행되어 왔지만 추가적인 외부 데이터 또는 기존의 전통적인 오버샘플링 기법에 의존한 추천을 시도하였기에 유용성이 떨어지고 추천 성능 측면에서 한계점이 있었다. 본 연구에서는 CGAN을 기반으로 협업 필터링 구현 시 발생하는 희소성 문제를 해결함과 동시에 실제 데이터에서 발생하는 데이터 불균형을 완화하여 추천의 성능을 높이는 것을 목표로 한다. CGAN을 이용하여 비어있는 사용자-아이템 매트릭스에 실제와 흡사한 가상의 데이터를 생성하여, 희소성을 가지고 있는 기존의 매트릭스로만 학습한 것과 비교했을 때 높은 정확도가 예상된다. 이 과정에서 Condition vector y를 이용하여 소수 클래스에 대한 분포를 파악하고 그 특징을 반영하여 데이터를 생성하였다. 이후 협업 필터링을 적용하고, 하이퍼파라미터 튜닝을 통해 추천 시스템의 성능을 최대화하는데 기여하였다. 비교 대상으로는 전통적인 오버샘플링 기법인 SMOTE, BorderlineSMOTE, SVM-SMOTE, ADASYN와 GAN을 사용하였다. 결과적으로 데이터 희소성을 가지고 있는 기존의 실제 데이터뿐만 아니라 기존 오버샘플링 기법들보다 제안 모형의 추천 성능이 우수함을 확인하였으며, RMSE, MAE 평가 척도에서 가장 높은 예측 정확도를 나타낸다는 사실을 증명하였다.

KOMPSAT-3/3A 기준영상의 기하품질에 따른 상호좌표등록 결과 분석 (Analysis of Co-registration Performance According to Geometric Processing Level of KOMPSAT-3/3A Reference Image)

  • 윤예린;김태헌;오재홍;한유경
    • 대한원격탐사학회지
    • /
    • 제37권2호
    • /
    • pp.221-232
    • /
    • 2021
  • 본 연구는 KOMPSAT-3 및 KOMPSAT-3A호에서 전처리 단계에 따라 구분하여 제공하는 Level 1R 영상과 Level 1G 영상을 이용하여 기준영상의 기하품질에 따른 상호좌표등록 결과 분석을 수행하였다. 기준영상으로 Level 1R 영상 및 1G 영상 각각을 사용하고 대상영상은 Level 1R 영상을 사용하여 상호좌표등록을 수행하였다. 실험을 위해 대전지역에서 촬영된 KOMPSAT-3 및 3A호의 Level 1R, 1G 영상 총 7장을 이용하였다. 상호좌표등록을 수행하기 위해, 우선적으로 특징기반 정합기법인 SURF (Speeded-Up Robust Feature) 기법과 영역기반 정합기법인 위상상관 (Phase Correlation) 기법을 함께 이용한 반복적 정합기법을 통해 두 영상의 기하학적 위치를 개략적으로 일치시켜 주었다. 개략적으로 일치된 영상에서 SURF 기법을 이용하여 정합쌍을 추출하고 Affine 변환모델과 Piecewise Linear 변환모델을 각각 구성하여 상호좌표등록을 수행하였다. 실험결과, 기하오차가 보정된 Level 1G 영상을 기준영상으로 선정하였을 경우, Level 1R 영상을 이용하였을 때보다 상대적으로 많은 수의 정합쌍을 추출하였다. 또한, 기준영상이 Level 1G 영상일 때의 상호좌표등록 RMSE (Root Mean Square Error) 값이 평균 5화소 미만으로 Level 1R 영상을 이용하였을 때보다 더 낮은 것을 확인하였다. 이는 상호좌표등록 수행 시 두 위성영상 간의 초기위치관계가 상호좌표등록 결과에 영향을 끼칠 수 있음을 의미하며, 기준영상의 기하품질이 우수할수록 안정적인 상호좌표등록 정확도를 나타내는 것을 확인하였다.

Hardware Approach to Fuzzy Inference―ASIC and RISC―

  • Watanabe, Hiroyuki
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.975-976
    • /
    • 1993
  • This talk presents the overview of the author's research and development activities on fuzzy inference hardware. We involved it with two distinct approaches. The first approach is to use application specific integrated circuits (ASIC) technology. The fuzzy inference method is directly implemented in silicon. The second approach, which is in its preliminary stage, is to use more conventional microprocessor architecture. Here, we use a quantitative technique used by designer of reduced instruction set computer (RISC) to modify an architecture of a microprocessor. In the ASIC approach, we implemented the most widely used fuzzy inference mechanism directly on silicon. The mechanism is beaded on a max-min compositional rule of inference, and Mandami's method of fuzzy implication. The two VLSI fuzzy inference chips are designed, fabricated, and fully tested. Both used a full-custom CMOS technology. The second and more claborate chip was designed at the University of North Carolina(U C) in cooperation with MCNC. Both VLSI chips had muliple datapaths for rule digital fuzzy inference chips had multiple datapaths for rule evaluation, and they executed multiple fuzzy if-then rules in parallel. The AT & T chip is the first digital fuzzy inference chip in the world. It ran with a 20 MHz clock cycle and achieved an approximately 80.000 Fuzzy Logical inferences Per Second (FLIPS). It stored and executed 16 fuzzy if-then rules. Since it was designed as a proof of concept prototype chip, it had minimal amount of peripheral logic for system integration. UNC/MCNC chip consists of 688,131 transistors of which 476,160 are used for RAM memory. It ran with a 10 MHz clock cycle. The chip has a 3-staged pipeline and initiates a computation of new inference every 64 cycle. This chip achieved an approximately 160,000 FLIPS. The new architecture have the following important improvements from the AT & T chip: Programmable rule set memory (RAM). On-chip fuzzification operation by a table lookup method. On-chip defuzzification operation by a centroid method. Reconfigurable architecture for processing two rule formats. RAM/datapath redundancy for higher yield It can store and execute 51 if-then rule of the following format: IF A and B and C and D Then Do E, and Then Do F. With this format, the chip takes four inputs and produces two outputs. By software reconfiguration, it can store and execute 102 if-then rules of the following simpler format using the same datapath: IF A and B Then Do E. With this format the chip takes two inputs and produces one outputs. We have built two VME-bus board systems based on this chip for Oak Ridge National Laboratory (ORNL). The board is now installed in a robot at ORNL. Researchers uses this board for experiment in autonomous robot navigation. The Fuzzy Logic system board places the Fuzzy chip into a VMEbus environment. High level C language functions hide the operational details of the board from the applications programme . The programmer treats rule memories and fuzzification function memories as local structures passed as parameters to the C functions. ASIC fuzzy inference hardware is extremely fast, but they are limited in generality. Many aspects of the design are limited or fixed. We have proposed to designing a are limited or fixed. We have proposed to designing a fuzzy information processor as an application specific processor using a quantitative approach. The quantitative approach was developed by RISC designers. In effect, we are interested in evaluating the effectiveness of a specialized RISC processor for fuzzy information processing. As the first step, we measured the possible speed-up of a fuzzy inference program based on if-then rules by an introduction of specialized instructions, i.e., min and max instructions. The minimum and maximum operations are heavily used in fuzzy logic applications as fuzzy intersection and union. We performed measurements using a MIPS R3000 as a base micropro essor. The initial result is encouraging. We can achieve as high as a 2.5 increase in inference speed if the R3000 had min and max instructions. Also, they are useful for speeding up other fuzzy operations such as bounded product and bounded sum. The embedded processor's main task is to control some device or process. It usually runs a single or a embedded processer to create an embedded processor for fuzzy control is very effective. Table I shows the measured speed of the inference by a MIPS R3000 microprocessor, a fictitious MIPS R3000 microprocessor with min and max instructions, and a UNC/MCNC ASIC fuzzy inference chip. The software that used on microprocessors is a simulator of the ASIC chip. The first row is the computation time in seconds of 6000 inferences using 51 rules where each fuzzy set is represented by an array of 64 elements. The second row is the time required to perform a single inference. The last row is the fuzzy logical inferences per second (FLIPS) measured for ach device. There is a large gap in run time between the ASIC and software approaches even if we resort to a specialized fuzzy microprocessor. As for design time and cost, these two approaches represent two extremes. An ASIC approach is extremely expensive. It is, therefore, an important research topic to design a specialized computing architecture for fuzzy applications that falls between these two extremes both in run time and design time/cost. TABLEI INFERENCE TIME BY 51 RULES {{{{Time }}{{MIPS R3000 }}{{ASIC }}{{Regular }}{{With min/mix }}{{6000 inference 1 inference FLIPS }}{{125s 20.8ms 48 }}{{49s 8.2ms 122 }}{{0.0038s 6.4㎲ 156,250 }} }}

  • PDF

분산 객체 컴퓨팅 환경에서 실시간 협약 및 적응 스트림 서비스를 위한 QoS 통합 플랫폼의 구축 (The Construction of QoS Integration Platform for Real-time Negotiation and Adaptation Stream Service in Distributed Object Computing Environments)

  • 전병택;김명희;주수종
    • 한국정보처리학회논문지
    • /
    • 제7권11S호
    • /
    • pp.3651-3667
    • /
    • 2000
  • 최근 인터넷 기반의 분산 멀티미디어 환경에서 가장 성장하는 기술로는 스트림 서비스 기술과 분산 객체 기술을 꼽을 수 있다. 특히, 분산 객체 기술에 스트림 서비스 기술을 통합하려는 연구들이 진행되고 있다. 이 기술들은 다양한 스트림 서비스 관리 모델과 프로토콜의 연구에서 적용되고 있다. 그러나, 기존에 제시된 관리 모델들은 스트림 전송의 서비스 질(QoS)에 대한 지원이 미흡하다. 또한, 서비스 질에 관련된 기능들이 특정 응용 서비스의 부속 모듈로 개발됨에 따라, 확장이나 재사용을 지원할 수 없는 문제점을 나타내고 있다. 이를 해결하기 위해 본 논문에서는 분산 객체 기술을 적용하여 확장 및 재사용이 용이하고 스티림의 서비스의 질을 보장하는 QoS 통합 플랫폼을 제안했다. 제안된 플랫폼의 구조는 사용자 제어 모듈, QoS 관리 모듈 및 스트림 객체의 세가지 컴포넌트로 구성된다. 스트림 객체는 TCP/IP 상에서 RTP 패킷을 송·수신 기능을 한다. 사용자 제어 모듈은 CORBA 객체를 이용하여 스트림 객체들을 제어한다. QoS 관리 모듈은 사용자 제어 모듈간에 서비스 질을 유지하는 관리 기능을 한다. QoS xd합 플랫폼의 구축을 위해 관련 모듈들을 독립적으로 구현하고, 이들이 CORBA 환경에서 플랫폼 독립성, 상호운용성, 이식성을 갖도록 그들간에 인터페이스들을 IDL로 정의하였다. 제안된 플랫폼의 구현을 위해 Solaris 2.5/2.7에 호환되는 OrbixWeb 3.1c, 자바언어와 Java Media Framework API 2.0, Mini-SQL1.0.16 및 관련 이미지 캡쳐보드 및 영상카메라를 사용하였다. 본 플랫폼의 기능검증을 위한 결과로서, 플랫폼 상에서 스트림 서비스가 진행되는 동안, 클라이언트와 서버의 GUI를 통해 위에서 기술한 모듈들의 수행결과와 QoS 제어 과정으로부터 얻어지는 수치적 데이터를 보였다.

  • PDF

인공지능 기술 기반 인슈어테크와 디지털보험플랫폼 성공사례 분석: 중국 평안보험그룹을 중심으로 (Analysis of Success Cases of InsurTech and Digital Insurance Platform Based on Artificial Intelligence Technologies: Focused on Ping An Insurance Group Ltd. in China)

  • 이재원;오상진
    • 지능정보연구
    • /
    • 제26권3호
    • /
    • pp.71-90
    • /
    • 2020
  • 최근 전 세계 보험업계에도 기계학습, 자연어 처리, 딥러닝 등의 인공지능 기술 활용을 통한 디지털 전환이 급속도로 확산하고 있다. 이에 따라 인공지능 기술을 기반으로 한 인슈어테크와 플랫폼 비즈니스 성공을 이룬 해외 보험사들도 증가하고 있다. 대표적으로 중국 최대 민영기업인 평안보험그룹은 '금융과 기술', '금융과 생태계'를 기업의 핵심 키워드로 내세우며 끊임없는 혁신에 도전한 결과, 인슈어테크와 디지털플랫폼 분야에서 괄목할만한 성과를 보이며 중국의 글로벌 4차 산업혁명을 선도하고 있다. 이에 본 연구는 평안보험그룹 인슈어테크와 플랫폼 비즈니스 활동을 ser-M 분석 모델을 통해 분석하여 국내 보험사들의 인공지능 기술기반 비즈니스 활성화를 위한 전략적 시사점을 제공하고자 했다. ser-M 분석 모델은 기업의 경영전략을 주체, 환경, 자원, 메커니즘 관점에서 통합적으로 해석이 가능한 프레임으로, 최고경영자의 비전과 리더십, 기업의 역사적 환경, 다양한 자원 활용, 독특한 메커니즘 관계가 통합적으로 해석되도록 연구하였다. 사례분석 결과, 평안보험은 안면·음성·표정 인식 등 핵심 인공지능 기술을 활용하여 세일즈, 보험인수, 보험금 청구, 대출 서비스 등 업무 전 영역을 디지털로 혁신함으로써 경비 절감과 고객서비스 발전을 이루었다. 또한 '중국 내 온라인 데이터'와 '회사가 축적한 방대한 오프라인 데이터 및 통찰력'을 인공지능, 빅데이터 분석 등 신기술과 결합하여 금융 서비스와 디지털 서비스 사업이 통합된 디지털 플랫폼을 구축하였다. 이러한 평안보험그룹의 성공 배경을 ser-M 관점에서 분석해 보면, 창업자 마밍즈 회장은 4차 산업혁명 시대의 디지털 기술발전, 시장경쟁 및 인구 구조의 변화를 빠르게 포착하여 새로운 비전을 수립하고 디지털 기술중시의 민첩한 리더십을 발휘하였다. 환경변화에 대응한 창업자 주도의 강력한 리더십을 바탕으로 인공지능 기술 투자, 우수 전문인력 확보, 빅데이터 역량 강화 등 내부자원을 혁신하고, 외부 흡수역량의 결합, 다양한 업종 간의 전략적 제휴를 통해 인슈어테크와 플랫폼 비즈니스를 성공적으로 끌어냈다. 이와 같은 성공사례 분석을 통하여 인슈어테크와 디지털플랫폼 도입을 본격 준비하고 있는 국내 보험사들에게 디지털 시대에 필요한 경영 전략과 리더십에 대한 시사점을 줄 수 있다.

페이즈 정보를 이용한 텍스처 영상 분할 연구 (A Study of Textured Image Segmentation using Phase Information)

  • 오석
    • 한국컴퓨터정보학회논문지
    • /
    • 제16권2호
    • /
    • pp.249-256
    • /
    • 2011
  • 텍스처 영상을 표현할 수 있는 새로운 특징(feature)의 개발은 텍스처 영상 연구에서 가장 중요한 분야 중 하나이다. 모든 종류의 텍스처 영상을 표현하는 완벽한 특징의 집합을 정립하는 것은 불가능하여 텍스처 영상을 분석하는 분야에 따라 적절한 텍스처 특징을 사용하여야 하기 때문이다. 본 논문의 첫 번째 연구 목적은 텍스처 영상을 분할하는데 유용한 새로운 텍스처 특징을 찾아내는 것이다. 실험 텍스처를 통해 본 논문에서 제안하는 새로운 특징의 영상 분할에서의 유용성 검증도 제시하였다. 한편 본 논문에서 제안한 텍스처 특징은 페이즈의 미분 데이터이다. 페이즈 정보는 텍스처에 가버 함수를 필터로 적용한 결과 영상으로부터 구해지는데, 페이즈 정보는 지금까지 텍스처 특징으로 사용하기에는 적절하지 않다고 알려져 왔으며 관련 연구도 미미한 상태이다. 그 이유는 페이즈 정보를 계산하는 방법으로 역탄젠트 오퍼레이터를 적용하여 구하는데, 이렇게 구한 페이즈 값은 $-{\pi}/2$${\pi}/2$ 범위에서 정의 되는 불연속 값들이기 때문이다. 이러한 불연속적인 페이즈 데이터는 텍스처에 대한 정보를 적절하게 표현하지 못하고 왜곡된 정보를 만든다. 물론 불연속적인 페이즈 데이터를 연속적인 페이즈 데이터로 변환하는 언랩핑은 이론적으로는 불연속의 문제를 해결하지만 실제적인 적용에서는 문제점을 노출시킨다. 즉 실수와 허수 부문이 모두 0인 지점을 중심으로 페이즈 불연속을 해결하는 과정에 따라 상이한 페이즈 데이터의 값들이 도출되어 정보가 왜곡된다. 본 논문의 두 번째 연구 목적은 이러한 단점을 근본적으로 회피하는 다른 방법을 찾는 것이다. 본 연구에서 제안하는 새로운 방법은 불연속적인 페이즈를 왜곡되고 복잡한 언래핑을 거치지 않고 바로 미분함으로써 영상분할에 필요한 데이터를 도출하는 것이다. 페이즈 미분 방식은페이즈 언랩핑 절차를 필요로 하지 않기 때문에 언랩핑의 왜곡을 회피하고, 알고리즘이 매우 간단해지며, 가버함수에 적용하는 필터도 자유롭게 선택할 수 있다는 장점을 가진다. 본 논문에서는 제시하는 방법의 유용성을 검증하기 위해 가버 필터를 적용하여 도출된 결과 영상으로부터 새롭게 제시한 방법으로 계산한 페이즈로 구성된 특징 벡터를 구해 텍스처 영상의 분할에 이용하였다. 실험 결과를통해 본 논문에서 제시한 새로운 방식이 텍스처 영상분할에 필요한 유용한 정보를 생성하는 것을 확인할 수 있었다.

디지털 문화에서 TV 방송의 브랜드 아이덴티티 연구 -시사 교양 프로그램의 사례비교 및 개발을 중심으로- (A Study on Brand Identity of TV Programs in the Digital Culture - Focusing on the comparative research of current issue programs, and development -)

  • 정봉금;장동련
    • 디자인학연구
    • /
    • 제18권4호
    • /
    • pp.53-64
    • /
    • 2005
  • 디지털이라는 새로운 커뮤니케이션 미디어의 등장은 경이로운 한편 문화적 긴장이기도 하다. 인간의 능력을 극적으로 확장시켜주는 산업기술들은 우리가 그것에 적응해 가는 속도보다 훨씬 빠르게 세력을 확대하고 곤다. 이것은 예외 없이 인간에 대한 개념 자체를 뒤흔듦으로써 새로운 문화의 내용과 형식을 만들어낸다. 디지털의 영향으로 우리나라 방송환경은 지상파, 케이블, 위성, 인터넷 등으로 다원화됨으로써 다매체, 다채널 시대로 진입되었다. 디지털 문화피서 방송은 정보전달과 커뮤니케이션 매체로서 과거보다 더 큰 영향력을 발휘하게 되었다. 이 같은 방송환경의 변화는 TV 시청자들을 능동적인 커뮤니케이션의 주체자, 참여자, 이용자로서 미디어를 선택하고 이용하는 존재라는 새로운 개념의 수용자로 출현시켰다. 본 연구는 채널선택의 주체로 능동적 수용자가 방송의 중심에 서게 되면서, 방송의 코어 아이덴티티(Core Identity)에 대한 문제제기를 브랜드를 통해 구조화시키고자 한다. 능동적 수용자에 대한 인지심리학적 접근방법으로 이야기 스키마(Schema) 이론을 적용하여 '정보처리과정(information processing)'과 연관되어 있는 '인지적 과정(cognitve processes)'을 설명할 수 있다. 이것은 이야기가 있는 디자인으로서 브랜드의 스토리텔링 사례로 나타난다. 연구범위는 지상파 TV 방송에서 시사 교양 단위 프로그램들을 대상으로 했으며, 기간은 2004년 5월에서 8월에 걸쳐 방송중인 브랜드를 국내외 각 방송사별로 사례 비교하였다. 본 연구를 통해 방송의 채널 아이덴티티가 단위 프로그램의 브랜드 전략에서도 함께 고려되어야 한다 것은 중요하였다. 특히 방송사를 대표하는 프로그램은 별개의 단위 프로그램으로 취급되어서는 안 되며, 채널 아이덴티티를 형성하는 내용과 형식에서 함께 다루어져야 할 것이다. 또한 앵커의 브랜드화 역시 방송의 브랜드 정체성에 중요한 변인이 될 수 있음을 재차 확인할 수 있었다.

  • PDF

MPEG-7 기반 의미적 메타데이터 모델을 이용한 멀티미디어 주석 및 검색 시스템의 개발 (Development of Multimedia Annotation and Retrieval System using MPEG-7 based Semantic Metadata Model)

  • 안형근;고재진
    • 정보처리학회논문지D
    • /
    • 제14D권6호
    • /
    • pp.573-584
    • /
    • 2007
  • 최근 멀티미디어 정보의 양이 매우 빠른 속도로 증가함에 따라 멀티미디어 데이터에 대한 다양한 검색은 매우 중요한 이슈가 되고 있다. 멀티미디어 데이터를 효율적으로 처리하기 위해서는 멀티미디어 데이터가 가지고 있는 의미 내용을 추출할 수 있는 의미 기반 검색 기법이 필요하다. 기존 연구되어온 멀티미디어 데이터의 검색은 주석 기반 검색, 특징 기반 검색, 주석과 특징 기반 검색의 통합 검색시스템이 있다. 이러한 시스템들은 검색 데이터의 생성을 위해 주석자의 많은 노력과 시간을 요구하고 특징 추출을 위한 복잡한 계산을 요구하며, 생성된 데이터는 변화되지 않는 정적인 검색을 수행하는 단점이 있다. 또한, 인간에게 좀 더 친숙하고 의미적인 형태의 검색 방법을 제공하지 못하고 있는 실정이다. 본 논문에서는 MPEG-7을 이용하여 멀티미디어 데이터를 구조적으로 표현하고 효율적으로 추출하기 위한 의미적 메타데이터 기반의 멀티미디어 주석 및 검색시스템(S-MARS)을 구현 제안한다. 본 시스템은 멀티미디어 데이터에 대한 주석이나 검색, 브라우징을 위한 그래픽 인터페이스를 제공하며 멀티미디어 정보를 표현하기 위해 의미적 메타데이터 모델을 기반으로 구현하였다. 멀티미디어 데이터에 대한 의미적 메타데이터 모델은 MPEG-7 표준에 정의되어 있는 멀티미디어 묘사 스키마를 기반으로 XML 스키마를 이용하여 작성하였다. 결론적으로, 제시한 멀티미디어 데이터에 대한 의미적 메타데이터를 XML 형태로 표현하고, XML을 지원하는 데이터베이스 시스템을 이용하여 표준적인 데이터의 상호 교환이 용이하게 이루어질 수 있으며, 의미적 메타데이터를 활용하여 삽입 기반 검색 알고리즘 방법을 제공함으로써 검색에 대한 정확성과 사용자의 검색 만족도를 극대화 시킬 수 있다. 마그마 저장소로의 유입과 마그마 저장소 아래에서 공급되는 모마그마의 성분변화에 의해서 미량원소 함량이 급격하게 변한 것으로 해석된다./^4He$ 비와 $^4He/^{20}Ne$ 비는 $0.0143{\times}10^{-6}{\sim}0.407{\times}10^{-6}$ 범위와 $6.49{\sim}584{\times}10^{-6}$ 범위를 각각 보여주어 대기와 지각성분의 혼합선상에 도시된다. 이는 온천수내 헬륨가스의 대부분이 지각기원임을 의미한다. 죽림온천(JR1)의 경우 맨틀기원의 헬륨가스의 혼합율이 다른 온천에 비해 다소 높은 비율을 보여준다. 이들 동위원소비와 온천수의 pH와는 대체적으로 정의 상관관계가 확인되었다. 아울러 $^{40}Ar/^{36}Ar$비가 $292.3{\times}10^{-6}{\sim}304.1{\times}10^{-6}$ 범위로 대기기원임을 지시한다. Gram 양성, Gram 음성 균주는 Escherichia coli KCCM 11591를 제외하고는 0.8 - 0.95 cm로 항균력이 강했으며, Gram negitive의 Pseudomonas aeruginosa KCTC 1750 에서는 43% 발효주에는 0.95 cm, 45% 고은 발효주에는 0.95 cm의 항균성을 나타냈으며 관능평가에서도 가장 높게 났다. 관능평가에서는 45% 고온 발효주가 가장 높게 나타났으며, 항산화성 실험에 나타난 저온 45%의 갈색도의 측정과는 항산화성에서는 좀 다른 결과를 나타낸다. 그러나 항균성이 가장 높게 나타난 43-45%와 관능평가에서 가장 높게 나타난 45% 고온 발효주를 볼 때 본 연구에서는 고온 발효주 45%가

Deep Convolution Neural Networks 이용하여 결함 검출을 위한 결함이 있는 철도선로표면 디지털영상 재 생성 (Regeneration of a defective Railroad Surface for defect detection with Deep Convolution Neural Networks)

  • 김현호;한석민
    • 인터넷정보학회논문지
    • /
    • 제21권6호
    • /
    • pp.23-31
    • /
    • 2020
  • 본 연구는 철도표면상에 발생하는 노후 현상 중 하나인 결함 검출을 위해 학습데이터를 생성함으로써 결함 검출 모델에서 더 높은 점수를 얻기 위해 진행되었다. 철도표면에서 결함은 선로결속장치 및 선로와 차량의 마찰 등 다양한 원인에 의해 발생하고 선로 파손 등의 사고를 유발할 수 있기 때문에 결함에 대한 철도 유지관리가 필요 하다. 그래서 철도 유지관리의 자동화 및 비용절감을 위해 철도 표면 영상에 영상처리 또는 기계학습을 활용한 결함 검출 및 검사에 대한 다양한 연구가 진행되고 있다. 일반적으로 영상 처리 분석기법 및 기계학습 기술의 성능은 데이터의 수량과 품질에 의존한다. 그렇기 때문에 일부 연구는 일반적이고 다양한 철도표면영상의 데이터베이스를 확보하기위해 등간격으로 선로표면을 촬영하는 장치 또는 탑재된 차량이 필요로 하였다. 본연구는 이러한 기계적인 영상획득 장치의 운용비용을 감소시키고 보완하기 위해 대표적인 영상생성관련 딥러닝 모델인 생성적 적대적 네트워크의 기본 구성에서 여러 관련연구에서 제시된 방법을 응용, 결함이 있는 철도 표면 재생성모델을 구성하여, 전용 데이터베이스가 구축되지 않은 철도 표면 영상에 대해서도 결함 검출을 진행할 수 있도록 하였다. 구성한 모델은 상이한 철도 표면 텍스처들을 반영한 철도 표면 생성을 학습하고 여러 임의의 결함의 위치에 대한 Ground-Truth들을 만족하는 다양한 결함을 재 생성하도록 설계하였다. 재생성된 철도 표면의 영상들을 결함 검출 딥러닝 모델에 학습데이터로 사용한다. 재생성모델의 유효성을 검증하기 위해 철도표면데이터를 3가지의 하위집합으로 군집화 하여 하나의 집합세트를 원본 영상으로 정의하고, 다른 두개의 나머지 하위집합들의 몇가지의 선로표면영상을 텍스처 영상으로 사용하여 새로운 철도 표면 영상을 생성한다. 그리고 결함 검출 모델에서 학습데이터로 생성된 새로운 철도 표면 영상을 사용하였을 때와, 생성된 철도 표면 영상이 없는 원본 영상을 사용하였을 때를 나누어 검증한다. 앞서 분류했던 하위집합들 중에서 원본영상으로 사용된 집합세트를 제외한 두 개의 하위집합들은 각각의 환경에서 학습된 결함 검출 모델에서 검증하여 출력인 픽셀단위 분류지도 영상을 얻는다. 이 픽셀단위 분류지도영상들과 실제 결함의 위치에 대한 원본결함 지도(Ground-Truth)들의 IoU(Intersection over Union) 및 F1-score로 평가하여 성능을 계산하였다. 결과적으로 두개의 하위집합의 텍스처 영상을 이용한 재생성된 학습데이터를 학습한 결함 검출모델의 점수는 원본 영상만을 학습하였을 때의 점수보다 약 IoU 및 F1-score가 10~15% 증가하였다. 이는 전용 학습 데이터가 구축되지 않은 철도표면 영상에 대해서도 기존 데이터를 이용하여 결함 검출이 상당히 가능함을 증명하는 것이다.