• 제목/요약/키워드: Automatic inspection

검색결과 526건 처리시간 0.029초

도서관의 인공지능(AI) 서비스 현황 및 서비스 제공 방안에 관한 연구 (A Study on the Current State of the Library's AI Service and the Service Provision Plan)

  • 곽우정;노영희
    • 한국도서관정보학회지
    • /
    • 제52권1호
    • /
    • pp.155-178
    • /
    • 2021
  • 4차산업혁명 시대에서 공공도서관은 인공지능과 같은 외부 환경 변화에 능동적으로 대응하기 위하여 도서관 지능형서비스 추진 전략이 필요하다. 따라서 본 연구에서는 인공지능의 개념과 국내외 인공지능 관련 동향 및 정책, 사례 등의 분석 내용을 기반으로 도서관에서의 향후 인공지능 서비스 도입 및 발전 방향성에 대해 제안하였다. 현재 도서관에서는 딥러닝, 자연어처리 등 인공지능 기술 도입을 통해 자동으로 답변을 제공하는 참고정보서비스를 운영하며, 빅데이터 기반 AI 도서 추천 및 자동 도서 점검 시스템을 개발하여 업무 활용도를 높이고, 이용자 맞춤형 서비스를 제공하고 있다. 기업 및 산업 분야에서는 국내외를 막론하고, 사용자 개인 맞춤형 등을 기반으로 한 기술을 개발하여 서비스하고 있으며, 딥러닝을 사용하여 정보를 스스로 학습하여 최적의 결과를 제공하는 식의 형태로 개발하고 있다. 이에 따라 향후 도서관에서 인공지능을 활용하여, 이용자의 이용 기록을 기반으로 한 개인 맞춤형 도서 추천, 독서·문화 프로그램 추천, 도서 택배 서비스 시 자율주행 드론·자동차 등 운송수단을 통한 실시간 배송 서비스 도입 등 다양한 서비스 개발을 도모해야 한다.

딥러닝을 활용한 이미지 기반 교량 구성요소 자동분류 네트워크 개발 (Image-Based Automatic Bridge Component Classification Using Deep Learning)

  • 조문원;이재혁;유영무;박정준;윤형철
    • 대한토목학회논문집
    • /
    • 제41권6호
    • /
    • pp.751-760
    • /
    • 2021
  • 우리나라의 교량은 대부분이 건설된 지 20년 이상이 지나 현재 노후화로 인하여 많은 문제점이 제기되고 있으며, 교량의 안전점검은 대부분 전문 인력의 주관적인 평가로 이루어지고 있다. 최근 교량 안전점검의 데이터의 체계적인 관리를 위해 BIM 등을 활용한 데이터 기반의 유지관리 기술들이 개발되고 있지만, BIM과 구조물의 유지관리 데이터를 연동을 위해서 영상정보를 직접 라벨링하는 수작업을 필요로한다. 따라서 본 논문에서는 이미지 기반의 자동 교량 구성요소 분류 네트워크를 개발하고자 한다. 본 연구에서 제안한 방법은 두 개의 CNN 네트워크로 구성되었다. 첫 번째 네트워크에서 특정 교량 이미지에 대하여 교량의 형식을 자동으로 분류한 뒤, 두 번째 네트워크에서 교량의 형식별로 구성요소를 분류함으로써 정확도와 효율성을 향상시키고자 한다. 본 연구에서 개발한 시스템을 검증한 결과, 847개의 교량 이미지에 대해서 98.1 %의 정확도로 교량의 구성요소를 자동으로 분류 할 수 있었다. 본 연구에서 개발한 교량의 구성요소 자동분류 기술은 향후 교량의 유지관리에 기여를 할 수 있을 것으로 기대된다.

D4AR - A 4-DIMENSIONAL AUGMENTED REALITY - MODEL FOR AUTOMATION AND VISUALIZATION OF CONSTRUCTION PROGRESS MONITORING

  • Mani Golparvar-Fard;Feniosky Pena-Mora
    • 국제학술발표논문집
    • /
    • The 3th International Conference on Construction Engineering and Project Management
    • /
    • pp.30-31
    • /
    • 2009
  • Early detection of schedule delay in field construction activities is vital to project management. It provides the opportunity to initiate remedial actions and increases the chance of controlling such overruns or minimizing their impacts. This entails project managers to design, implement, and maintain a systematic approach for progress monitoring to promptly identify, process and communicate discrepancies between actual and as-planned performances as early as possible. Despite importance, systematic implementation of progress monitoring is challenging: (1) Current progress monitoring is time-consuming as it needs extensive as-planned and as-built data collection; (2) The excessive amount of work required to be performed may cause human-errors and reduce the quality of manually collected data and since only an approximate visual inspection is usually performed, makes the collected data subjective; (3) Existing methods of progress monitoring are also non-systematic and may also create a time-lag between the time progress is reported and the time progress is actually accomplished; (4) Progress reports are visually complex, and do not reflect spatial aspects of construction; and (5) Current reporting methods increase the time required to describe and explain progress in coordination meetings and in turn could delay the decision making process. In summary, with current methods, it may be not be easy to understand the progress situation clearly and quickly. To overcome such inefficiencies, this research focuses on exploring application of unsorted daily progress photograph logs - available on any construction site - as well as IFC-based 4D models for progress monitoring. Our approach is based on computing, from the images themselves, the photographer's locations and orientations, along with a sparse 3D geometric representation of the as-built scene using daily progress photographs and superimposition of the reconstructed scene over the as-planned 4D model. Within such an environment, progress photographs are registered in the virtual as-planned environment, allowing a large unstructured collection of daily construction images to be interactively explored. In addition, sparse reconstructed scenes superimposed over 4D models allow site images to be geo-registered with the as-planned components and consequently, a location-based image processing technique to be implemented and progress data to be extracted automatically. The result of progress comparison study between as-planned and as-built performances can subsequently be visualized in the D4AR - 4D Augmented Reality - environment using a traffic light metaphor. In such an environment, project participants would be able to: 1) use the 4D as-planned model as a baseline for progress monitoring, compare it to daily construction photographs and study workspace logistics; 2) interactively and remotely explore registered construction photographs in a 3D environment; 3) analyze registered images and quantify as-built progress; 4) measure discrepancies between as-planned and as-built performances; and 5) visually represent progress discrepancies through superimposition of 4D as-planned models over progress photographs, make control decisions and effectively communicate those with project participants. We present our preliminary results on two ongoing construction projects and discuss implementation, perceived benefits and future potential enhancement of this new technology in construction, in all fronts of automatic data collection, processing and communication.

  • PDF

이동천체 후보 검출을 위한 알고리즘 개발: YSTAR-NEOPAT 탐사프로그램 (ALGORITHMS FOR MOVING OBJECT DETECTION: YSTAR-NEOPAT SURVEY PROGRAM)

  • 배영호;변용익;강용우;박선엽;오세헌;유성열;한원용;임흥서;문홍규
    • Journal of Astronomy and Space Sciences
    • /
    • 제22권4호
    • /
    • pp.393-408
    • /
    • 2005
  • YSTAR-NEOPAT 탐사프로그램에서는 관측된 영상으로부터 지구접근천체와 소행성 등의 이동천체 후보를 검출하기 위해 두 가지 자동검출 알고리즘을 개발하였다. 영상들의 측광자료를 이용하여 이동천체 후보를 검출하는 측광자료 비교방법과 영상들을 정렬시킨 후 영상간 차감 과정을 통해 이동천체 후보를 검출하는 영상차감방법이 그것이다. 두 가지 알고리즘의 이동천체 후보 자동검출효율을 시험, 비교하기 위하여, YSTAR-NEOPAT자동관측 루틴에 의해 관측된 영상들의 일부를 사용하였다. 시험 영상들의 지역좌표와 등급은 기준목록인 USNO-B1.0의 좌표와 등급에 비교되었으며, 이 과정에서 광시야망원경의 심각한 영상왜곡현상들이 1.5 초각 이상의 정밀도로 모두 보정되는 것을 검증하였다. 두 알고리즘을 시험 영상에 적용한 결과, 측광자료 비교방법을 적용한 경우 1차 후보군들이 과다 검출되었고, 이들로 인해 오검출되는 이동천체 최종후보가 다수 발생하였다. 반면, 영상차감방법을 적용한 경우에는 이동천체 후보의 오검출 비율이 측광자료비교방법을 적용했을 때보다 월등히 감소하였음을 확인하였다. 마지막으로 육안확인 과정을 거친 결과, 측광자료비교방법에 의해 검출된 이동천체 후보의 총개수는 검출문턱값에 따라 각각 60개$(2.0\sigma)$, 6개$(4.0\sigma)$이며, 육안확인에 의해 실제 이동천체로 분류된 것은 각각 27개와 6개이다. 반면, 영상차감방법에서 이동천체 후보는 모두 34개$(2.0\sigma)$와 12개$(4.0\sigma)$가 검출되었으며, 이 가운데 육안확인에 의해 실제 이동천체로 분류된 것은 각각 32개와 12개이다. 따라서 YSTAR-NEOPAT영상으로부터 이동천체 후보를 효율적으로 검출하기 위해서는 절대개수측면에서나 검출효율측면에서 측광자료비교방법보다 영상차감방법이 더 적합하다는 것을 확인할 수 있다.15\~20$배가량 높았다.과 립장이 부의 값이어서 소립의 형태를 보였으며 제2주성분은 립장, 립폭, 백립중 등이 정의 값을 나타내어 대립의 계통군들이 포함되며 경도와는 부의 상관을 보여 식미가 양호한 계통군으로 분류되었다. 6. 제1주성분과 제2주성분을 이용하여 군집분석을 한 결과 8개 자식계통군으로 구분할 수 있었으며 scatter diagram에서 제1주성분이 작아지고 제2주성분이 커지는 좌측 상단부에 분포한 VII, VIII군에 속한 계통들이 주로 식미가 높으며 조숙종보다는 중, 만숙종들이 대부분 이였다. 등과 정의 상관을 보였고 과피두께, 경도, 껌성, 씹힘성 등과는 부의 상관을 나타내었다. 이와 같은 결과를 바탕으로 품질기준을 설정해 보면 저식미 교잡종인 찰옥1호(100)를 표준으로 비교하였을 때 고식미 교잡계인 연농1호, 찰옥4호, 수원45호의 유리당 함량은 $6.2\~6.6\%(111\~l18)$, 립장 $8.8\~9.7(99\~109)$, 립폭 $9.8\~10.5mm(111\~l19)$, 백립중 $38.6\~41.9g(113\~123)$, 아밀로그램의 응집점도 $28.2\~30.6RVU(123\~133)$, 과피두께 $34\~41{\mu}m(42\~51)$, texture 분석의 경도 $460\~513(43\~48)$, 씹힘성 $125\~139(51\~57)$, 껌성 $130\~148(49\~56)$의 범위에 있었다.운 표면을 보이고, Unitek사의 경우 압흔과 함께 pitting 이 관찰되며, Ormco Stainless Steel의 경우 불규칙한 pitting이 다수 존재했다.수술 시행 시기별의 차이를 보이지 않고 고른 분포를 보였다. 10. 내원한 환자를 순구개열 종류와 Angle씨 분류법에

Modern Paper Quality Control

  • Olavi Komppa
    • 한국펄프종이공학회:학술대회논문집
    • /
    • 한국펄프종이공학회 2000년도 제26회 펄프종이기술 국제세미나
    • /
    • pp.16-23
    • /
    • 2000
  • The increasing functional needs of top-quality printing papers and packaging paperboards, and especially the rapid developments in electronic printing processes and various computer printers during past few years, set new targets and requirements for modern paper quality. Most of these paper grades of today have relatively high filler content, are moderately or heavily calendered , and have many coating layers for the best appearance and performance. In practice, this means that many of the traditional quality assurance methods, mostly designed to measure papers made of pure. native pulp only, can not reliably (or at all) be used to analyze or rank the quality of modern papers. Hence, introduction of new measurement techniques is necessary to assure and further develop the paper quality today and in the future. Paper formation , i.e. small scale (millimeter scale) variation of basis weight, is the most important quality parameter of paper-making due to its influence on practically all the other quality properties of paper. The ideal paper would be completely uniform so that the basis weight of each small point (area) measured would be the same. In practice, of course, this is not possible because there always exists relatively large local variations in paper. However, these small scale basis weight variations are the major reason for many other quality problems, including calender blacking uneven coating result, uneven printing result, etc. The traditionally used visual inspection or optical measurement of the paper does not give us a reliable understanding of the material variations in the paper because in modern paper making process the optical behavior of paper is strongly affected by using e.g. fillers, dye or coating colors. Futhermore, the opacity (optical density) of the paper is changed at different process stages like wet pressing and calendering. The greatest advantage of using beta transmission method to measure paper formation is that it can be very reliably calibrated to measure true basis weight variation of all kinds of paper and board, independently on sample basis weight or paper grade. This gives us the possibility to measure, compare and judge papers made of different raw materials, different color, or even to measure heavily calendered, coated or printed papers. Scientific research of paper physics has shown that the orientation of the top layer (paper surface) fibers of the sheet paly the key role in paper curling and cockling , causing the typical practical problems (paper jam) with modern fax and copy machines, electronic printing , etc. On the other hand, the fiber orientation at the surface and middle layer of the sheet controls the bending stiffness of paperboard . Therefore, a reliable measurement of paper surface fiber orientation gives us a magnificent tool to investigate and predict paper curling and coclking tendency, and provides the necessary information to finetune, the manufacturing process for optimum quality. many papers, especially heavily calendered and coated grades, do resist liquid and gas penetration very much, bing beyond the measurement range of the traditional instruments or resulting invonveniently long measuring time per sample . The increased surface hardness and use of filler minerals and mechanical pulp make a reliable, nonleaking sample contact to the measurement head a challenge of its own. Paper surface coating causes, as expected, a layer which has completely different permeability characteristics compared to the other layer of the sheet. The latest developments in sensor technologies have made it possible to reliably measure gas flow in well controlled conditions, allowing us to investigate the gas penetration of open structures, such as cigarette paper, tissue or sack paper, and in the low permeability range analyze even fully greaseproof papers, silicon papers, heavily coated papers and boards or even detect defects in barrier coatings ! Even nitrogen or helium may be used as the gas, giving us completely new possibilities to rank the products or to find correlation to critical process or converting parameters. All the modern paper machines include many on-line measuring instruments which are used to give the necessary information for automatic process control systems. hence, the reliability of this information obtained from different sensors is vital for good optimizing and process stability. If any of these on-line sensors do not operate perfectly ass planned (having even small measurement error or malfunction ), the process control will set the machine to operate away from the optimum , resulting loss of profit or eventual problems in quality or runnability. To assure optimum operation of the paper machines, a novel quality assurance policy for the on-line measurements has been developed, including control procedures utilizing traceable, accredited standards for the best reliability and performance.

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.