• 제목/요약/키워드: Automatic detection

검색결과 1,689건 처리시간 0.027초

딥러닝 기반 넙치 질병 식별 향상을 위한 전처리 기법 비교 (A Comparison of Pre-Processing Techniques for Enhanced Identification of Paralichthys olivaceus Disease based on Deep Learning)

  • 강자영;손현승;최한석
    • 한국콘텐츠학회논문지
    • /
    • 제22권3호
    • /
    • pp.71-80
    • /
    • 2022
  • 과거 양식장에서 어류 질병은 세균성이었던 반면 최근은 바이러스성 및 혼합된 형태가 되면서 어류 질병의 빈도가 높아졌다. 양식장이라는 밀폐된 공간에서 바이러성 질병은 확산속도가 높으므로 집단 폐사로 이어질 확률이 매우 높다. 집단 폐사를 방지하기 위해서는 어류 질병의 빠른 식별이 중요하다. 그러나 어류의 질병 진단은 고도의 전문지식이 필요하고 매번 어류의 상태를 눈으로 확인하기 어렵다. 질병의 확산을 막기 위해서는 병이든 어류의 자동식별 시스템이 필요하다. 본 논문에서는 딥러닝 기반의 넙치의 질병 식별 시스템의 성능을 높이기 위해서 기존 전처리 방법을 비교 실험한다. 대상 질병은 넙치에서 가장 빈번히 발생하는 3가지 질병 스쿠티카병, 비브리오증, 림포시스티스를 선정하였고 이미지 전처리 방법으로 RGB, HLS, HSV, LAB, LUV, XYZ, YCRCV를 사용하였다. 실험결과 일반적인 RGB를 사용하는 것보다 HLS가 가장 좋은 결과를 얻을 수 있었다. 간단한 방법으로 질병의 인식률을 향상해 어류 질병 식별 시스템을 고도화 할 수 있을 것으로 예상한다.

D4AR - A 4-DIMENSIONAL AUGMENTED REALITY - MODEL FOR AUTOMATION AND VISUALIZATION OF CONSTRUCTION PROGRESS MONITORING

  • Mani Golparvar-Fard;Feniosky Pena-Mora
    • 국제학술발표논문집
    • /
    • The 3th International Conference on Construction Engineering and Project Management
    • /
    • pp.30-31
    • /
    • 2009
  • Early detection of schedule delay in field construction activities is vital to project management. It provides the opportunity to initiate remedial actions and increases the chance of controlling such overruns or minimizing their impacts. This entails project managers to design, implement, and maintain a systematic approach for progress monitoring to promptly identify, process and communicate discrepancies between actual and as-planned performances as early as possible. Despite importance, systematic implementation of progress monitoring is challenging: (1) Current progress monitoring is time-consuming as it needs extensive as-planned and as-built data collection; (2) The excessive amount of work required to be performed may cause human-errors and reduce the quality of manually collected data and since only an approximate visual inspection is usually performed, makes the collected data subjective; (3) Existing methods of progress monitoring are also non-systematic and may also create a time-lag between the time progress is reported and the time progress is actually accomplished; (4) Progress reports are visually complex, and do not reflect spatial aspects of construction; and (5) Current reporting methods increase the time required to describe and explain progress in coordination meetings and in turn could delay the decision making process. In summary, with current methods, it may be not be easy to understand the progress situation clearly and quickly. To overcome such inefficiencies, this research focuses on exploring application of unsorted daily progress photograph logs - available on any construction site - as well as IFC-based 4D models for progress monitoring. Our approach is based on computing, from the images themselves, the photographer's locations and orientations, along with a sparse 3D geometric representation of the as-built scene using daily progress photographs and superimposition of the reconstructed scene over the as-planned 4D model. Within such an environment, progress photographs are registered in the virtual as-planned environment, allowing a large unstructured collection of daily construction images to be interactively explored. In addition, sparse reconstructed scenes superimposed over 4D models allow site images to be geo-registered with the as-planned components and consequently, a location-based image processing technique to be implemented and progress data to be extracted automatically. The result of progress comparison study between as-planned and as-built performances can subsequently be visualized in the D4AR - 4D Augmented Reality - environment using a traffic light metaphor. In such an environment, project participants would be able to: 1) use the 4D as-planned model as a baseline for progress monitoring, compare it to daily construction photographs and study workspace logistics; 2) interactively and remotely explore registered construction photographs in a 3D environment; 3) analyze registered images and quantify as-built progress; 4) measure discrepancies between as-planned and as-built performances; and 5) visually represent progress discrepancies through superimposition of 4D as-planned models over progress photographs, make control decisions and effectively communicate those with project participants. We present our preliminary results on two ongoing construction projects and discuss implementation, perceived benefits and future potential enhancement of this new technology in construction, in all fronts of automatic data collection, processing and communication.

  • PDF

360도 영상에서 다중 객체 추적 결과에 대한 뷰포트 추출 가속화 (Acceleration of Viewport Extraction for Multi-Object Tracking Results in 360-degree Video)

  • 박희수;백석호;이석원;이명진
    • 한국항행학회논문지
    • /
    • 제27권3호
    • /
    • pp.306-313
    • /
    • 2023
  • 실사 및 그래픽 기반 가상현실 콘텐츠는 360도 영상을 기반으로 하며, 시청자의 의도나 자동 추천 기능을 통한 뷰포트 추출이 필수적이다. 본 논문은 360도 영상에서 다중 객체 추적 기반의 뷰포트 추출 시스템을 설계하고, 다중 뷰포트 추출에 필요한 병렬화된 연산 구조를 제안한다. 360도 영상에서 뷰포트 추출 과정을 ERP 좌표의 3D 구 표면 좌표 변환과 3D 구 표면 좌표의 뷰포트 내 2D 좌표 변환 과정을 순서대로 픽셀 단위의 스레드로 구성하여 연산을 병렬화하였다. 제안 구조는 항공 360도 영상 시퀀스들에 대하여 최대 30개의 뷰포트 추출 과정에 대한 연산 시간이 평가되었으며, 뷰포트 수에 정비례하는 CPU 기반 연산 시간에 비해 최대 5240배 가속화됨을 확인하였다. ERP 프레임 I/O 시간을 줄일 수 있는 고속의 I/O나 메모리 버퍼를 사용 시 뷰포트 추출 시간을 7.82배 추가 가속화가 가능하다. 제안하는 뷰포트 추출 병렬화 구조는 360도 비디오나 가상현실 콘텐츠들에 대한 동시 다중 접속 서비스나 사용자별 영상 요약 서비스 등에 활용될 수 있다.

딥러닝기반 건축폐기물 이미지 분류 시스템 비교 (A Comparison of Image Classification System for Building Waste Data based on Deep Learning)

  • 성재경;양민철;문경남;김용국
    • 한국인터넷방송통신학회논문지
    • /
    • 제23권3호
    • /
    • pp.199-206
    • /
    • 2023
  • 본 연구는 건축시 발생되는 폐기물의 자동분류를 위해 딥러닝 알고리즘을 활용해 건출 폐기물 데이터를 각각 목재 폐기물, 플라스틱 폐기물, 콘크리트 폐기물로 분류하는 두 모델들을 통해서 성능 비교를 한다. 건축 폐기물의 분류를 위해 사용된 딥러닝 알고리즘은 합성곱 신경망 이미지 분류 알고리즘 VGG-16과 NLP를 기반으로 이미지를 시퀀스화 시킨ViT, Vision Transformer 모델을 사용했다. 건축 폐기물 데이터 수집을 위해 이미지 데이터를 전 세계 검색엔진에서 크롤링 하였고, 육안으로도 명확히 구분하기 어렵거나, 중복되는 등 실험에 방해되는 이미지는 전부 제외하여 각 분류당 1천장씩 총 3천장의 이미지를 확보했다. 또한, 데이터 학습시에 모델의 정확도 향상에 도움을 주기 위해 데이터 확대 작업을 진행해 총 3만장의 이미지로 실험을 진행 하였다. 수집된 이미 데이터가 정형화 되어있지 않은 데이터 임에도 불구하고 실험 결과는 정확도가 VGG-16는 91.5%, ViT 는 92.7%의 결과가 나타났다. 이는 실제 건축폐기물 데이터 관리 작업에 실전 활용 가능성을 제시한 것으로 보인다. 본 연구를 바탕으로 추후에 객체 탐지 기법이나 의미론적 분할 기법까지 활용한다면, 하나의 이미지 안에서도 여러 세밀한 분류가 가능해 더욱 완벽한 분류가 가능할 것이다.

자동 과일 수확을 위한 드론 탑재형 과일 인식 알고리즘 및 수확 메커니즘 (Drone-mounted fruit recognition algorithm and harvesting mechanism for automatic fruit harvesting)

  • 주기영;황보현;이상민;김병규;백중환
    • 항공우주시스템공학회지
    • /
    • 제16권1호
    • /
    • pp.49-55
    • /
    • 2022
  • 최근 드론의 역할은 농업∙건설∙물류등의 다양한 영역으로 확대되고 있으며 특히 농업인구가 고령화되는 현 상황에 따라 드론은 노동력 부족 문제를 해결할 효과적인 대안으로 떠오르고 있다. 이에 본 논문에서는 농업 현장에서의 부족한 노동력을 보완하고 높은 위치의 과일도 안전하게 수확할 수 있는 드론 탑재형 과일수확 시스템을 제안한다. 과일수확 시스템은 과일인식 알고리즘과 과일수확 메커니즘으로 구성되어 있다. 과일인식 알고리즘은 딥러닝 기반의 객체탐지 알고리즘인 You Only Look Once를 사용하였고, 가상 시뮬레이션 환경을 구축하여 가능성을 검증하였다. 또한, 하나의 모터로 구동이 가능한 과일수확 메커니즘을 제안하였다. 모터의 회전운동을 기반으로 Scotch yoke을 구동시켜 선형운동으로 변환하여 gripper가 전개된 상태에서 과실에 접근 후 과실을 잡고 돌려 수확하는 메커니즘이다. 제안된 메커니즘에 대한 다물체동역학 해석을 수행하여 구동 가능성을 검증하였다.

동물성 생약에 함유되어 있는 몇 가지 중금속에 대한 실태 조사 (Monitoring of some heavy metals in oriental animality medicines)

  • 백선영;정재연;이지혜;박경수;강인호;강신정;김연제
    • 분석과학
    • /
    • 제22권3호
    • /
    • pp.201-209
    • /
    • 2009
  • 국내에서 유통 중인 동물성 생약 38개 품목 총 325개 시료를 대상으로 ICP-MS와 수은자동분석기기를 이용하여 납, 카드뮴, 비소, 수은의 오염실태 조사를 수행하였다. 검출된 농도 범위는 납 $0.02{\mu}gkg^{-1}$ $(D.L){\sim}11.29mgkg^{-1}$, 카드뮴 $0.01{\mu}gkg^{-1}$ $(D.L){\sim}2.50 mgkg^{-1}$, 비소 $0.12{\mu}gkg^{-1}$ $(D.L){\sim}5.27mgkg^{-1}$이었으며, 수은의 경우 검출 범위를 초과한 한 개의 시료를 제외하면 $0.01{\sim}77.11mgkg^{-1}$으로 나타났다. 전체 동물성 생약 38품목 중 납, 카드뮴, 비소, 수은 모두가 잔류허용기준치 이하로 검출된 동물성 생약은 별갑과 오배자 2개 품목이었고, 22개 품목에서 납의 오염이 가장 큰 비중을 차지하였다. 수은의 경우 농도 범위가 비교적 넓게 나타난 녹각 등 16개 품목뿐만 아니라 전체 시료의 54.46%가 잔류허용기준치를 초과하였다. 따라서 납과 수은에 대한 지속적인 실태조사를 실시하고 오염원인 추적을 위한 연구가 수행되어야 할 필요가 있는 것으로 나타났다.

준지도 학습과 전이 학습을 이용한 선로 체결 장치 결함 검출 (Detection Fastener Defect using Semi Supervised Learning and Transfer Learning)

  • 이상민;한석민
    • 인터넷정보학회논문지
    • /
    • 제24권6호
    • /
    • pp.91-98
    • /
    • 2023
  • 오늘날 인공지능 산업이 발전함에 따라 여러 분야에 걸쳐 인공지능을 통한 자동화 및 최적화가 이루어지고 있다. 국내의 철도 분야 또한 지도 학습을 이용한 레일의 결함을 검출하는 연구들을 확인할 수 있다. 그러나 철도에는 레일만이 아닌 다른 구조물들이 존재하며 그중 선로 체결 장치는 레일을 다른 구조물에 결합시켜주는 역할을 하는 장치로 안전사고의 예방을 위해서 주기적인 점검이 필요하다. 본 논문에는 선로 체결 장치의 데이터를 이용하여 준지도 학습(semi-supervised learning)과 전이 학습(transfer learning)을 이용한 분류기를 학습시켜 선로 안전 점검에 사용되는 비용을 줄이는 방안을 제안한다. 사용된 네트워크는 Resnet50이며 imagenet으로 선행 학습된 모델이다. 레이블이 없는 데이터에서 무작위로 데이터를 선정 후 레이블을 부여한 뒤 이를 통해 모델을 학습한다. 학습된 모델의 이용하여 남은 데이터를 예측 후 예측한 데이터 중 클래스 별 확률이 가장 높은 데이터를 정해진 크기만큼 훈련용 데이터에 추가하는 방식을 채택하였다. 추가적으로 초기의 레이블된 데이터의 크기가 끼치는 영향력을 확인해보기 위한 실험을 진행하였다. 실험 결과 최대 92%의 정확도를 얻을 수 있었으며 이는 지도 학습 대비 5% 내외의 성능 차이를 가진다. 이는 제안한 방안을 통해 추가적인 레이블링 과정 없이 비교적 적은 레이블을 이용하여 분류기의 성능을 기존보다 향상시킬 수 있을 것으로 예상된다.

자동 위성영상 수집을 통한 다종 위성영상의 시계열 데이터 생성 (Generation of Time-Series Data for Multisource Satellite Imagery through Automated Satellite Image Collection)

  • 남윤지;정성우;김태정;이수암
    • 대한원격탐사학회지
    • /
    • 제39권5_4호
    • /
    • pp.1085-1095
    • /
    • 2023
  • 위성데이터를 활용한 시계열 데이터는 다양한 분야에서 변화 탐지와 모니터링에 필수적인 자료로 활용되고 있다. 시계열 데이터 생성에 관한 선행 연구에서는 데이터의 통일성을 유지하기 위해 주로 단일 영상을 기반으로 분석하는 방식이 사용되었다. 또한 공간 및 시간 해상도 향상을 위해 다종 영상을 활용하는 연구도 활발하게 진행되고 있다. 시계열 데이터의 중요성은 계속해서 강조되지만, 데이터를 자동으로 수집하고 가공하여 연구에 활용하기 위한 산출물은 아직 제공되지 않고 있다. 따라서 이러한 한계를 극복하기 위해 본 논문에서는 사용자가 설정한 지역의 위성정보를 자동으로 수집하고 시계열 데이터를 생성하는 기능을 제안한다. 본 연구는 한 종류의 위성영상뿐만 아니라 동일 지역의 여러 위성데이터를 수집하고 이를 시계열 데이터로 변환하여 산출물을 생성하는 것을 목표로 하며, 이를 위한 위성영상 자동 수집 시스템을 개발하였다. 이 시스템을 활용하면 사용자는 관심 있는 지역을 설정함으로써 해당 지역에 맞게 데이터가 수집되고 Crop되어 즉시 활용할 수 있는 데이터를 생성할 수 있다. 실험 결과로는 웹 상에서 무료로 제공되는 Landsat-8/9 OLI 및 Sentinel-2 A/B 영상의 자동 획득이 가능함을 확인하였으며, 수동 입력을 통해 별도의 고해상도 위성영상도 함께 처리할 수 있었다. 고해상도 위성영상을 기준으로 자동 수집 및 편집된 영상 간의 정확도를 비교하고 육안 분석을 수행한 결과, 큰 오차 없이 결과물을 생성할 수 있음을 확인했다. 이후 시계열 데이터 간 상대적 위치 오차 최소화 및 좌표가 획득되어 있지 않은 데이터 처리 등에 대한 연구 및 다양한 위성영상을 활용한 시계열 데이터 생성 기능 추가가 계획되어 있다. 위성영상을 활용한 시계열 데이터의 생성 방법이 정립되고, 국토위성, 농림위성과 같은 국내 위성정보를 이용한 시계열 데이터가 효과적으로 활용될 경우, 국토·농림·산업·해양 분야에서 다양한 응용 가능성이 기대된다.

자율운항선박의 원격검사를 위한 영상처리 기반의 아날로그 게이지 지시바늘 객체의 식별 (Identifying Analog Gauge Needle Objects Based on Image Processing for a Remote Survey of Maritime Autonomous Surface Ships)

  • 이현우;임정빈
    • 한국항해항만학회지
    • /
    • 제47권6호
    • /
    • pp.410-418
    • /
    • 2023
  • 최근 자율운항선박 관련 연구개발과 상용화가 급속하게 진행됨과 동시에 자율운항선박의 감항성 확보를 위하여 선박에 설치된 각종 장비 상태를 원격지에서 검사할 수 있는 방법 역시 연구되고 있다. 특히, 각종 장비에 부착된 아날로그 게이지의 값을 영상처리를 통해 획득할 수 있는 방법이 주요 이슈로 부각되고 있는데, 그 이유는 영상처리 기법을 이용하면 이미 설치되었거나 또는 설치 예정인 다수의 장비를 변형 또는 변경하지 않고 비접촉식으로 게이지의 값을 검출할 수 있어서 장비의 변형 또는 변경에 따른 선급의 형식승인 등이 필요하지 않은 장점이 있기 때문이다. 본 연구의 목적은 잡음이 포함된 아날로그 게이지의 영상 중에서 동적으로 변하는 지시바늘의 객체를 식별하는데 있다. 지시바늘 객체의 위치는 정확한 게이지 값의 판독에 영향을 미치는데, 게이지 값을 정확하게 판독하기 위해서는 우선하여 지시바늘 객체의 식별이 중요하다. 지시바늘 객체의 식별 작업을 위한 영상은 비상소화펌프 모형에 부착한 수압 측정용 아날로그 게이지를 이용하여 획득하였다. 획득한 영상은 가우시안 필터와 임계처리 그리고 모폴로지 연산 등을 통해서 사전처리한 후, 허프 변환을 통해서 지시바늘의 객체를 식별하였다. 실험결과, 잡음이 포함된 아날로그 게이지의 영상에서 지시바늘의 중심과 객체가 식별됨을 확인하였고, 그 결과 본 연구에 적용한 영상처리 방법이 선박에 장착된 아날로그 게이지의 객체 식별에 적용될 수 있음을 알았다. 본 연구는 자율운항선박의 원격검사를 위한 하나의 영상처리 방법으로 적용될 것으로 기대된다.

Deep learning-based automatic segmentation of the mandibular canal on panoramic radiographs: A multi-device study

  • Moe Thu Zar Aung;Sang-Heon Lim;Jiyong Han;Su Yang;Ju-Hee Kang;Jo-Eun Kim;Kyung-Hoe Huh;Won-Jin Yi;Min-Suk Heo;Sam-Sun Lee
    • Imaging Science in Dentistry
    • /
    • 제54권1호
    • /
    • pp.81-91
    • /
    • 2024
  • Purpose: The objective of this study was to propose a deep-learning model for the detection of the mandibular canal on dental panoramic radiographs. Materials and Methods: A total of 2,100 panoramic radiographs (PANs) were collected from 3 different machines: RAYSCAN Alpha (n=700, PAN A), OP-100 (n=700, PAN B), and CS8100 (n=700, PAN C). Initially, an oral and maxillofacial radiologist coarsely annotated the mandibular canals. For deep learning analysis, convolutional neural networks (CNNs) utilizing U-Net architecture were employed for automated canal segmentation. Seven independent networks were trained using training sets representing all possible combinations of the 3 groups. These networks were then assessed using a hold-out test dataset. Results: Among the 7 networks evaluated, the network trained with all 3 available groups achieved an average precision of 90.6%, a recall of 87.4%, and a Dice similarity coefficient (DSC) of 88.9%. The 3 networks trained using each of the 3 possible 2-group combinations also demonstrated reliable performance for mandibular canal segmentation, as follows: 1) PAN A and B exhibited a mean DSC of 87.9%, 2) PAN A and C displayed a mean DSC of 87.8%, and 3) PAN B and C demonstrated a mean DSC of 88.4%. Conclusion: This multi-device study indicated that the examined CNN-based deep learning approach can achieve excellent canal segmentation performance, with a DSC exceeding 88%. Furthermore, the study highlighted the importance of considering the characteristics of panoramic radiographs when developing a robust deep-learning network, rather than depending solely on the size of the dataset.