• 제목/요약/키워드: Automatic Detection

검색결과 1,687건 처리시간 0.029초

360도 영상에서 다중 객체 추적 결과에 대한 뷰포트 추출 가속화 (Acceleration of Viewport Extraction for Multi-Object Tracking Results in 360-degree Video)

  • 박희수;백석호;이석원;이명진
    • 한국항행학회논문지
    • /
    • 제27권3호
    • /
    • pp.306-313
    • /
    • 2023
  • 실사 및 그래픽 기반 가상현실 콘텐츠는 360도 영상을 기반으로 하며, 시청자의 의도나 자동 추천 기능을 통한 뷰포트 추출이 필수적이다. 본 논문은 360도 영상에서 다중 객체 추적 기반의 뷰포트 추출 시스템을 설계하고, 다중 뷰포트 추출에 필요한 병렬화된 연산 구조를 제안한다. 360도 영상에서 뷰포트 추출 과정을 ERP 좌표의 3D 구 표면 좌표 변환과 3D 구 표면 좌표의 뷰포트 내 2D 좌표 변환 과정을 순서대로 픽셀 단위의 스레드로 구성하여 연산을 병렬화하였다. 제안 구조는 항공 360도 영상 시퀀스들에 대하여 최대 30개의 뷰포트 추출 과정에 대한 연산 시간이 평가되었으며, 뷰포트 수에 정비례하는 CPU 기반 연산 시간에 비해 최대 5240배 가속화됨을 확인하였다. ERP 프레임 I/O 시간을 줄일 수 있는 고속의 I/O나 메모리 버퍼를 사용 시 뷰포트 추출 시간을 7.82배 추가 가속화가 가능하다. 제안하는 뷰포트 추출 병렬화 구조는 360도 비디오나 가상현실 콘텐츠들에 대한 동시 다중 접속 서비스나 사용자별 영상 요약 서비스 등에 활용될 수 있다.

딥러닝기반 건축폐기물 이미지 분류 시스템 비교 (A Comparison of Image Classification System for Building Waste Data based on Deep Learning)

  • 성재경;양민철;문경남;김용국
    • 한국인터넷방송통신학회논문지
    • /
    • 제23권3호
    • /
    • pp.199-206
    • /
    • 2023
  • 본 연구는 건축시 발생되는 폐기물의 자동분류를 위해 딥러닝 알고리즘을 활용해 건출 폐기물 데이터를 각각 목재 폐기물, 플라스틱 폐기물, 콘크리트 폐기물로 분류하는 두 모델들을 통해서 성능 비교를 한다. 건축 폐기물의 분류를 위해 사용된 딥러닝 알고리즘은 합성곱 신경망 이미지 분류 알고리즘 VGG-16과 NLP를 기반으로 이미지를 시퀀스화 시킨ViT, Vision Transformer 모델을 사용했다. 건축 폐기물 데이터 수집을 위해 이미지 데이터를 전 세계 검색엔진에서 크롤링 하였고, 육안으로도 명확히 구분하기 어렵거나, 중복되는 등 실험에 방해되는 이미지는 전부 제외하여 각 분류당 1천장씩 총 3천장의 이미지를 확보했다. 또한, 데이터 학습시에 모델의 정확도 향상에 도움을 주기 위해 데이터 확대 작업을 진행해 총 3만장의 이미지로 실험을 진행 하였다. 수집된 이미 데이터가 정형화 되어있지 않은 데이터 임에도 불구하고 실험 결과는 정확도가 VGG-16는 91.5%, ViT 는 92.7%의 결과가 나타났다. 이는 실제 건축폐기물 데이터 관리 작업에 실전 활용 가능성을 제시한 것으로 보인다. 본 연구를 바탕으로 추후에 객체 탐지 기법이나 의미론적 분할 기법까지 활용한다면, 하나의 이미지 안에서도 여러 세밀한 분류가 가능해 더욱 완벽한 분류가 가능할 것이다.

자동 과일 수확을 위한 드론 탑재형 과일 인식 알고리즘 및 수확 메커니즘 (Drone-mounted fruit recognition algorithm and harvesting mechanism for automatic fruit harvesting)

  • 주기영;황보현;이상민;김병규;백중환
    • 항공우주시스템공학회지
    • /
    • 제16권1호
    • /
    • pp.49-55
    • /
    • 2022
  • 최근 드론의 역할은 농업∙건설∙물류등의 다양한 영역으로 확대되고 있으며 특히 농업인구가 고령화되는 현 상황에 따라 드론은 노동력 부족 문제를 해결할 효과적인 대안으로 떠오르고 있다. 이에 본 논문에서는 농업 현장에서의 부족한 노동력을 보완하고 높은 위치의 과일도 안전하게 수확할 수 있는 드론 탑재형 과일수확 시스템을 제안한다. 과일수확 시스템은 과일인식 알고리즘과 과일수확 메커니즘으로 구성되어 있다. 과일인식 알고리즘은 딥러닝 기반의 객체탐지 알고리즘인 You Only Look Once를 사용하였고, 가상 시뮬레이션 환경을 구축하여 가능성을 검증하였다. 또한, 하나의 모터로 구동이 가능한 과일수확 메커니즘을 제안하였다. 모터의 회전운동을 기반으로 Scotch yoke을 구동시켜 선형운동으로 변환하여 gripper가 전개된 상태에서 과실에 접근 후 과실을 잡고 돌려 수확하는 메커니즘이다. 제안된 메커니즘에 대한 다물체동역학 해석을 수행하여 구동 가능성을 검증하였다.

동물성 생약에 함유되어 있는 몇 가지 중금속에 대한 실태 조사 (Monitoring of some heavy metals in oriental animality medicines)

  • 백선영;정재연;이지혜;박경수;강인호;강신정;김연제
    • 분석과학
    • /
    • 제22권3호
    • /
    • pp.201-209
    • /
    • 2009
  • 국내에서 유통 중인 동물성 생약 38개 품목 총 325개 시료를 대상으로 ICP-MS와 수은자동분석기기를 이용하여 납, 카드뮴, 비소, 수은의 오염실태 조사를 수행하였다. 검출된 농도 범위는 납 $0.02{\mu}gkg^{-1}$ $(D.L){\sim}11.29mgkg^{-1}$, 카드뮴 $0.01{\mu}gkg^{-1}$ $(D.L){\sim}2.50 mgkg^{-1}$, 비소 $0.12{\mu}gkg^{-1}$ $(D.L){\sim}5.27mgkg^{-1}$이었으며, 수은의 경우 검출 범위를 초과한 한 개의 시료를 제외하면 $0.01{\sim}77.11mgkg^{-1}$으로 나타났다. 전체 동물성 생약 38품목 중 납, 카드뮴, 비소, 수은 모두가 잔류허용기준치 이하로 검출된 동물성 생약은 별갑과 오배자 2개 품목이었고, 22개 품목에서 납의 오염이 가장 큰 비중을 차지하였다. 수은의 경우 농도 범위가 비교적 넓게 나타난 녹각 등 16개 품목뿐만 아니라 전체 시료의 54.46%가 잔류허용기준치를 초과하였다. 따라서 납과 수은에 대한 지속적인 실태조사를 실시하고 오염원인 추적을 위한 연구가 수행되어야 할 필요가 있는 것으로 나타났다.

준지도 학습과 전이 학습을 이용한 선로 체결 장치 결함 검출 (Detection Fastener Defect using Semi Supervised Learning and Transfer Learning)

  • 이상민;한석민
    • 인터넷정보학회논문지
    • /
    • 제24권6호
    • /
    • pp.91-98
    • /
    • 2023
  • 오늘날 인공지능 산업이 발전함에 따라 여러 분야에 걸쳐 인공지능을 통한 자동화 및 최적화가 이루어지고 있다. 국내의 철도 분야 또한 지도 학습을 이용한 레일의 결함을 검출하는 연구들을 확인할 수 있다. 그러나 철도에는 레일만이 아닌 다른 구조물들이 존재하며 그중 선로 체결 장치는 레일을 다른 구조물에 결합시켜주는 역할을 하는 장치로 안전사고의 예방을 위해서 주기적인 점검이 필요하다. 본 논문에는 선로 체결 장치의 데이터를 이용하여 준지도 학습(semi-supervised learning)과 전이 학습(transfer learning)을 이용한 분류기를 학습시켜 선로 안전 점검에 사용되는 비용을 줄이는 방안을 제안한다. 사용된 네트워크는 Resnet50이며 imagenet으로 선행 학습된 모델이다. 레이블이 없는 데이터에서 무작위로 데이터를 선정 후 레이블을 부여한 뒤 이를 통해 모델을 학습한다. 학습된 모델의 이용하여 남은 데이터를 예측 후 예측한 데이터 중 클래스 별 확률이 가장 높은 데이터를 정해진 크기만큼 훈련용 데이터에 추가하는 방식을 채택하였다. 추가적으로 초기의 레이블된 데이터의 크기가 끼치는 영향력을 확인해보기 위한 실험을 진행하였다. 실험 결과 최대 92%의 정확도를 얻을 수 있었으며 이는 지도 학습 대비 5% 내외의 성능 차이를 가진다. 이는 제안한 방안을 통해 추가적인 레이블링 과정 없이 비교적 적은 레이블을 이용하여 분류기의 성능을 기존보다 향상시킬 수 있을 것으로 예상된다.

자동 위성영상 수집을 통한 다종 위성영상의 시계열 데이터 생성 (Generation of Time-Series Data for Multisource Satellite Imagery through Automated Satellite Image Collection)

  • 남윤지;정성우;김태정;이수암
    • 대한원격탐사학회지
    • /
    • 제39권5_4호
    • /
    • pp.1085-1095
    • /
    • 2023
  • 위성데이터를 활용한 시계열 데이터는 다양한 분야에서 변화 탐지와 모니터링에 필수적인 자료로 활용되고 있다. 시계열 데이터 생성에 관한 선행 연구에서는 데이터의 통일성을 유지하기 위해 주로 단일 영상을 기반으로 분석하는 방식이 사용되었다. 또한 공간 및 시간 해상도 향상을 위해 다종 영상을 활용하는 연구도 활발하게 진행되고 있다. 시계열 데이터의 중요성은 계속해서 강조되지만, 데이터를 자동으로 수집하고 가공하여 연구에 활용하기 위한 산출물은 아직 제공되지 않고 있다. 따라서 이러한 한계를 극복하기 위해 본 논문에서는 사용자가 설정한 지역의 위성정보를 자동으로 수집하고 시계열 데이터를 생성하는 기능을 제안한다. 본 연구는 한 종류의 위성영상뿐만 아니라 동일 지역의 여러 위성데이터를 수집하고 이를 시계열 데이터로 변환하여 산출물을 생성하는 것을 목표로 하며, 이를 위한 위성영상 자동 수집 시스템을 개발하였다. 이 시스템을 활용하면 사용자는 관심 있는 지역을 설정함으로써 해당 지역에 맞게 데이터가 수집되고 Crop되어 즉시 활용할 수 있는 데이터를 생성할 수 있다. 실험 결과로는 웹 상에서 무료로 제공되는 Landsat-8/9 OLI 및 Sentinel-2 A/B 영상의 자동 획득이 가능함을 확인하였으며, 수동 입력을 통해 별도의 고해상도 위성영상도 함께 처리할 수 있었다. 고해상도 위성영상을 기준으로 자동 수집 및 편집된 영상 간의 정확도를 비교하고 육안 분석을 수행한 결과, 큰 오차 없이 결과물을 생성할 수 있음을 확인했다. 이후 시계열 데이터 간 상대적 위치 오차 최소화 및 좌표가 획득되어 있지 않은 데이터 처리 등에 대한 연구 및 다양한 위성영상을 활용한 시계열 데이터 생성 기능 추가가 계획되어 있다. 위성영상을 활용한 시계열 데이터의 생성 방법이 정립되고, 국토위성, 농림위성과 같은 국내 위성정보를 이용한 시계열 데이터가 효과적으로 활용될 경우, 국토·농림·산업·해양 분야에서 다양한 응용 가능성이 기대된다.

자율운항선박의 원격검사를 위한 영상처리 기반의 아날로그 게이지 지시바늘 객체의 식별 (Identifying Analog Gauge Needle Objects Based on Image Processing for a Remote Survey of Maritime Autonomous Surface Ships)

  • 이현우;임정빈
    • 한국항해항만학회지
    • /
    • 제47권6호
    • /
    • pp.410-418
    • /
    • 2023
  • 최근 자율운항선박 관련 연구개발과 상용화가 급속하게 진행됨과 동시에 자율운항선박의 감항성 확보를 위하여 선박에 설치된 각종 장비 상태를 원격지에서 검사할 수 있는 방법 역시 연구되고 있다. 특히, 각종 장비에 부착된 아날로그 게이지의 값을 영상처리를 통해 획득할 수 있는 방법이 주요 이슈로 부각되고 있는데, 그 이유는 영상처리 기법을 이용하면 이미 설치되었거나 또는 설치 예정인 다수의 장비를 변형 또는 변경하지 않고 비접촉식으로 게이지의 값을 검출할 수 있어서 장비의 변형 또는 변경에 따른 선급의 형식승인 등이 필요하지 않은 장점이 있기 때문이다. 본 연구의 목적은 잡음이 포함된 아날로그 게이지의 영상 중에서 동적으로 변하는 지시바늘의 객체를 식별하는데 있다. 지시바늘 객체의 위치는 정확한 게이지 값의 판독에 영향을 미치는데, 게이지 값을 정확하게 판독하기 위해서는 우선하여 지시바늘 객체의 식별이 중요하다. 지시바늘 객체의 식별 작업을 위한 영상은 비상소화펌프 모형에 부착한 수압 측정용 아날로그 게이지를 이용하여 획득하였다. 획득한 영상은 가우시안 필터와 임계처리 그리고 모폴로지 연산 등을 통해서 사전처리한 후, 허프 변환을 통해서 지시바늘의 객체를 식별하였다. 실험결과, 잡음이 포함된 아날로그 게이지의 영상에서 지시바늘의 중심과 객체가 식별됨을 확인하였고, 그 결과 본 연구에 적용한 영상처리 방법이 선박에 장착된 아날로그 게이지의 객체 식별에 적용될 수 있음을 알았다. 본 연구는 자율운항선박의 원격검사를 위한 하나의 영상처리 방법으로 적용될 것으로 기대된다.

Deep learning-based automatic segmentation of the mandibular canal on panoramic radiographs: A multi-device study

  • Moe Thu Zar Aung;Sang-Heon Lim;Jiyong Han;Su Yang;Ju-Hee Kang;Jo-Eun Kim;Kyung-Hoe Huh;Won-Jin Yi;Min-Suk Heo;Sam-Sun Lee
    • Imaging Science in Dentistry
    • /
    • 제54권1호
    • /
    • pp.81-91
    • /
    • 2024
  • Purpose: The objective of this study was to propose a deep-learning model for the detection of the mandibular canal on dental panoramic radiographs. Materials and Methods: A total of 2,100 panoramic radiographs (PANs) were collected from 3 different machines: RAYSCAN Alpha (n=700, PAN A), OP-100 (n=700, PAN B), and CS8100 (n=700, PAN C). Initially, an oral and maxillofacial radiologist coarsely annotated the mandibular canals. For deep learning analysis, convolutional neural networks (CNNs) utilizing U-Net architecture were employed for automated canal segmentation. Seven independent networks were trained using training sets representing all possible combinations of the 3 groups. These networks were then assessed using a hold-out test dataset. Results: Among the 7 networks evaluated, the network trained with all 3 available groups achieved an average precision of 90.6%, a recall of 87.4%, and a Dice similarity coefficient (DSC) of 88.9%. The 3 networks trained using each of the 3 possible 2-group combinations also demonstrated reliable performance for mandibular canal segmentation, as follows: 1) PAN A and B exhibited a mean DSC of 87.9%, 2) PAN A and C displayed a mean DSC of 87.8%, and 3) PAN B and C demonstrated a mean DSC of 88.4%. Conclusion: This multi-device study indicated that the examined CNN-based deep learning approach can achieve excellent canal segmentation performance, with a DSC exceeding 88%. Furthermore, the study highlighted the importance of considering the characteristics of panoramic radiographs when developing a robust deep-learning network, rather than depending solely on the size of the dataset.

단층치료용 비디오 영상기반 셋업 장치의 개발: 예비연구 (Development of Video Image-Guided Setup (VIGS) System for Tomotherapy: Preliminary Study)

  • 김진성;주상규;홍채선;정재원;손기홍;신정석;신은혁;안성환;한영이;최두호
    • 한국의학물리학회지:의학물리
    • /
    • 제24권2호
    • /
    • pp.85-91
    • /
    • 2013
  • 초고압 전산화단층촬영(megavoltage computed tomography, MVCT)이 단층치료(Tomotherapy) 환자의 치료 자세 교정 방법으로 사용되고 있다. MVCT는 부가적인 방사선 피폭뿐만 아니라 전체 치료 시간이 길어지는 단점을 가지고 있다. 이러한 문제점 해결을 위해 비디오 영상기반 환자 치료 자세 교정 시스템(video image-guided setup system, VIGS)을 개발했다. 단층치료 장치내 갠트리에 직각으로 2대의 비디오 카메라를 장착하고 이로부터 얻은 영상을 이용하여 환자의 자세 오차를 측정하는 프로그램을 자체 개발했다. 개발된 시스템은 사용자에 의해 정의된 관심 영역에서의 에지 검출(edge detection) 결과를 기반으로 자동 정합을 통해 자세 오차를 찾도록 고안되었다. 두경부 환자를 묘사하기 위해 휴먼 팬톰을 이용하여 컴퓨터 단층 치료계획 영상을 획득한 후 전산화 치료계획을 수행했다. 실제 치료 상태를 재현하기 위해 고정 용구를 이용하여 팬톰을 고정했으며 전산화치료계획 결과로 부터 팬톰 자세 검증을 위한 기준 MVCT 영상을 획득했다. 팬톰을 치료 위치에 위치시킨 후 MVCT 영상을 얻고 이를 기준 MVCT영상과 비교하여 치료계획시와 동일환 자세가 되도록 위치를 교정했다. 교정된 자세에서 VGIS를 이용하여 기준 비디오 영상을 획득했다. 10회 걸쳐 MVCT 영상을 이용한 자세 교정과 VIGS를 이용한 비디오 영상기반 자세 교정을 각각 수행하여 두 방법간의 교정 값 차이(상관 분석)와 분석 시간을 비교했다. 팬톰 위치 교정 시간은 VIGS 시스템($41.7{\pm}11.2$ seconds)이 MVCT 방법($420{\pm}6$ seconds)에 비해 현저히 적게 조사됐다(p<0.05). 하지만 두 방법간의 위치 오차 분석 결과 통계적으로 유의한 차이는 보이지 않았다(x=0.11 mm, y=0.27 mm, z=0.58 mm, p>0.05). VIGS시스템이 짧은 시간에 정확한 위치 오차 감지 능력을 보여 이의 개발이 단층치료의 절차를 효율적으로 개선하는데 효과적일 것으로 생각된다.

매장 문화재 공간 분포 결정을 위한 지하투과레이더 영상 분석 자동화 기법 탐색 (Automated Analyses of Ground-Penetrating Radar Images to Determine Spatial Distribution of Buried Cultural Heritage)

  • 권문희;김승섭
    • 자원환경지질
    • /
    • 제55권5호
    • /
    • pp.551-561
    • /
    • 2022
  • 지구물리탐사기법은 매장 문화재 조사에 필요한 높은 해상도의 지하 구조 영상 생성과 매장 유구의 정확한 위치 결정하는 데 매우 유용하다. 이 연구에서는 경주 신라왕경 중심방의 고해상도 지하투과레이더 영상에서 유구의 규칙적인 배열이나 선형 구조를 자동적으로 구분하기 위하여 영상처리 기법인 영상 특징 추출과 영상분할 기법을 적용하였다. 영상 특징 추출의 대상은 유구의 원형 적심과 선형의 도로 및 담장으로 캐니 윤곽선 검출(Canny edge detection)과 허프 변환(Hough Transform) 알고리듬을 적용하였다. 캐니 윤곽선 검출 알고리듬으로 검출된 윤곽선 이미지에 허프 변환을 적용하여 유구의 위치를 탐사 영상에서 자동 결정하고자 하였으나, 탐사 지역별로 매개변수를 달리해서 적용해야 한다는 제약이 있었다. 영상 분할 기법의 경우 연결요소 분석 알고리듬과 QGIS에서 제공하는 Orfeo Toolbox (OTB)를 이용한 객체기반 영상분석을 적용하였다. 연결 요소 분석 결과에서, 유구에 의한 신호들이 연결된 요소들로 효과적으로 인식되었지만 하나의 유구가 여러 요소로 분할되어 인식되는 경우도 발생함을 확인하였다. 객체기반 영상분석에서는 평균이동(Large-Scale Mean-Shift, LSMS) 영상 분할을 적용하여 각 분할 영역에 대한 화소 정보가 포함된 벡터 레이어를 우선 생성하였고, 유구를 포함하는 영역과 포함하지 않는 영역을 선별하여 훈련 모델을 생성하였다. 이 훈련모델에 기반한 랜덤포레스트 분류기를 이용해 LSMS 영상분할 벡터 레이어에서 유구를 포함하는 영역과 그렇지 않은 영역이 자동 분류 될 수 있음을 확인하였다. 이러한 자동 분류방법을 매장 문화재 지하투과레이더 영상에 적용한다면 유구 발굴 계획에 활용가능한 일관성 있는 결과를 얻을 것으로 기대한다.