• 제목/요약/키워드: 기존 알고리즘

검색결과 12,322건 처리시간 0.039초

Word2Vec을 활용한 제품군별 시장규모 추정 방법에 관한 연구 (A Study on Market Size Estimation Method by Product Group Using Word2Vec Algorithm)

  • 정예림;김지희;유형선
    • 지능정보연구
    • /
    • 제26권1호
    • /
    • pp.1-21
    • /
    • 2020
  • 인공지능 기술의 급속한 발전과 함께 빅데이터의 상당 부분을 차지하는 비정형 텍스트 데이터로부터 의미있는 정보를 추출하기 위한 다양한 연구들이 활발히 진행되고 있다. 비즈니스 인텔리전스 분야에서도 새로운 시장기회를 발굴하거나 기술사업화 주체의 합리적 의사결정을 돕기 위한 많은 연구들이 이뤄져 왔다. 본 연구에서는 기업의 성공적인 사업 추진을 위해 핵심적인 정보 중의 하나인 시장규모 정보를 도출함에 있어 기존에 제공되던 범위보다 세부적인 수준의 제품군별 시장규모 추정이 가능하고 자동화된 방법론을 제안하고자 한다. 이를 위해 신경망 기반의 시멘틱 단어 임베딩 모델인 Word2Vec 알고리즘을 적용하여 개별 기업의 생산제품에 대한 텍스트 데이터를 벡터 공간으로 임베딩하고, 제품명 간 코사인 거리(유사도)를 계산함으로써 특정한 제품명과 유사한 제품들을 추출한 뒤, 이들의 매출액 정보를 연산하여 자동으로 해당 제품군의 시장규모를 산출하는 알고리즘을 구현하였다. 실험 데이터로서 통계청의 경제총조사 마이크로데이터(약 34만 5천 건)를 이용하여 제품명 텍스트 데이터를 벡터화 하고, 한국표준산업분류 해설서의 산업분류 색인어를 기준으로 활용하여 코사인 거리 기반으로 유사한 제품명을 추출하였다. 이후 개별 기업의 제품 데이터에 연결된 매출액 정보를 기초로 추출된 제품들의 매출액을 합산함으로써 11,654개의 상세한 제품군별 시장규모를 추정하였다. 성능 검증을 위해 실제 집계된 통계청의 품목별 시장규모 수치와 비교한 결과 피어슨 상관계수가 0.513 수준으로 나타났다. 본 연구에서 제시한 모형은 의미 기반 임베딩 모델의 정확성 향상 및 제품군 추출 방식의 개선이 필요하나, 표본조사 또는 다수의 가정을 기반으로 하는 전통적인 시장규모 추정 방법의 한계를 뛰어넘어 텍스트 마이닝 및 기계학습 기법을 최초로 적용하여 시장규모 추정 방식을 지능화하였다는 점, 시장규모 산출범위를 사용 목적에 따라 쉽고 빠르게 조절할 수 있다는 점, 이를 통해 다양한 분야에서 수요가 높은 세부적인 제품군별 시장정보 도출이 가능하여 실무적인 활용성이 높다는 점에서 의의가 있다.

텍스트 마이닝을 활용한 지역 특성 기반 도시재생 유형 추천 시스템 제안 (Suggestion of Urban Regeneration Type Recommendation System Based on Local Characteristics Using Text Mining)

  • 김익준;이준호;김효민;강주영
    • 지능정보연구
    • /
    • 제26권3호
    • /
    • pp.149-169
    • /
    • 2020
  • 현 정부의 주요 국책사업 중 하나인 도시재생 뉴딜사업은 매년 100 곳씩, 5년간 500곳을대상으로 50조를 투자하여 낙후된 지역을 개발하는 것으로 언론과 지자체의 높은 이목이 집중되고 있다. 그러나, 현재 이 사업모델은 면적 규모에 따라 "우리동네 살리기, 주거정비지원형, 일반근린형, 중심시가지형, 경제기반형" 등 다섯 가지로 나뉘어 추진되어 그 지역 본래의 특성을 반영하지 못하고 있다. 국내 도시재생 성공 키워드는 "주민 참여", "지역특화" "부처협업", "민관협력"이다. 성공 키워드에 따르면 지자체에서 정부에게 도시재생 사업을 제안할 때 지역주민, 민간기업의 도움과 함께 도시의 특성을 정확히 이해하고 도시의 특성에 어울리는 방향으로 사업을 추진하는 것이 가장 중요하다는 것을 알 수 있다. 또한 도시재생 사업 후 발생하는 부작용 중 하나인 젠트리피케이션 문제를 고려하면 그 지역 특성에 맞는 도시재생 유형을 선정하여 추진하는 것이 중요하다. 이에 본 연구는 '도시재생 뉴딜 사업' 방법론의 한계점을 보완하기 위해, 기존 서울시가 지역 특성에 기반하여 추진하고 있는 "2025 서울시 도시재생 전략계획"의 도시재생 유형을 참고하여 도시재생 사업지에 맞는 도시재생 유형을 추천하는 시스템을 머신러닝 알고리즘을 활용하여 제안하고자 한다. 서울시 도시재생 유형은 "저이용저개발, 쇠퇴낙후, 노후주거, 역사문화자원 특화" 네 가지로 분류된다 (Shon and Park, 2017). 지역 특성을 파악하기 위해 총 4가지 도시재생 유형에 대해 사업이 진행된 22개의 지역에 대한 뉴스 미디어 10만여건의 텍스트 데이터를 수집하였다. 수집된 텍스트를 이용하여 도시재생 유형에 따른 지역별 주요 키워드를 도출하고 토픽모델링을 수행하여 유형별 차이가 있는 지 탐색해 보았다. 다음 단계로 주어진 텍스트를 기반으로 도시재생 유형을 추천하는 추천시스템 구축을 위해 텍스트 데이터를 벡터로 변환하여 머신러닝 분류모델을 개발하였고, 이를 검증한 결과 97% 정확도를 보였다. 따라서 본 연구에서 제안하는 추천 시스템은 도시재생 사업을 진행하는 과정에서 신규 사업지의 지역 특성에 기반한 도시재생 유형을 추천할 수 있을 것으로 기대된다.

Hybrid CNN-LSTM 알고리즘을 활용한 도시철도 내 피플 카운팅 연구 (A Study on People Counting in Public Metro Service using Hybrid CNN-LSTM Algorithm)

  • 최지혜;김민승;이찬호;최정환;이정희;성태응
    • 지능정보연구
    • /
    • 제26권2호
    • /
    • pp.131-145
    • /
    • 2020
  • 산업혁신의 흐름에 발맞추어 다양한 분야에서 활용되고 있는 IoT 기술은 빅데이터의 접목을 통한 새로운 비즈니스 모델의 창출 및 사용자 친화적 서비스 제공의 핵심적인 요소로 부각되고 있다. 사물인터넷이 적용된 디바이스에서 누적된 데이터는 사용자 환경 및 패턴 분석을 통해 맞춤형 지능 시스템을 제공해줄 수 있어 편의 기반 스마트 시스템 구축에 다방면으로 활용되고 있다. 최근에는 이를 공공영역 혁신에 확대 적용하여 CCTV를 활용한 교통 범죄 문제 해결 등 스마트시티, 스마트 교통 등에 활용하고 있다. 그러나 이미지 데이터를 활용하는 기존 연구에서는 개인에 대한 사생활 침해 문제 및 비(非)일반적 상황에서 객체 감지 성능이 저하되는 한계가 있다. 본 연구에 활용된 IoT 디바이스 기반의 센서 데이터는 개인에 대한 식별이 불필요해 사생활 이슈로부터 자유로운 데이터로, 불특정 다수를 위한 지능형 공공서비스 구축에 효과적으로 활용될 수 있다. 대다수의 국민들이 일상적으로 활용하는 도시철도에서의 지능형 보행자 트래킹 시스템에 IoT 기반의 적외선 센서 디바이스를 활용하고자 하였으며 센서로부터 측정된 온도 데이터를 실시간 송출하고, CNN-LSTM(Convolutional Neural Network-Long Short Term Memory) 알고리즘을 활용하여 구간 내 보행 인원의 수를 예측하고자 하였다. 실험 결과 MLP(Multi-Layer Perceptron) 및 LSTM(Long Short-Term Memory), RNN-LSTM(Recurrent Neural Network-Long Short Term Memory)에 비해 제안한 CNN-LSTM 하이브리드 모형이 가장 우수한 예측성능을 보임을 확인하였다. 본 논문에서 제안한 디바이스 및 모델을 활용하여 그간 개인정보와 관련된 법적 문제로 인해 서비스 제공이 미흡했던 대중교통 내 실시간 모니터링 및 혼잡도 기반의 위기상황 대응 서비스 등 종합적 메트로 서비스를 제공할 수 있을 것으로 기대된다.

Hierarchical Attention Network를 이용한 복합 장애 발생 예측 시스템 개발 (Development of a complex failure prediction system using Hierarchical Attention Network)

  • 박영찬;안상준;김민태;김우주
    • 지능정보연구
    • /
    • 제26권4호
    • /
    • pp.127-148
    • /
    • 2020
  • 데이터 센터는 컴퓨터 시스템과 관련 구성요소를 수용하기 위한 물리적 환경시설로, 빅데이터, 인공지능 스마트 공장, 웨어러블, 스마트 홈 등 차세대 핵심 산업의 필수 기반기술이다. 특히, 클라우드 컴퓨팅의 성장으로 데이터 센터 인프라의 비례적 확장은 불가피하다. 이러한 데이터 센터 설비의 상태를 모니터링하는 것은 시스템을 유지, 관리하고 장애를 예방하기 위한 방법이다. 설비를 구성하는 일부 요소에 장애가 발생하는 경우 해당 장비뿐 아니라 연결된 다른 장비에도 영향을 미칠 수 있으며, 막대한 손해를 초래할 수 있다. 특히, IT 시설은 상호의존성에 의해 불규칙하고 원인을 알기 어렵다. 데이터 센터 내 장애를 예측하는 선행연구에서는, 장치들이 혼재된 상황임을 가정하지 않고 단일 서버를 단일 상태로 보고 장애를 예측했다. 이에 본 연구에서는, 서버 내부에서 발생하는 장애(Outage A)와 서버 외부에서 발생하는 장애(Outage B)로 데이터 센터 장애를 구분하고, 서버 내에서 발생하는 복합적인 장애 분석에 중점을 두었다. 서버 외부 장애는 전력, 냉각, 사용자 실수 등인데, 이와 같은 장애는 데이터 센터 설비 구축 초기 단계에서 예방이 가능했기 때문에 다양한 솔루션이 개발되고 있는 상황이다. 반면 서버 내 발생하는 장애는 원인 규명이 어려워 아직까지 적절한 예방이 이뤄지지 못하고 있다. 특히 서버 장애가 단일적으로 발생하지 않고, 다른 서버 장애의 원인이 되기도 하고, 다른 서버부터 장애의 원인이 되는 무언가를 받기도 하는 이유다. 즉, 기존 연구들은 서버들 간 영향을 주지 않는 단일 서버인 상태로 가정하고 장애를 분석했다면, 본 연구에서는 서버들 간 영향을 준다고 가정하고 장애 발생 상태를 분석했다. 데이터 센터 내 복합 장애 상황을 정의하기 위해, 데이터 센터 내 존재하는 각 장비별로 장애가 발생한 장애 이력 데이터를 활용했다. 본 연구에서 고려되는 장애는 Network Node Down, Server Down, Windows Activation Services Down, Database Management System Service Down으로 크게 4가지이다. 각 장비별로 발생되는 장애들을 시간 순으로 정렬하고, 특정 장비에서 장애가 발생하였을 때, 발생 시점으로부터 5분 내 특정 장비에서 장애가 발생하였다면 이를 동시에 장애가 발생하였다고 정의하였다. 이렇게 동시에 장애가 발생한 장비들에 대해서 Sequence를 구성한 후, 구성한 Sequence 내에서 동시에 자주 발생하는 장비 5개를 선정하였고, 선정된 장비들이 동시에 장애가 발생된 경우를 시각화를 통해 확인하였다. 장애 분석을 위해 수집된 서버 리소스 정보는 시계열 단위이며 흐름성을 가진다는 점에서 이전 상태를 통해 다음 상태를 예측할 수 있는 딥러닝 알고리즘인 LSTM(Long Short-term Memory)을 사용했다. 또한 단일 서버와 달리 복합장애는 서버별로 장애 발생에 끼치는 수준이 다르다는 점을 감안하여 Hierarchical Attention Network 딥러닝 모델 구조를 활용했다. 본 알고리즘은 장애에 끼치는 영향이 클 수록 해당 서버에 가중치를 주어 예측 정확도를 높이는 방법이다. 연구는 장애유형을 정의하고 분석 대상을 선정하는 것으로 시작하여, 첫 번째 실험에서는 동일한 수집 데이터에 대해 단일 서버 상태와 복합 서버 상태로 가정하고 비교분석하였다. 두 번째 실험은 서버의 임계치를 각각 최적화 하여 복합 서버 상태일 때의 예측 정확도를 향상시켰다. 단일 서버와 다중 서버로 각각 가정한 첫 번째 실험에서 단일 서버로 가정한 경우 실제 장애가 발생했음에도 불구하고 5개 서버 중 3개의 서버에서는 장애가 발생하지 않은것으로 예측했다. 그러나 다중 서버로 가정했을때에는 5개 서버 모두 장애가 발생한 것으로 예측했다. 실험 결과 서버 간 영향이 있을 것이라고 추측한 가설이 입증된 것이다. 연구결과 단일 서버로 가정했을 때 보다 다중 서버로 가정했을 때 예측 성능이 우수함을 확인했다. 특히 서버별 영향이 다를것으로 가정하고 Hierarchical Attention Network 알고리즘을 적용한 것이 분석 효과를 향상시키는 역할을 했다. 또한 각 서버마다 다른 임계치를 적용함으로써 예측 정확도를 향상시킬 수 있었다. 본 연구는 원인 규명이 어려운 장애를 과거 데이터를 통해 예측 가능하게 함을 보였고, 데이터 센터의 서버 내에서 발생하는 장애를 예측할 수 있는 모델을 제시했다. 본 연구결과를 활용하여 장애 발생을 사전에 방지할 수 있을 것으로 기대된다.

모바일 랜드마크 가이드 : LOD와 문맥적 장치 기반의 실외 증강현실 (A Mobile Landmarks Guide : Outdoor Augmented Reality based on LOD and Contextual Device)

  • 조비성;누르지드;장철희;이기성;조근식
    • 지능정보연구
    • /
    • 제18권1호
    • /
    • pp.1-21
    • /
    • 2012
  • 최근 스마트폰의 등장으로 인해 사용자들은 시간과 공간의 제약 없이 스마트폰을 이용한 새로운 의사소통의 방법을 경험하고 있다. 이러한 스마트폰은 고화질의 컬러화면, 고해상도 카메라, 실시간 3D 가속그래픽과 다양한 센서(GPS와 Digital Compass) 등을 제공하고 있으며, 다양한 센서들은 사용자들(개발자, 일반 사용자)로 하여금 이전에 경험하지 못했던 서비스를 경험할 수 있도록 지원하고 있다. 그 중에서 모바일 증강현실은 스마트폰의 다양한 센서들을 이용하여 개발할 수 있는 대표적인 서비스 중 하나이며, 이러한 센서들을 이용한 다양한 방법의 모바일 증강현실 연구들이 활발하게 진행되고 있다. 모바일 증강현실은 크게 위치 정보 기반의 서비스와 내용 기반 서비스로 구분할 수 있다. 위치 정보 기반의 서비스는 구현이 쉬운 장점이 있으나, 증강되는 정보의 위치가 실제의 객체의 정확한 위치에 증강되는 정보가 제공되지 않는 경우가 발생하는 단점이 존재한다. 이와 반대로, 내용 기반 서비스는 정확한 위치에 증강되는 정보를 제공할 수 있으나, 구현 및 데이터베이스에 존재하는 이미지의 양에 따른 검색 속도가 증가하는 단점이 존재한다. 본 논문에서는 위치 정보 기반의 서비스와 내용기반의 서비스의 장점들을 이용한 방법으로, 스마트폰의 다양한 센서(GPS, Digital Compass)로 부터 수집된 정보를 이용하여 데이터베이스의 탐색 범위를 줄이고, 탐색 범위에 존재하는 이미지들의 특징 정보를 기반으로 실제의 랜드마크를 인식하고, 인식한 랜드마크의 정보를 링크드 오픈 데이터(LOD)에서 검색하여 해당 정보를 제공하는 랜드마크 가이드 시스템을 제안한다. 제안하는 시스템은 크게 2개의 모듈(랜드마크 탐색 모듈과 어노테이션 모듈)로 구성되어있다. 첫 번째로, 랜드마크 탐색 모듈은 스마트폰으로 인식한 랜드마크(건물, 조형물 등)에 해당하는 정보들을 (텍스트, 사진, 비디오 등) 링크드 오픈 데이터에서 검색하여 검색된 결과를 인식한 랜드마크의 정확한 위치에 정보를 제공하는 역할을 한다. 스마트폰으로부터 입력 받은 이미지에서 특징점 추출을 위한 방법으로는 SURF 알고리즘을 사용했다. 또한 실시간성을 보장하고 처리 속도를 향상 시키기 위한 방법으로는 입력 받은 이미지와 데이터베이스에 있는 이미지의 비교 연산을 수행할 때 GPS와 Digital Compass의 정보를 사용하여 그리드 기반의 클러스터링을 생성하여 탐색 범위를 줄임으로써, 이미지 검색 속도를 향상 시킬 수 있는 방법을 제시하였다. 두 번째로 어노테이션 모듈은 사용자들의 참여에 의해서 새로운 랜드마크의 정보를 링크드 오픈 데이터에 추가할 수 있는 기능을 제공한다. 사용자들은 키워드를 이용해서 링크드 오픈 데이터로에서 관련된 주제를 검색할 수 있으며, 검색된 정보를 수정하거나, 사용자가 지정한 랜드마크에 해당 정보를 표시할 수 있도록 지정할 수 있다. 또한, 사용자가 지정하려고 하는 랜드마크에 대한 정보가 존재하지 않는다면, 사용자는 랜드마크의 사진을 업로드하고, 새로운 랜드마크에 대한 정보를 생성하는 기능을 제공한다. 이러한 과정은 시스템이 카메라로부터 입력 받은 대상(랜드마크)에 대한 정확한 증강현실 컨텐츠를 제공하기 위해 필요한 URI를 찾는데 사용되며, 다양한 각도의 랜드마크 사진들을 사용자들에 의해 협업적으로 생성할 수 있는 환경을 제공한다. 본 연구에서 데이터베이스의 탐색 범위를 줄이기 위해서 랜드마크의 GPS 좌표와 Digital Compass의 정보를 이용하여 그리드 기반의 클러스터링 방법을 제안하여, 그 결과 탐색시간이 기존에는 70~80ms 걸리는 반면 제안하는 방법을 통해서는 18~20ms로 약 75% 정도 향상된 것을 확인할 수 있었다. 이러한 탐색시간의 감소는 전체적인 검색시간을 기존의 490~540ms에서 438~480ms로 약 10% 정도 향상된 것을 확인하였다.

의존 구문 분석을 이용한 질의 기반 정답 추출 (Query-based Answer Extraction using Korean Dependency Parsing)

  • 이도경;김민태;김우주
    • 지능정보연구
    • /
    • 제25권3호
    • /
    • pp.161-177
    • /
    • 2019
  • 질의응답 시스템은 크게 사용자의 질의를 분석하는 방법인 질의 분석과 문서 내에서 적합한 정답을 추출하는 방법인 정답 추출로 이루어지며, 두 방법에 대한 다양한 연구들이 진행되고 있다. 본 연구에서는 문장의 의존 구문 분석 결과를 이용하여 질의응답 시스템 내 정답 추출의 성능 향상을 위한 연구를 진행한다. 정답 추출의 성능을 높이기 위해서는 문장의 문법적인 정보를 정확하게 반영할 필요가 있다. 한국어의 경우 어순 구조가 자유롭고 문장의 구성 성분 생략이 빈번하기 때문에 의존 문법에 기반한 의존 구문 분석이 적합하다. 기존에 의존 구문 분석을 질의응답 시스템에 반영했던 연구들은 구문 관계 정보나 구문 형식의 유사도를 정의하는 메트릭을 사전에 정의해야 한다는 한계점이 있었다. 또 문장의 의존 구문 분석 결과를 트리 형태로 표현한 후 트리 편집 거리를 계산하여 문장의 유사도를 계산한 연구도 있었는데 이는 알고리즘의 연산량이 크다는 한계점이 존재한다. 본 연구에서는 구문 패턴에 대한 정보를 사전에 정의하지 않고 정답 후보 문장을 그래프로 나타낸 후 그래프 정보를 효과적으로 반영할 수 있는 Graph2Vec을 활용하여 입력 자질을 생성하였고, 이를 정답 추출모델의 입력에 추가하여 정답 추출 성능 개선을 시도하였다. 의존 그래프를 생성하는 단계에서 의존 관계의 방향성 고려 여부와 노드 간 최대 경로의 길이를 다양하게 설정하며 자질을 생성하였고, 각각의 경우에 따른 정답추출 성능을 비교하였다. 본 연구에서는 정답 후보 문장들의 신뢰성을 위하여 웹 검색 소스를 한국어 위키백과, 네이버 지식백과, 네이버 뉴스로 제한하여 해당 문서에서 기존의 정답 추출 모델보다 성능이 향상함을 입증하였다. 본 연구의 실험을 통하여 의존 구문 분석 결과로 생성한 자질이 정답 추출 시스템 성능 향상에 기여한다는 것을 확인하였고 해당 자질을 정답 추출 시스템뿐만 아니라 감성 분석이나 개체명 인식과 같은 다양한 자연어 처리 분야에 활용 될 수 있을 것으로 기대한다.

ERGM 기반의 모수적 및 비모수적 방법을 활용한 수출 유망국가 분석: 정보통신 및 가전 산업 사례를 중심으로 (Analysis of promising countries for export using parametric and non-parametric methods based on ERGM: Focusing on the case of information communication and home appliance industries)

  • 전승표;서진이;유재영
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.175-196
    • /
    • 2022
  • 우리나라의 주력 산업 중 하나였던 정보통신 및 가전 산업은 점차 수출 비중이 낮아지는 등 수출 경쟁력이 약화되고 있다. 본 연구는 이런 정보통신 및 가전 산업의 수출 제고를 돕기 위해서 객관적으로 수출경쟁력을 분석하고 수출 유망국가를 제시하고자 했다. 본 연구는 수출경쟁력 평가를 위해서 네트워크 분석 중 구조적 특징, 중심성 그리고 구조적 공백 분석을 수행했다. 유망 수출 국가를 선정하기 위해서는 기존에 경제적 요인 외에도 이미 형성된 글로벌 무역 네트워크(ITN) 즉 글로벌 밸류체인(GVC)의 특성을 고려할 수 있는 새로운 변수를 제안했다. 국가간 무역 네트워크 분석에서 Exponential Random Graph Model(ERGM)을 통해 도출된 개별적인 링크에 대한 조건부 로짓값(log-odds)을 수출가능성을 나타낼 수 있는 대리변수로 가정했다. 이런 ERGM의 링크 연결 가능성까지 고려해 수출 유망국가를 추천하는 데는 모수적 접근 방법과 비모수적 접근 방법을 각각 활용했다. 모수적 방법에서는 ERGM에서 도출된 네트워크의 링크별 특성값을 기존의 경제적 요인에 추가 고려하여 우리나라 정보통신 및 가전 산업 수출액을 예측하는 회귀분석 모형을 개발했다. 또한 비모수적 접근 방법에서는 클러스터링 방법을 바탕으로 한 Abnormality detection 알고리즘을 활용했는데, 2개 Peer(동배)에서 벗어난 이상값을 찾는 방법으로 수출 유망국가를 제안했다. 연구 결과에 따르면, 해당 산업 수출 네트워크의 구조적 특징은 이전성이 높은 연결망이었으며, 중심성 분석결과에 따르면 우리나라는 수출에 규모에 비해서 영향력이 약한 것으로 나타났고, 구조적 공백 분석결과에서 수출 효율성이 약한 것으로 나타났다. 본 연구가 제안한 추천모델에 따르면 모수 분석에서는 이란, 아일랜드, 북마케도니아, 앙골라, 파키스탄이 유망 수출 국가로 나타났으며, 비모수 분석에서는 카타르, 룩셈부르크, 아일랜드, 북마케도니아, 파키스탄이 유망 국가로 분석되었으며, 분석방법에 따라 추천된 국가에서는 일부 차이가 나타났다. 본 연구결과는 GVC에서 우리나라 정보통신과 가전 산업의 수출경쟁력이 수출 규모에 비해서 높지 않음을 밝혔고, 따라서 수출이 더욱 감소될 수 있음을 보였다. 또한 본 연구는 이렇게 약화된 수출경쟁력을 높일 수 있는 방안으로 다른 국가들과의 GVC 네트워크까지 고려해 수출유망 국가를 찾는 방법을 제안했다는데 의의가 있다.

실시간 신호제어시스템의 대기길이 추정 알고리즘 개발 (A Development of Traffic Queue Length Measuring Algorithm Using ILD(Inductive Loop Detector) Based on COSMOS)

  • 성기주;이철기;정준하;이영인;박대현
    • 한국ITS학회 논문지
    • /
    • 제3권1호
    • /
    • pp.85-96
    • /
    • 2004
  • 본 연구의 기본개념은 개별 차량이 대기차량 검지기를 통과할 때 "점유시간이 길다면 곧 차량은 정체하고 있다."라는 아주 기본적인 명제에서 출발하고 있다. 즉 차량의 속도를 고려하지 않고, 점유시간과 정체도는 비례한다는 개념으로부터 차량의 점유시간에서 정체도의 개념을 바로 유추하는 것이다. 본 연구에서 수행한 결과만을 놓고 본다면, 본 연구에서 제안하는 방식인 지점속도 대신 주기단위 점유율을 사용하는것이 모형이 정확도와 대기길이 추정의 신뢰도 측면에서 공히 우월한 결과를 얻었다. 이외 운영자 측면에서의 이점으로는 긴존 방식에서 요구되는 모수 s1, s2, Thdoc 값을 현장에 맞게 최적화 할 필요 없이 점유율을 곧 바로 정체도로 사용할 수 있다는 장점도 매력적일 수 있다. 점유율 방식을 사용할 경우 물론 현장 상황에 따라 조정되어야 할 변수들이 있겠지만, 기정값으로는 기존 임계정체도에서 사용하는 값인 0.7 대신에 0.20 - 0.30 정도가 적당한 것으로 분석되었다. 단, 제안 모형의 한계로는 본 모형은 누적 점유시간을 계측 주기시간 동안의 점유율을 사용하기 때문에 만일 대기차량이 형성되어 있는 동안 차량이 검지기를 점유하지 않을 때는 상당한 오차를 가지게 된다는 문제가 있다. 따라서 제안방식의 모형의 추정 신뢰도를 제고하기 위해서는 현재 상류부 대기길이용 검지기인 1.8m X 1.8m 크기의 검지기를 차량흐름 방향으로 크게 하거나 아니면 아예 검지기를 쌍으로 설치하는 것이 필요하다고 하겠다. 또한 COSMOS 시스템에서의 신뢰도 높은 대기길이 추정 기능은 과포화시 효율적인 신호제어에 필수적으로 요구되는 기능으로 향후 이와 관련된 후속연구가 활발히 진행되기를 바란다.그리고 매트릭스는 $256\times512$ 였다. MRI촬영자료에서 관절연골부위를 픽셀단위로 비교분석 하였다. 배양이 끝난 관절연골은 hematoxylin & eosin, toluidine blue, alcian blue, trichrome 염색 등을 시행하여 관찰하였다. 결과 : Dimethylmethylene blue를 이용한 GAG의 정량분석결과 배양시간증가에 따라 GAG의 농도가 비례적으로 증가하였다. $Gd(DTPA)^{2-}$ 첨가된 trypsin배양에서 관절연골의 T1 강조 영상에서의 신호강도는 trypsin 배양에 비하여 평균 $42.0\%$ 증가하였고 4시간과 5시간배양에서는 trypsin에서만 배양한 관절연골에 비하여 신호강도가 더욱 뚜렷하게 증가되었다 (p<0.05). 관절연골의 T1, T2, rho 이완시간은 배양시간에 따라 유의성 있는 차이가 관찰되지 않았으나 $Gd(DTPA)^{2-}$ 첨가된 trypsin배양에서 T1이완시간의 증가가 관절연골의 표층부와 이행부에서 측정되었다. 조직검사결과 trypsin 배양의 관절연골에서 toluidine blue와 alcian blue염색에서 결손이 관찰되었다. 결론 : Trypsin 배양시간에 따라 관절연골의 GAG결손을 정량적으로 확인할 수 있었고 픽셀크기 $97.9\times195\;{\mu}m$인 MRI로 $Gd(DTPA)^{2-}$-조영증강 및 이완시간을 측정할 수 있었다. 배양시간에 따른 GAG결손은 T1, T2, rho 이완시간보다 $Gd(DTPA)^{2-}$-조영증강에서

  • PDF

휴대폰에서의 홍채인식을 위한 고속 홍채검출에 관한 연구 (A Study on Fast Iris Detection for Iris Recognition in Mobile Phone)

  • 박현애;박강령
    • 대한전자공학회논문지SP
    • /
    • 제43권2호
    • /
    • pp.19-29
    • /
    • 2006
  • 최근 휴대폰에서 개인 정보 보안의 중요성이 대두되고 있으며, 이에 따라 생체인식 기능이 내장된 휴대폰에 관심이 집중되고 있다. 그러므로 본 논문에서는 휴대용 기기에 홍채인식기술을 적용하기 위한 방법을 제안한다 기존의 홍채 인식 알고리즘에서는 고 배율의 줌 렌즈(zoom lens)와 초점렌즈(focus lens)를 사용하여 홍채인식에 사용될 확대된 홍채영상을 획득하였다. 이와 같이 이 전에 휴대폰에 홍채인식기술을 적용하기 위해서는 줌 렌즈와 초점렌즈를 추가 장착하여야 했으며, 이는 가격 상승과 부피 증가의 문제를 발생시켰다. 그러나 최근 휴대폰의 멀티미디어 기기 융 복합 추세로 인해 휴대폰 내에 장착된 메가픽셀 카메라(Mega-pixel Camera)의 성능이 급속히 발전함에 따라, 고 배율의 줌 렌즈 및 초점렌즈(zoom & focus lens) 없이도 확대된 홍채영상의 획득이 가능하게 되었다. 즉, 메가 픽셀 카메라 폰을 사용하여 사용자로부터 원거리에서 취득한 얼굴영상에서의 홍채영역이 홍채인식을 수행하기 위한 충분한 픽셀정보를 가지게 되었다. 본 논문에서는 이러한 얼굴영상에서 각막에 반사된 조명 반사광을 기반으로 휴대폰에서의 홍채인식을 위한 고속 홍채검출 방법을 제안한다. 또한 눈, 카메라, 조명 모델을 기반으로 각막에 반사된 조명반사광의 밝기와 크기를 추정하는 이론적 배경을 제안하며, 입력영상에서 태양광의 존재 유무와 광학적으로 또는 피사체의 움직임에 의해 반사된 흐림 현상 (Optical & Motion blur)을 판별하기 위해 조명을 연속적으로 On/Off 시키는 방법을 제안한다. 실험결과, 삼성 SCH-S2300(150MHz의 ARM 9 CPU) 휴대폰에서 홍채 영역 추출 총 수행시간은 평균 65ms이었고, 홍채 검출 성공률은 태양광이 존재하지 않는 실내에서 99%, 태양광이 존재하는 실외에서 98.5%였다._{SSH}$ 전압이 약 1.1V 일 때까지 오류 없이 동작함을 관측하였다. 본 논문의 SRAM 스위칭 전력감소는 I/O의 bit width가 증가하면 더욱 더 중요해질 것으로 예상할 수 있다.어 자료 형태를 32.4%의 순으로 개발을 희망하였다. 다섯째, 주로 사용하는 웹 사이트는 가정과 교사나 교과 연구회에서 운영하는 사이트를 46.2%, 에듀넷이나 한국교육학술정보원(KERIS) 사이트는 30.8%가 활용하는 것으로 나타났다. 또한 학습 자료 개발은 제작 능력이 있는 가정과 교사들이 교과 연구회를 만들어 공동으로 제작 할 수 있기를 희망하고 있었다. 시대적인 변화와 교육 환경의 변화로 웹 콘텐츠 자료를 활용한 교수 학습 방법이 중요한 도구로 인식되고 있다. 특히 가정 교과는 일상생활에 필요한 기초적인 경험을 실생활과 접목시켜 종합적으로 다루는 교과이기 때문에 다양하고 창의적인 콘텐츠가 절실히 요구되는 실정이다. 본 연구의 결과들에서 제시한 여러 가지 사항들을 고려하여 웹 콘텐츠 자료 활용과 개발이 이루어진다면 보다 효율적인 교수 학습이 이루어질 것으로 기대된다.변연계통과 대뇌겉질 전체에 영향을 미칠 것으로 여겨지는데, 본 실험에서는 네 종류의 바닥핵들, 즉 꼬리핵, 줄무늬체바닥핵, 중격옆핵 및 중격핵과 관련된 신경연접들을 관찰하였으며, 그 결과를 문헌 고찰한 결과 변연계통과 줄무늬체계통이 앞뇌의 바닥에 있는 신경핵들에서 형태학적 교차연결을 통해 정서와 마음의 상태를 행동과 대응으로 표현하는 중요한 신경회로가 존재함을 제안하였다.腎臟組織)에서 더많이 발생되었다. 틸라피아의 신사구체(腎絲球體)는 담수(淡水)에서 10%o의 해수(海水)로 이주된지 14일(日) 이후에 신장(腎臟)에서 수축된 것으로 나타났다. 30%o의 해수(海水)에 적응(適應)된 틸라피아의 평균 신사구체(腎絲球體)의 면적은 담수(淡水)에 적응된 개체의 면적보다

원격탐사와 GIS 기반의 산림탄소저장량 추정에 관한 주요국 연구동향 개관 (Overview of Research Trends in Estimation of Forest Carbon Stocks Based on Remote Sensing and GIS)

  • 김경민;이정빈;김은숙;박현주;노영희;이승호;박기호;신휴석
    • 한국지리정보학회지
    • /
    • 제14권3호
    • /
    • pp.236-256
    • /
    • 2011
  • 토지이용변화에 따른 산림탄소저장량 변화는 기후변화협약에서 요구하는 주요 자료 중 하나이다. IPCC 우수실행지침(intergovernmental panel on climate change good practice guidance, IPCC GPG) 수준 3에 근거하여 공간적으로 명확한 산림탄소저장량을 추정하게 되면 높은 신뢰도를 확보할 수 있다. 그러나 기존의 추정 방법은 표본점(sample plot) 단위의 국가산림자원조사 (national forest inventory, NFI) 자료만을 이용하여 행정구역별 평균을 집계하는 것으로 폴리곤 혹은 셀 단위의 상세한 탄소저장량을 파악할 수 없었다. 이를 보완하기 위해 유럽, 북미 등에서는 NFI 자료, 원격탐사 및 GIS 기술을 결합하여 산림탄소저장량을 추정하기 위한 노력이 활발히 이루어져왔다. 주요국의 연구 동향을 활용 기법에 따라 분류해보면 원격탐사, GIS, 지구통계 및 환경변수 모델링 등 크게 4가지 범주로 나눌 수 있다. 이 중 가장 손쉽게 국내 적용을 고려해 볼 수 있는 방법은 NFI 자료와 임상도를 결합하는 GIS 기반의 방법이다. 특히, 복잡한 수종 구성을 가지고 있는 국내 산림 환경 특성을 고려할 때 국지적 변이 추정에 유용한 지구통계 기법의 활용성이 기대된다. 아울러, 고해상도 영상의 활용은 산림탄소저장량 추정의 검증 및 탄소배출권 확보를 위한 CDM(clean development mechanism, 청정개발체제) 사업 적지 선정 등에 유용할 것으로 판단된다. 국내 관련 연구는 아직 초기 단계로 최근린 기법(k-nearest neighbor, k-NN)의 적용성을 검토하는 연구가 주를 이루고 있으나 국내 산림 환경에 적합한 방법론의 선정을 위해서는 보다 다양한 공간 자료와 알고리즘의 적용성이 검토되고 방법론 간의 비교 연구가 필요하다.