• 제목/요약/키워드: OPTIMIZATION

검색결과 21,594건 처리시간 0.055초

보상여과판을 이용한 비인강암의 전방위 강도변조 방사선치료계획 (Dose Planning of Forward Intensity Modulated Radiation Therapy for Nasopharyngeal Cancer using Compensating Filters)

  • 추성실;이상욱;서창옥;김귀언
    • Radiation Oncology Journal
    • /
    • 제19권1호
    • /
    • pp.53-65
    • /
    • 2001
  • 목적 : 비인강암 환자의 국소제어율을 향상시키기 위한 목적으로 보상 여과판을 이용한 전방위 강도변조 방사선치료방법(intensity modulated radiation therapy : IMRT)을 계획하고 기존 3차원 입체조형치료방법과 비교하여 최적의 방사선치료방법을 모색하고자 한다. 대상 및 방법 : 3-차원 입체조형치료계획으로 치료받았던 비강암환자(T4N0M0) 1예를 선택하여 치료면의 굴곡과 뼈, 공동 등 불균질 조직으로 인하여 발생되는 표적체적의 선량분포를 균일하게 만들고 주변 정상장기의 손상을 최소화하기 위한 일차 입사선량의 강도 조절을 보상여과판으로 시행 하였다. 환자는 열변성 plastic mask로 고정시킨 후 치료조준용 CT Scan (PQ5000)을 이용하여 3 mm 간격으로 scan 하고 가상조준장치(virtual simulator)와 3차원 방사선치료계획 컴퓨터$(ADAC-Pinnacle^3)$를 이용하여 보상여과판을 제작하였다. 각 조사면을 세분한 소조사선(beamlet)의 강도 가중치(weighting)를 계산하고 가중치에 따른 선량 감약을 보상여과판의 두께로 환산하여 판별이 쉽도록 도표화하였다. 방사선 치료성과의 기준은 정량적으로 평가할 수 있는 선량체적표(dose volume histogram : DVH)와 종양억제확율(tumor control probability : TCP)및 정상조직 손상확율(normal tissue complication probability : NTCP)의 수학적 관계식을 이용하여 치료효과를 평가하였다. 결과 : 전방위 IMRT에서 계획용표적체적(planning target volume: PTV)내의 최소선량과 최대선량의 차이가 입체조형치료계획보다 약간 증가하였으며 평균선량은 강도조절치료계획에서 약 $10\%$, 더 높았고 전체 방사선량의 $95\%$가 포함되는 체적(V95)은 비교적 양쪽 설계방법에서 비슷한 양상을 보이고 있었다. 주위 건강장기들의 DVH에서 방사선에 민감한 장기인 시신경, 측두엽, 이하선, 뇌간, 척수, 측두하악골관절 등은 강도조절치료계획에서 많이 보호되었다. PTV의 종양제어확율은 입체조형치료계획과 강도변조치료계획에서 모두 비교적 균일하였으며 계획선량이 50 Gy에서 80 Gy로 증가함에 따라 TCP가 0.45에서 0.56으로 완만하게 증가하였다. 척수, 측두하악골 관절, 뇌간, 측두엽, 이하선, 시신경교차, 시신경 등 정상장기의 손상확율은 입체조형치료계획보다 강도조절치료계획에서 월등히 감소되었으며 특히 뇌간(brain stem)의 NTCP는 입체조형치료계획에서 보다 강도조절치료계획에서 훨씬 적은 값(0.3에서 0.15)으로 감소되었다. 계획선량의 증가에 따른 TCP와 NTCP를 입체조형치료계획과 강도조절치료계획에서 TCP는 공히 완만한 증가를 보였으나 NTCP값은 선량증가에 비례적으로 증가하였고 입체조형치료계획이 강도조절치료계획보다 월등히 증가하였다. 결론 : 보상여과판을 이용한 전방위 강도변조 방사선치료에서 PTV내의 선량 균일도의 개선은 없었지만 뇌간, 척수강 등 정상장기의 피폭을 줄일 수 있었다. 특히 인체표면의 굴곡이 심하거나 뼈, 동공 등으로 종양에 도달하는 방사선량분포가 균일하지 않을 경우 매우 유리한 치료방법이였다. 방사선치료성적을 평가함에 있어 DVH와 TCP, NTCP 등 수학적 척도를 이용함으로서 치료성과의 예측, 종양선량의 증가(dose escalation), 방사선수술의 지표 및 방사선치료의 질적 상황을 정량적 수치로 평가할 수 있어 방사선치료성과 향상에 기여할 수 있다고 생각한다.

  • PDF

근접방사선치료용 다목적 팬톰을 이용한 직장 내 선량분석 (The Analysis of Dose in a Rectum by Multipurpose Brachytherapy Phantom)

  • 허현도;김성훈;조삼주;이석;신동오;권수일;김헌정;김우철;노준규
    • Radiation Oncology Journal
    • /
    • 제23권4호
    • /
    • pp.223-229
    • /
    • 2005
  • 목적: 근접방사선 치료시 직장내 선량측정은 치료간(Inter-fraction) 직장의 형태가 변화하므로 측정의 재현성을 이룰 수 없다. 본 연구에서는 근접방사선치료용 다목적 팬톰(Multi Purpose Brachytherapy Phantom, MPBP)을 제작하여 치료 시와 동일한 조건을 재현하였고 이때 측정한 선량 값을 직장의 부작용을 줄이기 위해 선량최적화에 적용하고자 하였다. 대상 및 방법: 자궁경부암 근접방사선 치료 시 탄뎀(tandem)과 난형체(ovoid)를 사용한 환자 4명을 대상으로 다이오드 검출기를 이용하여 직장표시 기준점 R1에서 선량측정을 시행하였다. 환자 당 5회씩 총 20회 직장선량을 측정하였다. 그리고 반복 측정 시 다이오드 검출기의 설정 변화(set up variation)를 분석하였다. 그리고 자체 제작된 근접방사선치료용 다목적 팬톰에서 MFA (Multi Function Applicator)를 이용하여 치료 시와 동일한 조건을 재현한 후 열형광선량계(TLD)를 이용하여 직장 표시 기준점 좌표 위치에서 선량을 측정하였다. 결과: 직장 내 다이오드 검출기의 측정 결과 설정 변화는 환자 1의 경우에 Y방향에서 최고 $11.25{\pm}0.95mm$보였고, 환자 2와 3은 Z 방향에서 각각 $9.90{\pm}4.50mm$$20.85{\pm}4.50mm$를 나타냈다. 그리고 환자 4는 Z 방향에서 $19.15{\pm}3.33mm$의 변화를 나타내었다. 또한 다이오드 검출기 위치에 따른 평균선량 값은 $122.82{\pm}7.96cGy{\sim}323.78{\pm}11.16cGy$로 나타났다. MPBP에서 TLD의 측정 결과는 직장 표시 기준점(R1)에서 환자1과 4는 상대오차가 각각 최고 8.6%와 7.7%를 보였고, 환자2와 3은 각각 1.7%와 1.2%의 오차를 보였다. 그리고 R과 R2에서 측정한 선량 값들은 환자 2의 R 지점을 제외하고 계산값과 비교하여 $1.7{\sim}8.6%$ 높은 값을 나타냈다. 그리고 반복측정으로 인한 위치변화와 그에 따른 선량 값의 변화는 분석하지 않았다. 계산 값과 측정값의 상대오차가 미국의학물리학회 보고서에서 권고한 15% 내에서 잘 일치하는 것으로 분석되었다. 결론: 자체 제작된 근접치료용 다목적 팬톰(MPBP)은 치료 시와 동일한 조건에서 선량측정의 재현성을 이룰 수 있었고, 직장의 기준점에서 선량을 정확히 분석할 수 있었다. 또한 팬톰에서 측정한 데이터를 이용하여 직장의 부작용을 줄이기 위해 치료 전 선량 최적화를 이루는데 충분한 자료로 활용할 수 있다고 판단되었다.

Memory Organization for a Fuzzy Controller.

  • Jee, K.D.S.;Poluzzi, R.;Russo, B.
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.1041-1043
    • /
    • 1993
  • Fuzzy logic based Control Theory has gained much interest in the industrial world, thanks to its ability to formalize and solve in a very natural way many problems that are very difficult to quantify at an analytical level. This paper shows a solution for treating membership function inside hardware circuits. The proposed hardware structure optimizes the memoried size by using particular form of the vectorial representation. The process of memorizing fuzzy sets, i.e. their membership function, has always been one of the more problematic issues for the hardware implementation, due to the quite large memory space that is needed. To simplify such an implementation, it is commonly [1,2,8,9,10,11] used to limit the membership functions either to those having triangular or trapezoidal shape, or pre-definite shape. These kinds of functions are able to cover a large spectrum of applications with a limited usage of memory, since they can be memorized by specifying very few parameters ( ight, base, critical points, etc.). This however results in a loss of computational power due to computation on the medium points. A solution to this problem is obtained by discretizing the universe of discourse U, i.e. by fixing a finite number of points and memorizing the value of the membership functions on such points [3,10,14,15]. Such a solution provides a satisfying computational speed, a very high precision of definitions and gives the users the opportunity to choose membership functions of any shape. However, a significant memory waste can as well be registered. It is indeed possible that for each of the given fuzzy sets many elements of the universe of discourse have a membership value equal to zero. It has also been noticed that almost in all cases common points among fuzzy sets, i.e. points with non null membership values are very few. More specifically, in many applications, for each element u of U, there exists at most three fuzzy sets for which the membership value is ot null [3,5,6,7,12,13]. Our proposal is based on such hypotheses. Moreover, we use a technique that even though it does not restrict the shapes of membership functions, it reduces strongly the computational time for the membership values and optimizes the function memorization. In figure 1 it is represented a term set whose characteristics are common for fuzzy controllers and to which we will refer in the following. The above term set has a universe of discourse with 128 elements (so to have a good resolution), 8 fuzzy sets that describe the term set, 32 levels of discretization for the membership values. Clearly, the number of bits necessary for the given specifications are 5 for 32 truth levels, 3 for 8 membership functions and 7 for 128 levels of resolution. The memory depth is given by the dimension of the universe of the discourse (128 in our case) and it will be represented by the memory rows. The length of a world of memory is defined by: Length = nem (dm(m)+dm(fm) Where: fm is the maximum number of non null values in every element of the universe of the discourse, dm(m) is the dimension of the values of the membership function m, dm(fm) is the dimension of the word to represent the index of the highest membership function. In our case then Length=24. The memory dimension is therefore 128*24 bits. If we had chosen to memorize all values of the membership functions we would have needed to memorize on each memory row the membership value of each element. Fuzzy sets word dimension is 8*5 bits. Therefore, the dimension of the memory would have been 128*40 bits. Coherently with our hypothesis, in fig. 1 each element of universe of the discourse has a non null membership value on at most three fuzzy sets. Focusing on the elements 32,64,96 of the universe of discourse, they will be memorized as follows: The computation of the rule weights is done by comparing those bits that represent the index of the membership function, with the word of the program memor . The output bus of the Program Memory (μCOD), is given as input a comparator (Combinatory Net). If the index is equal to the bus value then one of the non null weight derives from the rule and it is produced as output, otherwise the output is zero (fig. 2). It is clear, that the memory dimension of the antecedent is in this way reduced since only non null values are memorized. Moreover, the time performance of the system is equivalent to the performance of a system using vectorial memorization of all weights. The dimensioning of the word is influenced by some parameters of the input variable. The most important parameter is the maximum number membership functions (nfm) having a non null value in each element of the universe of discourse. From our study in the field of fuzzy system, we see that typically nfm 3 and there are at most 16 membership function. At any rate, such a value can be increased up to the physical dimensional limit of the antecedent memory. A less important role n the optimization process of the word dimension is played by the number of membership functions defined for each linguistic term. The table below shows the request word dimension as a function of such parameters and compares our proposed method with the method of vectorial memorization[10]. Summing up, the characteristics of our method are: Users are not restricted to membership functions with specific shapes. The number of the fuzzy sets and the resolution of the vertical axis have a very small influence in increasing memory space. Weight computations are done by combinatorial network and therefore the time performance of the system is equivalent to the one of the vectorial method. The number of non null membership values on any element of the universe of discourse is limited. Such a constraint is usually non very restrictive since many controllers obtain a good precision with only three non null weights. The method here briefly described has been adopted by our group in the design of an optimized version of the coprocessor described in [10].

  • PDF

공공 서비스 수출 플랫폼을 위한 온톨로지 모형 (An Ontology Model for Public Service Export Platform)

  • 이광원;박세권;류승완;신동천
    • 지능정보연구
    • /
    • 제20권1호
    • /
    • pp.149-161
    • /
    • 2014
  • 공공 서비스의 수출의 경우 수출 절차와 대상 선정에 따른 다양한 문제가 발생하며, 공공 서비스 수출 플랫폼은 이러한 문제점들을 해결하기 위하여 사용자 중심의 유연하고, 개방형 구조의 디지털 생태계를 조성할 수 있도록 구현되어야 한다. 또한 공공서비스의 수출은 다수의 이해당사자가 참여하고 여러 단계의 과정을 거쳐야 하므로 사용자의 이해 종류와 탐색 컨설팅 협상 계약 등 수출 프로세스 단계별로 맞춤형 플랫폼 서비스 제공이 필수적이다. 이를 위해서 플랫폼 구조는 도메인과 정보의 정의 및 공유는 물론 지식화를 지원할 수 있어야 한다. 본 논문에서는 공공서비스 수출을 지원하는 플랫폼을 위한 온톨로지 모형을 제안한다. 서비스 플랫폼의 핵심 엔진은 시뮬레이터 모듈이며 시뮬레이터 모듈에서는 온톨로지를 사용하여 수출 비즈니스의 여러 컨텍스트들을 파악하고 정의하여 다른 모듈들과 공유하게 된다. 온톨로지는 공유 어휘를 통하여 개념들과 그들 간의 관계를 표현할 수 있으므로 특정 영역에서 구조적인 틀을 개발하기 위한 메타 정보를 구성하는 효과적인 도구로 잘 알려져 있다. 공공서비스 수출 플랫폼을 위한 온톨로지는 서비스, 요구사항, 환경, 기업, 국가 등 5가지 카테고리로 구성되며 각각의 온톨로지는 요구분석과 사례 분석을 통하여 용어를 추출하고 온톨로지의 식별과 개념적 특성을 반영하는 구조로 설계한다. 서비스 온톨로지는 목적효과, 요구조건, 활동, 서비스 분류 등으로 구성되며, 요구사항 온톨로지는 비즈니스, 기술, 제약으로 구성 된다. 환경 온톨로지는 사용자, 요구조건, 활동으로, 기업 온톨로지는 활동, 조직, 전략, 마케팅, 시간으로 구성되며, 국가 온톨로지는 경제, 사회기반시설, 법, 제도, 관습, 인프라, 인구, 위치, 국가전략 등으로 구성된다. 수출 대상 서비스와 국가의 우선순위 리스트가 생성되면 갭(gap) 분석과 매칭 알고리즘 등의 시뮬레이터를 통하여 수출기업과 수출지원 프로그램과의 시스템적 연계가 이루어진다. 제안하는 온톨로지 모형 기반의 공공서비스 수출지원 플랫폼이 구현되면 이해당사자 모두에게 도움이 되며 특히 정보 인프라와 수출경험이 부족한 중소기업에게 상대적으로 더 큰 도움이 될 것이다. 또한 개방형 디지털 생태계를 통하여 이해당사자들이 정보교환, 협업, 신사업 기획 등의 기회를 만들 수 있을 것으로 기대한다.

회사채 신용등급 예측을 위한 SVM 앙상블학습 (Ensemble Learning with Support Vector Machines for Bond Rating)

  • 김명종
    • 지능정보연구
    • /
    • 제18권2호
    • /
    • pp.29-45
    • /
    • 2012
  • 회사채 신용등급은 투자자의 입장에서는 수익률 결정의 중요한 요소이며 기업의 입장에서는 자본비용 및 기업 가치와 관련된 중요한 재무의사결정사항으로 정교한 신용등급 예측 모형의 개발은 재무 및 회계 분야에서 오랫동안 전통적인 연구 주제가 되어왔다. 그러나, 회사채 신용등급 예측 모형의 성과와 관련된 가장 중요한 문제는 등급별 데이터의 불균형 문제이다. 예측 문제에 있어서 데이터 불균형(Data imbalance) 은 사용되는 표본이 특정 범주에 편중되었을 때 나타난다. 데이터 불균형이 심화됨에 따라 범주 사이의 분류경계영역이 왜곡되므로 분류자의 학습성과가 저하되게 된다. 본 연구에서는 데이터 불균형 문제가 존재하는 다분류 문제를 효과적으로 해결하기 위한 다분류 기하평균 부스팅 기법 (Multiclass Geometric Mean-based Boosting MGM-Boost)을 제안하고자 한다. MGM-Boost 알고리즘은 부스팅 알고리즘에 기하평균 개념을 도입한 것으로 오분류된 표본에 대한 학습을 강화할 수 있으며 불균형 분포를 보이는 각 범주의 예측정확도를 동시에 고려한 학습이 가능하다는 장점이 있다. 회사채 신용등급 예측문제를 활용하여 MGM-Boost의 성과를 검증한 결과 SVM 및 AdaBoost 기법과 비교하여 통계적으로 유의적인 성과개선 효과를 보여주었으며 데이터 불균형 하에서도 벤치마킹 모형과 비교하여 견고한 학습성과를 나타냈다.

고객 맞춤형 서비스를 위한 관객 행동 기반 감정예측모형 (The Audience Behavior-based Emotion Prediction Model for Personalized Service)

  • 유은정;안현철;김재경
    • 지능정보연구
    • /
    • 제19권2호
    • /
    • pp.73-85
    • /
    • 2013
  • 정보기술의 비약적 발전에 힘입어, 오늘날 기업들은 지금까지 축적한 고객 데이터를 기반으로 맞춤형 서비스를 제공하는 것에 많은 관심을 가지고 있다. 고객에게 소구하는 맞춤형 서비스를 효과적으로 제공하기 위해서는 우선 그 고객이 처한 상태나 상황을 정확하게 인지하는 것이 중요하다. 특히, 고객에게 서비스가 전달되는 이른바 진실의 순간에 해당 고객의 감정 상태를 정확히 인지할 수 있다면, 기업은 더 양질의 맞춤형 서비스를 제공할 수 있을 것이다. 이와 관련하여 사람의 얼굴과 행동을 이용하여 사람의 감정을 판단하고 개인화 서비스를 제공하기 위한 연구가 활발하게 이루어지고 있다. 얼굴 표정을 통해 사람의 감정을 판단하는 연구는 좀 더 미세하고 확실한 변화를 통해 정확하게 감정을 판단할 수 있지만, 장비와 환경의 제약으로 실제 환경에서 다수의 관객을 대상으로 사용하기에는 다소 어려움이 있다. 이에 본 연구에서는 Plutchik의 감정 분류 체계를 기반으로 사람들의 행동을 통해 감정을 추론해내는 모형을 개발하는 것을 목표로 한다. 본 연구는 콘텐츠에 의해 유발된 사람들의 감정적인 변화를 사람들의 행동 변화를 통해 판단하고 예측하는 모형을 개발하고, 4가지 감정 별 행동 특징을 추출하여 각 감정에 따라 최적화된 예측 모형을 구축하는 것을 목표로 한다. 모형 구축을 위해 사람들에게 적절한 감정 자극영상을 제공하고 그 신체 반응을 수집하였으며, 사람들의 신체 영역을 나누었다. 특히, 모션캡쳐 분야에서 널리 쓰이는 차영상 기법을 적용하여 사람들의 제스쳐를 추출 및 보정하였다. 이후 전처리 과정을 통해 데이터의 타임프레임 셋을 20, 30, 40 프레임의 3가지로 설정하고, 데이터를 학습용, 테스트용, 검증용으로 구분하여 인공신경망 모형을 통해 학습시키고 성과를 평가하였다. 다수의 일반인들을 대상으로 수집된 데이터를 이용하여 제안 모형을 구축하고 평가한 결과, 프레임셋에 따라 예측 성과가 변화함을 알 수 있었다. 감정 별 최적 예측 성과를 보이는 프레임을 확인할 수 있었는데, 이는 감정에 따라 감정의 표출 시간이 다르기 때문인 것으로 판단된다. 이는 행동에 기반한 제안된 감정예측모형이 감정에 따라 효과적으로 감정을 예측할 수 있으며, 실제 서비스 환경에서 사용할 수 있는 효과적인 알고리즘이 될 수 있을 것으로 기대할 수 있다.

GEMINI PET/CT의 X-ray CT, $^{137}Cs$ 기반 511 keV 광자 감쇠계수의 정량적 차이 (Quantitative Differences between X-Ray CT-Based and $^{137}Cs$-Based Attenuation Correction in Philips Gemini PET/CT)

  • 김진수;이재성;이동수;박은경;김종효;김재일;이홍재;정준기;이명철
    • 대한핵의학회지
    • /
    • 제39권3호
    • /
    • pp.182-190
    • /
    • 2005
  • 목적: CT기반 감쇠보정 영상의 표준섭취계수(Standard Uptake Value:SUV)가 $^{137}Cs$ 기반 감쇠보정 영상의 SUV보다 높다. 이 연구에서는 이러한 오차가 생기는 원인을 밝히고자 감쇠계수가 정확하게 변환되었는지 여부를 관심영역 분석을 통하여 평가하였다. 대상 및 방법: Philips GEMINI PET/CT는 X-ray CT (평균 40 keV) 혹은 $^{137}Cs$ (662 keV) 투과영상을 감쇠보정에 이용하는데 GEMINI PET/CT에서 사용하는 각각 선원의 에너지는 511 keV에서 얻은 감쇠계수와 틀리기 때문에 스캐너 내부에 장착된 감쇠계수 변환 알고리즘을 이용하여 511 keV에 해당하는 감쇠계수 값으로 변환된 감쇠지도를 사용하므로 감쇠계수의 변환이 정확하게 이루어졌는지 평가하는 것이 중요하다. 각각의 실험과정은 다음과 같다. 먼저 시스템 성능평가 팬텀 CT 투과 영상을 사용하여 Hounsfield units (HU)값을 측정하였다. 다음으로 NEMA 타원형 ECT 팬텀의 CT, $^{137}Cs$ 투과영상을 얻어 $^{68}Ge$ 투과선원을 장착한 Siemens ECAT EXACT 47 PET 스캐너에서 얻은 팬텀 투과 영상과 비교하여 감쇠계수가 511 keV에 해당하는 감쇠계수로 잘 변환되었는지 측정하였고 Gammex 467 electron density CT 팬텀의 CT, $^{137}Cs$ 투과영상에서 관심영역 분석을 하여 다양한 전자밀도 값에 대한 감쇠계수 변환의 정확성을 평가하였다. 또, 재구성한 영상에 미치는 영향을 평가하기 위하여 정상 및 병적 조직에서 CT, $^{137}Cs$ 기반 감쇠계수와 표준섭취계수를 비교하였다. 결과: CT에서 측정한 HU는 신뢰할 수 있는 값임을 확인하였으나 전자밀도와 원자번호가 큰 영역에서 CT 기반 감쇠계수에 오차가 있었는데 NEMA 타원형 ECT 팬텀 실험결과에 의하면 뼈 영역에서 오차는 11%이었다. 임상데이터에서도 마찬가지로 CT를 이용하여 얻은 감쇠계수가 $^{137}Cs$을 이용하여 얻은 감쇠계수보다 낮았고 전자밀도와 원자번호가 큰 영역에서 오차가 컸다. 그러나, 표준섭취계수는 $^{137}Cs$를 사용하여 감쇠보정을 한 영상의 값이 CT를 이용하여 감쇠보정을 한 값보다 오히려 낮았고 표준섭취계수의 백분율 차이는 $6.6{\sim}52.7%$이었다. 결론: CT의 HU가 정확함에도 불구하고 뼈 영역에서 CT 투과영상을 기반으로 한 감쇠계수의 변환이 부정확하고 CT 및 $^{137}Cs$ 투과영상을 기반으로 얻은 표준 섭취계수에 차이가 있으므로 이에 관한 추가적인 연구가 필요할 것으로 생각한다.

스마트폰 다종 데이터를 활용한 딥러닝 기반의 사용자 동행 상태 인식 (A Deep Learning Based Approach to Recognizing Accompanying Status of Smartphone Users Using Multimodal Data)

  • 김길호;최상우;채문정;박희웅;이재홍;박종헌
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.163-177
    • /
    • 2019
  • 스마트폰이 널리 보급되고 현대인들의 생활 속에 깊이 자리 잡으면서, 스마트폰에서 수집된 다종 데이터를 바탕으로 사용자 개인의 행동을 인식하고자 하는 연구가 활발히 진행되고 있다. 그러나 타인과의 상호작용 행동 인식에 대한 연구는 아직까지 상대적으로 미진하였다. 기존 상호작용 행동 인식 연구에서는 오디오, 블루투스, 와이파이 등의 데이터를 사용하였으나, 이들은 사용자 사생활 침해 가능성이 높으며 단시간 내에 충분한 양의 데이터를 수집하기 어렵다는 한계가 있다. 반면 가속도, 자기장, 자이로스코프 등의 물리 센서의 경우 사생활 침해 가능성이 낮으며 단시간 내에 충분한 양의 데이터를 수집할 수 있다. 본 연구에서는 이러한 점에 주목하여, 스마트폰 상의 다종 물리 센서 데이터만을 활용, 딥러닝 모델에 기반을 둔 사용자의 동행 상태 인식 방법론을 제안한다. 사용자의 동행 여부 및 대화 여부를 분류하는 동행 상태 분류 모델은 컨볼루션 신경망과 장단기 기억 순환 신경망이 혼합된 구조를 지닌다. 먼저 스마트폰의 다종 물리 센서에서 수집한 데이터에 존재하는 타임 스태프의 차이를 상쇄하고, 정규화를 수행하여 시간에 따른 시퀀스 데이터 형태로 변환함으로써 동행 상태분류 모델의 입력 데이터를 생성한다. 이는 컨볼루션 신경망에 입력되며, 데이터의 시간적 국부 의존성이 반영된 요인 지도를 출력한다. 장단기 기억 순환 신경망은 요인 지도를 입력받아 시간에 따른 순차적 연관 관계를 학습하며, 동행 상태 분류를 위한 요인을 추출하고 소프트맥스 분류기에서 이에 기반한 최종적인 분류를 수행한다. 자체 제작한 스마트폰 애플리케이션을 배포하여 실험 데이터를 수집하였으며, 이를 활용하여 제안한 방법론을 평가하였다. 최적의 파라미터를 설정하여 동행 상태 분류 모델을 학습하고 평가한 결과, 동행 여부와 대화 여부를 각각 98.74%, 98.83%의 높은 정확도로 분류하였다.

딥러닝 오픈소스 프레임워크의 사례연구를 통한 도입 전략 도출 (Deriving adoption strategies of deep learning open source framework through case studies)

  • 최은주;이준영;한인구
    • 지능정보연구
    • /
    • 제26권4호
    • /
    • pp.27-65
    • /
    • 2020
  • 많은 정보통신기술 기업들은 자체적으로 개발한 인공지능 기술을 오픈소스로 공개하였다. 예를 들어, 구글의 TensorFlow, 페이스북의 PyTorch, 마이크로소프트의 CNTK 등 여러 기업들은 자신들의 인공지능 기술들을 공개하고 있다. 이처럼 대중에게 딥러닝 오픈소스 소프트웨어를 공개함으로써 개발자 커뮤니티와의 관계와 인공지능 생태계를 강화하고, 사용자들의 실험, 적용, 개선을 얻을 수 있다. 이에 따라 머신러닝 분야는 급속히 성장하고 있고, 개발자들 또한 여러가지 학습 알고리즘을 재생산하여 각 영역에 활용하고 있다. 하지만 오픈소스 소프트웨어에 대한 다양한 분석들이 이루어진 데 반해, 실제 산업현장에서 딥러닝 오픈소스 소프트웨어를 개발하거나 활용하는데 유용한 연구 결과는 미흡한 실정이다. 따라서 본 연구에서는 딥러닝 프레임워크 사례연구를 통해 해당 프레임워크의 도입 전략을 도출하고자 한다. 기술-조직-환경 프레임워크를 기반으로 기존의 오픈 소스 소프트웨어 도입과 관련된 연구들을 리뷰하고, 이를 바탕으로 두 기업의 성공 사례와 한 기업의 실패 사례를 포함한 총 3 가지 기업의 도입 사례 분석을 통해 딥러닝 프레임워크 도입을 위한 중요한 5가지 성공 요인을 도출하였다: 팀 내 개발자의 지식과 전문성, 하드웨어(GPU) 환경, 데이터 전사 협력 체계, 딥러닝 프레임워크 플랫폼, 딥러닝 프레임워크 도구 서비스. 그리고 도출한 성공 요인을 실현하기 위한 딥러닝 프레임워크의 단계적 도입 전략을 제안하였다: 프로젝트 문제 정의, 딥러닝 방법론이 적합한 기법인지 확인, 딥러닝 프레임워크가 적합한 도구인지 확인, 기업의 딥러닝 프레임워크 사용, 기업의 딥러닝 프레임워크 확산. 본 연구를 통해 각 산업과 사업의 니즈에 따라, 딥러닝 프레임워크를 개발하거나 활용하고자 하는 기업에게 전략적인 시사점을 제공할 수 있을 것이라 기대된다.

중심합성계획법에 의한 남부 조생벼 재배요인의 최적조건 구명 (Optimization of Cultivational Conditions of Rice(Oryza sativa L.) by a Central Composite Design Applied to an Early Cultivar in Southern Region)

  • 손길만;김정교;최진용;이유식;박중양
    • 한국작물학회지
    • /
    • 제34권1호
    • /
    • pp.60-73
    • /
    • 1989
  • 수도재배에 있어서 수량은 여러 가지 요인이 복합적으로 작용하여 나타난 반응의 산물이다. 수도의 적정재배조건을 구명하기 위하여 지금까지는 제한된 요인 및 수준에서 시험연구가 수행되어 왔는데, 처리요인수 및 각 요인당 처리수준이 증가될 경우 전체 처리수의 급증으로 시험수행이 어렵게 된다. 본 연구는 이를 극복하고자 조생량 벼 품종 '운봉벼'의 재식주수, 주당본수, 질소시비량, 이앙일, 육묘일수 등 5가지 계량적 재배요인의 최적조건을 구명하기 위한 시험을 수행하고 수량을 Box와 Wilson의 중심합성계획법에 따라 분석하였으며(시험 1), 같은 품종을 공시하여 실험 1과 같은 요인을 Finney의 부분실시법(FFD)과 비교함으로써(시험 2) CCD의 농사시험연구에의 활용가능성을 제시하고자 하였다. 1. 재배조건에 따른 수량반응 수량은 5요인중 4요인의 수준을 중심수준에서 통제하였을 때 각 요인별 최대수량은 중심수준(재식주수, 90수/3.3$m^2$ ; 주당본수, 5본 ; N시비량, 11kg/10a ; 이앙일, 6월 25일 ; 육묘일수, 35일) 부근이었고 각 요인이 양극단수준으로 갈수록 감수하였으며 5요인중 3요인을 중심수준에서 통제하고 난 뒤에 2요인들 간의 상호작용에 의한 수량은 가 수준의 중심부에서 최고치를 보였다. 전체 5개 요인의 상호작용에 의해 나타난 수량의 정상점은 안부점이었다. 2. 두 계획법의 비교 가. CCD에서 수량에 대한 각각의 정상점에서의 재배조건은, 재식주수 107주/3.3$m^2$, 주당본수 4본, 질소시비량 10kg/10a, 이앙일 6월 26일, 육묘일수 33일이었고, 정상점에서의 수량은 439kg/10a으로서 FFD에서의 그것들과 비슷하였다. 나. CCD에 의하면 요인수와 수준수가 많아도 처리조합수를 획기적으로 줄일 수 있었고, 실험재료의 절적, 작업시간의 단축 및 작업의 간편화를 가져왔다. 다. CCD(각 요인별 5수준)는 FFD(각 3수준)에 비하여 수준수가 많았지만 결과를 도해화하기에 편리하였다. 라. 양 계획법에 있어서 수량의 정상점이 안부점인 것으로 보아 요인의 설정시 각 요인 상호간의 이질성을 고려해야 하며, 처리요인의 지나친 증가도 억제되어야 할 것이다. 마. CCD는 극한수준($\pm$2, $\pm$2, $\pm$2, $\pm$2, $\pm$2)의 처리가 없기 때문에 각 요인의 극한수준의 실험영역에 대해서는 적은 정보를 얻었으나. FFD보다는 많은 유익한 정보를 획득할 수 있었다. 따라서, CCD는 획기적으로 처리수를 줄였어도 유익한 정보를 제공하는 것으로 보아, 농사시험연구에 효율적으로 활용할 수 있는 계획적으로 확인되었다.적으로 확인되었다.

  • PDF