• 제목/요약/키워드: Parallel Process

검색결과 1,462건 처리시간 0.046초

생합성 경로의 이해를 통한 Avermectin $B_{1a}$ 고생산성 변이주 개발 (Development of Avermectin $B_{1a}$ High-yielding Mutants through Rational Screening Srategy based on Understanding of Biosynthetic Pathway)

  • 송성기;정용섭;전계택
    • KSBB Journal
    • /
    • 제20권5호
    • /
    • pp.376-382
    • /
    • 2005
  • AVM $B_{1a}$는 Streptomyces avermitilis가 생합성하는 이차대사산물로, 강력한 구충효과를 갖는 polyketide 계열의 물질이다. AVM $B_{1a}$ 생합성의 전구체로 isoleucine이 사용되고 AVM의 생합성 경로가 지방산 합성과 유사하므로, 전구체를 과량생합성하고 polyketide 생합성 경로로 진행되는 탄소원의 흐름이 증가된 변이주를 선별하기 위하여 isoleucine의 아미노산 유사체 (O-methyl threonine)와 지방산 합성 저해물질 (p-fluoro phenoxy acetic acid)에 대한 저항성 변이주를 선별하고자 하였다. 모균주의 AVM $B_{1a}$ 생산성은 약 100 units/L로 매우 낮은 반면, 100 ppm의 pFAC에 대한 저항성 변이주인 PFA-1는 약 4,200 units/1의 AVM $B_{1a}$를 생산하는 것으로 관찰되었다. 이 균주를 모균주로 하여 OMT에 대한 저항성을 지속적으로 증가시킬 경우 AVM $B_{1a}$ 생산성이 2배 더 증가한 약 9,000 units/1의 생합성 능력을 보이는 고생산성 변이주를 개발할 수 있었다. 또한 주목할 만하게도 지방산 저해물질인 PFAC에 대한 변이주의 저항성을 지속적으로 증가시킴으로써 AVM $B_{1a}$ 생산성이 11,000 units/L에 이르는 고역가 변이주를 선별할 수 있었다. 한편 상기의 OMT와 pFAC를 이용한 rational screening 전략을 통해 지속적으로 선별한 변이주들에 대한 AVM $B_{1a}$의 생산성 분포를 histogram을 통해 분석해 본 결과, 초반부에 선별된 돌연변이주들은 AVM $B_{1a}$의 생합성 능력에 있어서 거의 모두가 ($95\%$ 이상) 4,000 units/1 이하의 비교적 낮은 범위에 분포하는 반면, OMT와 pFAC의 농도를 높여가며 유도된 저항성 돌연변이주들의 경우에는 이들 중에 고생산성 균주의 비율이 뚜렷하게 증가 (OMT 에서 $5,000\~7,000$ unit/l 범위에 $71\%$; pFAC에서 $6,000\~7,000$ unit/L 범위에 $47\%$) 하는 것으로 확인되었다. 이로부터 polyketide 생합성 경로와 AVM $B_{1a}$의 생합성 경로의 이해를 통해 수행된 rational screening 전략이 AVM $B_{1a}$ 고생산성 뿐만 아니라 고 안정성의 특성을 갖는 균주를 선별하는데 매우 효율적임을 알 수 있었다.

국내 상업용 민간 무인항공기 운용을 위한 법제화 고찰 (A Study on the Legislation for the Commercial and Civil Unmanned Aircraft System Operation)

  • 김종복
    • 항공우주정책ㆍ법학회지
    • /
    • 제28권1호
    • /
    • pp.3-54
    • /
    • 2013
  • 현재 주요 항공기술 선진국들은 군용기에서 거둔 무인항공기의 성공을 그 성장성과 효용성에 주목하고 민간 부문으로 확대하려는 노력을 경주하고 있으며 그 결과 민간 무인항공기 시장은 2020년 경에는 그 시장규모를 약 88억불에 달할 것으로 보면서 앞으로 가장 유망한 시장의 하나가 될 것으로 예상하고 있다. 그 용도도 원격탐사, 통신중계, 환경감시, 기상관측, 국경감시, 산불감시, 위험지역 정찰, 치안, 교통, 재난구호 지원활동 등 다양한 분야에 걸쳐 있다. 그러나 현재의 항공교통체계는 유인항공기 위주로 운용되고 있는 실정이어서 조종사가가 탑승하지 않는 무인항공기의 등장으로 무인항공기 운용을 고려한 조정이 필요하게 되었으며 그 조정에 필수적으로 수반하는 것이 법제화 작업이다. 현재 무인항공기 운용에 관한 법제화 작업은 전 세계적으로 ICAO가 중심이 되어 표준화 작업을 진행 중에 있으며 미국, 영국, 호주 등 국가는 개별적으로 법 규정을 마련하여 운용 중에 있다. 본 논문에서는 ICAO산하의 무인항공기시스템연구그룹(UASSG)의 활동과 무인항공기 법제화에 앞서가고 있는 미국, 영국, 호주의 법제화를 소개 하였다. 이중 미국의 경우는 2012년 2월14일에 오바마 대통령이 미국의 국가공역에서의 무인항공기를 운용하도록 하는 제반 법령 및 규정을 2015년 9월30일 시한으로 제정하도록 하는 법안에 서명함으로서 가장 적극적이다. 우리나라의 경우는 현재 국내 항공법상의 정의 규정과 비행허가에 관한 일부 사항을 제외하고는 운용에 관한 규정은 거의 전무한 상태라고 할 수 있다. 그러나 현실에 있어서는 군사용 및 민간 무인항공기가 실제 개발 운용되고 있는 실정이며 국토교통부에서는 상업용 민간무인항공기 개발을 우리나라의 항공기 제작 및 수출부문에 있어 가장 국제경쟁력 있는 분야로 보아 적극적으로 추진할 계획이어서 국내적으로도 무인항공기 운용을 위한 제반 사항에 대한 법제화가 필요하게 되었다. 무인항공기 운용을 위한 법제화 작업 중 가장 중요하다고 생각되는 부분은 (1)공역사용, (2)항공종사자 자격인증, (3)무인항공기 감항인증 및 기술기준인증 등 이지만 이외에도 (4)무인항공기 등 관련 사항에 대한 정의 규정, (5)무인항공기의 분류체계, (6)탑재장비 및 탑재서류, (7)통신, (8)비행규칙, (9)무인항공기 항공종사자 교육훈련, (10)보안, (11)보험, (12)기타 법제화가 필요한 사항으로 나누어 법제화 작업이 이루어져야 한다고 본다. 이와 함께 우리나라도 2012년 12월에 UASSG에 참가하였으므로 국제기준의 수립에 능동적이고도 주도적으로 참여하여 국제 사회에 기여함은 물론 무인항공기와 관련된 국제 관련 법령의 동향과 선진국의 사례를 파악하여 무인항공기 운용을 위한 국내 관련 법령을 선진형으로 제정 정비하는 법제화 작업을 병행하여야 할 것으로 본다.

  • PDF

연료극 지지체식 평관형 고체산화물 연료전지 단위 번들의 제조 및 성능 (Fabrication and Performance of Anode-Supported Flat Tubular Solid Oxide Fuel Cell Unit Bundle)

  • 임탁형;김관영;박재량;이승복;신동열;송락현
    • 전기화학회지
    • /
    • 제10권4호
    • /
    • pp.283-287
    • /
    • 2007
  • 한국에너지기술연구원에서는 중온 ($700{\sim}800^{\circ}C$) 작동용 연료극 지지체 평관형 SOFC 스택을 구성하는 단위 번들을 개발했다. 연료극 지지체 평관형 셀은 Ni/YSZ 서밋 연료극 지지체 튜브, 8몰% $Y_2O_3$ stabilized $ZrO_2$ (YSZ) 전해질, $LaSrMnO_3$ (LSM)과 LSM-YSZ composite 및 $LaSrCoFeO_3(LSCF)$로 구성된 다중층 공기극으로 구성됐다. 제조된 연료극지지체 평관형 셀은 유도 브레이징 법에 의해 페리틱 (ferritic) 금속 캡에 접합됐고, 공기극의 전류집전을 위해 공기극 외부에 Ag 선 및 $La_{0.6}Sr_{0.4}CoO_3(LSCo)$ paste를 이용했으며, 연료극의 전류집전은 Ni felt, wire, 그리고 paste를 이용했다. 단위 번들을 만들기 위한 연료극 지지체 평관형 셀의 반응 면적은 셀 당 $90\;cm^2$ 이었으며, 2개의 셀이 병렬로 연결되어 1개의 단위 번들이 됐고, 총 12개의 단위 번들이 직렬로 연결되어 스택을 구성한다. 공기 및 3%의 가습된 수소를 산화제 및 연료로 사용한 단위 번들의 운전 결과 최대 성능은 $800^{\circ}C$에서 $0.39\;W/cm^2$의 출력이 나타났다. 본 연구를 통해 연료극 지지체 평관형 SOFC 셀의 기본 기술과 KIER 만의 독특한 연료극 지지체 평관형 SOFC 스택을 구성하는 단위 번들의 개념을 확립할 수 있었다.

하수슬러지의 차수재 및 복토재로의 이용타당성에 관한 연구 (A Feasibility Study on the Use of Liner and Cover Materials Using Sewage Sludge)

  • 유남재;김영길;박병수;정하익
    • 한국지반공학회논문집
    • /
    • 제15권2호
    • /
    • pp.43-71
    • /
    • 1999
  • 본 연구는 하수처리장 슬러지를 사용하여 매립지의 복토재 및 차수재의 건설재료로 개발하기 위하여 수행한 실험의 분석결과이다. 하수슬러지에 그의 지반공학적 물성증진을 위하여 화강토와 화력발전소의 부산물인 플라이애쉬를 주첨가물로 사용하고 부첨가물로 시멘트 및 벤토나이트를 소정의 혼합비율로 섞어서 각각 전단강도 증진과 투수계수 감소효과를 도모하였다. 주재료인 하수슬러지와 첨가재의 혼합비율을 변화시킨 혼합물에 대하여 다양한 실내실험을 수행하여 복토재 및 차수재의 설계기준의 적합성 여부를 조사하였다. 각 주재료, 첨가재, 혼합물의 비중, 입도분석, 액\ulcorner소성한계 실험을 실시하여 기본물성을 구하고 그들이 투수성, 다짐성, 압축성, 전단강도에 미치는 영향에 대하여 분석하였다. 혼합물에 대하여 실내다짐시험을 실시하여 최대건조단위중량과 최적함수비를 구하고 현장 다짐효율성을 평가하였다. 다짐혼합시료에 대하여 변수두 투수시험을 실시하여 투수계수를 구하는 한편 변수두 투수시험을 하중제어식 압밀시험중에 병행 실시하여 그들의 압밀정수 및 투수계수를 측정하였다. 슬러지의 장기적 안정성과 관련하여 크리프실험을 변수두 투수시험과 함께 실시하였다. 한편, 한달간을 부패시킨 다짐시료에 대하여 투수시험을 실시하여 슬러지내 유기물질 부패에 의한 투수계수에 미치는 영향에 대하여 고찰하였다. 슬러지에 화강토, 플라이애쉬, 벤토나이트를 일정비율로 섞은 혼합물에 대하여 직접전단시험을 실시하여 전단강도정수를 구하였다. 시멘트와 혼합한 슬러지에 대하여 일축압축 강도시험을 실시하여 혼합비와 재령기간에 따른 압축강도 변화를 분석하였다. 한편, 다짐혼합시료에 대하여 CBR시험을 수행하여 그들의 주행성에 대한 평가를 실시하였다. 이와 같은 다양한 실험결과를 종합분석하여 매립지의 차수재 및 복토재로서 사용조건 만족여부를 검토하였다.

  • PDF

Hardware Approach to Fuzzy Inference―ASIC and RISC―

  • Watanabe, Hiroyuki
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.975-976
    • /
    • 1993
  • This talk presents the overview of the author's research and development activities on fuzzy inference hardware. We involved it with two distinct approaches. The first approach is to use application specific integrated circuits (ASIC) technology. The fuzzy inference method is directly implemented in silicon. The second approach, which is in its preliminary stage, is to use more conventional microprocessor architecture. Here, we use a quantitative technique used by designer of reduced instruction set computer (RISC) to modify an architecture of a microprocessor. In the ASIC approach, we implemented the most widely used fuzzy inference mechanism directly on silicon. The mechanism is beaded on a max-min compositional rule of inference, and Mandami's method of fuzzy implication. The two VLSI fuzzy inference chips are designed, fabricated, and fully tested. Both used a full-custom CMOS technology. The second and more claborate chip was designed at the University of North Carolina(U C) in cooperation with MCNC. Both VLSI chips had muliple datapaths for rule digital fuzzy inference chips had multiple datapaths for rule evaluation, and they executed multiple fuzzy if-then rules in parallel. The AT & T chip is the first digital fuzzy inference chip in the world. It ran with a 20 MHz clock cycle and achieved an approximately 80.000 Fuzzy Logical inferences Per Second (FLIPS). It stored and executed 16 fuzzy if-then rules. Since it was designed as a proof of concept prototype chip, it had minimal amount of peripheral logic for system integration. UNC/MCNC chip consists of 688,131 transistors of which 476,160 are used for RAM memory. It ran with a 10 MHz clock cycle. The chip has a 3-staged pipeline and initiates a computation of new inference every 64 cycle. This chip achieved an approximately 160,000 FLIPS. The new architecture have the following important improvements from the AT & T chip: Programmable rule set memory (RAM). On-chip fuzzification operation by a table lookup method. On-chip defuzzification operation by a centroid method. Reconfigurable architecture for processing two rule formats. RAM/datapath redundancy for higher yield It can store and execute 51 if-then rule of the following format: IF A and B and C and D Then Do E, and Then Do F. With this format, the chip takes four inputs and produces two outputs. By software reconfiguration, it can store and execute 102 if-then rules of the following simpler format using the same datapath: IF A and B Then Do E. With this format the chip takes two inputs and produces one outputs. We have built two VME-bus board systems based on this chip for Oak Ridge National Laboratory (ORNL). The board is now installed in a robot at ORNL. Researchers uses this board for experiment in autonomous robot navigation. The Fuzzy Logic system board places the Fuzzy chip into a VMEbus environment. High level C language functions hide the operational details of the board from the applications programme . The programmer treats rule memories and fuzzification function memories as local structures passed as parameters to the C functions. ASIC fuzzy inference hardware is extremely fast, but they are limited in generality. Many aspects of the design are limited or fixed. We have proposed to designing a are limited or fixed. We have proposed to designing a fuzzy information processor as an application specific processor using a quantitative approach. The quantitative approach was developed by RISC designers. In effect, we are interested in evaluating the effectiveness of a specialized RISC processor for fuzzy information processing. As the first step, we measured the possible speed-up of a fuzzy inference program based on if-then rules by an introduction of specialized instructions, i.e., min and max instructions. The minimum and maximum operations are heavily used in fuzzy logic applications as fuzzy intersection and union. We performed measurements using a MIPS R3000 as a base micropro essor. The initial result is encouraging. We can achieve as high as a 2.5 increase in inference speed if the R3000 had min and max instructions. Also, they are useful for speeding up other fuzzy operations such as bounded product and bounded sum. The embedded processor's main task is to control some device or process. It usually runs a single or a embedded processer to create an embedded processor for fuzzy control is very effective. Table I shows the measured speed of the inference by a MIPS R3000 microprocessor, a fictitious MIPS R3000 microprocessor with min and max instructions, and a UNC/MCNC ASIC fuzzy inference chip. The software that used on microprocessors is a simulator of the ASIC chip. The first row is the computation time in seconds of 6000 inferences using 51 rules where each fuzzy set is represented by an array of 64 elements. The second row is the time required to perform a single inference. The last row is the fuzzy logical inferences per second (FLIPS) measured for ach device. There is a large gap in run time between the ASIC and software approaches even if we resort to a specialized fuzzy microprocessor. As for design time and cost, these two approaches represent two extremes. An ASIC approach is extremely expensive. It is, therefore, an important research topic to design a specialized computing architecture for fuzzy applications that falls between these two extremes both in run time and design time/cost. TABLEI INFERENCE TIME BY 51 RULES {{{{Time }}{{MIPS R3000 }}{{ASIC }}{{Regular }}{{With min/mix }}{{6000 inference 1 inference FLIPS }}{{125s 20.8ms 48 }}{{49s 8.2ms 122 }}{{0.0038s 6.4㎲ 156,250 }} }}

  • PDF

캐나다 앨버타주 전기 백악기 맥머레이층의 유성이토 퇴적층 (Fluid-mud deposits in the Early Cretaceous McMurray Formation, Alberta, Canada)

  • 오주현;조형래
    • 지질학회지
    • /
    • 제54권5호
    • /
    • pp.477-488
    • /
    • 2018
  • 유성이토는 현생 염하구 환경에서 흔히 발달하지만, 고기의 퇴적층에서 보고되고 퇴적학적으로 연구된 예는 드물다. 캐나다 앨버타주의 전기 백악기 맥머레이층에서 시추한 염하구 하도 퇴적층 내의 여러 이암층들은 고농도부유점토류에 의한 퇴적특징을 보인다. 이러한 이암층들을 현미경으로 자세히 관찰하여 3개의 미퇴적상(microfacies, <1~25 mm 두께)으로 구분하였다. 미퇴적상 1은 무구조의 이암(structureless mudstone)으로 주로 점토 입자로 구성되고 무질서하게 분포하는 조립질 입자(조립질 실트~세립질 모래)들을 포함한다. 조립질 입자들을 지지할 수 있는 양력을 지닌 점착성의 이토류, 즉 유성이토가 정지하여 미퇴적상 1이 퇴적된 것으로 해석된다(quasi-laminar plug flow). 미퇴적상 2는 실트엽층을 포함하는 이암(silt-streaked mudstone)으로 산재한 조립질 입자를 포함하는 이암으로 구성되며, 불연속적이고 매우 얇은 실트엽층을 포함한다. 미퇴적상 1과 유사한 조직을 보이므로, 미퇴적상 2도 점착성의 유성이토에 의해 퇴적된 것으로 해석된다. 하지만 불연속적인 실트엽층은 plug 아래에 간헐적이고 약한 난류운동이 있었음을 제시한다(upper transitional plug flow). 미퇴적상 3은 이질 엽층리의 이암(heterolithic laminated mudstone)으로 실트엽층과 점토엽층의 교호로 구성되며, 평행엽층리 또는 저각도 사엽층리를 보이고 간혹 낮은 기복의 연흔 형태를 보인다. 이질 엽층리는 점착성 plug 아래의 난류층에서 입자크기에 따른 분급작용이 일어났음을 지시하며, lower transitional plug flow 아래에서 발달하는 낮은 층면구조에 의해 형성되었을 것으로 해석된다. 이 미퇴적상들은 유속과 부유이토농도에 따라 달라지는 유성이토의 여러 가지 상을 나타낸다고 볼 수 있다. 다른 지역에서 유성이토층을 인지하고 이암의 퇴적작용을 보다 잘 이해하는데 본 연구의 결과가 중요한 지식을 제공하리라 생각된다.

폐콘크리트 미분말 치환율에 따른 이산화탄소 반응경화 시멘트의 광물상 분석 (Mineralogical Analysis of Calcium Silicate Cement according to the Mixing Rate of Waste Concrete Powder)

  • 이향선;송훈
    • 한국건축시공학회지
    • /
    • 제24권2호
    • /
    • pp.181-191
    • /
    • 2024
  • 석회석은 시멘트의 주원료로써 90% 이상을 사용하고 있으며, 고온 소성 과정에서 및 석회석의 탈탄산 반응으로 많은 양의 CO2를 배출한다. 이에 석회석 사용량 저감을 위해 원료를 대체할 수 있는 부산물에 관한 연구들이 진행 중이다. 또한 광물 탄산화는 기체인 CO2를 탄산염 광물로 전환하는 기술로 산업시설에서 배출되는 CO2를 포집하여 광물로 저장 및 자원화할 수 있다. 한편, 건설폐기물은 계속적으로 증가하는 추세로, 폐콘크리트는 많은 부분을 차지하고 있다. 폐콘크리트는 파쇄 및 분쇄를 통해 순환골재로써 활용되고 있으나 이때 발생하는 폐콘크리트 미분말은 유효하게 재이용 되지 못하고 대부분 폐기 또는 매립되는 실정이다. 이에 본 연구에서는 폐콘크리트를 석회석 대체재로써 활용하여 광물 탄산화 기술을 적용할 수 있는 이산화탄소 반응경화 시멘트 제조 가능성을 확인하고자 한다. 폐콘크리트 미분말 치환율 및 이산화탄소 반응 경화 시멘트의 주요 광물이 생성되는 조건인 SiO2/(CaO+SiO2) 몰비에 따른 광물 분석 결과, 폐콘크리트 미분말 치환율과 SiO2/(CaO+SiO2) 몰비가 높을수록 주요 광물인 Pseudowollastonite와 Rankinite 생성량이 증가하였다. 또한 세 가지 SiO2/(CaO+SiO2) 몰비에서 공통적으로 폐콘크리트 미분말을 50% 치환한 경우 Gehlenite가 생성되었으며, 생성량 또한 유사하였다. 이는 콘크리트 미분말에 함유하고 있는 Al2O3 성분이 CaO와 SiO2와 반응하여 Gehlenite가 합성된 것으로 판단된다. Gehlenite의 경우 Pseudowollastonite와 Rankinite와 같이 광물 탄산화를 통해 탄산염 광물인 CaCO3를 생성하는 산화물로써 이는 Al2O3가 함유된 산업부산물을 원료로 사용하는 경우 이산화탄소 반응경화 시멘트의 광물로써 활용이 가능할 것으로 기대한다.

Information Privacy Concern in Context-Aware Personalized Services: Results of a Delphi Study

  • Lee, Yon-Nim;Kwon, Oh-Byung
    • Asia pacific journal of information systems
    • /
    • 제20권2호
    • /
    • pp.63-86
    • /
    • 2010
  • Personalized services directly and indirectly acquire personal data, in part, to provide customers with higher-value services that are specifically context-relevant (such as place and time). Information technologies continue to mature and develop, providing greatly improved performance. Sensory networks and intelligent software can now obtain context data, and that is the cornerstone for providing personalized, context-specific services. Yet, the danger of overflowing personal information is increasing because the data retrieved by the sensors usually contains privacy information. Various technical characteristics of context-aware applications have more troubling implications for information privacy. In parallel with increasing use of context for service personalization, information privacy concerns have also increased such as an unrestricted availability of context information. Those privacy concerns are consistently regarded as a critical issue facing context-aware personalized service success. The entire field of information privacy is growing as an important area of research, with many new definitions and terminologies, because of a need for a better understanding of information privacy concepts. Especially, it requires that the factors of information privacy should be revised according to the characteristics of new technologies. However, previous information privacy factors of context-aware applications have at least two shortcomings. First, there has been little overview of the technology characteristics of context-aware computing. Existing studies have only focused on a small subset of the technical characteristics of context-aware computing. Therefore, there has not been a mutually exclusive set of factors that uniquely and completely describe information privacy on context-aware applications. Second, user survey has been widely used to identify factors of information privacy in most studies despite the limitation of users' knowledge and experiences about context-aware computing technology. To date, since context-aware services have not been widely deployed on a commercial scale yet, only very few people have prior experiences with context-aware personalized services. It is difficult to build users' knowledge about context-aware technology even by increasing their understanding in various ways: scenarios, pictures, flash animation, etc. Nevertheless, conducting a survey, assuming that the participants have sufficient experience or understanding about the technologies shown in the survey, may not be absolutely valid. Moreover, some surveys are based solely on simplifying and hence unrealistic assumptions (e.g., they only consider location information as a context data). A better understanding of information privacy concern in context-aware personalized services is highly needed. Hence, the purpose of this paper is to identify a generic set of factors for elemental information privacy concern in context-aware personalized services and to develop a rank-order list of information privacy concern factors. We consider overall technology characteristics to establish a mutually exclusive set of factors. A Delphi survey, a rigorous data collection method, was deployed to obtain a reliable opinion from the experts and to produce a rank-order list. It, therefore, lends itself well to obtaining a set of universal factors of information privacy concern and its priority. An international panel of researchers and practitioners who have the expertise in privacy and context-aware system fields were involved in our research. Delphi rounds formatting will faithfully follow the procedure for the Delphi study proposed by Okoli and Pawlowski. This will involve three general rounds: (1) brainstorming for important factors; (2) narrowing down the original list to the most important ones; and (3) ranking the list of important factors. For this round only, experts were treated as individuals, not panels. Adapted from Okoli and Pawlowski, we outlined the process of administrating the study. We performed three rounds. In the first and second rounds of the Delphi questionnaire, we gathered a set of exclusive factors for information privacy concern in context-aware personalized services. The respondents were asked to provide at least five main factors for the most appropriate understanding of the information privacy concern in the first round. To do so, some of the main factors found in the literature were presented to the participants. The second round of the questionnaire discussed the main factor provided in the first round, fleshed out with relevant sub-factors. Respondents were then requested to evaluate each sub factor's suitability against the corresponding main factors to determine the final sub-factors from the candidate factors. The sub-factors were found from the literature survey. Final factors selected by over 50% of experts. In the third round, a list of factors with corresponding questions was provided, and the respondents were requested to assess the importance of each main factor and its corresponding sub factors. Finally, we calculated the mean rank of each item to make a final result. While analyzing the data, we focused on group consensus rather than individual insistence. To do so, a concordance analysis, which measures the consistency of the experts' responses over successive rounds of the Delphi, was adopted during the survey process. As a result, experts reported that context data collection and high identifiable level of identical data are the most important factor in the main factors and sub factors, respectively. Additional important sub-factors included diverse types of context data collected, tracking and recording functionalities, and embedded and disappeared sensor devices. The average score of each factor is very useful for future context-aware personalized service development in the view of the information privacy. The final factors have the following differences comparing to those proposed in other studies. First, the concern factors differ from existing studies, which are based on privacy issues that may occur during the lifecycle of acquired user information. However, our study helped to clarify these sometimes vague issues by determining which privacy concern issues are viable based on specific technical characteristics in context-aware personalized services. Since a context-aware service differs in its technical characteristics compared to other services, we selected specific characteristics that had a higher potential to increase user's privacy concerns. Secondly, this study considered privacy issues in terms of service delivery and display that were almost overlooked in existing studies by introducing IPOS as the factor division. Lastly, in each factor, it correlated the level of importance with professionals' opinions as to what extent users have privacy concerns. The reason that it did not select the traditional method questionnaire at that time is that context-aware personalized service considered the absolute lack in understanding and experience of users with new technology. For understanding users' privacy concerns, professionals in the Delphi questionnaire process selected context data collection, tracking and recording, and sensory network as the most important factors among technological characteristics of context-aware personalized services. In the creation of a context-aware personalized services, this study demonstrates the importance and relevance of determining an optimal methodology, and which technologies and in what sequence are needed, to acquire what types of users' context information. Most studies focus on which services and systems should be provided and developed by utilizing context information on the supposition, along with the development of context-aware technology. However, the results in this study show that, in terms of users' privacy, it is necessary to pay greater attention to the activities that acquire context information. To inspect the results in the evaluation of sub factor, additional studies would be necessary for approaches on reducing users' privacy concerns toward technological characteristics such as highly identifiable level of identical data, diverse types of context data collected, tracking and recording functionality, embedded and disappearing sensor devices. The factor ranked the next highest level of importance after input is a context-aware service delivery that is related to output. The results show that delivery and display showing services to users in a context-aware personalized services toward the anywhere-anytime-any device concept have been regarded as even more important than in previous computing environment. Considering the concern factors to develop context aware personalized services will help to increase service success rate and hopefully user acceptance for those services. Our future work will be to adopt these factors for qualifying context aware service development projects such as u-city development projects in terms of service quality and hence user acceptance.

XGBoost를 활용한 리스크패리티 자산배분 모형에 관한 연구 (A Study on Risk Parity Asset Allocation Model with XGBoos)

  • 김영훈;최흥식;김선웅
    • 지능정보연구
    • /
    • 제26권1호
    • /
    • pp.135-149
    • /
    • 2020
  • 인공지능을 기반으로 한 다양한 연구들이 현대사회에 많은 변화를 불러일으키고 있다. 금융시장 역시 예외는 아니다. 로보어드바이저 개발이 활발하게 진행되고 있으며 전통적 방식의 단점을 보완하고 사람이 분석하기 어려운 부분을 대체하고 있다. 로보어드바이저는 인공지능 알고리즘으로 자동화된 투자 결정을 내려 다양한 자산배분 모형과 함께 활용되고 있다. 자산배분 모형 중 리스크패리티는 대표적인 위험 기반 자산배분 모형의 하나로 큰 자산을 운용하는 데 있어 안정성을 나타내고 현업에서 역시 널리 쓰이고 있다. 그리고 XGBoost 모형은 병렬화된 트리 부스팅 기법으로 제한된 메모리 환경에서도 수십억 가지의 예제로 확장이 가능할 뿐만 아니라 기존의 부스팅에 비해 학습속도가 매우 빨라 많은 분야에서 널리 활용되고 있다. 이에 본 연구에서 리스크패리티와 XGBoost를 장점을 결합한 모형을 제안하고자 한다. 기존에 널리 사용되는 최적화 자산배분 모형은 과거 데이터를 기반으로 투자 비중을 추정하기 때문에 과거와 실투자 기간 사이의 추정 오차가 발생하게 된다. 최적화 자산배분 모형은 추정 오차로 인해 포트폴리오 성과에서 악영향을 받게 된다. 본 연구는 XGBoost를 통해 실투자 기간의 변동성을 예측하여 최적화 자산배분 모형의 추정 오차를 줄여 모형의 안정성과 포트폴리오 성과를 개선하고자 한다. 본 연구에서 제시한 모형의 실증 검증을 위해 한국 주식시장의 10개 업종 지수 데이터를 활용하여 2003년부터 2019년까지 총 17년간 주가 자료를 활용하였으며 in-sample 1,000개, out-of-sample 20개씩 Moving-window 방식으로 예측 결과값을 누적하여 총 154회의 리밸런싱이 이루어진 백테스팅 결과를 도출하였다. 본 연구에서 제안한 자산배분 모형은 기계학습을 사용하지 않은 기존의 리스크패리티와 비교하였을 때 누적수익률 및 추정 오차에서 모두 개선된 성과를 보여주었다. 총 누적수익률은 45.748%로 리스크패리티 대비 약 5% 높은 결과를 보였고 추정오차 역시 10개 업종 중 9개에서 감소한 결과를 보였다. 실험 결과를 통해 최적화 자산배분 모형의 추정 오차를 감소시킴으로써 포트폴리오 성과를 개선하였다. 포트폴리오의 추정 오차를 줄이기 위해 모수 추정 방법에 관한 다양한 연구 사례들이 존재한다. 본 연구는 추정 오차를 줄이기 위한 새로운 추정방법으로 기계학습을 제시하여 최근 빠른 속도로 발전하는 금융시장에 맞는 진보된 인공지능형 자산배분 모형을 제시한 점에서 의의가 있다.

K-Beauty 구전효과가 온라인 매출액에 미치는 영향: 중국 SINA Weibo와 Meipai 중심으로 (Word-of-Mouth Effect for Online Sales of K-Beauty Products: Centered on China SINA Weibo and Meipai)

  • 류미나;임규건
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.197-218
    • /
    • 2019
  • 중국 화장품 전체 교역중 약 67% 정도가 전자상거래로 이루어지고 있는데 특히 한국 화장품인 K-Beauty 제품의 인기가 높다. 기존 연구에 의하면 화장품 같은 소비재의 경우 소비자의 80%는 제품 구매 전 제품정보를 인터넷으로 검색하며 구전정보에 영향을 받는다. 대부분의 중국 소비자들은 화장품과 관련된 정보를 주요 SNS에 다른 소비자들이 올린 댓글을 통해 획득하며 최근에는 뷰티 관련 동영상 채널 정보를 이용하기도 한다. 기존의 온라인 구전 관련 연구는 대부분 Facebook, Twitter, 블로그 등의 매체 자체가 중심이었다. 본 연구에서는 온라인 구전정보의 전달 형태와 정보의 형태를 고려하여 정보유형을 동영상과 사진 및 텍스트로 나누어 연구하고자 한다. 중국의 SNS대표 플랫폼인 SINA Weibo와 동영상 플랫폼 Meipai의 비정형 데이터를 분석하고 온라인 구전정보를 양과 방향성으로 나누어 K-Beauty브랜드 매출액에 미치는 영향을 분석하고자 한다. Meipai에서는 총 약 33만개의 데이터를 수집하였고 SINA Weibo에서는 총 약 11만개의 데이터를 수집하여 화장품의 기본 속성도 고려하여 분석하였다. 본 연구의 의의는 온라인 매출은 K-Beauty화장품에 대해서도 구전에 영향을 받는다는 것을 기본적으로 입증함과 동시에 특히 정보 유형에 대한 구분을 시도 했다는 것이다. 두가지 매체 모두 기존 연구와 같이 양이 매출에 영향을 미치고 있으나 매체풍부성으로 인해 텍스트보다 동영상이 정보를 더 주고 영향이 크다는 것을 입증하였다. 또한, 정보 방향성 측면에서는 색조화장품의 경우 부정 댓글의 영향이 크게 나타났다. 실무적으로는 화장품 판매 전략 및 광고 전략에 기초 및 색조 화장품을 구분하여 중국 K-Beauty화장품 매출증대를 위한 마케팅전략을 구사하는데 도움이 될 것으로 기대된다.