• 제목/요약/키워드: 컬럼

검색결과 974건 처리시간 0.022초

울진 보암광산의 조장석-스포듀민 페그마타이트의 광물 지화학 조성 연구 (Mineral Geochemistry of the Albite-Spodumene Pegmatite in the Boam Deposit, Uljin)

  • 박규승;박정우;허철호
    • 광물과 암석
    • /
    • 제35권3호
    • /
    • pp.283-298
    • /
    • 2022
  • 본 연구에서는 경상북도 울진 왕피리에 소재한 보암 Li 광산의 조장석-스포듀민 페그마타이트와 그 주변에 형성된 외영운암(exogreisen)의 광물 지화학 조성을 EDS로 분석하고 그 의미를 고찰하였다. 보암 광산은 화성활동 단계와 영운암화 단계의 두 단계를 거쳐 형성되었다. 전자에서는 조립질 내지 중립질의 스포듀민, 조장석, 석영, K-장석으로 구성된 조장석-스포듀민 페그마타이트가 관입하였으며, 후자에서는 페그마타이트의 조장석화 및 영운암화 과정에서 세립의 조장석 및 이와 공생하는 백운모, 녹주석, 인회석, 컬럼바이트족 광물(CGM, columbite group mineral), 마이크롤라이트, 석석 등이 형성되며 화성활동 단계의 광물을 부분적으로 교대하였다. 이 과정에서 주변암인 장군석회암과 맥의 경계면에는 전기석, 석영, 백운모로 구성된 외영운암이 형성되었다. 광물 지구화학 분석 결과에 따르면 화성활동 단계 대비 영운암화 단계에서 녹주석과 백운모에 Cs 함량이 더 높고 CGM의 Ta/(Nb+Ta) 또한 더 높게 나타난다. 이 같은 사실은 영운암화에 관여한 용융체가 페그마타이트를 형성한 용융체에 비하여 더 많은 분화 과정을 거쳤음을 지시한다. 영운암화 단계에서 형성된 인회석의 조성은 Cl이 결핍되고 F가 부화되어 있어 보암 광산이 S형 화강암 기원의 Li-Cs-Ta(LCT) 페그마타이트에 해당하는 특성을 지닌다. 화성활동 단계에 형성된 중립질의 조장석은 평균 0.28 wt.%의 P2O5를 갖는데 비해 영운암화 단계에 형성된 세립질의 조장석은 EDS 검출한계 미만의 P2O5를 지닌다. 영운암화 단계에 형성되는 인회석과 마이크롤라이트는 화성활동 단계 대비 Ca가 부화되었음을 지시한다. 따라서, 조장석 내 P의 결핍은 용융체에 있던 P가 주변암으로부터 Ca가 공급됨에 따라 인회석의 형태로 소진되어 결핍된 결과로 해석할 수 있다. 외영운암의 전기석은 중심에서 외곽으로 갈수록 Ca를 비롯한 2가 양이온의 함량이 증가하고 그에 따라 Al의 함량이 감소하는 화학적 누대구조를 보인다. 이는 영운암화 단계에서 장군석회암으로부터 용융체에 Ca가 점차 공급되었다는 가설에 부합한다.

곰피추출물의 지표성분 Dieckol의 분석법 개선 및 검증 (Modification and Validation of an Analytical Method for Dieckol in Ecklonia Stolonifera Extract)

  • 한웅호;최선일;문효;이세정;오건;진희구;오현지;김은진;김종욱;이부용;이옥환
    • 한국식품위생안전성학회지
    • /
    • 제37권3호
    • /
    • pp.143-148
    • /
    • 2022
  • 본 연구에서는 곰피추출물을 이용하여 건강기능식품 개발 시 원료의 표준화를 위하여 HPLC-PDA를 이용하여 지표성분 dieckol의 분석법 개선 및 검증을 실시하였다. 분석법의 유효성 검증은 ICH가이드라인에 근거하여 특이성, 직선성, 정확성, 정밀성, 검출한계 및 정량한계를 통해 신뢰성 및 타당성을 검증하였다. 지표성분 dieckol 분석을 위하여 0.1% formic acid가 첨가된 water와 acetonitrile을 이동상으로 사용하였고 컬럼은 Capcell pak C18을 사용하여 HPLC를 이용한 분석방법에서 표준용액과 곰피추출물의 지표성분 dieckol 피크 머무름 시간 일치하고 다른 물질의 간섭을 받지 않는 것을 확인하였으며, PDA spectrum이 일치하므로 특이성을 확인하였다. Dieckol의 검량선의 상관계수(R2)은 1에 가까운 높은 상관계수 값 0.9997로 높은 직선성을 확인할 수 있었으며 분석에 적합함을 알 수 있었다. 농도를 알고 있는 곰피추출물에 dieckol 표준용액을 최종 농도가 각각 저농도(2.5 ㎍/mL), 중간농도(5 ㎍/mL), 고농도(10 ㎍/mL)가 되도록 첨가하여 정밀성 및 정확성을 계산하였다. 정밀성은 일간, 일내 정밀성으로 확인하였으며, intra-day 및 inter-day 분석에서 RSD는 각각 1.58-4.39%, 1.37-4.64% 수준으로 5% 이하의 우수한 정밀성을 보였다. 정확성 측정결과 intra-day 및 inter-day 분석에서 회수율은 각각 96.91-102.33% 및 98.41-105.71%로 우수한 정확성을 나타내었다. 검출한계(LOD)와 정량한계(LOQ)는 0.18 ㎍/mL, 0.56 ㎍/mL로 각각 확인되였으며 낮은 농도에서도 검출이 가능함을 보였다. 확립된 분석법은 특이성, 직선성, 정밀성, 정확성, 검출한계 및 정량한계에 대한 분석법 검증결과가 모두 우수한 분석방법임을 증명하였다. 또한 검증된 분석법을 이용하여 곰피추출물 중 함유한 dieckol 함량을 분석한 결과 27.39±0.50 mg/dry weight g로 분석되었다. 본 연구는 HPLC-PDA를 이용한 곰피추출물의 지표성분인 dieckol의 분석방법을 개선 및 유효성 검증을 진행하여 과학적으로 신뢰성이 있는 적합한 분석방법임이 검증되었다.

한국과 중국의 도시별 위성기반 CO/CO2, CO/NO2 비율 특성 (Characteristics of Satellite-Based CO/CO2, CO/NO2 Ratio in South Korea and China)

  • 유지은;김재민;장진아;유정아;김승연;이윤곤
    • 대한원격탐사학회지
    • /
    • 제39권2호
    • /
    • pp.129-142
    • /
    • 2023
  • 본 연구는 2018년 4월부터 2022년 4월까지 Orbiting Carbon Observatory-2/3의 건조공기 이산화탄소 몰분율(column-averaged carbon dioxide dry-air mole fraction, XCO2) 자료와 TROPOspheric monitoring instrument의 일산화탄소(carbon monoxide, CO) 및 이산화질소(nitrogen dioxide, NO2) 연직컬럼농도(본 연구에서 XCO, XNO2로 명명) 자료를 활용하여 한국과 중국의 도시 및 권역에 대해 CO와 CO2, CO와 NO2의 비율을 분석하고, 사회경제적 지표(인구, 차량 등록 대수, 지역내총생산)와 비율의 관계, 한국과 중국에서의 특성 차이를 제시하였다. 먼저 CO2, CO 그리고 NO2 세 기체상 물질의 대기 중 체류시간 차이로 CO2, CO는 배경값과 추세선을 제거한 ΔXCO2, ΔXCO로 분석하였다. 지역별로 세 값을 비교한 결과 ΔXCO, ΔXCO2는 중국 지역이 XNO2는 한국 지역이 상대적으로 높은 값을 보였으며, 두 값의 비율(ΔXCO/ΔXCO2, ΔXCO/XNO2) 모두 한국보다 중국에서 높은 것으로 나타났다. ΔXCO/ΔXCO2, ΔXCO/XNO2와 사회경제적 지표는 양의 상관관계를 보였으며, 이는 도시 규모가 크고 경제활동이 활발할수록 대기오염기체 및 온실기체의 농도가 높다는 점을 시사한다. 한국과 중국의 비율 특성 차이를 분석하기 위해 두 나라의 지역별로 분석한 ΔXCO와 ΔXCO2 관계는 한국은 음의 관계성을 중국은 양의 관계성을 나타냈다. ΔXCO와 XNO2의 상관성을 여름과 겨울에 대해 각각 살펴본 결과, 한국은 계절에 따른 ΔXCO 증감이 크지 않은 것에 비해 중국은 북동부 지역을 중심으로 계절에 따른 ΔXCO와 XNO2의 증감이 크게 나타나며 관계성의 차이를 보였다. 이는 온실기체와 대기오염기체의 비율을 분석할 때, 계절 변동성 및 국가별 배출 특성을 감안해야 함을 시사한다.

클라우드 환경에서 MongoDB 기반의 비정형 로그 처리 시스템 설계 및 구현 (Design and Implementation of MongoDB-based Unstructured Log Processing System over Cloud Computing Environment)

  • 김명진;한승호;최운;이한구
    • 인터넷정보학회논문지
    • /
    • 제14권6호
    • /
    • pp.71-84
    • /
    • 2013
  • 컴퓨터 시스템 운용 간에 발생하는 많은 정보들이 기록되는 로그데이터는 컴퓨터 시스템 운용 점검, 프로세스의 최적화, 사용자 최적화 맞춤형 제공 등 다방면으로 활용되고 있다. 본 논문에서는 다양한 종류의 로그데이터들 중에서 은행에서 발생하는 대용량의 로그데이터를 처리하기 위한 클라우드 환경 하에서의 MongoDB 기반 비정형 로그 처리시스템을 제안한다. 은행업무간 발생하는 대부분의 로그데이터는 고객의 업무처리 프로세스 간에 발생하며, 고객 업무 프로세스 처리에 따른 로그데이터를 수집, 저장, 분류, 분석하기 위해서는 별도로 로그데이터를 처리하는 시스템을 구축해야만 한다. 하지만 기존 컴퓨팅환경 하에서는 폭발적으로 증가하는 대용량 비정형 로그데이터 처리를 위한 유연한 스토리지 확장성 기능, 저장된 비정형 로그데이터를 분류, 분석 처리할 수 있는 기능을 구현하기가 매우 어렵다. 이에 따라 본 논문에서는 클라우드 컴퓨팅 기술을 도입하여 기존 컴퓨팅 인프라 환경의 분석 도구 및 관리체계에서 처리하기 어려웠던 비정형 로그데이터를 처리하기 위한 클라우드 환경기반의 로그데이터 처리시스템을 제안하고 구현하였다. 제안한 본 시스템은 IaaS(Infrastructure as a Service) 클라우드 환경을 도입하여 컴퓨팅 자원의 유연한 확장성을 제공하며 실제로, 로그데이터가 장기간 축적되거나 급격하게 증가하는 상황에서 스토리지, 메모리 등의 자원을 신속성 있고 유연하게 확장을 할 수 있는 기능을 포함한다. 또한, 축적된 비정형 로그데이터의 실시간 분석이 요구되어질 때 기존의 분석도구의 처리한계를 극복하기 위해 본 시스템은 하둡 (Hadoop) 기반의 분석모듈을 도입함으로써 대용량의 로그데이터를 빠르고 신뢰성 있게 병렬 분산 처리할 수 있는 기능을 제공한다. 게다가, HDFS(Hadoop Distributed File System)을 도입함으로써 축적된 로그데이터를 블록단위로 복제본을 생성하여 저장관리하기 때문에 본 시스템은 시스템 장애와 같은 상황에서 시스템이 멈추지 않고 작동할 수 있는 자동복구 기능을 제공한다. 마지막으로, 본 시스템은 NoSQL 기반의 MongoDB를 이용하여 분산 데이터베이스를 구축함으로써 효율적으로 비정형로그데이터를 처리하는 기능을 제공한다. MySQL과 같은 관계형 데이터베이스는 복잡한 스키마 구조를 가지고 있기 때문에 비정형 로그데이터를 처리하기에 적합하지 않은 구조를 가지고 있다. 또한, 관계형 데이터베이스의 엄격한 스키마 구조는 장기간 데이터가 축적되거나, 데이터가 급격하게 증가할 때 저장된 데이터를 분할하여 여러 노드에 분산시키는 노드 확장이 어렵다는 문제점을 가지고 있다. NoSQL은 관계형 데이터베이스에서 제공하는 복잡한 연산을 지원하지는 않지만 데이터가 빠르게 증가할 때 노드 분산을 통한 데이터베이스 확장이 매우 용이하며 비정형 데이터를 처리하는데 매우 적합한 구조를 가지고 있는 비관계형 데이터베이스이다. NoSQL의 데이터 모델은 주로 키-값(Key-Value), 컬럼지향(Column-oriented), 문서지향(Document-Oriented)형태로 구분되며, 제안한 시스템은 스키마 구조가 자유로운 문서지향(Document-Oriented) 데이터 모델의 대표 격인 MongoDB를 도입하였다. 본 시스템에 MongoDB를 도입한 이유는 유연한 스키마 구조에 따른 비정형 로그데이터 처리의 용이성뿐만 아니라, 급격한 데이터 증가에 따른 유연한 노드 확장, 스토리지 확장을 자동적으로 수행하는 오토샤딩 (AutoSharding) 기능을 제공하기 때문이다. 본 논문에서 제안하는 시스템은 크게 로그 수집기 모듈, 로그 그래프생성 모듈, MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈로 구성되어져 있다. 로그 수집기 모듈은 각 은행에서 고객의 업무 프로세스 시작부터 종료 시점까지 발생하는 로그데이터가 클라우드 서버로 전송될 때 로그데이터 종류에 따라 데이터를 수집하고 분류하여 MongoDB 모듈과 MySQL 모듈로 분배하는 기능을 수행한다. 로그 그래프생성 모듈은 수집된 로그데이터를 분석시점, 분석종류에 따라 MongoDB 모듈, Hadoop기반 분석 모듈, MySQL 모듈에 의해서 분석되어진 결과를 사용자에게 웹 인터페이스 형태로 제공하는 역할을 한다. 실시간적 로그데이터분석이 필요한 로그데이터는 MySQL 모듈로 저장이 되어 로그 그래프생성 모듈을 통하여 실시간 로그데이터 정보를 제공한다. 실시간 분석이 아닌 단위시간당 누적된 로그데이터의 경우 MongoDB 모듈에 저장이 되고, 다양한 분석사항에 따라 사용자에게 그래프화해서 제공된다. MongoDB 모듈에 누적된 로그데이터는 Hadoop기반 분석모듈을 통해서 병렬 분산 처리 작업이 수행된다. 성능 평가를 위하여 로그데이터 삽입, 쿼리 성능에 대해서 MySQL만을 적용한 로그데이터 처리시스템과 제안한 시스템을 비교 평가하였으며 그 성능의 우수성을 검증하였다. 또한, MongoDB의 청크 크기별 로그데이터 삽입 성능평가를 통해 최적화된 청크 크기를 확인하였다.