• 제목/요약/키워드: Paper sensor

검색결과 12,510건 처리시간 0.046초

비대칭 오류비용을 고려한 분류기준값 최적화와 SVM에 기반한 지능형 침입탐지모형 (An Intelligent Intrusion Detection Model Based on Support Vector Machines and the Classification Threshold Optimization for Considering the Asymmetric Error Cost)

  • 이현욱;안현철
    • 지능정보연구
    • /
    • 제17권4호
    • /
    • pp.157-173
    • /
    • 2011
  • 최근 인터넷 사용의 증가에 따라 네트워크에 연결된 시스템에 대한 악의적인 해킹과 침입이 빈번하게 발생하고 있으며, 각종 시스템을 운영하는 정부기관, 관공서, 기업 등에서는 이러한 해킹 및 침입에 의해 치명적인 타격을 입을 수 있는 상황에 놓여 있다. 이에 따라 인가되지 않았거나 비정상적인 활동들을 탐지, 식별하여 적절하게 대응하는 침입탐지 시스템에 대한 관심과 수요가 높아지고 있으며, 침입탐지 시스템의 예측성능을 개선하려는 연구 또한 활발하게 이루어지고 있다. 본 연구 역시 침입탐지 시스템의 예측성능을 개선하기 위한 새로운 지능형 침입탐지모형을 제안한다. 본 연구의 제안모형은 비교적 높은 예측력을 나타내면서 동시에 일반화 능력이 우수한 것으로 알려진 Support Vector Machine(SVM)을 기반으로, 비대칭 오류비용을 고려한 분류기준값 최적화를 함께 반영하여 침입을 효과적으로 차단할 수 있도록 설계되었다. 제안모형의 우수성을 확인하기 위해, 기존 기법인 로지스틱 회귀분석, 의사결정나무, 인공신경망과의 결과를 비교하였으며 그 결과 제안하는 SVM 모형이 다른 기법에 비해 상대적으로 우수한 성과를 보임을 확인할 수 있었다.

고수압 해저터널에 급속 인공동결공법 적용시 간극수의 염분 농도가 동결속도에 미치는 영향 평가: 실내 동결챔버시험 위주로 (Effect of pore-water salinity on freezing rate in application of rapid artificial ground freezing to deep subsea tunnel: concentration of laboratory freezing chamber test)

  • 오민택;이동섭;손영진;이인모;최항석
    • 한국터널지하공간학회 논문집
    • /
    • 제18권5호
    • /
    • pp.401-412
    • /
    • 2016
  • 고수압 조건의 해저터널 공사에 기존의 그라우팅 공법은 제한을 받게 되어 굴착작업이 어려울 수 있으나, 인공동결공법을 적용할 경우 신속한 차수 및 지반보강 효과를 얻을 수 있다. 인공동결공법을 적용할 경우, 동결 조건에 따라 동결토의 거동이 크게 변화하므로 기존의 연구 사례를 바탕으로 해저지반 등 특수한 조건에서 동결토의 역학적 거동을 예측하는 것에는 한계가 있다. 또한, 인공동결공법의 설계를 위해서는 동결체 형성에 필요한 소요시간 및 동결범위를 산정해야 하며, 해저지반의 경우 간극수 내 염분의 영향을 반영해야 한다. 본 논문에서는 동결토의 열적 특성을 파악하기 위해 인조규사 시료에 대한 실내 열전도도 측정시험과 동결챔버시험을 수행하였다. 동결토와 비동결 포화토 간극수의 염도를 조절하여 동결 과정과 염분에 따른 유효 열전도도를 비정상 열선법을 적용하여 측정하였다. 인조규사 간극수의 염도에 의한 동결특성 변화를 파악하기 위해 동결챔버를 설계 및 제작하였고 이를 통하여 동결 조건을 변화시키며 동결챔버시험을 수행하였다. 동결 조건에 따른 시료내 온도 변화를 분석하고 이를 통해 동결 조건이 사질토의 열전달 특성에 미치는 영향을 평가하였다. 비동결 포화토의 경우는 간극수가 담수(염도 0%)인 조건과 염수(염도 3.5%)인 조건 모두 유효 열전도도가 유사하게 평가되었으나, 동결토의 경우는 간극수가 염수인 조건이 보다 큰 유효 열전도도를 보였다. 이는 동결챔버시험에서 간극수가 염수인 조건이 담수인 조건보다 동결속도가 더 빠른 결과와 일치한다.

수자원분야의 위성영상 활용 현황과 전망 (Present Status and Future Prospect of Satellite Image Uses in Water Resources Area)

  • 김성준;이용관
    • 생태와환경
    • /
    • 제51권1호
    • /
    • pp.105-123
    • /
    • 2018
  • 우리나라의 수자원관련 인공위성 영상정보의 활용능력은 현재 선진국대비 20~30% 수준에 머무르고 있다. 지금까지 수자원분야에서 인공위성영상의 대부분의 활용은 수문모형의 입력자료로서 토지피복도를 사용하는 수준이다. 이 또한 2000년대 건설교통부 '유역조사사업'을 통하여 미국의 Landsat 영상을 활용하여 전국적으로 1975년부터 2000년까지 5년 간격의 기본적인 토지피복도 (USGS level 1~30 m 해상도)를 작성하여 이를 보급한 것으로부터 정착되었다 (국가수자원관리종합정보시스템 http://www.wamis.go.kr/). 2000년 이후로는 환경부가 토지피복도를 제작 공급하는 부처로 구분되어, 이후의 자료로는 2008년 10 m 해상도의 토지피복도가 구축되어 있다. 한편 2000년부터 위성영상을 획득하기 시작한 Terra/Aqua MODIS 위성은 영상정보 활용의 획기적인 전환점을 만들었다고 할 수 있다. 웹상에서 제공하는 다양한 수자원/수문관련 공간정보들이 거의 실시간으로 제공되고 있는 것이다. 공간해상도 또한 250~1,000 m 수준이라 수자원분야에는 충분히 활용이 가능하며, 상세화 (Downscaling) 기술을 개발하여 정보의 수준을 끌어올리기도 한다. 정부는 2005년 8월 국가과학기술위원회에서 '미래 국가유망기술 21'을 확정하였는데, 21개 핵심분야 중에서 공공성 (국가안위 위상제고)을 고려하여 "전지구 관측 시스템과 국가자원 활용"을 선정한 바 있다. 특히 '우주와 지구', '정보와 지식', '안전', '국토관리 및 사회인프라'기술분야에서 제안된 기술들 중에는 원격탐사기술을 중심으로 구성하여, 미래의 원격탐사기술이 수자원분야에 활용될 것을 고지한 바 있다. 이에 건설교통부는 2006년 5월 '국토이노베이션기술개발사업'을 추진하면서 건설교통 R&D 혁신로드맵의 "재해예방 및 감지기술 분야"에서 홍수재해 예방시 원격탐사기술이 큰 비중을 차지하는 것으로 제안한 바있다. 한편, 2013년에는 국토교통부 국토교통과학기술진흥원에서 '위성정보를 활용한 글로벌 수자원 감시, 평가, 예측시스템 개발'을 위한 기획을 거쳐 2014년 7월 '국토관측센서 기반 광역 및 지역 수재해 감시 평가 예측기술 개발 연구단 (2014~2019)'이 발족되었다. 기술개발 내용으로는 위성정보 기반의 수문기상인자 산출기술, 미계측유역 수자원변동 분석기술, 수문학적 가뭄감시 및 전망기술, 하천건천화 추적기술 등이 포함되어, 수자원분야에서 원격탐사기술의 획기적인 발전이 기대되고 있다. 또한, 정부는 2020년대에 수자원 전용위성을 쏘아올릴 계획을 가지고 있어, 인공위성영상을 활용한 연구는 급성장할 것으로 예상된다. 현재 원격탐사 기술개발을 위한 다양한 위성영상 분석소프트웨어 (PG-STEAMER, ERDAS, ER-MAPPER, IDRISI, ArcGIS 등)들이 적정한 가격으로 개발되어 있으므로, 분석툴에 대한 물리적인 환경은 갖추어져 있다고 볼 수 있다. 지난 30여년 동안 GIS를 이용한 다양한 수자원 관련연구가 정착되어 온 것과 마찬가지로, 이제 원격탐사관련 위성영상정보의 활용연구가 활성화되어 다양한 기술개발을 통한 수자원분야의 우주기술시대를 맞이하기를 기대해 본다.

펄스 초음파를 이용한 수목 공동부 3D 구현 프로그램 제작 (Development of 3D Viewer for Tree Cavity using Pulse Ultrasound)

  • 손정민;강성훈;문종욱;윤석규;박지군
    • 한국방사선학회논문지
    • /
    • 제15권2호
    • /
    • pp.265-271
    • /
    • 2021
  • 수목의 내부 부후의 양상은 많은 원인에 의존한다. 이런 다양한 부후의 원인은 일반적인 방법으로는 탐지가 어렵기 때문에 장기간 부후 상태를 확인할 수 없다면 부후 부위의 확대로 인해 수목의 심각한 피해가 발생할 수 있다. 수목 단층 영상을 획득하는 방식은 센서를 고무망치로 두드려 수목을 통과하는 임펄스가 생성되어 이동하는 속도를 기록한다. 본 논문에서는 물리적 손상에 의한 균열, 공동, 부후를 측정할 수 있도록 Arbotom에서 획득한 수목 단면 영상을 이용하여 수목의 내부 상태를 알 수 있는 3D 뷰어를 개발하여 수목 내부의 부후가 진행된 정도를 파악하고 이를 바탕으로 수목의 외과적 수술이 필요한 경우 참고할 수 있는 데이터를 제시하고자 하였다. 수목의 단층 영상을 획득하기 위해 세 그루의 양버즘 나무와 단풍 나무에 6개의 센서를 부착하여 1m 길이의 나무를 Arbotom 프로그램을 이용하여 측정하였으며 MATLAB을 이용하여 제작한 3D Viewer를 통하여 3D 영상을 구현하였다. 단순히 영상의 획득 뿐만 아니라 수목의 단면 길이와 부피를 측정하였으며 실제로 제작한 3D Viewer에서 단풍 나무의 부후가 발생된 부분 길이는 33.12 cm, 양버즘 나무의 부후는 21.41 cm로 측정되었으며 단풍 나무의 부후의 부피는 78.832 ㎤로 측정되었다. Arbotom의 단면 영상과 3D 영상을 비교한 결과 수목의 실제 양상과 같은 결과를 획득하였기 때문에 제작된 소프트웨어 신뢰성 또한 확보된 것으로 판단할 수 있으며 제작된 Viewer를 통하여 외과적 수목 수술에 적용할 데이터를 제공해 수목의 피해를 최소화 할 것으로 사료된다.

통계분석 및 전산모사 기법을 이용한 적응광학 시스템 성능 예측 (Performance Prediction for an Adaptive Optics System Using Two Analysis Methods: Statistical Analysis and Computational Simulation)

  • 한석기;주지용;이준호;박상영;김영수;정용석;정도환;허준;이기훈
    • 한국광학회지
    • /
    • 제33권4호
    • /
    • pp.167-176
    • /
    • 2022
  • 적응 광학(adaptive optics, AO)은 대기 외란을 실시간으로 보정하는 기술을 말하고, 이러한 적응광학의 효율적 개발을 위하여, 다양한 성능 예측 기법을 도입하여 적응광학이 적용된 시스템 성능 예측을 실시한다. 적응광학의 성능 예측 기법으로 자주 사용되는 기법으로는 통계분석, 전산모사 및 광학 벤치 테스트가 있다. 통계분석에서는 적응광학 시스템을 통계 분석 모델로 가정하여 오차값(분산)의 제곱을 전부 합쳐 스트렐비를 간단하게 추정한다. 다만, 하위 변수 간의 상관 관계는 무시되어 이에 따른 추정의 오류는 존재한다. 다음으로, 전산모사는 대기 난류, 파면센서, 변형거울, 폐쇄 루프 등 모든 구성요소를 가능한 한 실제와 가깝게 모델링하고, 시간 흐름에 따른 적응광학 시스템의 변화를 모두 구현하여 성능 예측을 수행한다. 다만, 전산모사 모델과 현실 사이에는 여전히 일부 차이가 있어, 광학 벤치 테스트를 통하여 시스템 성능을 확인한다. 최근 국내에서 개발된 변형 거울을 적용한 1.6 m 지상 망원경용 적응광학 시스템을 개발 중에 있어, 이에 적용 가능한 적응광학 시스템을 통하여 성능 예측 기법이 요구되며 동시에 성능 예측 기법의 비교를 진행하고자 한다. 앞서 언급된 통계분석 및 전산모사를 이용하여 시스템 성능 예측을 수행하였으며, 성능 예측의 분석을 위해 각각의 성능 예측 기법의 망원경 및 적응광학 시스템 모델링 과정 및 결과를 제시하였다. 이때 성능 예측을 위한 대기 조건으로는 보현산 관측 중앙값(median)을 적용하였다. 그 결과 통계 분석 방법의 경우 평균 스트렐 비가 0.31이 도출됨을 확인하였고, 전산모사 방법의 경우 평균 스트렐 비가 0.32를 가짐을 확인함으로써 두 방법에 의한 예측이 거의 유사함을 확인할 수 있었다. 추가적으로, 전산모사의 경우 해석 결과의 신뢰성을 확보하기 위하여, 모사 시간이 대기 임계 시간 상수의 약 240배인 0.9초 이상 수행되어야 함을 알 수 있었다.

지식 그래프와 딥러닝 모델 기반 텍스트와 이미지 데이터를 활용한 자동 표적 인식 방법 연구 (Automatic Target Recognition Study using Knowledge Graph and Deep Learning Models for Text and Image data)

  • 김종모;이정빈;전호철;손미애
    • 인터넷정보학회논문지
    • /
    • 제23권5호
    • /
    • pp.145-154
    • /
    • 2022
  • 자동 표적 인식(Automatic Target Recognition, ATR) 기술이 미래전투체계(Future Combat Systems, FCS)의 핵심 기술로 부상하고 있다. 그러나 정보통신(IT) 및 센싱 기술의 발전과 더불어 ATR에 관련이 있는 데이터는 휴민트(HUMINT·인적 정보) 및 시긴트(SIGINT·신호 정보)까지 확장되고 있음에도 불구하고, ATR 연구는 SAR 센서로부터 수집한 이미지, 즉 이민트(IMINT·영상 정보)에 대한 딥러닝 모델 연구가 주를 이룬다. 복잡하고 다변하는 전장 상황에서 이미지 데이터만으로는 높은 수준의 ATR의 정확성과 일반화 성능을 보장하기 어렵다. 본 논문에서는 이미지 및 텍스트 데이터를 동시에 활용할 수 있는 지식 그래프 기반의 ATR 방법을 제안한다. 지식 그래프와 딥러닝 모델 기반의 ATR 방법의 핵심은 ATR 이미지 및 텍스트를 각각의 데이터 특성에 맞게 그래프로 변환하고 이를 지식 그래프에 정렬하여 지식 그래프를 매개로 이질적인 ATR 데이터를 연결하는 것이다. ATR 이미지를 그래프로 변환하기 위해서, 사전 학습된 이미지 객체 인식 모델과 지식 그래프의 어휘를 활용하여 객체 태그를 노드로 구성된 객체-태그 그래프를 이미지로부터 생성한다. 반면, ATR 텍스트는 사전 학습된 언어 모델, TF-IDF, co-occurrence word 그래프 및 지식 그래프의 어휘를 활용하여 ATR에 중요한 핵심 어휘를 노드로 구성된 단어 그래프를 생성한다. 생성된 두 유형의 그래프는 엔터티 얼라이먼트 모델을 활용하여 지식 그래프와 연결됨으로 이미지 및 텍스트로부터의 ATR 수행을 완성한다. 제안된 방법의 우수성을 입증하기 위해 웹 문서로부터 227개의 문서와 dbpedia로부터 61,714개의 RDF 트리플을 수집하였고, 엔터티 얼라이먼트(혹은 정렬)의 accuracy, recall, 및 f1-score에 대한 비교실험을 수행하였다.

주행 열차의 정적 및 동적 재하시험 계측 데이터를 이용한 트러스 철도 교량의 주기적 거동 분석 (Behavior of Truss Railway Bridge Using Periodic Static and Dynamic Load Tests)

  • 김진모;김건우;김시형;김도형;김두기
    • 한국구조물진단유지관리공학회 논문집
    • /
    • 제27권6호
    • /
    • pp.120-129
    • /
    • 2023
  • 본 연구는 기존의 재하시험에 의한 계측 결과와 시험 열차 및 상시주행 열차 간의 결과 비교를 통해 주행 열차에 의한 재하시험을 검증하였다. 또한 계측된 자료로부터 정적,·동적 거동 특성을 추출하여 평가를 진행하여 재하시험의 신뢰성 검증을 위해 기존 계측자료와 열차속도, 노선 간 응답 비교, 경향분석, 충격계수 선정 및 고유진동수 분석을 통해 타당성을 입증하였다. 이를 위해 동호철교를 대상지로 적용하였으며 제안 방법의 적용성을 검증하였다. 상시 운행 열차 10대와 시험 열차를 이용하여 교량에 44개의 센서를 부착하고 재하시험 경간에 대한 변형률, 처짐 등을 계측하여 이론치와 비교분석 하였다. 분석 결과 하중의 대칭성 및 중첩성은 양호하며 정적 동적 재하시험 결과에 대한 비교 또한 양호한 것으로 나타났다. 충격계수 분석 결과 최대 실측 충격계수(0.092)가 이론충격계수(0.327)보다 작은 것으로 분석되어, 활하중에 의한 충격 영향은 양호한 것으로 판단된다. 실측 고유진동수는 최저 2.393Hz로 해석 값 2.415Hz와 비교 시 근사하게 평가되었다. 위 결과를 바탕으로 본 논문에서는 내하력 평가 시 열차의 통행 차단이 필요하지 않고, 기존의 처짐 및 응답 계측보다 계측이 용이하도록 트러스 교량구조의 응답 결과를 도출하였다. 주행 열차의 재하시험을 통해 트러스 철도 교량의 변형률 및 처짐을 측정하고 정적, 동적 거동 특성을 파악하여 응력보정을 위한 응답비 및 동적 강성을 평가할 수 있음을 보였다.

사용자 수요 기반의 재난 상황관리 지능화에 관한 연구 (Research on Making a Disaster Situation Management Intelligent Based on User Demand)

  • 최선화;손종영;김미송;윤희원;류신혜;윤상훈
    • 대한원격탐사학회지
    • /
    • 제39권5_2호
    • /
    • pp.811-825
    • /
    • 2023
  • 데이터 활용을 통한 지능형 행정서비스 정책을 적극적으로 추진하고 있는 정부 기조에 따라, 재난안전관리 분야도 신종·복합재난에 효율적으로 대응하기 위한 데이터 기반의 상황관리시스템을 구축·운영하고 있다. 하지만 재난 상황 발생 시 현장 상황 파악에 어려움이 있고, 방대한 데이터의 표출만으로는 상황판단 및 수습·대응에 필요한 정보를 제공하는 데 여전히 한계가 있다. 본 논문은 재난안전상황실 근무자의 상황관리 업무에 대해 지능정보기술을 활용하여 지능화 및 효율화에 필요한 구체적인 기술 도출을 목적으로 한다. 중앙재난안전상황실 근무자를 대상으로 개별 면담 및 조사를 통해 재난 상황관리 업무 범위와 GIS 통합상황관리시스템의 활용 상황 및 시스템에 구축된 데이터의 용도와 특징을 조사·분석하였다. 그리고 상황관리 업무의 지능화 및 효율화에 필요한 기술을 도출하기 위하여 신속·정확한 현장상황 파악, 데이터 기반 상황판단, 효율적 상황관리 업무 지원을 전략으로 하여 실행과제를 정의하고, analytic hierarchy process (AHP) 분석을 통해 실행과제의 중요도를 평가하여 우선순위를 결정하였다. 그 결과 상황관리 효율화를 위해서는 영상 및 센서 데이터에 대한 수집·분석·관리와 사람이 수행하는 경우 많은 시간이 소요되거나 오류가 있을 수 있는 작업, 즉 상황관련 자료 수집 및 보고서 작업에 지능정보기술 활용이 필요한 것으로 분석되었다. 결론적으로 상황관리 지능화 전략 가운데 중요도가 높은 신속하고 정확한 현장상황의 파악과 효율적 상황관리 업무 지원이 우선적으로 상황관리 지능화 기술 개발 대상으로 추진할 수 있을 것이다.

디지털 이미지 처리와 강형식 기반의 무요소법을 융합한 시험법의 모서리 점과 이미지 해상도의 영향 분석 (Analysis of the Effect of Corner Points and Image Resolution in a Mechanical Test Combining Digital Image Processing and Mesh-free Method)

  • 박준원;정연석;윤영철
    • 한국전산구조공학회논문집
    • /
    • 제37권1호
    • /
    • pp.67-76
    • /
    • 2024
  • 본 논문에서는 역학적 변수들을 측정하는 방안으로 디지털 이미지 프로세싱과 강형식 기반의 MLS 차분법을 융합한 DIP-MLS 시험법을 소개하고 추적점의 위치와 이미지 해상도에 대한 영향을 분석하였다. 이 방법은 디지털 이미지 프로세싱을 통해 시료에 부착된 표적의 변위 값을 측정하고 이를 절점만 사용하는 MLS 차분법 모델의 절점 변위로 분배하여 대상 물체의 응력, 변형률과 같은 역학적 변수를 계산한다. 디지털 이미지 프로세싱을 통해서 표적의 무게중심 점의 변위를 측정하기 위한 효과적인 방안을 제시하였다. 이미지 기반의 표적 변위를 이용한 MLS 차분법의 역학적 변수의 계산은 정확한 시험체의 변위 이력을 취득하고 정형성이 부족한 추적 점들의 변위를 이용해 mesh나 grid의 제약 없이 임의의 위치에서 역학적 변수를 쉽게 계산할 수 있다. 개발된 시험법은 고무 보의 3점 휨 실험을 대상으로 센서의 계측 결과와 DIP-MLS 시험법의 결과를 비교하고, 추가적으로 MLS 차분법만으로 시뮬레이션한 수치해석 결과와도 비교하여 검증하였다. 이를 통해 개발된 기법이 대변형 이전까지의 단계에서 실제 시험을 정확히 모사하고 수치해석 결과와도 잘 일치하는 것을 확인하였다. 또한, 모서리 점을 추가한 46개의 추적점을 DIP-MLS 시험법에 적용하고 표적의 내부 점만을 이용한 경우와 비교하여 경계 점의 영향을 분석하였고 이 시험법을 위한 최적의 이미지 해상도를 제시하였다. 이를 통해 직접 실험이나 기존의 요소망 기반 시뮬레이션의 부족한 점을 효율적으로 보완하는 한편, 실험-시뮬레이션 과정의 디지털화가 상당한 수준까지 가능하다는 것을 보여주었다.

Information Privacy Concern in Context-Aware Personalized Services: Results of a Delphi Study

  • Lee, Yon-Nim;Kwon, Oh-Byung
    • Asia pacific journal of information systems
    • /
    • 제20권2호
    • /
    • pp.63-86
    • /
    • 2010
  • Personalized services directly and indirectly acquire personal data, in part, to provide customers with higher-value services that are specifically context-relevant (such as place and time). Information technologies continue to mature and develop, providing greatly improved performance. Sensory networks and intelligent software can now obtain context data, and that is the cornerstone for providing personalized, context-specific services. Yet, the danger of overflowing personal information is increasing because the data retrieved by the sensors usually contains privacy information. Various technical characteristics of context-aware applications have more troubling implications for information privacy. In parallel with increasing use of context for service personalization, information privacy concerns have also increased such as an unrestricted availability of context information. Those privacy concerns are consistently regarded as a critical issue facing context-aware personalized service success. The entire field of information privacy is growing as an important area of research, with many new definitions and terminologies, because of a need for a better understanding of information privacy concepts. Especially, it requires that the factors of information privacy should be revised according to the characteristics of new technologies. However, previous information privacy factors of context-aware applications have at least two shortcomings. First, there has been little overview of the technology characteristics of context-aware computing. Existing studies have only focused on a small subset of the technical characteristics of context-aware computing. Therefore, there has not been a mutually exclusive set of factors that uniquely and completely describe information privacy on context-aware applications. Second, user survey has been widely used to identify factors of information privacy in most studies despite the limitation of users' knowledge and experiences about context-aware computing technology. To date, since context-aware services have not been widely deployed on a commercial scale yet, only very few people have prior experiences with context-aware personalized services. It is difficult to build users' knowledge about context-aware technology even by increasing their understanding in various ways: scenarios, pictures, flash animation, etc. Nevertheless, conducting a survey, assuming that the participants have sufficient experience or understanding about the technologies shown in the survey, may not be absolutely valid. Moreover, some surveys are based solely on simplifying and hence unrealistic assumptions (e.g., they only consider location information as a context data). A better understanding of information privacy concern in context-aware personalized services is highly needed. Hence, the purpose of this paper is to identify a generic set of factors for elemental information privacy concern in context-aware personalized services and to develop a rank-order list of information privacy concern factors. We consider overall technology characteristics to establish a mutually exclusive set of factors. A Delphi survey, a rigorous data collection method, was deployed to obtain a reliable opinion from the experts and to produce a rank-order list. It, therefore, lends itself well to obtaining a set of universal factors of information privacy concern and its priority. An international panel of researchers and practitioners who have the expertise in privacy and context-aware system fields were involved in our research. Delphi rounds formatting will faithfully follow the procedure for the Delphi study proposed by Okoli and Pawlowski. This will involve three general rounds: (1) brainstorming for important factors; (2) narrowing down the original list to the most important ones; and (3) ranking the list of important factors. For this round only, experts were treated as individuals, not panels. Adapted from Okoli and Pawlowski, we outlined the process of administrating the study. We performed three rounds. In the first and second rounds of the Delphi questionnaire, we gathered a set of exclusive factors for information privacy concern in context-aware personalized services. The respondents were asked to provide at least five main factors for the most appropriate understanding of the information privacy concern in the first round. To do so, some of the main factors found in the literature were presented to the participants. The second round of the questionnaire discussed the main factor provided in the first round, fleshed out with relevant sub-factors. Respondents were then requested to evaluate each sub factor's suitability against the corresponding main factors to determine the final sub-factors from the candidate factors. The sub-factors were found from the literature survey. Final factors selected by over 50% of experts. In the third round, a list of factors with corresponding questions was provided, and the respondents were requested to assess the importance of each main factor and its corresponding sub factors. Finally, we calculated the mean rank of each item to make a final result. While analyzing the data, we focused on group consensus rather than individual insistence. To do so, a concordance analysis, which measures the consistency of the experts' responses over successive rounds of the Delphi, was adopted during the survey process. As a result, experts reported that context data collection and high identifiable level of identical data are the most important factor in the main factors and sub factors, respectively. Additional important sub-factors included diverse types of context data collected, tracking and recording functionalities, and embedded and disappeared sensor devices. The average score of each factor is very useful for future context-aware personalized service development in the view of the information privacy. The final factors have the following differences comparing to those proposed in other studies. First, the concern factors differ from existing studies, which are based on privacy issues that may occur during the lifecycle of acquired user information. However, our study helped to clarify these sometimes vague issues by determining which privacy concern issues are viable based on specific technical characteristics in context-aware personalized services. Since a context-aware service differs in its technical characteristics compared to other services, we selected specific characteristics that had a higher potential to increase user's privacy concerns. Secondly, this study considered privacy issues in terms of service delivery and display that were almost overlooked in existing studies by introducing IPOS as the factor division. Lastly, in each factor, it correlated the level of importance with professionals' opinions as to what extent users have privacy concerns. The reason that it did not select the traditional method questionnaire at that time is that context-aware personalized service considered the absolute lack in understanding and experience of users with new technology. For understanding users' privacy concerns, professionals in the Delphi questionnaire process selected context data collection, tracking and recording, and sensory network as the most important factors among technological characteristics of context-aware personalized services. In the creation of a context-aware personalized services, this study demonstrates the importance and relevance of determining an optimal methodology, and which technologies and in what sequence are needed, to acquire what types of users' context information. Most studies focus on which services and systems should be provided and developed by utilizing context information on the supposition, along with the development of context-aware technology. However, the results in this study show that, in terms of users' privacy, it is necessary to pay greater attention to the activities that acquire context information. To inspect the results in the evaluation of sub factor, additional studies would be necessary for approaches on reducing users' privacy concerns toward technological characteristics such as highly identifiable level of identical data, diverse types of context data collected, tracking and recording functionality, embedded and disappearing sensor devices. The factor ranked the next highest level of importance after input is a context-aware service delivery that is related to output. The results show that delivery and display showing services to users in a context-aware personalized services toward the anywhere-anytime-any device concept have been regarded as even more important than in previous computing environment. Considering the concern factors to develop context aware personalized services will help to increase service success rate and hopefully user acceptance for those services. Our future work will be to adopt these factors for qualifying context aware service development projects such as u-city development projects in terms of service quality and hence user acceptance.