• 제목/요약/키워드: New Methodology

검색결과 3,940건 처리시간 0.03초

스타트업 액셀러레이터 투자결정요인의 중요도 및 우선순위에 대한 연구 (A Study on the Importance and Priorities of the Investment Determinants of Startup Accelerators)

  • 허주연
    • 벤처창업연구
    • /
    • 제15권6호
    • /
    • pp.27-42
    • /
    • 2020
  • 창업초기 기업들은 자금과 사업화 역량, 경험 부족 등으로 지속적인 생존이 쉽지 않다. 스타트업 액셀러레이터는 이러한 창업초기기업의 문제 해결을 돕고 해당 기업의 지분을 얻음으로써 수익을 창출하는 새로운 형태의 투자주체로서 등장하였다. 이들의 창업초기기업과 창업생태계에 미치는 긍정적인 성과들이 입증됨에 따라 이들의 투자를 필요로 하는 초기기업들 또한 증가하고 있다. 그러나 스타트업 액셀러레이터에 대한 연구 또한 초기수준에 머물고 있어 투자결정요인 등에 대한 괄목할 만한 선행연구가 부재한 상황이다. 따라서 스타트업들은 액셀러레이터들이 중요하게 생각하는 요인이 무엇인지에 대한 정보가 없어 막연하게 투자유치를 준비하는 실정이다. 이에 본 연구는 액셀러레이터들이 투자 시 중요하게 생각하는 요인이 무엇인지 살펴봄으로써 스타트업들의 투자유치 준비과정을 돕고, 학계에도 의미 있는 시사점을 제공하고자 한다. 앞선 연구에서 정성적 메타합성법, 2차 관련자료, 미국 액셀러레이터에 대한 관찰 및 심층인터뷰 등을 통해 5개 상위 카테고리, 26개의 하위 액셀러레이터 투자결정요인들을 도출하였다. 본 연구에서는 이들의 중요도와 우선순위를 도출하여 중요한 시사점을 얻고자 하였으며, 이에 중요도와 우선순위 도출에 적합한 방법론으로 평가받고 있는 분석적 계층화 기법을 활용하였다. 카테고리 별 분석 결과 액셀러레이터들은 시장 및 고객 관련 요인들(Market related)을 가장 중요하게 생각하는 것으로 나타났다. 그 다음으로 스타트업 내부인력 관련 요인(Human related)요인들을 더 중요하게 생각하는 것으로 나타났다. 그리고 26개의 하위투자결정요인들의 전체우선순위 분석 결과에서는 '고객의 니즈 정도'와 '창업자와 팀원들의 고객과 시장에 대한 이해도'가 중요도 및 우선순위가 높은 요인으로 나타났다. 이를 통해서 스타트업 액셀러레이터들이 고객중심 관점을 매우 중요하게 생각함을 알 수 있다. 그리고 창업자 관련 요인 중에서 가장 높게 나타난 요인은 '창업자의 유연한 사고와 실행력'으로 나타났는데, 본 연구에서는 창업자의 유연한 사고를 액셀러레이터 등 전문가의 의견 등을 잘 청취하고 적절하게 반영하는 역량으로 정의하고 있다. 따라서 액셀러레이터들은 이러한 스타트업과의 협업용이성 등을 매우 중요하게 생각함을 확인할 수 있다. 이러한 연구 결과를 통해 창업 초기기업은 기업의 생존과 액셀러레이터의 투자를 유치하기 위해서 어떤 준비를 선행해야 하는지 알 수 있다. 더불어 액셀러레이터들은 어떤 요인에 우선순위를 두고 투자대상 스타트업을 선정해야 하는지 등의 준거기준으로 활용할 수 있으며, 정책입안자들 또한 이의 결과를 바탕으로 다양한 스타트업 선정기준을 마련할 수 있다. 마지막으로 본 연구는 기존 연구들 대비 가장 많은 투자결정요인을 다룸으로써 누락되는 것이 없도록 하였으며, 이의 결과는 후속 연구들에게 좋은 발판이 되리라 생각한다.

일반화 적응 심층 잠재요인 추천모형 (A Generalized Adaptive Deep Latent Factor Recommendation Model)

  • 김정하;이지평;장성현;조윤호
    • 지능정보연구
    • /
    • 제29권1호
    • /
    • pp.249-263
    • /
    • 2023
  • 대표적인 추천 시스템 방법론인 협업 필터링(Collaborative Filtering)에는 이웃기반 방법(Neighbor Methods)과 잠재 요인 모델(Latent Factor model)이라는 두 가지 접근법이 있다. 이중 행렬 분해(Matrix Factorization)를 이용하는 잠재 요인 모델은 사용자-아이템 상호작용 행렬을 두 개의 보다 낮은 차원의 직사각형 행렬로 분해하고 이들의 행렬 곱으로 아이템의 평점(Rating)을 예측한다. 평점 패턴으로부터 추출된 요인 벡터들을 통해 사용자와 아이템 속성을 포착할 수 있기 때문에 확장성, 정확도, 유연성 측면에서 이웃기반 방법보다 우수하다고 알려져 있다. 하지만 평점이 지정되지 않은 아이템에 대해서는 선호도가 다른 개개인의 다양성을 반영하지 못하는 근본적인 한계가 있고 이는 반복적이고 부정확한 추천을 초래하게 된다. 이러한 잠재요인 모델의 한계를 개선하고자 각각의 아이템 별로 사용자의 선호도를 적응적으로 학습하는 적응 심층 잠재요인 모형(Adaptive Deep Latent Factor Model; ADLFM)이 등장하였다. ADLFM은 아이템의 특징을 설명하는 텍스트인 아이템 설명(Item Description)을 입력으로 받아 사용자와 아이템의 잠재 벡터를 구하고 어텐션 스코어(Attention Score)를 활용하여 개인의 다양성을 반영할 수 있는 방법을 제시한다. 하지만 아이템 설명을 포함하는 데이터 셋을 요구하기 때문에 이 방법을 적용할 수 있는 대상이 많지 않은 즉 일반화에 있어 한계가 있다. 본 연구에서는 아이템 설명 대신 추천시스템에서 보편적으로 사용하는 아이템 ID를 입력으로 하고 Self-Attention, Multi-head attention, Multi-Conv1d 등 보다 개선된 딥러닝 모델 구조를 적용함으로써 ADLFM의 한계를 개선할 수 있는 일반화된 적응 심층 잠재요인 추천모형 G-ADLFRM을 제안한다. 다양한 도메인의 데이터셋을 가지고 입력과 모델 구조 변경에 대한 실험을 진행한 결과, 입력만 변경했을 경우 동반되는 정보손실로 인해 ADLFM 대비 MAE(Mean Absolute Error)가 소폭 높아지며 추천성능이 하락했지만, 처리할 정보량이 적어지면서 epoch 당 평균 학습속도는 대폭 향상되었다. 입력 뿐만 아니라 모델 구조까지 바꿨을 경우에는 가장 성능이 우수한 Multi-Conv1d 구조가 ADLFM과 유사한 성능을 나타내며 입력변경으로 인한 정보손실을 충분히 상쇄시킬 수 있음을 보여주었다. 결론적으로 본 논문에서 제시한 모형은 기존 ADLFM의 성능은 최대한 유지하면서 빠른 학습과 추론이 가능하고(경량화) 다양한 도메인에 적용할 수 있는(일반화) 새로운 모형임을 알 수 있다.

지방출신 여성들의 서울정착 경험에 대한 근거이론적 분석 (Grounded Theory Analysis on the Experience of Women from the Provinces Settling in Seoul)

  • 안윤정;임윤서
    • 한국심리학회지 : 문화 및 사회문제
    • /
    • 제24권2호
    • /
    • pp.273-300
    • /
    • 2018
  • 본 연구는 서울로 상경한 지방출신 여성들의 서울정착 과정에서의 경험을 분석하기 위해 서울로 대학을 진학하고 졸업 후 남아 직장생활을 지속하고 있는 7명의 여성들을 대상으로 심층면담을 통해 근거이론을 활용하여 분석하였다. 개방코딩에서는 110개의 개념, 21개의 하위범주와 이들을 포함하는 11개의 범주가 도출되었다. 인과적 조건은 '서울정착의 힘겨움'이며 맥락적 조건으로는 '심리적 불안 심화', '생활의 질 하락', '경제적 불안의 지속'으로 나타났다. 중심현상으로는 '서울정착의 지속여부에 대한 딜레마'로, 중재조건은 '서울상경이후 10년의 경험진단'으로 드러났다. 작용/상호작용 전략은 '개인생활의 변화', '안정된 직장을 통한 경제력 확보', '사회참여의 모색'으로, 결과는 '서울 정착의 지속성 여부 선택'으로 나타났다. 지방출신 여성들의 서울 정착과정에서의 경험에 대한 패러다임은 대학진학을 위해 서울로의 상경과 독립, 순응과 적응, 성장과 실패, 도전과 모색, 성찰과 새로운 선택 등의 정착과정을 거쳤다. 참여자들의 경험을 종합해 보면 이들은 30대가 되었어도 이방인과 같은 이질감과 불안을 인식하고 있었다. 당면한 문제들은 대학시절 보다 훨씬 복합적이고 다양해졌다. 직장인으로서 경제활동을 본격화하였지만, 서울 출신들과의 격차는 좁혀지지 않았다. 이제 이들은 누적된 피로감과 개인이 해결할 수 없는 사회적 문제로 인해 서울을 떠나 새로운 대안을 찾아야 한다는 절박감마저 엿보였다. 결론적으로 서울 상경 여성들의 안정된 정착은 개인의 노력만으로 한계가 있으며, 한국 사회 전반의 사회적 문제해결과 더불어 구체적 정책 대안들의 개입이 필요하다는 것을 확인하였다.

탄소저감설계 지원을 위한 수목 탄소계산기 개발 및 적용 (Development of Tree Carbon Calculator to Support Landscape Design for the Carbon Reduction)

  • 하지아;박재민
    • 한국조경학회지
    • /
    • 제51권1호
    • /
    • pp.42-55
    • /
    • 2023
  • 지구온난화로 인한 세계적 기후 위기를 맞아 탄소성능 정량화에 기반한 정책들이 빠르게 도입되면서, 신규 조성되는 도시녹지 계획안의 탄소성능을 예측할 수 있는 방법론이 요구되고 있다. 이에 본 연구에서는 조경분야에서 탄소저감설계를 위해 활용할 수 있는 수목 탄소계산기를 개발하고, 조경설계 실무에서의 효용성을 검증하고자 하였다. 설계 현장에서의 운용성 확보를 위해 범용성 높은 MS Excel을 포맷으로 선정하고, 식재설계의 업무적 특성을 반영할 수 있도록 대표 수종 93종을 대상으로 수종별, 규격별 탄소흡수량과 저장량을 추출하였다. 특히 실무에서 비용적 한계를 반영할 수 있도록 수목 단가를 포함한 데이터베이스를 구축하였다. 수목 탄소계산기의 성능 검증을 위한 식재 실험설계는 조경설계 전문가 4인을 대상으로 중부지방 소공원에 대한 설계 시뮬레이션을 시행하였고, 전후로 반구조적 인터뷰를 진행하여 그 인과관계를 분석하였다. 그 결과 수목 탄소계산기를 사용한 설계안의 탄소흡수량과 탄소저장량이 각각 약 17-82%, 약 14-85% 높게 나타났다. 탄소성능 효율이 높아진 이유는 탄소성능 우수종으로의 교체와 더불어, 예산 범위 내에서 적극적인 추가 식재로 인한 것임을 확인하였다. 설계가들은 사전 인터뷰에서 수목 탄소계산기에 대한 불신과 새로운 프로그램에 대한 부담감을 가졌으나, 사용 후 유용성 및 편의성에 대해 긍정적으로 평가하며 인식의 변화를 보여주었다. 추후 조경분야 탄소저감설계의 본격적인 도입을 위해서는 수목뿐 아니라 조경성능 전반에 대한 탄소계산기로 발전할 필요가 있다. 본 연구는 조경설계 분야에서 본격적으로 정량적 데이터에 입각한 탄소저감설계를 도입하는 데 있어 유용한 방향성을 제시해 줄 것으로 기대된다.

CCTV 영상 기반 강우강도 산정을 위한 실환경 실험 자료 중심 적정 강우 이미지 DB 구축 방법론 개발 (Rainfall image DB construction for rainfall intensity estimation from CCTV videos: focusing on experimental data in a climatic environment chamber)

  • 변종윤;전창현;김현준;이재준;박헌일;이진욱
    • 한국수자원학회논문집
    • /
    • 제56권6호
    • /
    • pp.403-417
    • /
    • 2023
  • 본 연구에서는 CCTV 영상 기반 강우강도 산정 시 필수적으로 요구되는 적정 강우 이미지 DB를 구축하기 위한 방법론을 개발하였다. 먼저, 실환경에서 불규칙적이고 높은 변동성을 보일 수 있는 변수들(바람으로 인한 빗줄기의 변동성, 녹화 환경에서 포함되는 움직이는 객체, 렌즈 위의 흐림 현상 등)에 대한 통제가 가능한 한국건설생활환경시험연구원 내 기후환경시험실에서 CCTV 영상 DB를 구축하였다. 서로 다른 5개의 실험 조건을 고려하여 이상적 환경에서 총 1,728개의 시나리오를 구성하였다. 본 연구에서는 1,920×1,080 사이즈의 30 fps (frame per second) 영상 36개에 대하여 프레임 분할을 진행하였으며, 총 97,200개의 이미지를 사용하였다. 이후, k-최근접 이웃 알고리즘을 기반으로 산정된 최종 배경과 각 이미지와의 차이를 계산하여 빗줄기 이미지를 분리하였다. 과적합 방지를 위해 각 이미지에 대한 평균 픽셀 값을 계산하고, 설정한 픽셀 임계치보다 큰 자료를 선별하였다. 180×180 사이즈로의 재구성을 위해서 관심영역을 설정하고 10 Pixel 단위로 이동을 진행하여 픽셀 변동성이 최대가 되는 영역을 산정하였다. 합성곱 신경망 모델의 훈련을 위해서 120×120 사이즈로 재변환하고 과적합 방지를 위해 이미지 증강 과정을 거쳤다. 그 결과, 이미지 기반 강우 강도 합성곱 신경망 모델을 통해 산정된 결과값과 우량계에서 취득된 강우자료가 전반적으로 유사한 양상을 보였으며, 모든 강우강도 실험 조건에 대해서 약 92%의 데이터의 PBIAS (percent bias)가 절댓값 범위 10% 이내에 해당하였다. 본 연구의 결과물과 전이학습 등의 방법을 연계하여 기존 실환경 CCTV의 한계점을 개선할 수 있을 것으로 기대된다.

벤처기업정밀실태조사와 한국기업혁신조사 데이터를 활용한 통계적 매칭의 타당성 검증 (The Validity Test of Statistical Matching Simulation Using the Data of Korea Venture Firms and Korea Innovation Survey)

  • 안경민;이영찬
    • 지식경영연구
    • /
    • 제24권1호
    • /
    • pp.245-271
    • /
    • 2023
  • 최근 데이터 경제가 가속화되면서 경영학 분야에서는 데이터 매칭이라는 새로운 기법이 주목받고 있다. 데이터 매칭은 모집단이 같지만 서로 다른 표본에서 수집된 데이터셋을 합치는 기법 또는 처리 과정을 의미한다. 그중에서 통계적 매칭은 서로 다른 데이터를 결합하는데 있어서 사업자 번호와 같이 기준이 되는 변수가 없는 경우 통계적 함수를 활용하여 데이터를 매칭하는 방법이다. 선행연구 검토결과 경제학, 교육학, 보건, 의료 등 다양한 분야에서 통계적 매칭이 많이 사용되고 있는데 반해 경영학 분야는 제한적임을 확인할 수 있었다. 본 연구는 기존 경영학 분야에서 충분히 연구되지 않았던 통계적 매칭의 유용성을 검증하고 활용도를 높이는 방안을 연구하고자 한다. 연구목적을 달성하기 위해 본 연구에서는 2020 벤처기업정밀실태조사와 2020 한국기업혁신조사 자료를 활용하여 통계적 매칭 시뮬레이션을 수행하였다. 먼저, 선행연구를 바탕으로 통계적 매칭에 사용되는 변수를 선정하였다. 공통변수는 업종, 종업원수, 지역, 업력, 상장시장, 매출로 설정하였고, 검증을 위한 고유변수와 제공변수는 중소기업 혁신에서 가장 중요한 연구인력 비율과 R&D 비용으로 각각 설정하였다. 사전 검증을 위해 2020 벤처기업정밀실태조사 자료를 수여자 데이터 30%와 기여자 데이터 70%로 분할하였다. 통계적 매칭에는 마할라노비스 거리와 랜덤 핫덱을 결합한 방식을 사용하였고, 성능평가는 수여자 데이터와 원시 데이터의 평균값 비교와 커널 밀도 함수(Kernel Density Estimation)를 통해 데이터 분포를 비교하였다. 검증결과, 수여자 데이터 30%와 기여자 데이터 70%에서 추출된 매칭 데이터의 평균값이 통계적으로 유의한 차이가 없는 것으로 나타나 유사한 데이터가 매칭된다는 것을 확인하였다. 또한, 두 데이터의 커널 밀도 함수로 도출한 데이터 분포 역시 유사한 형태가 나타나는 것을 확인할 수 있었다. 사후 검증에는 2020 벤처기업정밀실태조사에서 임의로 30%를 수여자 데이터로 추출하고 2020 한국기업혁신조사 자료를 기여자 데이터로 설정하여 통계적 매칭을 수행하고 검증하였다. 사전 검증과 마찬가지로 공통변수는 업종, 종업원수, 지역, 업력, 상장시장, 매출로 설정하였고, 검증을 위한 고유변수는 연구 인력 비율과 R&D 비용으로 정의하였다. 분석 결과, 수여자 데이터의 연구인력 비율의 평균과 기여자 데이터의 평균은 예상과 다르게 통계적으로 차이가 있는 것으로 나타났다. 하지만 커널 밀도 함수에 따른 두 데이터의 분포는 유사한 형태를 보이는 것으로 조사되어 통계적 매칭의 적절성을 확인할 수 있었다. R&D 비용은 통계적 매칭 수행 결과, 수여자 데이터의 R&D 비용 평균과 기여자 데이터의 평균이 통계적으로 차이가 없었고, 커널 밀도 함수도 유사한 분포를 보이는 것으로 조사되었다. 이러한 결과는 모집단은 동일하지만 서로 다른 표본에서 수집된 자료를 통계적으로 결합하여 신뢰할 수 있는 새로운 데이터를 확보할 수 있다는 측면에서 큰 의의가 있다. 또한, 경영학 분야에서 많이 사용되지 않았던 데이터 매칭 방법론을 모의실험을 통해 타당성을 검증함으로써 연구용 데이터 확보와 연구방법론의 확장에 기여했다는 점에서 시사점을 가진다.

약 복용 관리와 폐의약품 처리를 위한 지속 가능한 앱 서비스 디자인 연구 (A Study on the Design of Sustainable App Services for Medication Management and Disposal of Waste Drugs)

  • 이리나;황정운;신지윤;황진도
    • 서비스연구
    • /
    • 제14권2호
    • /
    • pp.48-68
    • /
    • 2024
  • 코로나 바이러스의 글로벌 팬데믹 여파로 인해 사회적으로 건강관리의 중요성이 더욱 강조되고 있다. 이러한 변화의 영향으로 국내 제약회사들은 정기적인 의약품 배달 서비스, 즉 의약품 및 건강기능식품 구독 서비스를 도입하였다. 현재 이 시장은 지속적으로 성장하고 있는 추세이다. 그러나 이러한 정기 서비스는 복용하지 않은 약이 남아 폐의약품이 증가하는 새로운 환경 문제를 야기한다. 폐의약품 관련하여, 환경부는 폐의약품을 일반 생활 쓰레기와 분리하여 수거 및 처리하도록 규정하였지만 실제로 이 규정이 충분히 이행되지 않는 것이 현실이다. 따라서, 본 연구는 폐의약품의 양을 줄이면서 건강관리를 촉진하는 규칙적인 약 복용 관리뿐만 아니라 약물 폐기에 대한 인식과 실천을 함께 향상하기 위한 서비스를 제안한다. 서비스 설계를 위한 사전조사로, 성인 51명을 대상으로 약 복용 습관 및 폐의약품 수거에 대한 인식을 확인하는 설문조사를 실시하였다. 허니콤 (Honey Comb) 모델을 기반으로 서비스 설계의 가이드라인을 만들고, 사전조사 결과와 서비스 디자인 방법론을 활용하여 서비스를 구체화하여 프로토타입을 제작하였다. 프로토타입의 사용성을 검증하기 위해, 1차 사용자 태스크 조사를 진행하여 프로토타입의 문제점을 파악하였고, 이를 개선한 후 서비스의 효과성을 확인하고자 성인 49명을 대상으로 2차 사용성 검증을 하였다. 사용성 검증은 SPSS Mac 버전 29.0을 사용하여 설문 자료분석을 실시하였다. 설문의 평가결과는 빈도분석 (Frequency Analysis)과 평가 항목 간의 연관성을 확인하기 위하여 스피어만 상관분석 (Spearmann Correlation Analysis)을 진행하였다. 본 연구는 의약품 구독 서비스 확산에 따른 폐의약품 문제에 대한 해결책을 제시하고자 하였으며, 지속가능한 디자인을 고려한 건강 관리 서비스에 대한 기초 연구로서 의의가 있다.

초기창업생태계를 위한 양도제한조건부주식(RSU)의 시장친화적인 활성화 방안: 전문가 포커스그룹인터뷰(이하 FGI)중심으로 (Effectiveness and Market Friendly Activation of Restricted Stock Units (RSUs) in the Early-Stage Startup Ecosystem: A Focus Group Interview (FGI) Approach)

  • 황보윤;양영석
    • 벤처창업연구
    • /
    • 제19권4호
    • /
    • pp.1-12
    • /
    • 2024
  • 본 논문은 양도제한조건부주식(이하, RSU)가 2024년 7월 시행되고 있는 시점에서, RSU가 당초 도입 취지에 맞게 스타트업과 벤처기업의 우수인력유치 위한 실효성을 담보 할수 있는지 여부와 이의 제고를 위해서는 어떠한 방안들이 추가 검토되어야 하는지를, RSU가 사업현장에서 적극수용되어 활성화 되기 위한 방안 차원에서 초기창업생태계내 주요 시장참여자들의 전문가 관점에서 도출하는데 목적이 있다. 본 논문은 크게 세 가지의 분석을 실시하였다. 첫째, 선험적연구를 통해 RSU가 어떻게 기존 다른 주식보상제도의 한계를 극복하고 어떤 편익을 제공해줄지와 시장친화적인 실효성을 담보하기 위한 주요조건에 대해 검토하였다. 둘째, 현행 RSU 법안이 시장친화적인 실효성을 담보하기 위해서 어떤 이슈들이 검토되어야 하는지에 대해 RSU법안 도입초기부터 관여한 전문가 중심으로 다섯가지의 조사이슈-① RSU 부여조건, ② RSU 부여대상, ③ RSU 부여범위, ④ RSU 부여시기, ⑤ RSU 부여 관련 세제혜택 등을 도출하였다. 셋째, 본 연구는 초기창업생태계를 구성하는 주요 시장주체들을 전문가로 선정하여 앞서 도출된 현행 RSU 범안의 실효성검토와 활성화방안에 대한 FGI 조사를 실시하였다. 본 논문은 초기창업생태계 전문가를 대상으로 FGI를 실시한 결과, 첫째, 현행 RSU법안이 기존주식보상제도의 한계를 극복하고 그 실효성을 담보하기 위해서는 현행 RSU법안에 관련 세제혜택 조항을 보안하는 것이 시급하다 응답하였다. 이는 RSU 실효성 담보에서 가장 중요한 것은 활용에 따른 비용을 최소화 내지는 기존대비 형평성을 유지하는 것이기 때문이다. 둘째, 현행 RSU는 그 부여대상을 중장기적으로 외부전문가로 확대하고, 부여시기에 대해서는 기업들이 자율적 실행이 가능하도록 하는 최소한의 가이드라인이 제공되어야 한다고 응답하였다. 셋째, RSU가 초기창업생태계에 착근하고 활성화되기 위해서는 기존주주 즉 투자자들과의 이해충돌사항에 대한 면밀한 검토와 이의 가능성을 최소화하여 상호협력적 분위기를 마련하는 것이 중요하다 응답하였다. 넷째, 전문가들은 RSU가 활성화 되기 위해 무엇보다 RSU의 편익이 잘 정의되고 이것이 기업들에게 잘 각인됨의 중요함을 강조하였다. 본 논문은 현행 RSU가 초기창업생태계에 잘 착근하고 활성화되는데 다양한 시사점들을 FGI 조사를 통해 도출했다는 점에서 의미기 있다. 또한 스타트업과 벤처기업 육성이라는 차원에서 도입되는 새로운 법안들이 그 실효성을 담보하고 활성화를 위해 어떠한 의견수렴 절차가 있어야 하는지에 대한 방법론도 제공 할 것으로 기대된다.

  • PDF

Information Privacy Concern in Context-Aware Personalized Services: Results of a Delphi Study

  • Lee, Yon-Nim;Kwon, Oh-Byung
    • Asia pacific journal of information systems
    • /
    • 제20권2호
    • /
    • pp.63-86
    • /
    • 2010
  • Personalized services directly and indirectly acquire personal data, in part, to provide customers with higher-value services that are specifically context-relevant (such as place and time). Information technologies continue to mature and develop, providing greatly improved performance. Sensory networks and intelligent software can now obtain context data, and that is the cornerstone for providing personalized, context-specific services. Yet, the danger of overflowing personal information is increasing because the data retrieved by the sensors usually contains privacy information. Various technical characteristics of context-aware applications have more troubling implications for information privacy. In parallel with increasing use of context for service personalization, information privacy concerns have also increased such as an unrestricted availability of context information. Those privacy concerns are consistently regarded as a critical issue facing context-aware personalized service success. The entire field of information privacy is growing as an important area of research, with many new definitions and terminologies, because of a need for a better understanding of information privacy concepts. Especially, it requires that the factors of information privacy should be revised according to the characteristics of new technologies. However, previous information privacy factors of context-aware applications have at least two shortcomings. First, there has been little overview of the technology characteristics of context-aware computing. Existing studies have only focused on a small subset of the technical characteristics of context-aware computing. Therefore, there has not been a mutually exclusive set of factors that uniquely and completely describe information privacy on context-aware applications. Second, user survey has been widely used to identify factors of information privacy in most studies despite the limitation of users' knowledge and experiences about context-aware computing technology. To date, since context-aware services have not been widely deployed on a commercial scale yet, only very few people have prior experiences with context-aware personalized services. It is difficult to build users' knowledge about context-aware technology even by increasing their understanding in various ways: scenarios, pictures, flash animation, etc. Nevertheless, conducting a survey, assuming that the participants have sufficient experience or understanding about the technologies shown in the survey, may not be absolutely valid. Moreover, some surveys are based solely on simplifying and hence unrealistic assumptions (e.g., they only consider location information as a context data). A better understanding of information privacy concern in context-aware personalized services is highly needed. Hence, the purpose of this paper is to identify a generic set of factors for elemental information privacy concern in context-aware personalized services and to develop a rank-order list of information privacy concern factors. We consider overall technology characteristics to establish a mutually exclusive set of factors. A Delphi survey, a rigorous data collection method, was deployed to obtain a reliable opinion from the experts and to produce a rank-order list. It, therefore, lends itself well to obtaining a set of universal factors of information privacy concern and its priority. An international panel of researchers and practitioners who have the expertise in privacy and context-aware system fields were involved in our research. Delphi rounds formatting will faithfully follow the procedure for the Delphi study proposed by Okoli and Pawlowski. This will involve three general rounds: (1) brainstorming for important factors; (2) narrowing down the original list to the most important ones; and (3) ranking the list of important factors. For this round only, experts were treated as individuals, not panels. Adapted from Okoli and Pawlowski, we outlined the process of administrating the study. We performed three rounds. In the first and second rounds of the Delphi questionnaire, we gathered a set of exclusive factors for information privacy concern in context-aware personalized services. The respondents were asked to provide at least five main factors for the most appropriate understanding of the information privacy concern in the first round. To do so, some of the main factors found in the literature were presented to the participants. The second round of the questionnaire discussed the main factor provided in the first round, fleshed out with relevant sub-factors. Respondents were then requested to evaluate each sub factor's suitability against the corresponding main factors to determine the final sub-factors from the candidate factors. The sub-factors were found from the literature survey. Final factors selected by over 50% of experts. In the third round, a list of factors with corresponding questions was provided, and the respondents were requested to assess the importance of each main factor and its corresponding sub factors. Finally, we calculated the mean rank of each item to make a final result. While analyzing the data, we focused on group consensus rather than individual insistence. To do so, a concordance analysis, which measures the consistency of the experts' responses over successive rounds of the Delphi, was adopted during the survey process. As a result, experts reported that context data collection and high identifiable level of identical data are the most important factor in the main factors and sub factors, respectively. Additional important sub-factors included diverse types of context data collected, tracking and recording functionalities, and embedded and disappeared sensor devices. The average score of each factor is very useful for future context-aware personalized service development in the view of the information privacy. The final factors have the following differences comparing to those proposed in other studies. First, the concern factors differ from existing studies, which are based on privacy issues that may occur during the lifecycle of acquired user information. However, our study helped to clarify these sometimes vague issues by determining which privacy concern issues are viable based on specific technical characteristics in context-aware personalized services. Since a context-aware service differs in its technical characteristics compared to other services, we selected specific characteristics that had a higher potential to increase user's privacy concerns. Secondly, this study considered privacy issues in terms of service delivery and display that were almost overlooked in existing studies by introducing IPOS as the factor division. Lastly, in each factor, it correlated the level of importance with professionals' opinions as to what extent users have privacy concerns. The reason that it did not select the traditional method questionnaire at that time is that context-aware personalized service considered the absolute lack in understanding and experience of users with new technology. For understanding users' privacy concerns, professionals in the Delphi questionnaire process selected context data collection, tracking and recording, and sensory network as the most important factors among technological characteristics of context-aware personalized services. In the creation of a context-aware personalized services, this study demonstrates the importance and relevance of determining an optimal methodology, and which technologies and in what sequence are needed, to acquire what types of users' context information. Most studies focus on which services and systems should be provided and developed by utilizing context information on the supposition, along with the development of context-aware technology. However, the results in this study show that, in terms of users' privacy, it is necessary to pay greater attention to the activities that acquire context information. To inspect the results in the evaluation of sub factor, additional studies would be necessary for approaches on reducing users' privacy concerns toward technological characteristics such as highly identifiable level of identical data, diverse types of context data collected, tracking and recording functionality, embedded and disappearing sensor devices. The factor ranked the next highest level of importance after input is a context-aware service delivery that is related to output. The results show that delivery and display showing services to users in a context-aware personalized services toward the anywhere-anytime-any device concept have been regarded as even more important than in previous computing environment. Considering the concern factors to develop context aware personalized services will help to increase service success rate and hopefully user acceptance for those services. Our future work will be to adopt these factors for qualifying context aware service development projects such as u-city development projects in terms of service quality and hence user acceptance.

한정된 O-D조사자료를 이용한 주 전체의 트럭교통예측방법 개발 (DEVELOPMENT OF STATEWIDE TRUCK TRAFFIC FORECASTING METHOD BY USING LIMITED O-D SURVEY DATA)

  • 박만배
    • 대한교통학회:학술대회논문집
    • /
    • 대한교통학회 1995년도 제27회 학술발표회
    • /
    • pp.101-113
    • /
    • 1995
  • The objective of this research is to test the feasibility of developing a statewide truck traffic forecasting methodology for Wisconsin by using Origin-Destination surveys, traffic counts, classification counts, and other data that are routinely collected by the Wisconsin Department of Transportation (WisDOT). Development of a feasible model will permit estimation of future truck traffic for every major link in the network. This will provide the basis for improved estimation of future pavement deterioration. Pavement damage rises exponentially as axle weight increases, and trucks are responsible for most of the traffic-induced damage to pavement. Consequently, forecasts of truck traffic are critical to pavement management systems. The pavement Management Decision Supporting System (PMDSS) prepared by WisDOT in May 1990 combines pavement inventory and performance data with a knowledge base consisting of rules for evaluation, problem identification and rehabilitation recommendation. Without a r.easonable truck traffic forecasting methodology, PMDSS is not able to project pavement performance trends in order to make assessment and recommendations in the future years. However, none of WisDOT's existing forecasting methodologies has been designed specifically for predicting truck movements on a statewide highway network. For this research, the Origin-Destination survey data avaiiable from WisDOT, including two stateline areas, one county, and five cities, are analyzed and the zone-to'||'&'||'not;zone truck trip tables are developed. The resulting Origin-Destination Trip Length Frequency (00 TLF) distributions by trip type are applied to the Gravity Model (GM) for comparison with comparable TLFs from the GM. The gravity model is calibrated to obtain friction factor curves for the three trip types, Internal-Internal (I-I), Internal-External (I-E), and External-External (E-E). ~oth "macro-scale" calibration and "micro-scale" calibration are performed. The comparison of the statewide GM TLF with the 00 TLF for the macro-scale calibration does not provide suitable results because the available 00 survey data do not represent an unbiased sample of statewide truck trips. For the "micro-scale" calibration, "partial" GM trip tables that correspond to the 00 survey trip tables are extracted from the full statewide GM trip table. These "partial" GM trip tables are then merged and a partial GM TLF is created. The GM friction factor curves are adjusted until the partial GM TLF matches the 00 TLF. Three friction factor curves, one for each trip type, resulting from the micro-scale calibration produce a reasonable GM truck trip model. A key methodological issue for GM. calibration involves the use of multiple friction factor curves versus a single friction factor curve for each trip type in order to estimate truck trips with reasonable accuracy. A single friction factor curve for each of the three trip types was found to reproduce the 00 TLFs from the calibration data base. Given the very limited trip generation data available for this research, additional refinement of the gravity model using multiple mction factor curves for each trip type was not warranted. In the traditional urban transportation planning studies, the zonal trip productions and attractions and region-wide OD TLFs are available. However, for this research, the information available for the development .of the GM model is limited to Ground Counts (GC) and a limited set ofOD TLFs. The GM is calibrated using the limited OD data, but the OD data are not adequate to obtain good estimates of truck trip productions and attractions .. Consequently, zonal productions and attractions are estimated using zonal population as a first approximation. Then, Selected Link based (SELINK) analyses are used to adjust the productions and attractions and possibly recalibrate the GM. The SELINK adjustment process involves identifying the origins and destinations of all truck trips that are assigned to a specified "selected link" as the result of a standard traffic assignment. A link adjustment factor is computed as the ratio of the actual volume for the link (ground count) to the total assigned volume. This link adjustment factor is then applied to all of the origin and destination zones of the trips using that "selected link". Selected link based analyses are conducted by using both 16 selected links and 32 selected links. The result of SELINK analysis by u~ing 32 selected links provides the least %RMSE in the screenline volume analysis. In addition, the stability of the GM truck estimating model is preserved by using 32 selected links with three SELINK adjustments, that is, the GM remains calibrated despite substantial changes in the input productions and attractions. The coverage of zones provided by 32 selected links is satisfactory. Increasing the number of repetitions beyond four is not reasonable because the stability of GM model in reproducing the OD TLF reaches its limits. The total volume of truck traffic captured by 32 selected links is 107% of total trip productions. But more importantly, ~ELINK adjustment factors for all of the zones can be computed. Evaluation of the travel demand model resulting from the SELINK adjustments is conducted by using screenline volume analysis, functional class and route specific volume analysis, area specific volume analysis, production and attraction analysis, and Vehicle Miles of Travel (VMT) analysis. Screenline volume analysis by using four screenlines with 28 check points are used for evaluation of the adequacy of the overall model. The total trucks crossing the screenlines are compared to the ground count totals. L V/GC ratios of 0.958 by using 32 selected links and 1.001 by using 16 selected links are obtained. The %RM:SE for the four screenlines is inversely proportional to the average ground count totals by screenline .. The magnitude of %RM:SE for the four screenlines resulting from the fourth and last GM run by using 32 and 16 selected links is 22% and 31 % respectively. These results are similar to the overall %RMSE achieved for the 32 and 16 selected links themselves of 19% and 33% respectively. This implies that the SELINICanalysis results are reasonable for all sections of the state.Functional class and route specific volume analysis is possible by using the available 154 classification count check points. The truck traffic crossing the Interstate highways (ISH) with 37 check points, the US highways (USH) with 50 check points, and the State highways (STH) with 67 check points is compared to the actual ground count totals. The magnitude of the overall link volume to ground count ratio by route does not provide any specific pattern of over or underestimate. However, the %R11SE for the ISH shows the least value while that for the STH shows the largest value. This pattern is consistent with the screenline analysis and the overall relationship between %RMSE and ground count volume groups. Area specific volume analysis provides another broad statewide measure of the performance of the overall model. The truck traffic in the North area with 26 check points, the West area with 36 check points, the East area with 29 check points, and the South area with 64 check points are compared to the actual ground count totals. The four areas show similar results. No specific patterns in the L V/GC ratio by area are found. In addition, the %RMSE is computed for each of the four areas. The %RMSEs for the North, West, East, and South areas are 92%, 49%, 27%, and 35% respectively, whereas, the average ground counts are 481, 1383, 1532, and 3154 respectively. As for the screenline and volume range analyses, the %RMSE is inversely related to average link volume. 'The SELINK adjustments of productions and attractions resulted in a very substantial reduction in the total in-state zonal productions and attractions. The initial in-state zonal trip generation model can now be revised with a new trip production's trip rate (total adjusted productions/total population) and a new trip attraction's trip rate. Revised zonal production and attraction adjustment factors can then be developed that only reflect the impact of the SELINK adjustments that cause mcreases or , decreases from the revised zonal estimate of productions and attractions. Analysis of the revised production adjustment factors is conducted by plotting the factors on the state map. The east area of the state including the counties of Brown, Outagamie, Shawano, Wmnebago, Fond du Lac, Marathon shows comparatively large values of the revised adjustment factors. Overall, both small and large values of the revised adjustment factors are scattered around Wisconsin. This suggests that more independent variables beyond just 226; population are needed for the development of the heavy truck trip generation model. More independent variables including zonal employment data (office employees and manufacturing employees) by industry type, zonal private trucks 226; owned and zonal income data which are not available currently should be considered. A plot of frequency distribution of the in-state zones as a function of the revised production and attraction adjustment factors shows the overall " adjustment resulting from the SELINK analysis process. Overall, the revised SELINK adjustments show that the productions for many zones are reduced by, a factor of 0.5 to 0.8 while the productions for ~ relatively few zones are increased by factors from 1.1 to 4 with most of the factors in the 3.0 range. No obvious explanation for the frequency distribution could be found. The revised SELINK adjustments overall appear to be reasonable. The heavy truck VMT analysis is conducted by comparing the 1990 heavy truck VMT that is forecasted by the GM truck forecasting model, 2.975 billions, with the WisDOT computed data. This gives an estimate that is 18.3% less than the WisDOT computation of 3.642 billions of VMT. The WisDOT estimates are based on the sampling the link volumes for USH, 8TH, and CTH. This implies potential error in sampling the average link volume. The WisDOT estimate of heavy truck VMT cannot be tabulated by the three trip types, I-I, I-E ('||'&'||'pound;-I), and E-E. In contrast, the GM forecasting model shows that the proportion ofE-E VMT out of total VMT is 21.24%. In addition, tabulation of heavy truck VMT by route functional class shows that the proportion of truck traffic traversing the freeways and expressways is 76.5%. Only 14.1% of total freeway truck traffic is I-I trips, while 80% of total collector truck traffic is I-I trips. This implies that freeways are traversed mainly by I-E and E-E truck traffic while collectors are used mainly by I-I truck traffic. Other tabulations such as average heavy truck speed by trip type, average travel distance by trip type and the VMT distribution by trip type, route functional class and travel speed are useful information for highway planners to understand the characteristics of statewide heavy truck trip patternS. Heavy truck volumes for the target year 2010 are forecasted by using the GM truck forecasting model. Four scenarios are used. Fo~ better forecasting, ground count- based segment adjustment factors are developed and applied. ISH 90 '||'&'||' 94 and USH 41 are used as example routes. The forecasting results by using the ground count-based segment adjustment factors are satisfactory for long range planning purposes, but additional ground counts would be useful for USH 41. Sensitivity analysis provides estimates of the impacts of the alternative growth rates including information about changes in the trip types using key routes. The network'||'&'||'not;based GMcan easily model scenarios with different rates of growth in rural versus . . urban areas, small versus large cities, and in-state zones versus external stations. cities, and in-state zones versus external stations.

  • PDF