• 제목/요약/키워드: Input devices

검색결과 1,216건 처리시간 0.031초

핵의학 계측기기 및 감마카메라의 정도관리 연구 (A Study of Quality Control of Nuclear Medicine Counting System and Gamma Camera)

  • 손혜경;김희중;정해조;정하규;이종두;유형식
    • 한국의학물리학회지:의학물리
    • /
    • 제12권2호
    • /
    • pp.103-112
    • /
    • 2001
  • 목적: 최근 국내의 핵의학 계측기기 및 감마카메라의 정도관리 수행현황을 파악하고, 핵의학 계측기기와 감마 카메라의 정도관리를 수행하고자 하였다. 방 법: 최근 국내의 핵의학 계측기기 및 감마 카메라의 정도관리 수행현황은 총 53개 병원을 대상으로 설문조사방법을 이용하여 수행하였다. 이들의 정도관리 연구는 Capintec의 CRC-15 기종의 dose calibrator와 Tc-99m 35.52 MBq을 사용하여 2분 간격으로 정밀도를 측정하였다. Nucleus사의 기종의 Thyroid Uptake system은 Tc-99m 5.14 MBq을 이용하여 1분 간격으로 10초동안 정밀도를 측정하였다. 지름이 15 cm이고 높이가 각각 12 cm, 30 cm인 원통형 팬텀과 TC-99m을 이용하여 저에너지 고해상도 조준기가 부착된 CeraSPECT$^{TM}$의 예민도를 측정하였다. CeraSPECT$^{TM}$와 일반 평면카메라와의 예민도에 대한 특성비교를 위하여 Varicam (Elscint Ltd, Israel) 감마 카메라로 영상을 얻었다. CeraSPECT$^{TM}$로 획득한 자료로 각 슬라이스에 대한 보정상수를 계산하였다. Elscint 사의 Varicam 감마 카메라의 정도관리를 위해 저에너지 고해상도 조준기를 부착하고 140 keV 중심20% 에너지창, 256$\times$256 또는 512$\times$512 메트릭스 크기를 이용하여 시스템의 평면 예민도, 균일도, 계수율 및 공기중과 산란매질에서의 공간 분해능을 측정하였다. 결 과: 핵의학 계측기기 및 감마 카메라의 정도관리 수행율은 dose calibrator와 well counter의 경우 매우 저조한 수행율을 나타내었으며 그 외 감마 카메라 등은 대체로 양호한 수행율을 나타내었다. dose calibrator의 정밀도 측정은 $\pm$1.4%(<$\pm$5%)의 결과를 얻었고, thyroid uptake system의 정밀도 측정은 chi^2=29.7(>16.92)의 결과를 얻었다. Varicam 감마 카메라의 경우 슬라이스들간에 전반적으로 균일한 민감도를 보여주었으나 CeraSPECT$^{TM}$ 의 경우는 위쪽과 아래쪽 부분의 슬라이스들은 민감도가 두드러지게 떨어져 있었고 팬텀의 중심부분 슬라이스들은 민감도가 매우 높은 것으로 나타났다. 계산한 보정 상수를 이용하여 CeraSPECT$^{TM}$로 얻은 환자 자료를 보정하였을 때 보정전에 비하여 전반적으로 균일한 영상을 얻을 수 있었다. 감마 카메라의 시스템 평면 예민도 측정 결과는 4.39 CPM/MBq 이었으며, 시스템 균일도는 첫 번째 검출기와 두번째 검출기가 각각 2.14%, 3.79%로 나타났다. 시스템 계수율 측정의 경우 입력 계수율 R_20%가 각각 102,407 counts/sec (head 1), 113,427 counts/sec (head 2)일 때 20% 계수율 손실이 발생했을 때의 측정된 계수율 C_20%는 각각 81,926 counts/sec (head 1), 90,741 counts/sec (head 2) 이었다. 공기 중에서의 시스템의 공간 분해능은 FWHM이 8.16 m, FWTM이 14.85 mm이었고, 산란매질에서는 시스템의 공간 분해능은 FWHM이 8.87 mm, FWTM이 18.87 mm이었다. 결 론: 정확하고 신뢰도 높은 검사를 위해 정도관리는 필수이며, 이에 대한 명확한 인식과 실질적인 수행이 반드시 뒤따라야 할 것으로 사료되었다

  • PDF

오피니언 분류의 감성사전 활용효과에 대한 연구 (A Study on the Effect of Using Sentiment Lexicon in Opinion Classification)

  • 김승우;김남규
    • 지능정보연구
    • /
    • 제20권1호
    • /
    • pp.133-148
    • /
    • 2014
  • 최근 다양한 정보채널들의 등장으로 인해 빅데이터에 대한 관심이 높아지고 있다. 이와 같은 현상의 가장 큰 원인은, 스마트기기의 사용이 활성화 됨에 따라 사용자가 생성하는 텍스트, 사진, 동영상과 같은 비정형 데이터의 양이 크게 증가하고 있는 것에서 찾을 수 있다. 특히 비정형 데이터 중에서도 텍스트 데이터의 경우, 사용자들의 의견 및 다양한 정보를 명확하게 표현하고 있다는 특징이 있다. 따라서 이러한 텍스트에 대한 분석을 통해 새로운 가치를 창출하고자 하는 시도가 활발히 이루어지고 있다. 텍스트 분석을 위해 필요한 기술은 대표적으로 텍스트 마이닝과 오피니언 마이닝이 있다. 텍스트 마이닝과 오피니언 마이닝은 모두 텍스트 데이터를 입력 데이터로 사용할 뿐 아니라 파싱, 필터링 등 자연어 처리기술을 사용한다는 측면에서 많은 공통점을 갖고 있다. 특히 문서의 분류 및 예측에 있어서 목적 변수가 긍정 또는 부정의 감성을 나타내는 경우에는, 전통적 텍스트 마이닝, 또는 감성사전 기반의 오피니언 마이닝의 두 가지 방법론에 의해 오피니언 분류를 수행할 수 있다. 따라서 텍스트 마이닝과 오피니언 마이닝의 특징을 구분하는 가장 명확한 기준은 입력 데이터의 형태, 분석의 목적, 분석의 결과물이 아닌 감성사전의 사용 여부라고 할 수 있다. 따라서 본 연구에서는 오피니언 분류라는 동일한 목적에 대해 텍스트 마이닝과 오피니언 마이닝을 각각 사용하여 예측 모델을 수립하는 과정을 비교하고, 결과로 도출된 모델의 예측 정확도를 비교하였다. 오피니언 분류 실험을 위해 영화 리뷰 2,000건에 대한 실험을 수행하였으며, 실험 결과 오피니언 마이닝을 통해 수립된 모델이 텍스트 마이닝 모델에 비해 전체 구간의 예측 정확도 평균이 높게 나타나고, 예측의 확실성이 강한 문서일수록 예측 정확성이 높게 나타나는 일관적인 성향을 나타내는 등 더욱 바람직한 특성을 보였다.

인공지능(AI) 스피커에 대한 사회구성 차원의 발달과정 연구: 제품과 시기별 공진화 과정을 중심으로 (A study of Artificial Intelligence (AI) Speaker's Development Process in Terms of Social Constructivism: Focused on the Products and Periodic Co-revolution Process)

  • 차현주;권상희
    • 인터넷정보학회논문지
    • /
    • 제22권1호
    • /
    • pp.109-135
    • /
    • 2021
  • 본 연구는 전통뉴스 보도에 나타난 인공지능(AI)스피커 뉴스 텍스트 분석을 통해 인공지능(AI) 스피커 발달과정을 분류하고 시기별 제품별 특성을 파악하였다. 또한 AI 스피커 사업자 제품별 뉴스 보도와 시기별 뉴스 보도간의 상관관계를 분석하였다. 분석에 사용된 이론적 배경은 뉴스의 프레임과 토픽프레임이다. 분석방법으로는 LDA 방식을 활용한 토픽모델링(Topic Modeling)과 의미연결망분석이 사용되었으며, 추가로 'UCINET'중 QAP분석을 적용하였다. 연구방법은 내용분석 방법으로 2014년부터 2019년까지 AI 스피커 관련 2,710건의 뉴스를 1차로 수집하였고, 2차적으로 Nodexl 알고리즘을 이용하여 토픽프레임을 분석하였다. 분석 결과 첫째, AI 스피커 사업자 유형별 토픽 프레임의 경향은 4개 사업자(통신사업자, 온라인 플랫폼, OS 사업자, IT디바이스 생산업자) 특성에 따라 다르게 나타났다. 구체적으로, 온라인 플랫폼 사업자(구글, 네이버, 아마존, 카카오)와 관련한 프레임은 AI 스피커를 '검색 또는 입력 디바이스'로 사용하는 프레임의 비중이 높았다. 반면 통신 사업자(SKT, KT)는 모회사의 주력 사업인 IPTV, 통신 사업의 '보조 디바이스' 관련한 프레임이 두드러지게 나타났다. 나아가 OS 사업자(MS, 애플)는 '제품의 의인화 및 음성 서비스' 프레임이 두드러지게 보였으며, IT 디바이스 생산업자(삼성)는 '사물인터넷(IoT) 종합지능시스템'과 관련한 프레임이 두드러지게 나타났다. 둘째, AI 스피커 시기별(연도별) 토픽 프레임의 경향은 1기(2014-2016년)에는 AI 기술 중심으로 발달하는 경향을 보였고, 2기(2017-2018년)에는 AI 기술과 이용자 간의 사회적 상호 작용과 관련되어 있었으며, 3기(2019년)에는 AI 기술 중심에서 이용자 중심으로 전환되는 경향을 나타냈다. QAP 분석 결과, AI 스피커 발달에서 사업자별과 시기별 뉴스 프레임이 미디어 담론의 결정요인에 의해 사회적으로 구성되는 것을 알 수 있었다. 본연구의 함의는 AI 스피커 진화는 사업자별, 발달시기별로 모회사 기업의 특성과 이용자 간의 상호작용으로 인한 공진화 과정이 나타냄을 발견할 수 있었다. 따라서 본 연구는 AI 스피커의 향후 전망을 예측하고 그에 따른 방향성을 제시하는 데 중요한 시사점을 제공한다.

폐암 환자의 정위체부방사선치료 시 기준선 변화에 따른 3D-CBCT(Cone Beam Computed-Tomography)와 Gated-CBCT의 영상 품질 및 유용성 평가 (Image quality and usefulness evaluaton of 3D-CBCT and Gated-CBCT according to baseline changes for SBRT of Lung Cancer)

  • 한국희;신충훈;이충환;유순미;박자람;김진수;윤인하
    • 대한방사선치료학회지
    • /
    • 제35권
    • /
    • pp.41-51
    • /
    • 2023
  • 목 적: 본 연구는 폐암 환자의 정위체부방사선치료 시(Stereotactic Body Radiation Therapy, SBRT) 기준선(Baseline) 변화에 따른 3D-CBCT(Cone Beam Computed-Tomography)와 Gated-CBCT의 영상 품질(Image quality)을 비교 분석하여 호흡에 따른 움직임의 보정에 유용한 CBCT 촬영 방법을 찾고자 한다. 대상 및 방법: QUASARTM(Modus Medical Devices Inc, Canada) 팬텀에 지름이 3 cm인 고체 종양 물질(Solid Tumor)을 삽입하여 팬텀의 속도를 주기 3 sec, 최대 진폭 20 mm 로 4DCT(4-Dimentional Computed-Tomography)를 촬영하였다. 전산화 치료계획시스템 EclipseTM을 이용하여 고체 종양 물질에 육안적 종양용적(Gross Target Volume, GTV)을 윤곽 묘사하였다. Truebeam STxTM을 이용해 4DCT 촬영 시와 동일하게 설정한 후, 기준선 변화가 1 mm, 3 mm, 5 mm인 호흡 패턴을 팬텀에 입력하여 3D-CBCT(Spotlight, Full)와 Gated-CBCT(Spotlight, Full) 영상을 5회 반복하여 획득하였다. 획득된 영상을 4DCT 영상을 기준으로 신호대잡음비(Signal-to-Noise Ratio, SNR), 대조대잡음비(Contrast-to-Noise Ratio, CNR), 종양 체적 길이(Tumor Volume Length) 및 모션 블러링 비(Motion Blurring Ratio, MBR)를 측정하여 비교하였다. 결 과: Spotlight Gated-CBCT 영상이 기준선 변화에 따른 신호대잡음비가 평균 13.30±0.10%, 대조대잡음비가 평균 7.78±0.16%, 종양 체적 길이가 평균 3.55 ± 0.17%, 모션 블러링 비가 평균 1.18 ± 0.06%로 Spotlight 3D-CBCT보다 우수한 값을 보였다. 또한, Full Gated-CBCT 영상이 기준선 변화에 따른 신호대잡음비가 평균 12.80 ± 0.11%, 대조대잡음비가 평균 7.60 ± 0.11%, 종양 체적 길이가 평균 3.54 ± 0.16%, 모션 블러링 비가 평균 1.18 ± 0.05%로 Full 3D-CBCT보다 우수한 값을 보였다. 결 론: 3D-CBCT 촬영 영상과 비교하여 Gated-CBCT 촬영 영상이 기준선 변화에 따른 영상 품질이 우수한 값을 보였으며, 호흡으로 인한 모션 블러링 인공물(Motion Blurring Artifacts)의 영향이 적은 것을 확인했다. 따라서 단기간에 고선량을 전달하는 폐암의 정위체부방사선치료 시 불규칙한 호흡으로 인한 기준선 변화가 발생하는 경우 Gated-CBCT를 이용해 영상유도(Image Guide)를 하는 것이 유용하다고 판단된다.

  • PDF

Information Privacy Concern in Context-Aware Personalized Services: Results of a Delphi Study

  • Lee, Yon-Nim;Kwon, Oh-Byung
    • Asia pacific journal of information systems
    • /
    • 제20권2호
    • /
    • pp.63-86
    • /
    • 2010
  • Personalized services directly and indirectly acquire personal data, in part, to provide customers with higher-value services that are specifically context-relevant (such as place and time). Information technologies continue to mature and develop, providing greatly improved performance. Sensory networks and intelligent software can now obtain context data, and that is the cornerstone for providing personalized, context-specific services. Yet, the danger of overflowing personal information is increasing because the data retrieved by the sensors usually contains privacy information. Various technical characteristics of context-aware applications have more troubling implications for information privacy. In parallel with increasing use of context for service personalization, information privacy concerns have also increased such as an unrestricted availability of context information. Those privacy concerns are consistently regarded as a critical issue facing context-aware personalized service success. The entire field of information privacy is growing as an important area of research, with many new definitions and terminologies, because of a need for a better understanding of information privacy concepts. Especially, it requires that the factors of information privacy should be revised according to the characteristics of new technologies. However, previous information privacy factors of context-aware applications have at least two shortcomings. First, there has been little overview of the technology characteristics of context-aware computing. Existing studies have only focused on a small subset of the technical characteristics of context-aware computing. Therefore, there has not been a mutually exclusive set of factors that uniquely and completely describe information privacy on context-aware applications. Second, user survey has been widely used to identify factors of information privacy in most studies despite the limitation of users' knowledge and experiences about context-aware computing technology. To date, since context-aware services have not been widely deployed on a commercial scale yet, only very few people have prior experiences with context-aware personalized services. It is difficult to build users' knowledge about context-aware technology even by increasing their understanding in various ways: scenarios, pictures, flash animation, etc. Nevertheless, conducting a survey, assuming that the participants have sufficient experience or understanding about the technologies shown in the survey, may not be absolutely valid. Moreover, some surveys are based solely on simplifying and hence unrealistic assumptions (e.g., they only consider location information as a context data). A better understanding of information privacy concern in context-aware personalized services is highly needed. Hence, the purpose of this paper is to identify a generic set of factors for elemental information privacy concern in context-aware personalized services and to develop a rank-order list of information privacy concern factors. We consider overall technology characteristics to establish a mutually exclusive set of factors. A Delphi survey, a rigorous data collection method, was deployed to obtain a reliable opinion from the experts and to produce a rank-order list. It, therefore, lends itself well to obtaining a set of universal factors of information privacy concern and its priority. An international panel of researchers and practitioners who have the expertise in privacy and context-aware system fields were involved in our research. Delphi rounds formatting will faithfully follow the procedure for the Delphi study proposed by Okoli and Pawlowski. This will involve three general rounds: (1) brainstorming for important factors; (2) narrowing down the original list to the most important ones; and (3) ranking the list of important factors. For this round only, experts were treated as individuals, not panels. Adapted from Okoli and Pawlowski, we outlined the process of administrating the study. We performed three rounds. In the first and second rounds of the Delphi questionnaire, we gathered a set of exclusive factors for information privacy concern in context-aware personalized services. The respondents were asked to provide at least five main factors for the most appropriate understanding of the information privacy concern in the first round. To do so, some of the main factors found in the literature were presented to the participants. The second round of the questionnaire discussed the main factor provided in the first round, fleshed out with relevant sub-factors. Respondents were then requested to evaluate each sub factor's suitability against the corresponding main factors to determine the final sub-factors from the candidate factors. The sub-factors were found from the literature survey. Final factors selected by over 50% of experts. In the third round, a list of factors with corresponding questions was provided, and the respondents were requested to assess the importance of each main factor and its corresponding sub factors. Finally, we calculated the mean rank of each item to make a final result. While analyzing the data, we focused on group consensus rather than individual insistence. To do so, a concordance analysis, which measures the consistency of the experts' responses over successive rounds of the Delphi, was adopted during the survey process. As a result, experts reported that context data collection and high identifiable level of identical data are the most important factor in the main factors and sub factors, respectively. Additional important sub-factors included diverse types of context data collected, tracking and recording functionalities, and embedded and disappeared sensor devices. The average score of each factor is very useful for future context-aware personalized service development in the view of the information privacy. The final factors have the following differences comparing to those proposed in other studies. First, the concern factors differ from existing studies, which are based on privacy issues that may occur during the lifecycle of acquired user information. However, our study helped to clarify these sometimes vague issues by determining which privacy concern issues are viable based on specific technical characteristics in context-aware personalized services. Since a context-aware service differs in its technical characteristics compared to other services, we selected specific characteristics that had a higher potential to increase user's privacy concerns. Secondly, this study considered privacy issues in terms of service delivery and display that were almost overlooked in existing studies by introducing IPOS as the factor division. Lastly, in each factor, it correlated the level of importance with professionals' opinions as to what extent users have privacy concerns. The reason that it did not select the traditional method questionnaire at that time is that context-aware personalized service considered the absolute lack in understanding and experience of users with new technology. For understanding users' privacy concerns, professionals in the Delphi questionnaire process selected context data collection, tracking and recording, and sensory network as the most important factors among technological characteristics of context-aware personalized services. In the creation of a context-aware personalized services, this study demonstrates the importance and relevance of determining an optimal methodology, and which technologies and in what sequence are needed, to acquire what types of users' context information. Most studies focus on which services and systems should be provided and developed by utilizing context information on the supposition, along with the development of context-aware technology. However, the results in this study show that, in terms of users' privacy, it is necessary to pay greater attention to the activities that acquire context information. To inspect the results in the evaluation of sub factor, additional studies would be necessary for approaches on reducing users' privacy concerns toward technological characteristics such as highly identifiable level of identical data, diverse types of context data collected, tracking and recording functionality, embedded and disappearing sensor devices. The factor ranked the next highest level of importance after input is a context-aware service delivery that is related to output. The results show that delivery and display showing services to users in a context-aware personalized services toward the anywhere-anytime-any device concept have been regarded as even more important than in previous computing environment. Considering the concern factors to develop context aware personalized services will help to increase service success rate and hopefully user acceptance for those services. Our future work will be to adopt these factors for qualifying context aware service development projects such as u-city development projects in terms of service quality and hence user acceptance.

토픽 모델링을 이용한 트위터 이슈 트래킹 시스템 (Twitter Issue Tracking System by Topic Modeling Techniques)

  • 배정환;한남기;송민
    • 지능정보연구
    • /
    • 제20권2호
    • /
    • pp.109-122
    • /
    • 2014
  • 현재 우리는 소셜 네트워크 서비스(Social Network Service, 이하 SNS) 상에서 수많은 데이터를 만들어 내고 있다. 특히, 모바일 기기와 SNS의 결합은 과거와는 비교할 수 없는 대량의 데이터를 생성하면서 사회적으로도 큰 영향을 미치고 있다. 이렇게 방대한 SNS 데이터 안에서 사람들이 많이 이야기하는 이슈를 찾아낼 수 있다면 이 정보는 사회 전반에 걸쳐 새로운 가치 창출을 위한 중요한 원천으로 활용될 수 있다. 본 연구는 이러한 SNS 빅데이터 분석에 대한 요구에 부응하기 위해, 트위터 데이터를 활용하여 트위터 상에서 어떤 이슈가 있었는지 추출하고 이를 웹 상에서 시각화 하는 트위터이슈 트래킹 시스템 TITS(Twitter Issue Tracking System)를 설계하고 구축 하였다. TITS는 1) 일별 순위에 따른 토픽 키워드 집합 제공 2) 토픽의 한달 간 일별 시계열 그래프 시각화 3) 토픽으로서의 중요도를 점수와 빈도수에 따라 Treemap으로 제공 4) 키워드 검색을 통한 키워드의 한달 간 일별 시계열 그래프 시각화의 기능을 갖는다. 본 연구는 SNS 상에서 실시간으로 발생하는 빅데이터를 Open Source인 Hadoop과 MongoDB를 활용하여 분석하였고, 이는 빅데이터의 실시간 처리가 점점 중요해지고 있는 현재 매우 주요한 방법론을 제시한다. 둘째, 문헌정보학 분야뿐만 아니라 다양한 연구 영역에서 사용하고 있는 토픽 모델링 기법을 실제 트위터 데이터에 적용하여 스토리텔링과 시계열 분석 측면에서 유용성을 확인할 수 있었다. 셋째, 연구 실험을 바탕으로 시각화와 웹 시스템 구축을 통해 실제 사용 가능한 시스템으로 구현하였다. 이를 통해 소셜미디어에서 생성되는 사회적 트렌드를 마이닝하여 데이터 분석을 통한 의미 있는 정보를 제공하는 실제적인 방법을 제시할 수 있었다는 점에서 주요한 의의를 갖는다. 본 연구는 JSON(JavaScript Object Notation) 파일 포맷의 1억 5천만개 가량의 2013년 3월 한국어 트위터 데이터를 실험 대상으로 한다.