• 제목/요약/키워드: Digital Filtering

검색결과 611건 처리시간 0.028초

소셜 네트워크 사이트의 정보 매개하기 : 시뮬레이션 연구 (Information Mediating in Social Network Sites : A Simulation Study)

  • 노상규;김태경;박진수
    • 한국전자거래학회지
    • /
    • 제18권1호
    • /
    • pp.33-55
    • /
    • 2013
  • 개인의 관심사나 사회적 문제를 토론하는 장으로 소셜 네트워크 사이트가 최근 활발하게 쓰인다. 기업에 대한 소식들이 소셜 네트워크 사이트의 사용자들 사이에서 회자되기는 마찬가지다. 이처럼 소셜 네트워크 사이트는 정보가 확산되는 주요 통로로 사용되나, 어떻게 그것이 가능한지에 대한 학문적 이해는 부족한 형편이다. 소셜 네트워크 사이트에서 정보가 전파될 때, 개인과 개인 간의 담화, 혹은 한 개인이 자신의 지인들에게 정보를 알려주는 방법에 따른다. 그런데 이와 같은 개인적 노력으로도 사회적 파장을 불러올 만큼 소셜 네트워크 서비스의 정보 확산은 대단하다. 본 논문은 '정보 매개하기'를 중심으로 어떻게 개인 수준의 정보 전파가 네트워크 수준의 정보 확산을 가져오는지를 이해하려 한다. 특히 정보 매개하기에 있어서 '정보 걸러내기의 효과'의 역할에 관심을 집중했다. 시뮬레이션의 결과를 통해, 정보 매개하기 활동이 정보 전파를 활성화시키며, 나아가 정보 확산에 기여하는 것으로 드러났다. 또한 정보 걸러내기 효과가 있을 때, 매우 작은 확률로 정보 매개하기 활동이 있다고 해도, 그 영향력은 아주 크다는 점을 보였다. 즉, 이미 정보 전파가 있었다는 사실이 다른 사람들의 관심을 끌 수 있다면 비록 소수만이 정보 전파 활동을 하더라도 정보는 아주 빨리 퍼져나갈 수 있다.

ERS-Envisat SAR Cross-Interferomety를 이용한 고정밀 DEM 생성에 관한 연구 (A Study on High-Precision DEM Generation Using ERS-Envisat SAR Cross-Interferometry)

  • 이원진;정형섭
    • 한국측량학회지
    • /
    • 제28권4호
    • /
    • pp.431-439
    • /
    • 2010
  • 교차간섭기법은 ERS-2와 Envisat SAR 데이터를 이용하여 긴 기선거리를 지니면서도 양질의 간섭도를 제작할 수 있다. 또한 긴 기선거리에 의해서 고도에 대한 프린지 변화율이 약 5m 내외로 계산되며 이는 매우 정밀한 DEM생성을 가능하게 한다. 본 연구에서는 ERS-2와 Envisat 교차 간섭기법으로부터 정밀한 DEM을 추출하는 효율적인 방안을 제안하였으며 경사가 매우 완만한 알라스카지역에서 교차간섭기법으로 제작된 CInSAR(Cross-Interferometry SAR) DEM과 기존에 존재하는 NED(National Elevation Dataset) DEM을 비교하였다. 연구 결과 차분 간섭도 생성과정에서 NED DEM 오차라고 생각되는 부분이 발견되었으며 이 부분에 대한 CInSAR DEM과의 고도 차이에 대한 표준편차는 2.63m로 계산되었다. 하지만 전체지역에 대해서는 NED DEM과 CInSAR DEM의 고도값 차이에 대한 표준편차는 약 1m로 NED DEM과 매우 유사한 값이 계산되었다. 이는 연구대상 지역이 매우 편평한 지형으로 양질의 DEM이 구축되어 있으므로 매우 유사한 값이 계산된 것으로 판단된다. 하지만 두 DEM에 대한 공간주파수 분석을 하였을 경우 CInSAR DEM은 약 0.08 rad/m(약 40m) 보다 고주파영역에서도 높은 파워 스펙트럼 값을 지닌 반면 NED DEM은 그렇지 못하였다. 결과적으로 16m로 해상도로 구축된 CInSAR DEM의 경우 NED DEM보다 약 2.5배 공간해상도가 높아졌으며 경사가 심하지 않은 지역에서도 정밀한 DEM이 생성되었다.

수심에 기반한 멀티빔 음향 측심 필터와 격자 대표값 선정 알고리즘 (Filtering & Cridding Algorithms for Multibeam Echo Sounder Data based on Bathymetry)

  • 박요섭;김학일
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 1999년도 추계종합학술대회
    • /
    • pp.260-265
    • /
    • 1999
  • 멀티빔 음향측심기(Multibeam Echo Sounder)는 기존의 단빔 음향측심기(Singlebeam Echo Sounder)와 달리 탐사선 진행방향의 수직(Crosstrack)으로 해저면을 주사(Swath)하여, 한 번의 송수신(Ping)으로 다중의 빔 자료 - 수심, 후방산란된 음압(Backscattered Amplitude), 사이드 스캔 소나(Side Scan Sonar) 자료 - 를 취득하는 장비이다. 멀티빔 음향 측심기를 이용한 해저면 탐사의 경우, 수심이 변함에 따라 주사폭(Swath width)이 변화하고, 각 빔의 수평 해상도(Footprint)는 수심과 더불어 빔폭(Beam width)에 의하여 동적으로 변화한다. 멀티빔 음향 측심기는 해저면을 전역탐사 할 수 있을 뿐만 아니라, 연속된 음향 탐사를 통하여 이웃한 핑 사이에 발생하는 전방중첩영역(Endlap)과 이웃 측선(Trackline)을 따라 겹쳐지는 측방중첩영역(Sidelap)의 자료들을 이용하여 멀티 뎀 자료들의 전반적인 정확도 및 신뢰도를 평가할 수 있다. 본 논문은 수로 측량(Hydrographic Survey)에서 사용되는 멀티빔 음향 측심기를 운영하여 얻어진 측심 자료를 처리하는 알고리즘 개발에 관한 연구이다. 본 논문에서는 L3사의 Sea Beam 2100 벌티빔 음향 측심기를 대상으로, 멀티빔의 측심 원리와 해저 지형에 대한 일반적 이해를 통하여 획득된 측심 자료의 통계적 특성을 파악하고, 오측심된 수심 자료를 제거하는 방법을 제안하며, 측심 구간의 대표격자 크기를 결정하는 기준을 제시한다. 또한, 항공원격탐사에서 고도 추정시 사용되고 있는, 평균보간법, 가중평균 보간법과, 본 논문에서 제안하는 격자 대표값 선정 알고리즘(Gridding Algorithms)의 결과를 비교하고, 최종적으로 얻어지는 해저 수치지형모델(DEM, Digital Elevation Model)과 후방산란 영상을 제시한다. 빠른 한지형잔디들이 지표면을 피복하도록 하고 여름의 고온기와 장마시기에는 뿌리전단력이 우수한 이러한 초종들로 지표면이 피복되도록 하는 것이 이상적이라 생각된다. 4. 혼파처리간의 토사유출량을 비교한 결과 토사 유출 억제효과는 한지형과 나지형잔디들의 혼합형(MixtureIII)과 자생처리구(MixtureV), Italian ryegrass와 자생식물의 혼합형(MixtureIV)등에서 비교적 낮은 수치를 토사유출량을 기록하였다. 이러한 결과는 자생식물들이 비록 초기생육속도는 외래도입초종에 떨어지지만 토사유출의 억제효과면에서는 이들 외래초종에 필적할 수 있음을 나타낸다고 할 수 있겠다.중량이 약 115kg/$m^2$정도로 나타났다.소 들(환경의 의미, 사람의 목적과 지식)보다 미학적 경험에 주는 영향이 큰 것으로 나타났으며, 모든 사람들에게 비슷한 미학적 경험을 발생시키는 것 이 밝혀졌다. 다시 말하면 모든 사람들은 그들의 문화적인 국적과 사회적 인 직업의 차이, 목적의 차이, 또한 환경의 의미의 차이에 상관없이 아름다 운 경관(High-beauty landscape)을 주거지나 나들이 장소로서 선호했으며, 아름답다고 평가했다. 반면에, 사람들이 갖고 있는 문화의 차이, 직업의 차 이, 목적의 차이, 그리고 환경의 의미의 차이에 따라 경관의 미학적 평가가 달라진 것으로 나타났다.corner$적 의도에 의한 경관구성의 일면을 확인할수 있지만 엄밀히 생각하여 보면 이러한 예의 경우도 최락의 총체적인 외형은 마찬가지로 $\ulcorner$순응$\lrcorner$의 범위를 벗어나지 않는다. 그렇기 때문에도 $\ulcorner$순응$\lrcorner$$\ulcorner$표현$\lrcorner$의 성격과 형태를 외형상으로 더욱이 공간상에서는 뚜렷하게 경계

  • PDF

A vision-based system for long-distance remote monitoring of dynamic displacement: experimental verification on a supertall structure

  • Ni, Yi-Qing;Wang, You-Wu;Liao, Wei-Yang;Chen, Wei-Huan
    • Smart Structures and Systems
    • /
    • 제24권6호
    • /
    • pp.769-781
    • /
    • 2019
  • Dynamic displacement response of civil structures is an important index for in-construction and in-service structural condition assessment. However, accurately measuring the displacement of large-scale civil structures such as high-rise buildings still remains as a challenging task. In order to cope with this problem, a vision-based system with the use of industrial digital camera and image processing has been developed for long-distance, remote, and real-time monitoring of dynamic displacement of supertall structures. Instead of acquiring image signals, the proposed system traces only the coordinates of the target points, therefore enabling real-time monitoring and display of displacement responses in a relatively high sampling rate. This study addresses the in-situ experimental verification of the developed vision-based system on the Canton Tower of 600 m high. To facilitate the verification, a GPS system is used to calibrate/verify the structural displacement responses measured by the vision-based system. Meanwhile, an accelerometer deployed in the vicinity of the target point also provides frequency-domain information for comparison. Special attention has been given on understanding the influence of the surrounding light on the monitoring results. For this purpose, the experimental tests are conducted in daytime and nighttime through placing the vision-based system outside the tower (in a brilliant environment) and inside the tower (in a dark environment), respectively. The results indicate that the displacement response time histories monitored by the vision-based system not only match well with those acquired by the GPS receiver, but also have higher fidelity and are less noise-corrupted. In addition, the low-order modal frequencies of the building identified with use of the data obtained from the vision-based system are all in good agreement with those obtained from the accelerometer, the GPS receiver and an elaborate finite element model. Especially, the vision-based system placed at the bottom of the enclosed elevator shaft offers better monitoring data compared with the system placed outside the tower. Based on a wavelet filtering technique, the displacement response time histories obtained by the vision-based system are easily decomposed into two parts: a quasi-static ingredient primarily resulting from temperature variation and a dynamic component mainly caused by fluctuating wind load.

2급 방진마스크 밀착도 평가 (Fit Tests for Second-class Half Masks)

  • 조기홍;김현수;최아름;천지영;강태원;김민수;박경학;김제원
    • 한국산업보건학회지
    • /
    • 제32권2호
    • /
    • pp.146-152
    • /
    • 2022
  • Objectives: The purpose of this study is to confirm whether there is a factor to affect the evaluation of fit test of a 2nd class half masks using a OPC test method. Methods: Total 34 adults including Males and Females were tested using OPC-based fit testing equipment while wearing a 2nd class half filtered mask. Results: 1. The result of measuring face dimensions using different tools such as a 3D scanner and digital calipers revealed that the variation of lip width was not statistically significant because there was only a difference of about 4 mm. However, it showed that a difference in face length was statistically significant enough with 10 mm(p<0.000). 2. The fit factor for each exercise stage according to gender was the highest at 124.54(p<0.001) in Step 3, and the fit factor was the lowest at 73.75 in Step 1. 3. In the evaluation of the degree of fit factor according to gender, female passed 67.44%, which was higher than the value in male(p<0.038). 4. The acceptance rate of the group having a face length of shorter than 110 mm was 91.67%. On the other hand, the acceptance rate of the group with a face length of longer than 110 mm was 47.27%(p<0.000). 5. The fit test was possible because the fit factor with 2nd class half masks corresponding to FFP1(Filtering Face Piece 1) was passed 55% or more. Conclusions: The test results showed that using a 2nd class half filtered mask, it is important to wear a properly designed mask so that face size does not affect the fit factor.

A Study on the Interior Design of a Dog-Friendly Hotel Using Deepfake DID for Alleviation of Pet loss Syndrome

  • Hwang, Sungi;Ryu, Gihwan
    • International Journal of Advanced Culture Technology
    • /
    • 제10권1호
    • /
    • pp.248-252
    • /
    • 2022
  • The environment refers to what is surrounded by something during human life. This environment is related to the way humans live, and presents various problems on how to perceive the surrounding environment and how the behaviors that constitute the environment support the elements necessary for human life. Humans have an interest in the supportability of the environment as the interrelationship increases as humans perceive and understand the environment and accept the factors supported by the environment. In space, human movement starts from one space to the next and exchanges stimuli and reactions with the environment until reaching a target point. These human movements start with subjective judgment and during gait movement, the spatial environment surrounding humans becomes a collection of information necessary for humans and gives stimulation. will do. In this process, in particular, humans move along the movement path through movement in space and go through displacement perception and psychological changes, and recognize a series of spatial continuity. An image of thinking is formed[1]. In this process, spatial experience is perceived through the process of filtering by the senses in the real space, and the result of cognition is added through the process of subjective change accompanied by memory and knowledge, resulting in human movement. As such, the spatial search behavior begins with a series of perceptual and cognitive behaviors that arise in the process of human beings trying to read meaning from objects in the environment. Here, cognition includes the psychological process of sorting out and judging what the information is in the process of reading the meaning of the external environment, conditions, and material composition, and perception is the process of accepting information as the first step. It can be said to be the cognitive ability to read the meaning of the environment given to humans. Therefore, if we can grasp the perception of space while moving and human behavior as a response to perception, it will be possible to predict how to grasp it from a human point of view in a space that does not exist. Modern people have the theme of reminiscing dog-friendly hotels for the healing of petloss syndrome, and this thesis attempts to approach the life of companions.

정서전염으로 인한 심리적 소진 경험에 관한 해석현상학적 연구 (A Hermenutic Phenomenological Study of Psychological Burnout Experiences due to Emotional Contagion )

  • 하현주;김진숙;안도연
    • 한국심리학회지 : 문화 및 사회문제
    • /
    • 제30권2호
    • /
    • pp.121-157
    • /
    • 2024
  • 본 연구에서는 정서전염으로 인한 심리적 소진 경험의 본질을 이해하기 위해 해석학적 현상학 연구를 실시하였다. 이를 위해 정서전염 현상을 자주 경험할 수 있는 직종에 재직 중인 9명의 참여자들을 대상으로 심층면담을 실시하였다. 자료의 분석은 체험에 대한 순수 기술에 해석을 접목하여 체험이 더 풍부하게 드러날 수 있다고 본 van Manen의 방법을 바탕으로 진행되었다. 이러한 과정을 통해 파악된 정서전염 체험은 3개의 핵심 주제 및 8개의 본질적 주제, 35개의 하위 주제로 분류되었다. 첫 번째 핵심 주제는 "끊임없이 주고받는 정서"이다. 이 주제에서는 '정서전염의 다양한 통로', '전염된 정서에 따라 달라지는 상태'라는 2가지 본질적 주제가 포함되었다. 두 번째 핵심 주제 "정서전염 체험의 필터"에는 '타인의 정서에 쉽게 물들에 하는 특성', '부정적 정서를 퍼뜨리는 태도', '정서에 압도되게 하는 상황'이라는 본질적 주제가 포함되었다. 마지막 핵심 주제인 "정서전염으로 인한 소진에서 소통으로"에는 '소진을 유발하는 휘말린 상호작용', '소통과 연결로 나아가기', '소진 이후의 회복'이라는 본질적 주제가 분류되었다. 각 주제의 핵심 내용을 요약하고 연구의 함의와 제한점 및 추후 연구의 방향에 대해 논의하였다.

디지털 흉부 촬영에서 구리필터사용에 따른 환자 표면선량 감소효과에 관한 연구 (The Study on the Reduction of Patient Surface Dose Through the use of Copper Filter in a Digital Chest Radiography)

  • 신수인;김종일;김성철
    • 대한방사선기술학회지:방사선기술과학
    • /
    • 제31권3호
    • /
    • pp.223-228
    • /
    • 2008
  • 의학적으로 방사선을 사용 시 가장 중요한 점은 환자의 병을 진단 가능하되 피폭선량을 최소화시켜야 한다는 점이다. 진단용 X-선 중 장파장부분은 대부분 흡수에 관여하게 되어 환자의 피폭선량을 증가시키므로 불필요하다. 이러한 장파장영역을 제거하기 위한 방법으로 가장 효과적인 방법은 여과 판의 사용이다. 이에 부가여과가 없는 경우와 0.3mmCu filter 사용 시의 화질과 피부입사선량에 대해 실험을 해 보았다. ROC 신호용 지름 4mm, 두께 3mm의 아크릴 디스크를 chest phantom에 랜덤하게 위치시키면서 non filter 및 Cu filter시 각 각 20매씩 총 40매의 신호+잡음영상을 촬영하고, 또한 신호가 없는 영상(잡음만의 영상)을 각 각 20매씩 40매 촬영하여 총 80매의 영상을 준비한 후 5명의 방사선종사자가 판독 후 P(S/s), P(S/n) 구하여, ROC곡선을 그리고, 감도와 특이도 및 곡선하면적을 구해 평가하였다. 또한 AAPM(American Association of Physicists in Medicine by the American Institute of Physics)권고에 따른 ANSI chest phantom과 Contrast-detail phantom을 이용하여 non filter 또는 Cu filter사용 시 시각적으로 관찰 가능한 병소의 갯수를 파악하였으며, 또한 두 경우에서 피부입사선량을 측정하였다. 그 결과 Cu filter사용 시에 ROC곡선이 좌상방향에 위치하고, 감도, 곡선하면적 및 CD phantom 병소의 갯수에서 모두 좋은 결과를 나타내었다. 또한 피부입사선량은 감소가 되어 여러 측면에서 부가필터의 사용을 검토해 볼 필요가 있으리라 사료된다.

  • PDF

에어건과 6채널 스트리머를 이용한 고해상 천부 해저 탄성파탐사 (High-resolution shallow marine seismic survey using an air gun and 6 channel streamer)

  • 이호영;박근필;구남형;박영수;김영건;서갑석;강동효;황규덕;김종천
    • 한국지구물리탐사학회:학술대회논문집
    • /
    • 한국지구물리탐사학회 2002년도 정기총회 및 제4회 특별심포지움
    • /
    • pp.24-45
    • /
    • 2002
  • 고해상 천부 해저 탄성파탐사 기술은 지난 수십년간 자원, 엔지니어링 탐사 및 지질 조사에 활용되어 왔다. 다중채널 탐사법이 지하구조를 파악하는데 매우 효과적임에도 불구하고 천부 해저탐사에는 간편성과 경제성 때문에 단일채널 아날로그 방식이 더 많이 사용되어 왔다. 본 연구에서는 경제적으로 탐사자료의 품질을 향상시키기 위하여 소형 에어건, 6채널 스트리머와 PC기반 시스템을 이용하여, 고해상 탐사자료를 디지털로 취득하고 이를 자료 처리하여 탄성파 단면도를 제작하였다 이러한 시험 자료취득은 지난 수년간 다른 목적의 연구와 병행하여 포항근해, 황해 그리고 경기만에서 수행되었다. 취득된 자료에 기본적인 자료처리가 적용되었는데 그 과정에는 이득회수, 디콘볼루션, 필터링, 동보정, 정보정, 공통 중간점 분류와 중합이 포함되었다. 자료처리된 단면도들의 예를 아날로그 기록과 비교하여 나타내었다. 자료처리 후 디지털 단면기록의 해상도는 크게 향상되었다. 취득 및 처리 결과는 소형 에어건, 6채널 스트리머와 PC기반 시스템을 이용한 고해상 천부 해저 탄성파탐사가 정밀한 지하구조 파악에 효과적임을 보여준다.

  • PDF

키워드 자동 생성에 대한 새로운 접근법: 역 벡터공간모델을 이용한 키워드 할당 방법 (A New Approach to Automatic Keyword Generation Using Inverse Vector Space Model)

  • 조원진;노상규;윤지영;박진수
    • Asia pacific journal of information systems
    • /
    • 제21권1호
    • /
    • pp.103-122
    • /
    • 2011
  • Recently, numerous documents have been made available electronically. Internet search engines and digital libraries commonly return query results containing hundreds or even thousands of documents. In this situation, it is virtually impossible for users to examine complete documents to determine whether they might be useful for them. For this reason, some on-line documents are accompanied by a list of keywords specified by the authors in an effort to guide the users by facilitating the filtering process. In this way, a set of keywords is often considered a condensed version of the whole document and therefore plays an important role for document retrieval, Web page retrieval, document clustering, summarization, text mining, and so on. Since many academic journals ask the authors to provide a list of five or six keywords on the first page of an article, keywords are most familiar in the context of journal articles. However, many other types of documents could not benefit from the use of keywords, including Web pages, email messages, news reports, magazine articles, and business papers. Although the potential benefit is large, the implementation itself is the obstacle; manually assigning keywords to all documents is a daunting task, or even impractical in that it is extremely tedious and time-consuming requiring a certain level of domain knowledge. Therefore, it is highly desirable to automate the keyword generation process. There are mainly two approaches to achieving this aim: keyword assignment approach and keyword extraction approach. Both approaches use machine learning methods and require, for training purposes, a set of documents with keywords already attached. In the former approach, there is a given set of vocabulary, and the aim is to match them to the texts. In other words, the keywords assignment approach seeks to select the words from a controlled vocabulary that best describes a document. Although this approach is domain dependent and is not easy to transfer and expand, it can generate implicit keywords that do not appear in a document. On the other hand, in the latter approach, the aim is to extract keywords with respect to their relevance in the text without prior vocabulary. In this approach, automatic keyword generation is treated as a classification task, and keywords are commonly extracted based on supervised learning techniques. Thus, keyword extraction algorithms classify candidate keywords in a document into positive or negative examples. Several systems such as Extractor and Kea were developed using keyword extraction approach. Most indicative words in a document are selected as keywords for that document and as a result, keywords extraction is limited to terms that appear in the document. Therefore, keywords extraction cannot generate implicit keywords that are not included in a document. According to the experiment results of Turney, about 64% to 90% of keywords assigned by the authors can be found in the full text of an article. Inversely, it also means that 10% to 36% of the keywords assigned by the authors do not appear in the article, which cannot be generated through keyword extraction algorithms. Our preliminary experiment result also shows that 37% of keywords assigned by the authors are not included in the full text. This is the reason why we have decided to adopt the keyword assignment approach. In this paper, we propose a new approach for automatic keyword assignment namely IVSM(Inverse Vector Space Model). The model is based on a vector space model. which is a conventional information retrieval model that represents documents and queries by vectors in a multidimensional space. IVSM generates an appropriate keyword set for a specific document by measuring the distance between the document and the keyword sets. The keyword assignment process of IVSM is as follows: (1) calculating the vector length of each keyword set based on each keyword weight; (2) preprocessing and parsing a target document that does not have keywords; (3) calculating the vector length of the target document based on the term frequency; (4) measuring the cosine similarity between each keyword set and the target document; and (5) generating keywords that have high similarity scores. Two keyword generation systems were implemented applying IVSM: IVSM system for Web-based community service and stand-alone IVSM system. Firstly, the IVSM system is implemented in a community service for sharing knowledge and opinions on current trends such as fashion, movies, social problems, and health information. The stand-alone IVSM system is dedicated to generating keywords for academic papers, and, indeed, it has been tested through a number of academic papers including those published by the Korean Association of Shipping and Logistics, the Korea Research Academy of Distribution Information, the Korea Logistics Society, the Korea Logistics Research Association, and the Korea Port Economic Association. We measured the performance of IVSM by the number of matches between the IVSM-generated keywords and the author-assigned keywords. According to our experiment, the precisions of IVSM applied to Web-based community service and academic journals were 0.75 and 0.71, respectively. The performance of both systems is much better than that of baseline systems that generate keywords based on simple probability. Also, IVSM shows comparable performance to Extractor that is a representative system of keyword extraction approach developed by Turney. As electronic documents increase, we expect that IVSM proposed in this paper can be applied to many electronic documents in Web-based community and digital library.