• 제목/요약/키워드: e-Navigation

검색결과 969건 처리시간 0.043초

Deep Learning-based Depth Map Estimation: A Review

  • Abdullah, Jan;Safran, Khan;Suyoung, Seo
    • 대한원격탐사학회지
    • /
    • 제39권1호
    • /
    • pp.1-21
    • /
    • 2023
  • In this technically advanced era, we are surrounded by smartphones, computers, and cameras, which help us to store visual information in 2D image planes. However, such images lack 3D spatial information about the scene, which is very useful for scientists, surveyors, engineers, and even robots. To tackle such problems, depth maps are generated for respective image planes. Depth maps or depth images are single image metric which carries the information in three-dimensional axes, i.e., xyz coordinates, where z is the object's distance from camera axes. For many applications, including augmented reality, object tracking, segmentation, scene reconstruction, distance measurement, autonomous navigation, and autonomous driving, depth estimation is a fundamental task. Much of the work has been done to calculate depth maps. We reviewed the status of depth map estimation using different techniques from several papers, study areas, and models applied over the last 20 years. We surveyed different depth-mapping techniques based on traditional ways and newly developed deep-learning methods. The primary purpose of this study is to present a detailed review of the state-of-the-art traditional depth mapping techniques and recent deep learning methodologies. This study encompasses the critical points of each method from different perspectives, like datasets, procedures performed, types of algorithms, loss functions, and well-known evaluation metrics. Similarly, this paper also discusses the subdomains in each method, like supervised, unsupervised, and semi-supervised methods. We also elaborate on the challenges of different methods. At the conclusion of this study, we discussed new ideas for future research and studies in depth map research.

Initial experience with Scepter Mini dual lumen balloon for embolization of cerebrovascular diseases

  • Muhammad U Manzoor;Ibrahim A. Almulhim;Abdullah A. Alrashed;Shorog Althubait;Abdulrahman Y. Alturki;Sultan M. Al-Qahtani
    • Journal of Cerebrovascular and Endovascular Neurosurgery
    • /
    • 제25권2호
    • /
    • pp.175-181
    • /
    • 2023
  • Objective: Endovascular treatment of cerebrovascular diseases is often challenging due to small caliber, tortuous distal vessels. Several devices and techniques have evolved to overcome these challenges. Recently, a low profile dual lumen microballoon catheter, specifically designed for distal navigation is employed for neurovascular procedures. Due to its recent advent, scarce data is available on clinical utility and safety of Scepter Mini. The aim of this case series is to report our initial experience with Scepter Mini in the management of various cerebrovascular diseases. Methods: All interventional neurovascular cases performed using Scepter Mini between January 2020 till April 2021 were included. Data regarding patient demographics, procedural details and complications was retrospectively collected from patient's electronic medical record and procedure reports. Results: Total twelve embolization procedures were performed in eleven patients, including six brain arteriovenous malformation, two dural arteriovenous fistula, one vein of Galen malformation and three hyper-vascular glomus tumor embolizations. All procedures were successfully performed with adequate penetration of the embolic agent. Complete embolization was performed in six procedures, while intended partial embolization was performed in the rest of procedures. Scepter Mini was solely used in ten procedures, however in the other two embolization procedures it was used as an additional conjunct tool to complete the intended embolization. No balloon related complication was observed in any procedure. Conclusions: Scepter Mini dual lumen microballoon catheter is safe and feasible for delivery of liquid embolic agents for cerebrovascular embolization procedures.

한반도 지역에서의 상층중력장 (External Gravity Field in the Korean Peninsula Area)

  • 정애영;최광선;이영철;이정모
    • 자원환경지질
    • /
    • 제48권6호
    • /
    • pp.451-465
    • /
    • 2015
  • 주변 해역을 포함한 한반도 일원에서 측정된 중력자료로부터 상층중력의 고도이상(free-air anomaly)을 계산하였다. 주변 영역에서는 인접국가가 발표한 중력자료가 있는 경우 발표된 자료를 이용하였으며, 없는 경우 EGM2008(Earth Gravitational Model 2008)로부터 계산한 고도이상을 이용하였다. 중력의 상향연속은 Dragomir가 제안한 방법으로 계산하였다. 상층중력 고도이상 계산의 정확성과 계산 속도를 고려하여 적분반경은 계산 고도의 10배로 하였다. 적분에 필요한 측지선의 거리는 Bowring이 개발한 공식을 사용하였다. 위도 $33^{\circ}N{\sim}43^{\circ}N$, 경도 $124^{\circ}E{\sim}131^{\circ}E$에서 계산된 고도이상은 고도 1 km에서 -41.315에서 189.327 mgal까지 변화하고 표준 편차는 22.612 mgal이다. 고도 3 km에서는 -36.478에서 156.209 mgal까지 변화하고 표준 편차는 20.641 mgal이다. 고도 1,000 km에서는 3.170에서 5.864 mgal까지 변화하고 표준 편차는 0.670 mgal이다. 3 km 고도에서 계산된 고도이상을 같은 높이에서 측정한 항공 중력 고도이상과 비교하였다. 이들의 rms 오차는 3.88 mgal로 나타났다. 항공 중력 측정 교차점오차가 2.2 mgal 임을 고려하면 이들 오차에 의미를 부여할 수 없으며, 원인으로는 이번 연구에서 발생한 계산상 오차와 함께/또는 발표된 항공중력의 보정오차에 기인하는 것으로 사료된다. 상층중력 고도이상에 완전식으로 계산한 지구타원체 외부의 정규중력을 더하여 상층중력을 예측하였다. 이번 연구에서 국내 최초로 계산한 고도에 따른 상층중력 고도이상은 한반도 일원의 상층중력장을 잘 표현하고 있는 것으로 보이며, 상층중력장은 관성항법장치의 정확도 향상 등에 이용될 수 있을 것이다.

국내 GNSS 관측 자료를 이용한 전리권 총전자밀도 산출 시스템 구축 (Construction of Ionospheric TEC Retrieval System Using Korean GNSS Network)

  • 이정덕;신대윤;김도형;오승준
    • 한국위성정보통신학회논문지
    • /
    • 제7권3호
    • /
    • pp.30-34
    • /
    • 2012
  • 기상청 국가기상위성센터에서는 우주기상 업무의 일환으로 국내 GNSS 관측자료를 이용한 기상 및 우주기상 활용체계를 구축하였다. 본 연구에서는 국내 GNSS 관측망 자료를 이용한 준실시간 전리권 총전자밀도(TEC) 산출 시스템을 소개하고 산출된 결과를 제시하고자 한다. 국가기상위성센터의 준실시간 전리권 총전자밀도 산출 시스템에서는 국가지리정보원, 한국천문연구원, 위성항법 중앙사무소 및 기상청, 총 80여개의 GNSS 관측자료를 수집하고, 수집된 자료에 대하여 24시간 시간 창 기법(Time Windowing Method)을 적용하여 각 지점별 전리권 TEC 자료를 매시간 산출하고, 산출된 각 지점별 IPP(Ionospheric Pierce Point)에서의 TEC 값을 반스 내삽(Barnes Interpolation)을 사용하여 한반도 상공의 전리권 총전자밀도 격자자료를 생성하였다. 생성된 TEC 격자값을 IGS(International GNSS Service)에서 제공하는 전지구 전리권 총전자밀도 지도와 비교한 결과 한반도 상공의 전리권 상태를 더 잘 기술할 수 있음을 보였다.

제한적 인지 데이터에 기초한 에이전트 움직임-데이터 궤적의 인간다움 (Human-likeness of an Agent's Movement-Data Loci based on Realistically Limited Perception Data)

  • 한창희;김원일
    • 전자공학회논문지CI
    • /
    • 제47권4호
    • /
    • pp.1-10
    • /
    • 2010
  • 본 논문의 목적은 제한적 인지에 기초한 가상인간 에이전트의 움직임-데이터 궤적이 인간과 유사하다는 것을 보이는 것이다. 이 움직임-데이터 궤적의 인간 유사성을 결정하기 위해서, 우리는 두 파라미터들 -사실적으로 제한된 인지(RLP: Realistically Limited Perception) 데이터와 점증적 움직임 경로 데이터의 생성 (IMPG: Incremental Movement-Path Generation)- 사이의 상호작용을 활용한다. 즉, 어떻게 전자인 인간사고 혹은 그 구성요소의 모의 파라미터(즉 RLP 데이터)가 후자인 인간 움직임-데이터 궤적의 모의 파라미터(즉 IMPG 데이터)를 지배하는지를 에이전트 움직임-데이터 궤적에서 고찰하는 것이다. 지도 제작 DB는 인지와 움직임 경로-데이터 생성 사이의 인터페이스이므로, 에이전트에게 항해를 위해 필요한 선결 요소이다. Hill과 동료들에 의해 RLP에 의한 지도 DB 제작은 연구되었지만, 이러한 기존의 연구들은 단지 렌더링 카메라의 시점 데이터의 변화에 의해서만 수행되었다. 이에 비해 본 논문에서는 Hill의 지도 DB 제작 모듈을 에이전트 시스템에 통합하여 예기치 않은 적 출현을 수반한 정찰 임무 상에서 두 파라미터 데이터간의 상호작용을 고찰하였다. 인간 피실험자와 에이전트에 의해 생성된 움직임 데이터의 궤적들이 서로 비교되었다. 비록 에이전트 움직임-데이터 궤적의 인간유사성이 두개의 파라미터 데이터들(즉 RLP와 IMPG)과 단지 30명의 피실험자들로 얻어진 파일럿실험(pilot-test)의 결과이지만, 본 연구의 에이전트 시스템은 인간과 유사한 움직임-데이터를 생성하기 위한 최소한의 기능적인 테스트베드(functional testbed)가 될 수 있음을 입증하였다.

사용자 중심의 웹 기반 제품 사용경험 인증·평가 시스템 개발 (Development of a Web-based User Experience Certification System based on User-centered System Design Approach)

  • 나주연;김지희;정성욱;이동현;이철;반상우
    • 한국전자거래학회지
    • /
    • 제24권1호
    • /
    • pp.29-48
    • /
    • 2019
  • 최근 기업 간 기술격차 해소로 사용경험 개선을 위한 제품 디자인 혁신이 기업 경쟁력의 핵심 요소로 인식되고 있으나 국내 중소 중견 기업들의 사용경험 평가 지원을 위한 서비스 시스템 개발은 미흡한 실정이다. 본 연구는 국내 중소 중견 제조기업의 차별적인 제품 설계를 지원하기 위한 사용자 관점의 웹 기반 제품 사용경험 인증 평가 시스템 개발을 목표로 한다. 사용자 중심의 웹기반 시스템의 인터페이스 설계를 위해 사용자의 기능적 요구사항을 파악한 후, 이를 바탕으로 사용자 중심의 워크플로우 분석, 사용자별 태스크 정의, 사용자 니즈를 고려한 기능 정의를 수행 하였으며 최종적으로 주요 메뉴를 구성해 시스템을 설계하였다. 본 연구를 통해 개발된 사용경험 인증 평가 시스템은 사용자별 인터랙션을 고려해 설계되었으며, 특히 평가 효율화 데이터베이스를 통해 일정 수준 이상의 사용경험 평가 프로세스 수행을 지원하고, 지식 데이터베이스를 제공하여 평가 설계 및 제품 개선에 활용할 수 있도록 하였다. 본 연구를 통해 개발된 서비스 플랫폼은 사용경험 평가를 수행하는 컨설팅업체와 사용경험 평가에 어려움을 겪고 있는 중소 중견기업을 연결함으로써 기업의 실질적 사용경험 평가를 지원하고 자체적인 제품 개발 역량 제고에 기여할 수 있을 것으로 기대된다.

쇼핑 웹사이트 탐색 유형과 방문 패턴 분석 (Analysis of shopping website visit types and shopping pattern)

  • 최경빈;남기환
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.85-107
    • /
    • 2019
  • 온라인 소비자는 쇼핑 웹사이트에서 특정 제품군이나 브랜드에 속한 제품들을 둘러보고 구매를 진행할 수 있고, 혹은 단순히 넓은 범위의 탐색 반경을 보이며 여러 페이지들을 돌아보다 구매를 진행하지 않고 이탈할 수 있다. 이러한 온라인 소비자의 행동과 구매에 관련된 연구는 꾸준히 진행되어왔으며, 실무에서도 소비자들의 행동 데이터를 바탕으로 한 서비스 및 어플리케이션이 개발되고 있다. 최근에는 빅데이터 기술의 발달로 소비자 개인 단위의 맞춤화 전략 및 추천 시스템이 활용되고 있으며 사용자의 쇼핑 경험을 최적화하기 위한 시도가 진행되고 있다. 하지만 이와 같은 시도에도 온라인 소비자가 실제로 웹사이트를 방문해 제품 구매 단계까지 전환될 확률은 매우 낮은 실정이다. 이는 온라인 소비자들이 단지 제품 구매를 위해 웹사이트를 방문하는 것이 아니라 그들의 쇼핑 동기 및 목적에 따라 웹사이트를 다르게 활용하고 탐색하기 때문이다. 따라서 단지 구매가 진행되는 방문 외에도 다양한 방문 형태를 분석하는 것은 온라인 소비자들의 행동을 이해하는데 중요하다고 할 수 있다. 이러한 관점에서 본 연구에서는 온라인 소비자의 탐색 행동의 다양성과 복잡성을 설명하기 위해 실제 E-commerce 기업의 클릭스트림 데이터를 기반으로 세션 단위의 클러스터링 분석을 진행해 탐색 행동을 유형화하였다. 이를 통해 각 유형별로 상세 단위의 탐색 행동과 구매 여부가 차이가 있음을 확인하였다. 또한 소비자 개인이 여러 방문에 걸친 일련의 탐색 유형에 대한 패턴을 분석하기 위해 순차 패턴 마이닝 기법을 활용하였으며, 같은 기간 내에 제품 구매까지 완료한 소비자와 구매를 진행하지 않은 채 방문만 진행한 소비자들의 탐색패턴에 대한 차이를 확인할 수 있었다. 본 연구의 시사점은 대규모의 클릭스트림 데이터를 활용해 온라인 소비자의 탐색 유형을 분석하고 이에 대한 패턴을 분석해 구매 과정 상의 행동을 데이터 기반으로 설명하였다는 점에 있다. 또한 온라인 소매 기업은 다양한 형태의 탐색 유형에 맞는 마케팅 전략 및 추천을 통해 구매 전환 개선을 시도할 수 있으며, 소비자의 탐색 패턴의 변화를 통해 전략의 효과를 평가할 수 있을 것이다.

집단지성 기반 학습자료 북마킹 서비스 시스템 (Learning Material Bookmarking Service based on Collective Intelligence)

  • 장진철;정석환;이슬기;정치훈;윤완철;이문용
    • 지능정보연구
    • /
    • 제20권2호
    • /
    • pp.179-192
    • /
    • 2014
  • 최근 IT 환경의 변화에 따라 웹 서비스를 기반으로 대규모 사용자 대상의 상호 참여적인 MOOC(Massive Open Online Courses)과 같은 온라인 교육 환경이 부상하고 있다. 그러나 온라인 교육 시스템은 원거리로 학습이 이루어짐에 따라 학습자의 자발적 동기를 꾸준히 유지하기 어려우며, 또한 학습자 간에 지식을 공유하고 공유한 지식을 활용하는 기능이 부족하다. 이러한 문제를 극복하기 위해 구성주의적 학습이론과 집단지성에 기반하여 학습자가 보유한 학습자료를 공유하고 개인화된 학습자료 추천을 받을 수 있는 학습자료 북마킹 서비스인 WeStudy를 구현하였다. 위키피디아(Wikipedia), 슬라이드쉐어 (SlideShare), 비디오렉쳐스 (VideoLectures) 등 현존하는 집단지성 기반 서비스들의 주요 기능으로부터 필요한 집단지성 기능들을 검토하였으며, 본 서비스의 주요 기능으로 1) 리스트 및 그래프 형태의 학습자료 리스트 시각화, 2) 개인화된 학습자료 추천, 3) 보다 상세한 학습자료 추천을 위한 관심 학습자 지정 등을 도출하여 시스템을 설계하였다. 이후, 웹 기반으로 구현된 세 가지 주요기능 별로 개량된 휴리스틱 사용성 평가 방법을 통해 개발된 시스템의 사용성 평가를 실시하였다. 10명의 HCI 분야 전공자 및 현업 종사자를 대상으로 정량적 및 정성적인 평가 결과, 세 가지의 주요 기능에서 전반적으로 사용성이 우수한 것으로 판정되었다. 주요 기능 별 정성적인 평가에서 도출된 여러 마이너 이슈들을 반영할 필요가 있으며, 향후 대규모 사용자를 대상으로 본 서비스를 보급하고 이용할 수 있도록 제공하여 자발적인 지식 공유 환경을 조성할 수 있을 것으로 전망된다.

Hardware Approach to Fuzzy Inference―ASIC and RISC―

  • Watanabe, Hiroyuki
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 1993년도 Fifth International Fuzzy Systems Association World Congress 93
    • /
    • pp.975-976
    • /
    • 1993
  • This talk presents the overview of the author's research and development activities on fuzzy inference hardware. We involved it with two distinct approaches. The first approach is to use application specific integrated circuits (ASIC) technology. The fuzzy inference method is directly implemented in silicon. The second approach, which is in its preliminary stage, is to use more conventional microprocessor architecture. Here, we use a quantitative technique used by designer of reduced instruction set computer (RISC) to modify an architecture of a microprocessor. In the ASIC approach, we implemented the most widely used fuzzy inference mechanism directly on silicon. The mechanism is beaded on a max-min compositional rule of inference, and Mandami's method of fuzzy implication. The two VLSI fuzzy inference chips are designed, fabricated, and fully tested. Both used a full-custom CMOS technology. The second and more claborate chip was designed at the University of North Carolina(U C) in cooperation with MCNC. Both VLSI chips had muliple datapaths for rule digital fuzzy inference chips had multiple datapaths for rule evaluation, and they executed multiple fuzzy if-then rules in parallel. The AT & T chip is the first digital fuzzy inference chip in the world. It ran with a 20 MHz clock cycle and achieved an approximately 80.000 Fuzzy Logical inferences Per Second (FLIPS). It stored and executed 16 fuzzy if-then rules. Since it was designed as a proof of concept prototype chip, it had minimal amount of peripheral logic for system integration. UNC/MCNC chip consists of 688,131 transistors of which 476,160 are used for RAM memory. It ran with a 10 MHz clock cycle. The chip has a 3-staged pipeline and initiates a computation of new inference every 64 cycle. This chip achieved an approximately 160,000 FLIPS. The new architecture have the following important improvements from the AT & T chip: Programmable rule set memory (RAM). On-chip fuzzification operation by a table lookup method. On-chip defuzzification operation by a centroid method. Reconfigurable architecture for processing two rule formats. RAM/datapath redundancy for higher yield It can store and execute 51 if-then rule of the following format: IF A and B and C and D Then Do E, and Then Do F. With this format, the chip takes four inputs and produces two outputs. By software reconfiguration, it can store and execute 102 if-then rules of the following simpler format using the same datapath: IF A and B Then Do E. With this format the chip takes two inputs and produces one outputs. We have built two VME-bus board systems based on this chip for Oak Ridge National Laboratory (ORNL). The board is now installed in a robot at ORNL. Researchers uses this board for experiment in autonomous robot navigation. The Fuzzy Logic system board places the Fuzzy chip into a VMEbus environment. High level C language functions hide the operational details of the board from the applications programme . The programmer treats rule memories and fuzzification function memories as local structures passed as parameters to the C functions. ASIC fuzzy inference hardware is extremely fast, but they are limited in generality. Many aspects of the design are limited or fixed. We have proposed to designing a are limited or fixed. We have proposed to designing a fuzzy information processor as an application specific processor using a quantitative approach. The quantitative approach was developed by RISC designers. In effect, we are interested in evaluating the effectiveness of a specialized RISC processor for fuzzy information processing. As the first step, we measured the possible speed-up of a fuzzy inference program based on if-then rules by an introduction of specialized instructions, i.e., min and max instructions. The minimum and maximum operations are heavily used in fuzzy logic applications as fuzzy intersection and union. We performed measurements using a MIPS R3000 as a base micropro essor. The initial result is encouraging. We can achieve as high as a 2.5 increase in inference speed if the R3000 had min and max instructions. Also, they are useful for speeding up other fuzzy operations such as bounded product and bounded sum. The embedded processor's main task is to control some device or process. It usually runs a single or a embedded processer to create an embedded processor for fuzzy control is very effective. Table I shows the measured speed of the inference by a MIPS R3000 microprocessor, a fictitious MIPS R3000 microprocessor with min and max instructions, and a UNC/MCNC ASIC fuzzy inference chip. The software that used on microprocessors is a simulator of the ASIC chip. The first row is the computation time in seconds of 6000 inferences using 51 rules where each fuzzy set is represented by an array of 64 elements. The second row is the time required to perform a single inference. The last row is the fuzzy logical inferences per second (FLIPS) measured for ach device. There is a large gap in run time between the ASIC and software approaches even if we resort to a specialized fuzzy microprocessor. As for design time and cost, these two approaches represent two extremes. An ASIC approach is extremely expensive. It is, therefore, an important research topic to design a specialized computing architecture for fuzzy applications that falls between these two extremes both in run time and design time/cost. TABLEI INFERENCE TIME BY 51 RULES {{{{Time }}{{MIPS R3000 }}{{ASIC }}{{Regular }}{{With min/mix }}{{6000 inference 1 inference FLIPS }}{{125s 20.8ms 48 }}{{49s 8.2ms 122 }}{{0.0038s 6.4㎲ 156,250 }} }}

  • PDF

사회과학 연구에 있어 인터넷 및 상업용 통신망을 이용한 전자설문 조사방법의 활용 (Toward a Social Sciences Methodology for Electronic Survey Research on the Internet or Personal Computer check)

  • 홍용기;이홍기;채수경
    • 경영과정보연구
    • /
    • 제3권
    • /
    • pp.287-316
    • /
    • 1999
  • Cyberspace permits us to more beyond traditional face-to-face, mail and telephone surveys, yet still to examine basic issues regarding the quality of data collection: sampling, questionnaire design, survey distribution, means of response, and database creation. This article address each of these issues by contrasting and comparing traditional survey methods(Paper-and-Pencil) with Internet or Personal Computer networks-mediated (Screen-and-Keyboard) survey methods also introduces researchers to this revolutionary and innovative tool and outlines a variety of practical methods for using the Internet or Personal Computer Networks. The revolution in telecommunications technology has fostered the rapid growth of the Internet all over the world. The Internet is a massive global network and comprising many national and international networks of interconnected computers. The Internet or Personal Computer Networks could be the comprehensive interactive tool that will facilitate the development of the skills. The Internet or Personal Computer Networks provides a virtual frontier to expand our access to information and to increase our knowledge and understanding of public opinion, political behavior, social trends and lifestyles through survey research. Comparable to other technological advancements, the Internet or Personal Computer Networks presents opportunities that will impact significantly on the process and quality of survey research now and in the twenty-first century. There are trade-offs between traditional and the Internet or Personal Computer Networks survey. The Internet or Personal Computer Networks is an important channel for obtaining information for target participants. The cost savings in time, efforts, and material were substantial. The use of the Internet or Personal Computer Networks survey tool will increase the quality of research environment. There are several limitations to the Internet or Personal Computer Network survey approach. It requires the researcher to be familiar with Internet navigation and E-mail, it is essential for this process. The use of Listserv and Newsgroup result in a biased sample of the population of corporate trainers. However, it is this group that participates in technology and is in the fore front of shaping the new organizations of interest, and therefore it consists of appropriate participants. If this survey method becomes popular and is too frequently used, potential respondents may become as annoyed with E-mail as the sometimes are with mail survey and junk mail. Being a member of the Listserv of Newsgroup may moderate that reaction. There is a need to determine efficient, effective ways for the researcher to strip identifiers from E-mail, so that respondents remain anonymous, while simultaneously blocking a respondent from responding to a particular survey instrument more than once. The optimum process would be on that is initiated by the researcher : simple, fast and inexpensive to administer and has credibility with respondents. This would protect the legitimacy of the sample and anonymity. Creating attractive Internet or Personal Computer Networks survey formats that build on the strengths of standardized structures but also capitalize on the dynamic and interactive capability of the medium. Without such innovations in survey design, it is difficult to imagine why potential survey respondents would use their time to answer questions. More must be done to create diverse and exciting ways of building an credibility between respondents and researchers on the Internet or Personal Computer Networks. We believe that the future of much exciting research is based in the Electronic survey research. The ability to communicate across distance, time, and national boundaries offers great possibilities for studying the ways in which technology and technological discourse are shaped. used, and disseminated ; the many recent doctoral dissertations that treat some aspect of electronic survey research testify to the increase focus on the Internet or Personal Computer Networks. Thus, scholars should begin a serious conversation about the methodological issues of conducting research In cyberspace. Of all the disciplines, Internet or Personal Computer Networks, emphasis on the relationship between technology and human communication, should take the lead in considering research in the cyberspace.

  • PDF