• 제목/요약/키워드: Port similarity

검색결과 38건 처리시간 0.029초

한-유럽 복합운송 경로선택에 관한 연구 중국-유럽 화물열차를 중심으로 (Multimodal Route Selection from Korea to Europe Using Fuzzy AHP-TOPSIS Approaches: The Perspective of the China-Railway Express)

  • 왕관;안승범
    • 한국항만경제학회지
    • /
    • 제37권4호
    • /
    • pp.13-31
    • /
    • 2021
  • 2011년 한-유럽 FTA 체결 이후 두 지역의 거래액은 증가일로에 있으며 전체 시장은 지속적으로 확대되고 있다. 여러 운송수단을 이용하는 복합국제운송에 대한 관심이 늘어나며 기존의 해운운송 위주의 운송 방식에서 철도를 포함한 두 가지 이상의 운송수단을 사용하는 다중운송경로를 통한 운송이 확대되고 있다. COVID-19의 영향으로 2019년 세계 화물 시장이 타격을 받았는데 특히 해상 및 항공 노선의 급격한 제한에 기인하고 한국의 대유럽 수출도 감소하였다. 이러한 영향에도 2020년 CRE(China Railway Express) 화물 열차의 총 수는 2016년 대비 7.3배 증가한 12,406개 노선으로 전년 대비 50% 증가하였다. 철도를 이용한 육상기반의 화물운송에 대한 연구는 꾸준히 있어 왔으나 한국과 유럽의 운송노선에 대한 연구는 TSR(Trans Siberian Railway), 수에즈 해운(Suez Shipping), 기존 TCR(Trans China Railway) 노선에 국한되었다. 본 논문은 중국에서의 일대일로 구상에 따라 최근 변화를 겪고있는 실크로드의 핵심에 초점을 맞추어 중국-유럽 화물열차(CRE)를 대상으로 연구를 진행하였다. Fuzzy-AHP는 한국에서 유럽으로 가는 국제 복합항로 선정 시 요인의 우선순위를 결정하는데 사용하였으며 중국과 한국의 전문가 설문조사를 통해 결과를 도출하였다. 요인 선정 후 TOPSIS 방법을 적용하여 계획된 3개의 경로를 순위화하였다. 그 결과 총비용, 총시간, 서비스 신뢰도가 CRE 기반 복합운송을 선택할 때 의사결정자가 고려하는 요소로 나타났다. 또한, 주요 3개 복합운송노선에서 Route 1(인천-대련-만주-함부르크) 노선이 최적 노선이고 Route 2(인천-리차오-얼롄하오터-함부르크)와 Route 3(인천-롄윈강-시안-함부르크) 순서로 나타났다.

최적 교통분포를 고려한 해상교량의 안전 통항 폭에 관한 연구 (A Study on the Safety Navigational Width of Bridges Across Waterways Considering Optimal Traffic Distribution)

  • 손우주;문지하;구정민;조익순
    • 한국항해항만학회지
    • /
    • 제46권4호
    • /
    • pp.303-312
    • /
    • 2022
  • 해상교량은 선박의 통항 안전성 관점에서 가항수역을 줄이는 간섭요인으로 작용한다. 본 연구에서는 선박의 안전한 통항을 위해 최적 통항분포에 기반한 안전 통항폭을 분석하였다. 해상교량을 통항하는 선박의 안전 통항 폭에 대한 분석을 위해 AIS data에 기반한 선박교통분포를 조사하여 K-means clustering을 통해 선박을 크기에 따라 분류하였다. 군집화된 데이터에 대하여 최적분포 분석을 한 결과, 인천대교와 부산항대교에서는 대수정규분포, 목포대교와 마창대교에서는 정규분포가 최적분포에 가까운 것으로 분석되었다. 대수정규분포와 정규분포를 기준으로 선박 안전 통항 범위를 신뢰구간의 95%로 가정하여 분석한 결과, 인천대교의 경우 정규분포와 대수정규분포 간의 차이가 64~97m로 가장 큰 것으로 나타났으며, 최소 차이는 10m로 마창대교에서 나타났다. 이에 따라, 인천대교의 경우에는 정규분포보다 대수정규분포로 안전 통항 폭을 제시하는 것이 적합한 것으로 분석되었다. 타 교량의 경우에는 정규분포와 대수정규분포 간의 통항 폭 차이가 크지 않기 때문에 둘 중 어떤 분포를 사용해도 유사한 결과를 얻을 수 있는 것으로 분석되었다. 위 결과를 토대로, 해상교량의 안전통항 범위를 제시한다면 선박의 안전한 운항 및 사고 예방에 도움이 될 것이다.

국내 연안 해역 선박 항적 군집화를 위한 항적 간 거리 척도 개발 연구 (Research on the Development of Distance Metrics for the Clustering of Vessel Trajectories in Korean Coastal Waters)

  • 이승주;이원희;민지홍;조득재;박현우
    • 한국항해항만학회지
    • /
    • 제47권6호
    • /
    • pp.367-375
    • /
    • 2023
  • 본 연구에서는 국내 연안 해역 환경에서의 해상교통관제 서비스에 기여할 수 있는 항적 간 거리 척도를 개발하였다. 새로운 항적간 거리 척도는 전통적으로 위치 시계열 간의 유사도를 측정하는 데 활용되는 하우스도르프 거리(hausdorff distance)와 두 항적 간의 대지속력(Speed Over Ground, SOG)의 평균 간의 차이, 그리고 대지침로(Course Over Ground)의 분산 간의 차이를 가중합하여 설계되었다. 새로운 척도의 유효성을 검증하기 위하여 실제 AIS 항적 데이터와 병합 군집화 알고리즘을 활용한 기존 항적 간 거리 척도와의 비교 분석이 수행되었으며, 새로운 거리 척도를 활용한 항적 군집화 결과가 하우스도르프 거리(hausdorff distance), 그리고 다이내믹 타임 워핑 거리(Dynamic Time Warping distance) 등 기존 척도에 비해 항적 간 지리적 거리나 대지속도 및 대지침로 등 선박 거동 특성의 분포를 비슷하거나 그 이상의 수준으로 정교하게 반영하고 있음을 데이터 시각화로써 확인하였다. 정량적으로는 Davies-Bouldin 지표를 기준으로, 군집화 결과가 더욱 우수하거나 약간 낮은 수준을 기록한 한편, 거리 계산 효율성에서는 특히 우수함을 실증하였다.

SimulationX를 이용한 부하 감지형 메인 컨트롤밸브의 효율에 관한 연구 (A Study on the Efficiency of a Load Sensing Main Control Valve Using SimulationX)

  • 김동명;이정민;정원지;장주섭
    • 대한기계학회논문집A
    • /
    • 제40권1호
    • /
    • pp.87-95
    • /
    • 2016
  • 본 연구에서는 오픈센터 시스템과 부하 감지형 시스템의 해석모델을 개발하고 시스템의 특성과 효율을 분석하였다. 오픈 센터 방식의 메인 컨트롤 밸브의 압력과 유량 특성을 분석하기 위해 각각의 포트별로 시험을 수행하였다. 시스템의 특성 분석 전 단계에서 시험 결과와 해석 결과를 비교함으로써 해석모델의 신뢰성을 검토하였다. 신뢰성이 검증된 오픈 센터 방식의 메인컨트롤 밸브에 유량 분배 밸브를 추가하여 부하 감지형 메인 컨트롤 밸브의 해석모델을 개발하였다. 두 가지 시스템의 효율을 분석하기 위해 동일한 부하 조건에서 해석을 수행하였으며 각각의 부하 특성에 따른 효율을 검토하였다. 또한, 서로 다른 부하 조건에서 유량 분배 시스템의 특성을 분석함으로써 복합 동작에 대한 성능도 검토 하였다.

크리징 모형을 이용한 서해 설계 기준 조위면의 추정에 관한 연구 (The Estimation of Design Tide Level over the West Coast of Korea Based on the Kriging Model)

  • 이재형
    • 한국수자원학회논문집
    • /
    • 제30권6호
    • /
    • pp.611-620
    • /
    • 1997
  • 4개 주요 검조소의 기본수준점표 설정연혁을 개괄하였다. 이 검조소의 검조의 영점표고, 기본수준고, 그리고 주위기준점(Tidal Bench M막)의 자료를 수집검토하였다. 농어촌진흥공사, 수로국, 항만국 등이 조사한 지역평균 해면고(Local Mean Sea Level)를 비교하여 이들 4개 검조소지점(인천, 군산내.외항, 목포)의 평균해면고로 정의하였다. 기본수준면(DL), 평균해면(MSL), 대조평균만조면(HWOST) 등의 설계조위면을 추정하기 위하여 크리징모형을 소개하였다. 추정한 설계조위면이 표본값을 잘 표현하고 있음을 확인하였다. 이 과정에서 설계조위면의 공간경향이 평가되었으며 설계조위의 획률구조를 대표하는 반-자기분산식 ${\gamma}$(h) 이 얻어졌다. 이 결과에서 설계조위들이 자기상사 특성을 보였다. 즉, 기본수준면과 대조평균만조위의 반-자기분산값은 평균해면의 반-자기분산값의 0.005배였다.

  • PDF

기중성 남세균, Wilmottia murrayi (Oscillatoriales, Cyanobacteria)의 국내 미기록속 및 미기록종에 대한 연구 (A study of newly recorded genus and species for aerial cyanobacteria Wilmottia murrayi(Oscillatoriales, Cyanobacteria) in Korea)

  • 이남주;서요셉;기장서;이옥민
    • 환경생물
    • /
    • 제37권3호
    • /
    • pp.260-267
    • /
    • 2019
  • 국내 금강수계의 하구역에 위치한 하제항 암벽으로부터 기중성 남세균이 채집되어, 단조류 배양되었다. 2개의 남세균 배양주로부터 형태적 형질과 TEM에 의한 세포 미세구조 특징을 관찰하였다. 또한 16S rDNA 염기서열을 규명하여 BLAST 검색, 염기서열 유사도, 유전거리 및 계통분석을 실시하였다. 국내 배양주는 Wilmottia murrayi와 계통학적으로 동일한 clade를 형성하였고, 99% 이상의 유사도를 나타냈다. TEM을 통한 세포 미세구조는 틸라코이드가 여러겹으로 세포막 주변에 분포하는 특징을 나타냄으로써 Coleofasciculaceae과의 특징과 일치하였다. 이상의 결과를 통해 W. murrayi를 국내 미기록속 및 미기록종으로 보고하였다.

Analysis of Empirical Constant of Eddy Viscosity by k-ε and RNG k-ε Turbulence Model in Wake Simulation

  • Park, Il Heum;Cho, Young Jun;Lee, Jong Sup
    • 해양환경안전학회지
    • /
    • 제25권3호
    • /
    • pp.344-353
    • /
    • 2019
  • The wakes behind a square cylinder were simulated using two-equation turbulence models, $k-{\varepsilon}$ and RNG $k-{\varepsilon}$ models. For comparisons between the model predictions and analytical solutions, we employed three skill assessments:, the correlation coefficient for the similarity of the wake shape, the error of maximum velocity difference (EMVD) of the accuracy of wake velocity, and the ratio of drag coefficient (RDC) for the flow patterns as in the authors' previous study. On the basis of the calculated results, we discussed the feasibility of each model for wake simulation and suggested a suitable value for an eddy viscosity related constant in each turbulence model. The $k-{\varepsilon}$ model underestimated the drag coefficient by over 40 %, and its performance was worse than that in the previous study with one-equation and mixing length models, resulting from the empirical constants in the ${\varepsilon}-equation$. In the RNG $k-{\varepsilon}$ model experiments, when an eddy viscosity related constant was six times higher than the suggested value, the model results were yielded good predictions compared with the analytical solutions. Then, the values of EMVD and RDC were 3.8 % and 3.2 %, respectively. The results of the turbulence model simulations indicated that the RNG $k-{\varepsilon}$ model results successfully represented wakes behind the square cylinder, and the mean error for all skill assessments was less than 4 %.

키워드 자동 생성에 대한 새로운 접근법: 역 벡터공간모델을 이용한 키워드 할당 방법 (A New Approach to Automatic Keyword Generation Using Inverse Vector Space Model)

  • 조원진;노상규;윤지영;박진수
    • Asia pacific journal of information systems
    • /
    • 제21권1호
    • /
    • pp.103-122
    • /
    • 2011
  • Recently, numerous documents have been made available electronically. Internet search engines and digital libraries commonly return query results containing hundreds or even thousands of documents. In this situation, it is virtually impossible for users to examine complete documents to determine whether they might be useful for them. For this reason, some on-line documents are accompanied by a list of keywords specified by the authors in an effort to guide the users by facilitating the filtering process. In this way, a set of keywords is often considered a condensed version of the whole document and therefore plays an important role for document retrieval, Web page retrieval, document clustering, summarization, text mining, and so on. Since many academic journals ask the authors to provide a list of five or six keywords on the first page of an article, keywords are most familiar in the context of journal articles. However, many other types of documents could not benefit from the use of keywords, including Web pages, email messages, news reports, magazine articles, and business papers. Although the potential benefit is large, the implementation itself is the obstacle; manually assigning keywords to all documents is a daunting task, or even impractical in that it is extremely tedious and time-consuming requiring a certain level of domain knowledge. Therefore, it is highly desirable to automate the keyword generation process. There are mainly two approaches to achieving this aim: keyword assignment approach and keyword extraction approach. Both approaches use machine learning methods and require, for training purposes, a set of documents with keywords already attached. In the former approach, there is a given set of vocabulary, and the aim is to match them to the texts. In other words, the keywords assignment approach seeks to select the words from a controlled vocabulary that best describes a document. Although this approach is domain dependent and is not easy to transfer and expand, it can generate implicit keywords that do not appear in a document. On the other hand, in the latter approach, the aim is to extract keywords with respect to their relevance in the text without prior vocabulary. In this approach, automatic keyword generation is treated as a classification task, and keywords are commonly extracted based on supervised learning techniques. Thus, keyword extraction algorithms classify candidate keywords in a document into positive or negative examples. Several systems such as Extractor and Kea were developed using keyword extraction approach. Most indicative words in a document are selected as keywords for that document and as a result, keywords extraction is limited to terms that appear in the document. Therefore, keywords extraction cannot generate implicit keywords that are not included in a document. According to the experiment results of Turney, about 64% to 90% of keywords assigned by the authors can be found in the full text of an article. Inversely, it also means that 10% to 36% of the keywords assigned by the authors do not appear in the article, which cannot be generated through keyword extraction algorithms. Our preliminary experiment result also shows that 37% of keywords assigned by the authors are not included in the full text. This is the reason why we have decided to adopt the keyword assignment approach. In this paper, we propose a new approach for automatic keyword assignment namely IVSM(Inverse Vector Space Model). The model is based on a vector space model. which is a conventional information retrieval model that represents documents and queries by vectors in a multidimensional space. IVSM generates an appropriate keyword set for a specific document by measuring the distance between the document and the keyword sets. The keyword assignment process of IVSM is as follows: (1) calculating the vector length of each keyword set based on each keyword weight; (2) preprocessing and parsing a target document that does not have keywords; (3) calculating the vector length of the target document based on the term frequency; (4) measuring the cosine similarity between each keyword set and the target document; and (5) generating keywords that have high similarity scores. Two keyword generation systems were implemented applying IVSM: IVSM system for Web-based community service and stand-alone IVSM system. Firstly, the IVSM system is implemented in a community service for sharing knowledge and opinions on current trends such as fashion, movies, social problems, and health information. The stand-alone IVSM system is dedicated to generating keywords for academic papers, and, indeed, it has been tested through a number of academic papers including those published by the Korean Association of Shipping and Logistics, the Korea Research Academy of Distribution Information, the Korea Logistics Society, the Korea Logistics Research Association, and the Korea Port Economic Association. We measured the performance of IVSM by the number of matches between the IVSM-generated keywords and the author-assigned keywords. According to our experiment, the precisions of IVSM applied to Web-based community service and academic journals were 0.75 and 0.71, respectively. The performance of both systems is much better than that of baseline systems that generate keywords based on simple probability. Also, IVSM shows comparable performance to Extractor that is a representative system of keyword extraction approach developed by Turney. As electronic documents increase, we expect that IVSM proposed in this paper can be applied to many electronic documents in Web-based community and digital library.