| Home | E-Submission | Sitemap | Contact Us
Journal of Korean Society of Coastal and Ocean Engineers > Volume 29(3); 2017 > Article
드론과 광학원격탐사 기법을 이용한 천해 수심측량

요약

드론을 이용하여 고도 100 m에서 촬영한 고해상도 카메라 이미지를 분석하여 천해 해저지형 측량을 시도하였다. 쇄파대 내의 수심측량은 해안침식의 원인분석 등 관련 연구를 위해 가장 중요한 입력자료 중의 하나이다. 특히 이동한계수심 이내의 천해 수심자료는 연안 침퇴적 수치모델링을 위한 가장 중요한 입력자료 임에도 불구하고 정확한 해저지형측량 자료를 얻을 수 없었다. 그 이유는 선박을 이용한 상세 수심측량이 흘수 등을 고려할 때 수심 2 m 이내에서는 거의 불가능하며, 또한 쇄파와 연안류로 인해 선박 또는 사람이 직접 충분한 해상도로 측량하기에 매우 어렵기 때문이다. 따라서 소형 드론과 고해상도 카메라 이미지를 이용한 광학원격탐사는 매우 효과적인 천해수심측량 수단이 될 수 있다. 본 연구에서는 경북 월포해수욕장에서 드론으로 촬영한 고해상도 카메라 이미지의 적색, 녹색, 청색 그리고 회색 밴드 이미지를 다변수 선형회귀분석법으로 분석하여 천해 수심을 추정하고 실측한 수심자료와 비교하여 천해수심측량의 가능성과 정확도를 검토하였다. 드론에서 촬영한 이미지를 해저 지질, 바닷물의 색상, 부유사의 농도 등의 영향을 고려하지 않고 수심추정 알고리즘을 이용하여 분석한 결과 수심 5 m 이내에서 상관계수 0.99 이상, 절대오차 0.2 m 이하로 수심을 정확하게 추정할 수 있음을 확인하였다.

Abstract

Shallow-water bathymetry survey has been conducted using high definition color images obtained at the altitude of 100 m above sea level using a drone. Shallow-water bathymetry data are one of the most important input data for the research of beach erosion problems. Especially, accurate bathymetry data within closure depth are critically important, because most of the interesting phenomena occur in the surf zone. However, it is extremely difficult to obtain accurate bathymetry data due to wave-induced currents and breaking waves in this region. Therefore, optical remote sensing technique using a small drone is considered to be attractive alternative. This paper presents the potential utilization of image processing algorithms using multi-variable linear regression applied to red, green, blue and grey band images for estimating shallow water depth using a drone with HD camera. Optical remote sensing analysis conducted at Wolpo beach showed promising results. Estimated water depths within 5 m showed correlation coefficient of 0.99 and maximum error of 0.2 m compared with water depth surveyed through manual as well as ship-board echo-sounder measurements.

1. 서 론

우리나라 대부분의 해수욕장에서 최근 해안침식이 급격히 진행되고 있다. 해안 침식의 원인을 정확히 분석해야 침식의 저감과 복구가 가능하다. 우리나라에서 해안침식은 겨울철의 폭풍과 여름부터 가을까지 주로 발생되는 태풍 파랑에 의해 간헐적으로 일어난다. 폭풍에 의한 해안침식은 2일 내지 3일 간의 고파랑에 의하여 발생하며, 태풍에 의한 해안침식은 하루 동안 급격히 이루어지기도 한다. 백사장에서 침식된 모래는 보통 수심 2 m 내지 3 m 이내에 연안사주 형태로 퇴적되어 있다가 수주 또는 수개월에 걸쳐 백사장으로 복귀되는 과정을 반복한다. 연안 침퇴적 현상을 이해하기 위해서는 이러한 급격한 천해 해안지형의 변화를 효율적으로 측정할 수 있어야 한다. 침퇴적 수치모델에서 가장 중요한 입력자료는 수심자료이다. 특히 쇄파대 내에서의 정확한 수심자료가 확보되어야 연안 침퇴적 현상을 수치모의할 수 있다.
기존의 해저 수심측량은 선박이 진입할 수 있는 곳에서는 음향측심기를 이용하며, 선박이 들어갈 수 없는 수심 1.5 m 이하의 천해 수심은 사람이 직접 들어가 수준(level)측량을 실시하였다. 특히 쇄파대 영역에서는 파랑이 거의 없을 때를 제외하고는 파랑과 해빈류의 영향으로 정확한 측량을 수행하기 매우 어렵다. 또한 이러한 방법은 비용과 시간이 많이 소요되므로 필요한 시기에 해저지형 측량을 실시하는 것에 많은 어려움이 있다.
이러한 어려움을 극복하기 위해 1970년대부터 원격탐사를 통한 수심 측량이 시도 되어 왔다. 기존 원격탐사는 위성자료, 항공영상 또는 LiDAR를 이용하여 수행되었다. LiDAR를 이용한 수심 측량은 항공기에 탑재된 LiDAR에서 레이저를 쏘아 돌아오는 시간을 측정하여 수심을 측량하는 방법이다(Setter and Willis, 1994; Irish and Lillycrop, 1999). 그러나 LiDAR는 항공기를 이용하는 특성상 비용이 많이 들고 비행허가를 받아야 되므로 필요한 때 간편하게 측량하기에는 어려움이 있다.
한편 1990년대 말 이후 상용화된 탐사 위성(Ikonos, Eros A, Worldview-2 등)의 고해상도 멀티스펙트럼 위성영상이 사용 가능해짐에 따라, 위성영상을 이용한 수심추정 연구가 다수 수행되었다(Stumpf et al., 2003; Hochberg et al., 2003; Jagalingam et al., 2015). 위성영상은 1m에서 1 km까지 다양한 해상도의 영상을 제공하나 수m급의 고해상도 자료는 여전히 높은 가격을 형성하고 있다. 또한 동일 지역을 수 일에 한번 주기로 촬영하고 구름과 같은 기상상태에 따라 분석이 불가능한 경우가 많아 원하는 일시의 자료를 획득하기 어려운 단점이 있다. 이에 따라 기존 원격탐사 자료를 이용한 수심추정은 해안침식 원인분석에 사용할 만큼의 연속된 자료를 축적하기 쉽지 않다.
최근 드론이 보편화됨에 따라 드론에 카메라를 장착하여 촬영한 항공영상을 이용한 수심측량 연구가 수행되고 있다. Holman et al.(2017)은 드론을 이용한 지형측량의 정확도를 검토하였으며, 특히 드론에서 촬영된 해수면 이미지 분석을 통해 수심을 추정하는 방법의 정확도를 제시하였다. 해수면을 촬영한 이미지로부터 파랑의 전파속도를 추정하여 선형 분산방정식으로 수심을 추정하여 95퍼센타일(percentile) 오차가 0.95 m 정도라고 추정하였다. Zinke and Plener(2013)는 드론을 이용하여 촬영한 카메라 이미지를 분석하여 하천유역의 지형 및 수심측량을 수행하였다. 당시의 드론에 장착된 카메라를 고정하는 짐벌의 성능이 좋지 못해 촬영된 이미지의 합성이 정교하지 못함으로 인해 구체적인 정확도를 제시하지는 못하고 수심측량의 가능성만을 제시한 바 있다. 국내에서는 Ahn et al.(2016)이 월포해수욕장에서 드론에서 촬영한 고해상도 카메라의 적색밴드 이미지를 이용하여 수심측량의 가능성을 제시하였다. 이후 Yi et al.(2016)은 경북 울진 후정해수욕장 앞바다에서 드론에서 고해상도 카메라로 촬영한 영상과 선박에서 음향측심기로 측정한 수심자료로 천해수심 측량의 정확도를 제시하였다. 선박에 장착된 음향측심기로 수심 1 m부터 10 m까지를 측정한 후, 인공신경망 알고리즘을 이용하여 적색, 녹색, 청색밴드와 이를 합성한 회색밴드의 조합을 이용한 인공신경망 수심추정이 선형상관계수 0.97, RMS 오차 0.63 m 수준임을 제시하였다. 인공신경망 이론은 일종의 블랙박스 알고리즘으로 입력자료의 정확성에 따라 출력자료를 최적화 일치시키는 방법이므로 물리적인 해석이 불가능한 단점이 있다.
본 논문에서는 드론에 의해 해상고도 100 m에서 촬영한 고해상도 카메라 이미지 자료로 추정된 수심과 측량된 수심자료를 비교하여 정확도를 검증하였다. 수심 1.5 m까지는 사람이 직접 측량하였으며 수심 9m까지는 선박에서 음향측심기로 측정하였다. 고해상도 카메라 이미지의 적색, 녹색, 청색 및 회색 밴드의 흡수율 및 반사율의 차이에 의한 수심에의 영향을 이해하기 위해 다변수 선형회귀분석법을 활용하였다.

2. 이론적 배경

비어-람버트 법칙(Beer-Lambert Law)은 물을 투과하는 빛이 물에 흡수되어 빛의 세기가 약해지는 것을 설명한다. Eq. (1)은 비어-람버트 법칙에서 유도된 수심추정 모델이다. 여기서 I는 측정기기에서 감지된 빛의 세기, Iw는 해수면에서 반사되는 빛의 세기, I0는 해수면에서 투과되어 해저면에서 반사되는 빛의 세기이다. β는 흡수계수로 맑은 물에서는 빛의 주파수에 따라 값이 정해진다.
(1)
I=I0eβz+Iw
Eq. (1)은 Eq. (2)와 같이 수심에 대해 나타낼 수 있다.
(2)
z={ln(I0)ln(IIw)}/β
드론 항공영상 이미지는 적색, 녹색, 청색의 가시광선 주파수대역의 밴드로 이루어져 있으며, 이미지의 픽셀값은 빛의 세기에 비례한 값을 갖는다. 그러나 Eq. (2)를 항공영상에 그대로 적용하는 것은 어렵다. 해저질, 바닷물의 색상 및 탁도, 대기의 상태, 태양의 고도 등에 따라 흡수계수 β는 다른 값을 갖는다. 또한 해수면에서 반사와 투과되는 빛의 세기의 비율도 변하게 된다.
적절한 주파수 차이를 가지는 두 개의 밴드를 이용할 경우 해저질을 파악할 수 있다(Lyzenga, 1978, 1981). 또한 Philpot (1989)는 Eq. (2)에 관련된 물리적 특성치를 밝히고 일부 물리적 특성이 변하는 상황별로 수심을 추정하는 방법을 개발하였다. 그러나 해당 연구들은 위성에서 촬영된 근적외선, 적외선, 자외선 등의 가시광선 밴드 이외의 밴드를 포함한 멀티스펙트럼 영상을 이용한 것으로 본 연구와 같이 일반 고해상도 카메라의 가시광선 밴드만을 이용할 경우 적용하기 힘들다.
Lyzenga(2006)는 수심 추정 대상 해역의 물리적 특성이 일정한 경우를 가정하여 N개의 스펙트럼 밴드를 이용한 수심 추정 알고리즘을 Eq. (3)과 같이 제안했다.
(3)
z=h0j=1Nhjln(bandj)
Eq. (3)은 하나의 영상에서 일부 지점의 수심을 측정하고 다변수 선형회귀분석을 통해 각 계수를 결정한다. 그러나 Eq. (3)은 가시광선 밴드만을 사용하는 일반 고해상도 카메라에서는 잘 맞지 않는 경향을 보이며, Eq. (4)와 같이 로그를 취하지 않고 계산할 때 더 나은 결과를 얻는다고 보고된 바 있다(Ehses, 2015).
(4)
z=a0+j=1Najbandj
이에 본 연구에서는 Eq. (3) 보다 Eq. (4)를 적용하였다. 고해상도 카메라로 촬영한 이미지의 각 픽셀값은 0에서 255 사이의 정수값을 가지며, 하나의 영상에서는 보통 더 좁은 범위의 값을 가진다.
Yi et al.(2016)은 인공신경망을 통해 각 밴드의 조합으로 수심을 추정한 바 있다. 인공신경망을 통한 수심 추정은 적색, 녹색, 청색, 회색의 네 개의 밴드의 조합에서 가장 좋은 결과를 얻었으며 해당 분석결과는 0.97의 상관계수와 RMS 오차는 0.63 m 수준이라고 보고하였다. 그러나 인공신경망을 이용한 분석은 물리적 특성이 잘 드러나지 않는 단점이 있다. 본 연구에서는 Eq. (4)의 다변수 선형회귀식으로 수심을 추정하였으며, 적색, 녹색, 청색, 회색 밴드를 이용하여 수심을 추정하였다. 회색밴드는 (R band + G band + B band)/3로 보통 계산되나 이와 같이 계산할 경우 선형성에 의해 R, G, B 밴드만을 사용한 결과와 같으므로 Eq. (5)와 같이 회색 밴드를 계산하였다.
(5)
(Grayband)=(Rband)2+(Gband)2+(Bband)2

3. 드론과 HD 카메라를 이용한 천해 수심 추정

본 연구에서는 DJI Phantom3 드론과 HD 카메라를 사용하였다(Fig. 1). HD 카메라에 의해 취득된 이미지는 수면반사광 제거, 이미지 노출 보정, 이미지 병합 그리고 매핑 등의 전처리 과정 후, 실해역 수심측량 자료와 비교하여 수심 추정을 수행한다. 드론에 의해 촬영된 HD 이미지의 RGB 밴드별 해수에 의한 굴절율과 흡수율의 차이에 의한 수심추정식을 다변수 선형회귀분석을 통해 수심을 추정하였다(Fig. 2).
Fig. 3은 월포해수욕장에서 드론과 HD 카메라를 이용해 수심을 추정한 영역을 나타낸다. 수심 추정 대상 영역은 사진에서 빨간색 직사각형 박스로 가로 세로는 각각 500 m와 900 m이다. Fig. 4는 음향측심기로 수심을 측량한 선박의 궤적을 나타낸다. 검은색 실선은 동서방향의 궤적이며 빨간색 실선은 남북방향의 궤적이다.
Fig. 5는 드론에서 촬영된 HD 이미지이며 사진에 있는 L1과 L2로 표시된 직선상의 점들은 육지로부터 사람이 레벨로 측정한 수심 측량점이다. 레벨측량은 최대 약 1.5 m까지 측량하였다. 2 m 이상의 수심은 선박에 장착된 음향측심기로 측량하였으며, Fig. 5에서 격자형태의 수심측량점이 이에 해당한다.
드론에 의해 촬영된 HD 이미지의 RGB 밴드와 실해역에서 측량한 수심자료의 다변수 선형회귀분석에 의해 추정된 수심자료를 비교하였다. Fig. 6에서 볼 수 있는 바와 같이 빨간 실선의 추정된 수심과 육지로부터 레벨에 의해 측량한 수심자료가 매우 잘 일치하는 것을 알 수 있다. 수심 0.5 m 보다 얕은 수심에서는 쇄파에 의해서 약 0.2 m 정도의 오차가 있지만 그 이외의 천해수심에서는 매우 정확하게 일치하는 것을 알 수 있다. Fig. 7은 드론으로 촬영한 한 장의 이미지로 수심 5 m 이내를 추정한 결과이다. HD 이미지에 있는 파랑의 크기까지 수심에 반영될 정도로 수심이 매우 정확하게 추정된 것을 볼 수 있다.
Fig. 8은 드론에서 촬영된 HD 이미지의 RGB 밴드에 의해 추정된 수심과 Fig. 5의 왼쪽 그림의 실해역에서 측량된 천해수심(검은 점)을 비교한 것으로, 이를 통하여 상관계수는 0.99이며, 수심 5 m 이내에서의 오차는 파랑에 의한 영향을 제외하면 0.2 m 이내임을 알 수 있다. 한편, 다변수 회귀분석의 결과 수심추정식은 depth = 0.052R + 0.098G − 0.0078B − 0.07Gray − 5.7과 같고, 이 식을 통하여 청색밴드의 계수가 다른 밴드에 비해 1/10 정도로 작은 것을 알 수 있다. 이는 청색밴드가 다른 밴드에 비해 수심 변화에 따른 값의 변동이 작기 때문인 것으로 판단된다. Fig. 9는 파장에 따른 물의 흡수계수 β를 제시한 것으로 가시광선 대역에서 청색의 흡수계수가 가장 작은 것을 알 수 있으며, 이는 곧 흡수율이 가장 작음을 의미한다. 흡수율이 작을수록 수심에 따른 영향도 상대적으로 작은 것으로 판단할 수 있다.
Fig. 10은 드론과 HD 카메라 이미지로부터 추정된 수심과 선박에 장착된 음향측심기로 측량한 수심을 나타낸다. 오른쪽 그림에서 2 m 이내의 수심은 선박이 2 m 이내의 천해로 진입하지 못하여 측량되지 못했다. 왼쪽 그림에서 수심이 6m 이상인 영역은 가시광선이 바닷물에 의해 흡수되어서 추정되지 못했음을 알 수 있다. 그러나 수심 5 m 영역까지는 천해수심을 잘 추정함을 알 수 있다. 현 연구의 결과에 의하면 드론에 장착된 HD 카메라에 의한 수심추정은 5 m 이내의 수심에서 가능함을 알 수 있다. 동해안의 경우 폐합수심(closure depth)이 약 6 내지 7 m 정도 되기 때문에 현재로선 연안침식의 원인분석을 위한 드론에 의한 수심추정은 수심이 6m 이상인 영역에서는 약간의 한계가 있는 것을 알 수 있다.
드론과 HD 카메라 이미지로부터 추정된 수심과 선박에 장착된 음향측심기로 측량한 수심의 차이를 Fig. 11에 나타내었다. 최대 오차는 2.14 m이며, RMS 오차는 0.73 m로 나타났다. 1 m 이상의 오차가 발생한 지점은 Fig. 11에서 북쪽과 동쪽에 위치함을 알 수 있다. 동쪽지역에서는 5 m 이상으로 수심이 깊어져 정확한 수심을 추정하지 못한 지역이다. Fig. 12Fig. 11에서 오차가 가장 크게 발생한 북쪽지역의 항공 사진이며, 이미지의 중앙부에서 어둡게 보이는 것을 확인할 수 있다. 따라서 Fig. 11의 북쪽지역에서 오차가 발생한 것은 해저질 혹은 해수의 탁도 등 광학적 특성이 다른 지역과 달라 발생한 것으로 보인다. 해저질과 해수의 탁도 등에 의해 광학적 특성이 달라지는 지점에서는 상당히 큰 오차가 발생되는 것을 알 수 있다. 그러나 해저질이 모랫바닥으로 균등하거나 탁도가 낮은 지역에서는 Fig. 6Fig. 7에서 볼 수 있는 바와 같이 매우 정확하게 수심을 추정함을 알 수 있다.

4. 결 론

본 논문에서는 수심 5 m 이내의 천해 수심을 추정할 수 있는 드론과 고해상도 카메라에 의한 광학원격탐사 방법론을 제시하였다. 수심 1.5 m 이내의 얕은 수심은 사람이 직접 수준 측량을 실시하고, 수심 2 m 이상인 곳은 선박에서 음향측심기로 측정하여 9 m 이내의 수심측량 자료를 확보하고, 이 측정자료와 드론에 장착된 HD 카메라에 의한 고해상도 이미지의 적색, 녹색, 청색 그리고 회색 밴드 이미지의 천해수심 추정자료와 비교하여 제안 방법이 수심측량 결과와 매우 잘 일치함을 검증하였다. 상관계수는 0.99로서 강한 상관관계를 나타내며 절대 오차는 0.2 m 이내임을 확인하였다. 그러나 RGB 밴드의 물에서의 흡수에 의해 수심 6 m 이상인 해역은 측정할 수 없음을 확인하였다. 또한 해저질과 탁도 등에 의해 수심추정에 큰 변수가 있음을 확인하였다. 향후 수심추정시 파랑에 의한 영향과 태양광의 광량에 의한 영향 그리고 해저면과 탁도에 의한 영향 등을 고려하여 분석하기 위해서는 더 많은 자료의 축적이 필요하며, 축적된 빅데이터(big data)에 기계학습방법론을 적용하는 것이 필요한 것으로 생각된다.

감사의 글

본 연구는 해양수산부의 해양과학조사 및 예보 기술사업의 일환인 “연안이상현상(이상고파, 이안류) 발생원인 규명 및 대응체계 구축”(No. 20140057)과 경북씨그란트 연구비 지원으로 수행되었습니다. 선박과 음향측심기를 지원해준 지오시스 템리서치에 감사드립니다.

Fig. 1.
DJI Phantom3 drone and HD camera.
jkscoe-29-3-162f1.tif
Fig. 2.
Conceptual diagram of shallow-water depth estimation using drone equipped with HD camera.
jkscoe-29-3-162f2.tif
Fig. 3.
Red box represents 500 m by 900 m field area at Wolpo beach in Pohang city.
jkscoe-29-3-162f3.tif
Fig. 4.
Water-depth survey lines of the boat equipped with single beam acoustic sensor.
jkscoe-29-3-162f4.tif
Fig. 5.
L1 and L2 represent the depth survey lines with a level measurement from the land side, and sparse dots in the deeper area represent the depth survey from a boat with single beam acoustic sensor.
jkscoe-29-3-162f5.tif
Fig. 6.
Comparison of estimated water depths from drone/HD camera and level surveyed water depths.
jkscoe-29-3-162f6.tif
Fig. 7.
Estimated water depths over the single scene image obtained from the HD camera.
jkscoe-29-3-162f7.tif
Fig. 8.
Comparison between estimated water depth and surveyed water depth.
jkscoe-29-3-162f8.tif
Fig. 9.
Water absorption coefficient in dependence of the wave-length (Srivastava et al., 2009).
jkscoe-29-3-162f9.tif
Fig. 10.
Comparison between the estimated shallow water depth (left figure) and the surveyed ones (right figure).
jkscoe-29-3-162f10.tif
Fig. 11.
Discrepancy between the estimated water depth and the surveyed ones.
jkscoe-29-3-162f11.tif
Fig. 12.
Aerial image taken by the drone where larger errors occur as shown in Fig. 11.
jkscoe-29-3-162f12.tif

References

Ahn, K, Park, J, Oh, CY. (2016). Estimation of shallow water depth using drone and HD camera, Proc. of the Conference of Korea Society of Coastal and Ocean Engineering. Busan, Korea: (in Korean).

Ehses, JS, Rooney, JJ. (2015). Depth derivation using multispectral WorldView-2 satellite imagery, US Department of Commerce., NOAA Technical Memorandum NMFS-PIFSC-46. 24.

Hochberg, EJ, Andrefouet, S, Tyler, MR. (2003). Sea surface correction of high spatial resolution Ikonos images to improve bottom mapping in near-shore environments, IEEE Transactions on Geoscience and Remote Sensing, 41(7):1724-1729.
crossref
Holman, RA, Brodie, KL, Spore, NJ. (2017). Surf zone characterization using a small quadcopter: technical issues and procedures, IEEE Transactions on Geoscience and Remote Sensing, 55(4.
crossref
Irish, JL, Lillycrop, WJ. (1999). Scanning laser mapping of the coastal zone: The SHOALS system, ISPRS Journal of Photogrammetry and Remote Sensing, 54(2):123-129.
crossref
Jagalingam, P, Akshaya, BJ, Hegde, AV. (2015). Bathymetry Mapping Using Landsat 8 Satellite Imagery, Procedia Engineering, 116, 560-566.
crossref
Lyzenga, DR. (1978). Passive remote sensing techniques for mapping water depth and bottom features, Applied Optics, 17(3):379-383.
crossref pmid
Lyzenga, DR. (1981). Remote sensing of bottom reflectance and water attenuation parameters in shallow water using aircraft and Landsat data, International Journal of Remote Sensing, 2(1):71-82.
crossref
Lyzenga, DR, Malinas, NP, Tanis, FJ. (2006). Multispectral bathymetry using a simple physically based algorithm, IEEE Transactions on Geoscience and Remote Sensing, 44(8):2251-2259.
crossref
Philpot, WD. (1989). Bathymetric mapping with passive multispectral imagery, Applied Optics, 28(8):1569-1578.
crossref pmid
Setter, C, Willis, RJ. (1994 April). LADS--From development to hydrographic operations, In Proc. US Hydro. Conf, 94.

Srivastava, DK, Weinrotter, M, Kofler, H, Agarwal, AK, Wintner, E. (2009). Laser-assisted homogeneous charge ignition in a constant volume combustion chamber, Optics and Lasers in Engineering, 47(6):680-685.
crossref
Yi, J-H, Ryu, K-H, Shin, C, Baek, W-D, Jeong, WM. (2016). Bathymetry estimation using aerial imagery for shallow water region, Journal of The Korean Society of Hazard Mitigation, 16(5):351-358 (in Korean).

Zinke, P, Flener, C. (2013). Experiences from the use of unmanned aerial vehicles (UAV) for river bathymetry modelling in norway, VANN, 48, 351-360.

Editorial Office
Korean Society of Coastal and Ocean Engineers,
#1132, LG EClat, 71 Banpo-daero 14-gil, Seocho, Seoul, Korea
Tel: +82-2-3474-1934,   Fax: +82-2-3473-1934   E-mail : cocean@kscoe.or.kr
Copyright© Korean Society of Coastal and Ocean Engineers. All rights reserved.       powerd by M2community
About |  Browse Articles |  Current Issue |  For Authors and Reviewers