PUKYONG

Detection of forest fire burned area using Landsat satellite images and Deep learning

Metadata Downloads
Alternative Title
Landsat 위성영상과 딥러닝을 이용한 산불 피해지 탐지
Abstract
우리나라는 약 70%가 산악지역으로 이루어져 있어 산불 발생 시 그 피해가 막대하다. 이러한 지형적인 특징으로 인해 사람의 접근이 어렵고, 피해 면적이 광범위 하기 때문에 원격탐사 기법의 필요성이 증대되고있다. 위성 영상 및 항공 영상과 식생의 분광 특성을 활용하여 개발 된 지수들을 이용해 산림의 피해 유무를 분류하고, 피해 정도 및 식생의 회복 정보 등을 탐지하는 연구들은 많이 선행되어 왔다. 하지만 이러한 지수들을 활용한 피해지 탐지 관련 선행연구들은 피해지를 효과적으로 표현하기 위해 연구자의 주관이 많이 반영이 되고, 탐지하고자 하는 지역 및 계절적 특성, 영상의 화질 차이 문제 등으로 인해 임계치를 조정해야하는 한계점이 존재한다. 이에 본 연구에서는 최근 빠른 속도로 발전하고 있는 딥러닝 영상 인식 기술을 원격탐사 기술에 적용하여 분광 특성 기반의 피해지 탐지 연구들의 한계점을 보완하고, 새로운 산불 피해지 영상으로부터 연구자의 주관이 개입되지 않고 신속히 산불 피해지를 탐지할 수 있는 모델을 구축 및 최적화하고자 하였다. 이를 위해 Landsat 5 TM (Thematic Mapper), Landsat 8 OLI/TIRS (Operational Land Imager / Thermal Infrared Sensor) 위성 영상과 산불 피해지 분석에 주로 사용되는 NBR, NDVI, FWI 지수를 딥러닝 모델의 입력자료로 활용하여 산불 피해지를 탐지하였다. 피해지 탐지를 위해 활용한 딥러닝 모델은 Deep Neural Network(DNN) Classifier 와 Semantic Segmentation 기법 중 U-net 모델을 활용하였다. DNN classifier와 U-net 각각 약 89%, 93%의 높은 예측 정확도를 보였으며, 본 연구를 통해 산림 재해에 대해 딥러닝의 적용이 가능함을 검증하였다.
Author(s)
박성욱
Issued Date
2020
Awarded Date
2020. 2
Type
Dissertation
Publisher
부경대학교
URI
https://repository.pknu.ac.kr:8443/handle/2021.oak/23700
http://pknu.dcollection.net/common/orgView/200000294613
Affiliation
부경대학교 대학원
Department
대학원 지구환경시스템과학부공간정보시스템공학전공
Advisor
이양원
Table Of Contents
1. Introduction 1
2. Materials 5
2.1. Satellite Data 5
2.2. Fire Burned Area Data 9
2.3. Input Data and True Label Data 10
3. Methods 11
3.1. Approach Based on Spectral Characteristics of Vegetation 13
3.2. Approach Based on Deep Learning 15
4. Results and Discussion 24
4.1. Prediction of Forest fire Burned Areas Using a DNN classifier 24
4.2. Prediction of Forest fire Burned Areas Using a Semantic Segmentation 27
5. Conclusions 42
6. References 44
Degree
Master
Appears in Collections:
대학원 > 지구환경시스템과학부-공간정보시스템공학전공
Authorize & License
  • Authorize공개
Files in This Item:

Items in Repository are protected by copyright, with all rights reserved, unless otherwise indicated.