Logotipo do repositório
 

Publicação:
Deep Convolutional Neural Network (DCNN) para extração automática de rede viária a partir da FUSÃO de dados varredura LASER aerotransportado e imagens de altíssima resolução em ambiente urbano

dc.contributor.advisorDal Poz, Aluir Porfírio [UNESP]
dc.contributor.advisorShimabukuro, Milton Hirokazu [UNESP]
dc.contributor.authorGuimarães Filho, Antonio Gaudencio
dc.contributor.institutionUniversidade Estadual Paulista (Unesp)
dc.date.accessioned2022-10-13T20:29:36Z
dc.date.available2022-10-13T20:29:36Z
dc.date.issued2022-08-26
dc.description.abstractA extração de rodovias é um importante tópico de pesquisa, dada a importância para a gestão de tráfego, desenho urbano, monitoramento de estradas, navegação por satélites e atualização de mapas. O principal problema na extração de vias, em Sensoriamento Remoto, é como descrever as suas características. Algoritmos de classificação de aprendizado profundo possuem a capacidade de extrair características a partir dos dados e não dependem de intervenção humana para construir regras. Atualmente, as Redes Neurais Convolucionais Profundas são o estado da arte da segmentação de rede viária e destacam-se pela capacidade de explorar informação de contexto multinível. Entretanto, com o aumento da resolução espacial, maior detalhamento das vias bem como mais interferências por prédios, sombras, obstruções (p.ex: carros, árvores) que ainda limitam a obtenção da rede viária em áreas urbanas. Uma das estratégias disponíveis é a utilização da fusão de dados de outros sensores/fontes para complementar a informação de extração de objetos. A metodologia proposta utilizou a arquitetura Unet adaptada para fusão de Ortoimagens de altíssima resolução espacial com dados de varredura LASER (LiDAR) do estado do Distrito Federal (DF). Duas abordagens de fusão foram testadas: inicial e multinível. Bem como dois tipos de entrada de dados: imagens intensidade e de modelos de superfície. A fusão inicial com a imagem intensidade alcançou o percentual de 74,92 IoU e 84,68 F1 no conjunto teste e demonstrou melhoria de 2,1% IoU e 1,2% F1 em relação ao modelo treinado sem a fusão na área urbana. Assim como, a fusão inicial com imagem de modelos acrescentou 2,3% IoU e 1,5% F1 em região com menor densidade de vias e menos oclusões. Os resultados demonstraram que a fusão aumenta a ativação da classe via e de outras classes diretamente relacionadas com oclusões, reduz a busca de contexto para inferência da rede em áreas oclusas e aumenta a precisão da segmentação. Implementação e resultados disponíveis em <https://github.com/tunofilho/thesis2022_data>.pt
dc.description.abstractRoad extraction is an important research topic, mainly traffic management, urban design, surveillance, satellite navigation, and map update. The main problem with road network extraction in Remote Sensing is describing its attributes. Deep learning algorithms can extract features from data without human intervention. Nowadays, deep convolution neural networks are state of the art in road network segmentation and are known for their remarkable ability to explore multi-level contexts. Nevertheless, with increased spatial resolution, the roads become more detailed, and the interferences (building, shadows, obstructions - e.g., cars, trees) still make extraction in urban areas challenging. One of the available strategies is data fusion from other sensors/sources to add information in object extraction. The proposed methodology uses the adapted Unet in the fusion of Highest resolution Orthoimages and LASER scanner data from the Federal District state (DF). Two fusion approaches were tested: early and multi-level. And two input types: intensity image and surface models. The early fusion with intensity image reaches 74.92 IoU and 84.68 F1 in test data, an improvement of 2.1% IoU and 1.2% F1 over the model without fusion in urban areas. Moreover, the early fusion with surface models increases 2.3% IoU and 1.5% in the region with few roads density and rare occlusions. The results showed that the fusion increases activation of road and other classes directly involved with occlusion, decreases the context dependence in occlusion areas, and enhances segmentation precision. Implementation and results are available at <https://github.com/tunofilho/thesis2022_data>.en
dc.description.sponsorshipFundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
dc.description.sponsorshipIdFAPESP: 2021/03586-2
dc.identifier.capes33004129043P0
dc.identifier.urihttp://hdl.handle.net/11449/237021
dc.language.isopor
dc.publisherUniversidade Estadual Paulista (Unesp)
dc.rights.accessRightsAcesso aberto
dc.subjectExtração de rede viáriapt
dc.subjectFusão de dados em aprendizado profundopt
dc.subjectFusão multimodalpt
dc.subjectSegmentação de imagenspt
dc.subjectÁrea urbanapt
dc.subjectRoad network extractionen
dc.subjectDeep learning data fusionen
dc.subjectMulti-modal fusionen
dc.subjectImage segmentationen
dc.subjectUrban areaen
dc.titleDeep Convolutional Neural Network (DCNN) para extração automática de rede viária a partir da FUSÃO de dados varredura LASER aerotransportado e imagens de altíssima resolução em ambiente urbanopt
dc.title.alternativeDeep Convolutional Neural Network (DCNN) for road network extraction from FUSION of Airbone LASER Scanning (ALS) data and Highest Resolution Image in the urban environmenten
dc.typeTese de doutorado
dspace.entity.typePublication
unesp.campusUniversidade Estadual Paulista (UNESP), Faculdade de Ciências e Tecnologia, Presidente Prudentept
unesp.embargoOnlinept
unesp.examinationboard.typeBanca públicapt
unesp.graduateProgramCiências Cartográficas - FCTpt
unesp.knowledgeAreaAquisição, análise e representação de informações espaciaispt
unesp.researchAreaComputação de Imagenspt

Arquivos

Pacote Original

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
guimaraesfilho_ag_dr_prud.pdf
Tamanho:
65.67 MB
Formato:
Adobe Portable Document Format
Descrição:

Licença do Pacote

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
license.txt
Tamanho:
3.1 KB
Formato:
Item-specific license agreed upon to submission
Descrição: