Giovanna Carreira Marinho Análise de dois espaços de atributos a partir do uso de uma técnica de redução de dimensionalidade e de uma estratégia de detecção de anomalias em imagens de sensoriamento remoto Presidente Prudente 2024 Giovanna Carreira Marinho Análise de dois espaços de atributos a partir do uso de uma técnica de redução de dimensionalidade e de uma estratégia de detecção de anomalias em imagens de sensoriamento remoto Orientador: Prof. Dr. Maurício Araújo Dias Coorientador: Prof. Dr. Danilo Medeiros Eler Dissertação apresentada como parte dos requi- sitos para obtenção do título de Mestre em Ci- ência da Computação, junto ao Programa de Pós-Graduação em Ciência da Computação, da Faculdade de Ciências e Tecnologia da Universi- dade Estadual Paulista "Júlio de Mesquita Filho", Câmpus de Presidente Prudente. Presidente Prudente 2024 M338a Marinho, Giovanna Carreira Análise de dois espaços de atributos a partir do uso de uma técnica de redução de dimensionalidade e de uma estratégia de detecção de anomalias em imagens de sensoriamento remoto / Giovanna Carreira Marinho. -- Presidente Prudente, 2024 80 p. : il., tabs. Dissertação (mestrado) - Universidade Estadual Paulista (UNESP), Faculdade de Ciências e Tecnologia, Presidente Prudente Orientador: Maurício Araújo Dias Coorientador: Danilo Medeiros Eler 1. Ciência da computação. 2. Análise de imagem. 3. Inteligência artificial. 4. Reconhecimento de padrões. 5. Imagens de sensoriamento remoto. I. Título. Sistema de geração automática de fichas catalográficas da Unesp. Dados fornecidos pelo autor(a). IMPACTO POTENCIAL DESTA PESQUISA O estudo mostra que a estratégia de detecção de anomalias baseada na Taxonomia de Kittler não deve ser aplicada a espaços de baixa dimensão obtidos pelo método PCA. Tal descoberta contribui para nortear uma metodologia que pode ajudar na preservação de recursos hídricos e na garantia de água potável e saneamento, como objetivado pela ONU no 6º ODS. POTENTIAL IMPACT OF THIS RESEARCH The study shows that the anomaly detection strategy based on Kittler's Taxonomy should not be applied to low-dimensional spaces obtained by the PCA method. This finding contributes to guiding a methodology that can help preserve water resources and ensure safe drinking water and sanitation, as aimed by the UN in the 6th SDG. Ao meu avô, Manoel Marinho (in memorian) AGRADECIMENTOS Aos meus pais, Jane e Cícero, agradeço pelo esforço que tiveram para me proporcionar uma educação e formação de qualidade. Obrigada por acreditarem e confiarem em mim todos os dias. Ao Henrique, agradeço pelo companheirismo, apoio e amizade. Ao professor Maurício, agradeço pela orientação, iniciada durante o segundo ano da graduação, em 2019, para um projeto de Iniciação Científica. A partir desse período, aprendi não apenas conceitos técnicos, mas também valores e princípios valiosos para minha carreira. Muito obrigada pela parceria, amizade e paciência. Agradeço ao professor Danilo, pela coorientação, amizade e apoio desde a graduação. Aos demais professores e servidores da Universidade Estadual Paulista (UNESP) que, direta ou indiretamente, contribuíram para fornecer uma educação gratuita e de qualidade. Obrigada pelos sete anos de aprendizados. À Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) pelo apoio financeiro no processo #2020/06477-7. A todos aqueles que contribuíram e continuam contribuindo na minha carreira acadêmica e profissional. "O maior inimigo do conhecimento não é a ignorância, mas a ilusão do conhecimento." – Stephen Hawking RESUMO A redução de dimensionalidade é uma das transformações de dados mais usadas em pesquisas científicas. Ela desempenha um papel crítico na manutenção das propriedades significativas dos atributos dos dados enquanto transforma esses dados de um espaço de alta para um de baixa dimensão. Estudos anteriores, e.g., sobre análise de imagens, comparando dados desses dois espaços descobriram que, geralmente, qualquer estudo relacionado à detecção de anomalias pode alcançar resultados iguais ou semelhantes quando aplicado a ambos os espaços dimensionais. No entanto, não existem estudos que comparam diferenças nesses espaços dimensionais relacionadas à estratégia de detecção de anomalias baseada na Taxonomia de Kittler (ADS-KT, do inglês Anomaly Detection Strategy based on Kittler’s Taxonomy). Este estudo tem como objetivo investigar as diferenças entre os dois espaços dimensionais, quando a técnica redução de dimensionalidade Principal Components Analysis (PCA) está associada à ADS-KT durante a análise de uma imagem de satélite. A metodologia iniciou com a execução da fase inicial da ADS- KT para criar o espaço de alta dimensão. Logo após, a técnica de redução de dimensionalidade PCA gerou o espaço de baixa dimensão, em que combinações desse espaço foram feitas. Algumas características foram extraídas desses espaços dimensionais e analisadas com base em gráficos. Por fim, as abordagens de aprendizado de máquina, de acordo com a ADS-KT, produziram resultados para esses espaços. No capítulo de resultados, as métricas e as análises que avaliaram os espaços dimensionais apresentaram comportamentos diferentes. Em geral, nenhum espaço de atributos foi capaz de gerar os resultados com a mesma intensidade e qualidade que aquele obtido no espaço de alta dimensão. Portanto, concluímos que a redução da dimensionalidade impacta diretamente na aplicação da ADS-KT. Palavras-chave: redução de dimensionalidade; sensoriamento remoto; Taxonomia de Kittler; detecção de anomalia; aprendizado de máquina; análise de imagem. ABSTRACT Dimensionality reduction is one of the most widely used data transformations in scientific research. It plays a critical role in maintaining the meaningful properties of data attributes while transforming the data from a high- to a low-dimensional space. Previous studies, e.g., on image analysis, comparing data from these two spaces have found that, generally, any study related to anomaly detection can achieve the same or similar results when applied to both dimensional spaces. However, there are no studies that compare differences in these dimensional spaces related to the Anomaly Detection Strategy based on Kittler’s Taxonomy (ADS-KT). This study aims to investigate the differences between the two dimensional spaces when the dimensionality reduction technique Principal Components Analysis (PCA) is associated with ADS-KT during satellite image analysis. The methodology started by performing the initial phase of ADS-KT to create the high-dimensional space. Afterward, the dimensionality reduction technique PCA generated the low-dimensional space, in which combinations of this space were made. Some features were extracted from these dimensional spaces and analyzed based on graphics. Finally, the machine learning approaches, according to ADS-KT, produced results for these spaces. In the results chapter, the metrics and analyses that evaluated the dimensional spaces showed different behaviors. In general, no feature space was able to generate results with the same intensity and quality as that obtained in the high-dimensional space. Therefore, we conclude that dimensionality reduction directly impacts the application of ADS-KT. Keywords: dimensionality reduction; remote sensing; Kittler’s Taxonomy; anomaly detection; machine learning; image analysis. LISTA DE FIGURAS Figura 1 – Informações relacionadas à área de estudo: localização da cidade de Mariana e do estado de Minas Gerais na América do Sul (a); destaque do Rio Doce, da bacia que recebe o mesmo nome do rio, e da hidrografia da região (b); sobreposição da imagem da área de estudo renderizada com a composição R(4)G(3)B(2) e com ajuste de contraste (c). . . . . . . . . . . . . . . . . . 32 Figura 2 – Sequência de etapas da metodologia proposta. A etapa usada para a redução de dimensionalidade encontra-se destacada em verde. Com essa etapa a metodologia proposta neste estudo diferencia-se da ADS-KT apresentada por Dias et al. (2020). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 Figura 3 – Fluxograma com uma visão detalhada da metodologia proposta. . . . . . . . 36 Figura 4 – Raster virtual (a imagem multiespectral com resolução espacial de 30 metros) e as bandas que o compõem, após ajuste de contraste. A Figura (a) apresenta toda a área de estudo, enquanto as Figuras (b-h) destacam apenas uma parte dela e que foi diretamente afetada pelo desastre ambiental de Mariana. . . . 37 Figura 5 – Imagem fusionada (com resolução espacial de 15 metros) e as bandas que a compõem, após ajuste de contraste. A Figura (a) apresenta toda a área de estudo, enquanto as Figuras (b-h) destacam apenas uma parte dela e que foi diretamente afetada pelo desastre ambiental de Mariana. . . . . . . . . . . . 39 Figura 6 – Imagem resultante do PCA (renderizada com as componentes 5, 6 e 7) e as suas componentes. A Figura (a) apresenta toda a área de estudo, enquanto as Figuras (b-h) destacam apenas uma parte dela e que foi diretamente afetada pelo desastre ambiental de Mariana. . . . . . . . . . . . . . . . . . . . . . 42 Figura 7 – Os pontos em vermelho, na Figura (a), indicam as localizações das amostras coletadas na imagem. Exemplo de amostras de água (b) e não-água (c) selecionadas na imagem, em uma região aproximada. . . . . . . . . . . . . 43 Figura 8 – Gráfico de pontos do espaço espectral dos pixels das amostras usando a banda infravermelho próximo (5, NIR) e a banda vermelho (4, Red). Os pontos em azul indicam os pixels das amostras de água e, em cinza, não-água. A Figura (a) mostra todo o gráfico, enquanto a Figura (b), uma aproximação (zoom) na região dos pixels das amostras de água. Em outras palavras, a Figura (b) é a ampliação (zoom) do canto inferior esquerdo da Figura (a). . . . . . . . . . 43 Figura 9 – Processo de extração de características das imagens. Cada imagem possui sete bandas ou componentes. O processo para duas amostras (𝐴, em vermelho, e 𝐵, em azul) é exemplificado. A média e o desvio padrão foram calculados levando-se em consideração as regiões delimitadas pelas amostras. . . . . . 44 Figura 10 – Geração das combinações de componentes do PCA. Para os rasters com mais de três componentes, as três últimas foram escolhidas para a sua renderização RGB. Por exemplo, na Figura (j), as componentes 2, 3 e 4 foram escolhidas; na Figura (k), componentes 3, 4 e 5; na Figura (l), componentes 4, 5 e 6; e na Figura (m), componentes 5, 6 e 7. . . . . . . . . . . . . . . . . . . . . . . . 45 Figura 11 – Gráficos de densidade obtidos considerando a média das características extraídas sobre a imagem fusionada (a) e a imagem do PCA (b). Em cada visualização, uma distribuição é gerada para cada banda ou componente. . . 50 Figura 12 – Gráficos de densidade obtidos considerando o desvio padrão das características extraídas sobre a imagem fusionada (a) e a imagem do PCA (b). Em cada visualização, uma distribuição é gerada para cada banda ou componente. . . 51 Figura 13 – Diagramas de caixa obtidos considerando as características extraídas sobre a imagem fusionada (a) e a imagem do PCA (b), e considerando a média e o desvio padrão. Cada visualização considera uma das métricas usadas para cada banda ou componente. . . . . . . . . . . . . . . . . . . . . . . . . . . 52 Figura 14 – Mapas de calor obtidos a partir da similaridade de cossenos das distribuições do desvio padrão das amostras entre a imagem fusionada e a do PCA (a), apenas a imagem fusionada (b) e apenas a imagem do PCA (c). Valores próximos de 1 indicam maior similaridade. . . . . . . . . . . . . . . . . . . 53 Figura 15 – Resultados da classificação contextual (Boost) e da não contextual (Decision Tree) obtidos com a imagem fusionada em quatro regiões da área de estudo. As setas vermelhas, em (a, d, g), indicam corpos d’água que foram afetados pelo desastre ambiental, portanto poluídos, e as setas azuis, em (a, d, j), corpos d’água não afetados pelo desastre, portanto não poluídos com rejeito de minérios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 Figura 16 – Resultados da classificação contextual (Boost) e da não contextual (Decision Tree) obtidos com a imagem que considera apenas a primeira componente (PC 1) em quatro regiões da área de estudo. As setas vermelhas, em (a, d, g), indicam corpos d’água que foram afetados pelo desastre ambiental, portanto poluídos, e as setas azuis, em (a, d, j), corpos d’água não afetados pelo desastre, portanto não poluídos com rejeito de minérios. . . . . . . . . . . . 59 Figura 17 – Resultados da classificação contextual (Boost) e da não contextual (Decision Tree) obtidos com a imagem que considera as duas primeiras componentes (PC 1 − 2) em quatro regiões da área de estudo. As setas vermelhas, em (a, d, g), indicam corpos d’água que foram afetados pelo desastre ambiental, portanto poluídos, e as setas azuis, em (a, d, j), corpos d’água não afetados pelo desastre, portanto não poluídos com rejeito de minérios. . . . . . . . . 61 Figura 18 – Resultados da classificação contextual (Boost) e da não contextual (Decision Tree) obtidos com a imagem que considera as três primeiras componentes (PC 1 − 2 − 3) em quatro regiões da área de estudo. As setas vermelhas, em (a, d, g), indicam corpos d’água que foram afetados pelo desastre ambiental, portanto poluídos, e as setas azuis, em (a, d, j), corpos d’água não afetados pelo desastre, portanto não poluídos com rejeito de minérios. . . . . . . . . 62 Figura 19 – Resultados da classificação contextual (Boost) e da não contextual (Decision Tree) obtidos com a imagem que considera as quatro primeiras componentes (PC 1−2−3−4) em quatro regiões da área de estudo. As setas vermelhas, em (a, d, g), indicam corpos d’água que foram afetados pelo desastre ambiental, portanto poluídos, e as setas azuis, em (a, d, j), corpos d’água não afetados pelo desastre, portanto não poluídos com rejeito de minérios. . . . . . . . . 63 Figura 20 – Resultados da classificação contextual (Boost) e da não contextual (Decision Tree) obtidos com a imagem que considera as cinco primeiras componentes (PC 1−2−3−4−5) em quatro regiões da área de estudo. As setas vermelhas, em (a, d, g), indicam corpos d’água que foram afetados pelo desastre ambiental, portanto poluídos, e as setas azuis, em (a, d, j), corpos d’água não afetados pelo desastre, portanto não poluídos com rejeito de minérios. . . . . . . . . 64 Figura 21 – Resultados da classificação contextual (Boost) e da não contextual (Decision Tree) obtidos com a imagem que considera as seis primeiras componentes (PC 1 − 2 − 3 − 4 − 5 − 6) em quatro regiões da área de estudo. As setas vermelhas, em (a, d, g), indicam corpos d’água que foram afetados pelo desastre ambiental, portanto poluídos, e as setas azuis, em (a, d, j), corpos d’água não afetados pelo desastre, portanto não poluídos com rejeito de minérios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 Figura 22 – Resultados da classificação contextual (Boost) e da não contextual (Decision Tree) obtidos com a imagem que considera todas as componentes (PC 1 − 2 − 3 − 4 − 5 − 6 − 7) em quatro regiões da área de estudo. As setas vermelhas, em (a, d, g), indicam corpos d’água que foram afetados pelo desastre ambiental, portanto poluídos, e as setas azuis, em (a, d, j), corpos d’água não afetados pelo desastre, portanto não poluídos com rejeito de minérios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 LISTA DE TABELAS Tabela 1 – Resumo dos trabalhos relacionados. . . . . . . . . . . . . . . . . . . . . . 27 Tabela 2 – Comprimentos de onda e resoluções espaciais das bandas do satélite Landsat 8. 33 Tabela 3 – Matriz do PCA usada para fazer a transformação linear dos dados no espaço de origem para o de destino. O número de colunas está vinculado ao número de bandas do espaço de origem e, o número de linhas, à quantidade de componentes da saída. Dessa forma, cada linha representa um autovetor. . . 41 Tabela 4 – Autovalores do PCA vinculados a cada componente e a retenção de informação para cada uma. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 Tabela 5 – Matriz de confusão. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 Tabela 6 – Matriz de confusão e métricas do desempenho dos modelos, considerando a imagem fusionada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 Tabela 7 – Matriz de confusão e métricas do desempenho dos modelos, considerando a imagem PC 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 Tabela 8 – Matriz de confusão e métricas do desempenho dos modelos, considerando a imagem PC 1 − 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 Tabela 9 – Matriz de confusão e métricas do desempenho dos modelos, considerando a imagem PC 1 − 2 − 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 Tabela 10 – Matriz de confusão e métricas do desempenho dos modelos, considerando a imagem PC 1 − 2 − 3 − 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 Tabela 11 – Matriz de confusão e métricas do desempenho dos modelos, considerando a imagem PC 1 − 2 − 3 − 4 − 5. . . . . . . . . . . . . . . . . . . . . . . . . . 55 Tabela 12 – Matriz de confusão e métricas do desempenho dos modelos, considerando a imagem PC 1 − 2 − 3 − 4 − 5 − 6. . . . . . . . . . . . . . . . . . . . . . . . 55 Tabela 13 – Matriz de confusão e métricas do desempenho dos modelos, considerando a imagem PC 1 − 2 − 3 − 4 − 5 − 6 − 7. . . . . . . . . . . . . . . . . . . . . 56 Tabela 14 – Resumo da análise das classificações para as oito imagens. . . . . . . . . . 67 LISTA DE ABREVIATURAS ADS-KT Anomaly Detection Strategy based on Kittler’s Taxonomy PCA Principal Component Analysis SUMÁRIO 1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2 FUNDAMENTAÇÃO TEÓRICA . . . . . . . . . . . . . . . . . . . . 21 2.1 Redução de dimensionalidade . . . . . . . . . . . . . . . . . . . . . . . 21 2.2 Principal Components Analysis . . . . . . . . . . . . . . . . . . . . . . 21 2.3 Imagens multi e hiperespectrais . . . . . . . . . . . . . . . . . . . . . 22 2.4 Classificação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2.5 Taxonomia de Kittler . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 3 TRABALHOS RELACIONADOS . . . . . . . . . . . . . . . . . . . . 27 4 METODOLOGIA PROPOSTA . . . . . . . . . . . . . . . . . . . . . 32 4.1 Área de estudo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 4.2 Materiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 4.3 Metodologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 4.3.1 Descrição resumida da metodologia . . . . . . . . . . . . . . . . . . . . . . 33 4.3.2 Descrição detalhada da metodologia . . . . . . . . . . . . . . . . . . . . . 35 5 RESULTADOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 6 DISCUSSÕES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 7 CONCLUSÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 REFERÊNCIAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 APÊNDICE A – PARÂMETROS DOS PROCESSAMENTOS . . . 78 A.1 Pré-processamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 A.2 Redução de dimensionalidade . . . . . . . . . . . . . . . . . . . . . . . 79 A.3 Classificação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 A.4 Extração de características . . . . . . . . . . . . . . . . . . . . . . . . . 81 17 1 INTRODUÇÃO As técnicas de redução de dimensionalidade são fundamentais para transformar dados de um espaço de alta dimensão (e.g., imagens multiespectrais) para um espaço de baixa dimensão, sem que esses dados percam muitas propriedades relevantes. Essa transformação é viável porque essas técnicas reduzem redundâncias, mas preservam a maioria dos atributos desses dados. As transformações e combinações do espaço de dados realizadas por essas técnicas são de grande importância no processamento de dados, sendo usadas em uma ampla gama de campos e casos de estudo, como gestão de recursos hídricos (TIOUIOUINE et al., 2020), medicina (WANG; LAURI; HASSANI, 2021), seleção de rota (SAMEER; ABED; SAYL, 2023), etc. As principais vantagens do uso da redução de dimensionalidade estão amplamente descritas na literatura científica, por exemplo, em vários estudos envolvendo análise de imagens digitais (FOWLER et al., 2009; GHOSH; PRAMANIK, 2019; BILIUS; PENTIUC, 2022; SELLAMI; FARAH, 2018; AVRAMOVIC; RISOJEVIC, 2011; JOURNAUX et al., 2006; GROBLER; KLEYNHANS; SALMON, 2019; NAVIN; AGILANDEESWARI; ANJANEYULU, 2020; YANG et al., 2019; ZHANG et al., 2016; GU; WANG, 2016; LIANG et al., 2018). Esses estudos mostram que é possível obter resultados semelhantes tanto analisando dados em alta como em baixa dimensão. Quando as imagens a serem analisadas são multi e hiperespectrais, o que é muito comum, por exemplo, para as imagens de sensoriamento remoto, elas podem conter muitos dados redundantes entre as suas bandas. A redução de dimensionalidade reduz as redundâncias dessas imagens e aumenta a eficiência computacional. Consequentemente, a posterior análise dessas imagens, por exemplo para detecção de anomalias, pode ser feita sobre uma quantidade menor de dados. Dessa forma, a redução de dimensionalidade contribui para que a etapa posterior, e.g., a análise de imagens, demande menos recursos computacionais. No entanto, as consequências do uso da redução de dimensionalidade associada a certas estratégias de análise de imagens, e.g., a detecção de anomalias baseada na Taxonomia de Kittler (KITTLER et al., 2014), permanecem desconhecidas. Portanto, novos estudos são necessários para descobrir as consequências do uso da redução de dimensionalidade e da estratégia de detecção de anomalias baseada na Taxonomia de Kittler (ADS-KT, acrônimo do termo em inglês Anomaly Detection Strategy based on Kittler’s Taxonomy) aplicadas juntas a imagens de sensoriamento remoto. Capítulo 1. Introdução 18 Estudos a respeito de como a redução de dimensionalidade impacta a detecção de anomalias baseada na Taxonomia de Kittler são de grande interesse dentro do campo de aprendizado de máquina. A razão para esse interesse está no fato da detecção de anomalias baseada na Taxonomia de Kittler ser uma estratégia inovadora e promissora do reconhecimento de padrões, a qual pode ser usada para ajudar máquinas a reconhecerem a ocorrência de problemas, e.g., desastres ambientais, em diferentes contextos presentes em imagens de sensoriamento remoto. A ADS-KT foi aplicada para o reconhecimento de problemas monitorados por sensoriamento remoto pela primeira vez por Dias et al. (2020). O estudo apresenta uma abordagem para sistemas de tomada de decisão, baseada no fato de que as máquinas estariam mais próximas de reconhecer os contextos nos quais os problemas estão inseridos. A estratégia usa ferramentas para detecção de anomalias e incongruências relacionadas com a poluição de águas fluviais decorrente de desastres ambientais. Entretanto, apenas publicações da aplicação dessa estratégia em dados de alta dimensionalidade são encontradas na literatura científica. Resultados da sua aplicação sobre dados de baixa dimensionalidade permanecem desconhecidos. Portanto, este estudo objetiva analisar o comportamento da aplicação da ADS-KT, apresentada por Dias et al. (2020), em um espaço de baixa dimensão, obtido a partir da técnica de redução de dimensionalidade Principal Components Analysis (PCA), ou em um espaço de dados transformado. Este objetivo é importante para ajudar a entender se e como a técnica impacta a detecção de anomalias baseada na Taxonomia de Kittler, quando aplicada a uma imagem de sensoriamento remoto e especialmente quando um desastre ambiental é usado como estudo de caso. De modo a atingir esse objetivo, este estudo aplicou a fase inicial da ADS-KT (DIAS et al., 2020) a uma imagem de satélite que registra as consequências de um desastre ambiental. Uma vez obtido esse resultado, i.e., a imagem fusionada, o método de redução de dimensionalidade PCA foi aplicado para gerar dados em um espaço de baixa dimensão. Diferentes combinações desse espaço foram feitas para gerar conjuntos de atributos. Em seguida, foram extraídas características tanto da imagem fusionada quanto desses espaços de atributos, de modo a analisar algumas métricas por meio de gráficos. Por fim, as abordagens de treinamento, validação e teste dos classificadores foram realizadas para esses resultados - o resultado obtido pela fase inicial da estratégia (alta dimensão) e as diferentes combinações do resultado obtido pelo algoritmo de redução de dimensionalidade (baixa dimensão). A partir dos resultados das classificações e da taxonomia de Kittler, foi observado de Capítulo 1. Introdução 19 modo geral que o uso da baixa dimensão (menos características) evidenciou a ocorrência de uma categoria de anomalia diferente daquela encontrada na classificação feita a partir da alta dimensão. Nenhum espaço de atributos gerou resultados com a mesma qualidade e nível de detecção de anomalia que aquele obtido ao usar o espaço original dos dados (alta dimensão). Tal descoberta reforça a importância do uso da taxonomia para classificar os diferentes comportamentos que ocorrem quando se trabalha com aprendizado de máquina. A principal contribuição deste estudo é mostrar aos pesquisadores da área de Sensoria- mento Remoto que as investigações sobre a ocorrência de anomalias do tipo Unexpected structure and structural components (KITTLER et al., 2014) devem levar em consideração espaços de alta dimensão em vez de espaços de baixa dimensão obtidos pelo método PCA. Enquanto estudos relacionados à análise de imagens digitais, como os propostos por Fowler et al. (2009), Ghosh e Pramanik (2019), Bilius e Pentiuc (2022), Sellami e Farah (2018), Avramovic e Risojevic (2011), Journaux et al. (2006), Grobler, Kleynhans e Salmon (2019), Navin, Agilandeeswari e Anjaneyulu (2020), Yang et al. (2019), Zhang et al. (2016), Gu e Wang (2016), Liang et al. (2018), permitem aos pesquisadores sustentar a ideia de que a análise de dados em alta dimensão gera resultados semelhantes aos analisados em baixa dimensão, este estudo contribui para mostrar que há pelo menos uma exceção a esta regra, quando a análise de imagens digitais envolve detecção de anomalias com base na Taxonomia de Kittler. A inovação deste estudo está no fato dele ser, ao conhecimento dos autores, o primeiro a descrever a ocorrência de uma anomalia do tipo Unexpected structural component (ver Kittler et al. (2014)) em uma pesquisa na área de Sensoriamento Remoto. Esta inovação é importante porque a detecção de anomalias baseada na Taxonomia de Kittler mostrou ser uma ferramenta promissora no que diz respeito ao aprendizado de máquina aplicado ao sensoriamento remoto. Desse modo, esse estudo (MARINHO et al., 2023) se junta a outros publicados anteriormente, como Dias et al. (2020) e Dias et al. (2022), os quais também inovaram ao descreverem pesquisas a respeito do uso da Taxonomia de Kittler na área de Sensoriamento Remoto. Tanto os estudos citados anteriormente (MARINHO et al., 2023; DIAS et al., 2020; DIAS et al., 2022) quanto qualquer outro que aplique a detecção de anomalias baseada na Taxonomia de Kittler à análise de corpos d’água são fundamentais para ajudar a preservar os recursos hídricos. Ademais, vale ressaltar que, água potável e saneamento correspondem ao 6º objetivo dos Objetivos de Desenvolvimento Sustentável da ONU (United Nations Department of Economic and Social Affairs, 2022). Esse objetivo recebeu considerável atenção crítica da comunidade Capítulo 1. Introdução 20 científica para investigar e publicar estudos, a fim de ajudar a garantir a disponibilidade e a gestão sustentável dos recursos hídricos e do saneamento para o mundo (ASSAF; SAYL; ADHAM, 2021; ADHAM et al., 2018; SHEN et al., 2023; SULAIMAN et al., 2019; SAYL et al., 2016). Este documento está organizado da seguinte maneira. O Capítulo 2 consiste em uma fundamentação teórica. O Capítulo 3 apresenta uma revisão bibliográfica, comentando sobre os trabalhos relacionados ao tema. O Capítulo 4 descreve a metodologia proposta para conduzir os experimentos. O Capítulo 5 mostra os resultados alcançados. O Capítulo 6 discute os resultados obtidos. O Capítulo 7 apresenta as conclusões, e propõem experimentos futuros a serem realizados. 21 2 FUNDAMENTAÇÃO TEÓRICA 2.1 Redução de dimensionalidade As técnicas de redução de dimensionalidade mantêm as propriedades originais dos dados ao mapeá-los de uma alta para uma baixa dimensão (MARCíLIO-JR; ELER, 2021). Esse processo ocorre em duas etapas: a seleção e a extração de características (GHOSH; PRAMANIK, 2019; SELLAMI; FARAH, 2018), que são descritas a seguir. Na etapa de seleção de características, ocorre uma busca de um subconjunto de carac- terísticas que atendem a determinado critério. Esse critério pode variar conforme o método empregado e pode envolver a similaridade dos dados, entropia, variância, entre outros. Nessa etapa, as informações importantes e não redundantes são selecionadas, mantendo-se a relação entre elas. No caso de imagens de sensoriamento remoto, o objetivo é selecionar bandas espectrais significativas para a análise. A seleção de características pode ser feita por métodos supervisio- nados, não supervisionados ou semi-supervisionados. Por exemplo, o Principal Components Analysis (PCA) é um método não supervisionado de redução de dimensionalidade, pois usa somente as características dos dados de entrada. Na etapa de extração de características, busca-se construir um novo espaço a partir da maximização da separabilidade entre os dados. Essa etapa pode ser realizada com métodos que aplicam transformações lineares ou não lineares. Por exemplo, o PCA usa uma transformação linear para mapear o espaço de alta para baixa dimensionalidade. 2.2 Principal Components Analysis O Principal Components Analysis (PCA) é um método que pode ser usado para a redução de dimensionalidade (CROSTA, 1999; NAVIN; AGILANDEESWARI; ANJANEYULU, 2020; GROBLER; KLEYNHANS; SALMON, 2019; MARCíLIO-JR; ELER, 2021). Ele implementa a Transformada de Karhunen–Loève e, quando aplicado a imagens de sensoriamento remoto, constitui uma poderosa ferramenta na análise espectral dessas imagens (CROSTA, 1999). O PCA pode ser aplicado no pré-processamento dos dados para a melhoria da qualidade da imagem, reduzindo a sua dimensionalidade e facilitando a análise (NAVIN; AGILANDEESWARI; ANJA- Capítulo 2. Fundamentação Teórica 22 NEYULU, 2020). Nesse método, todas as informações necessárias são estimadas diretamente a partir dos dados. No que se refere ao seu funcionamento, o PCA maximiza a variância dos novos compo- nentes e minimiza o erro quadrático médio entre os dados originais e essa nova representação. Como o seu objetivo é reduzir a redundância entre os dados de entrada, primeiramente é feita uma decomposição das características, e, em seguida, a dimensionalidade é reduzida pela obtenção de novas características, que sejam combinações lineares dos dados originais. Esse é um método popular para a redução de dimensionalidade de dados de sensoriamento remoto (GRO- BLER; KLEYNHANS; SALMON, 2019), comumente aplicado em imagens multiespectrais e hiperespectrais. 2.3 Imagens multi e hiperespectrais As imagens de sensoriamento remoto são geradas a partir da capturada interação entre a radiação eletromagnética e os alvos da superfície terrestre (ZHANG et al., 2016; MENESES; ALMEIDA; BAPTISTA, 2019). Os sensores embarcados nos satélites, por exemplo, capturam a radiação refletida e registram essa informação em bandas espectrais, que correspondem a faixas do espectro eletromagnético (como a luz visível e o infravermelho, por exemplo). Nesse sentido, as bandas são responsáveis por armazenar o comportamento espectral dos alvos de uma cena, uma vez que cada matéria possui uma interação diferente com a radiação. Assim, diferentes bandas podem ser combinadas para analisar alvos diferentes. Neste estudo, como será apresentado nos capítulos futuros, a área de estudo corresponde a um local com água contaminada por rejeitos de minério, o que torna relevante o uso de bandas que evidenciem não só a presença de água, mas também minerais e outros elementos. As imagens multi e hiperespectrais de sensoriamento remoto oferecem uma vasta quantidade de informações valiosas para classificação e detecção. As imagens multiespectrais capturam uma quantidade mais limitada de informação do espectro eletromagnético, apresentando, portanto, um número menor de bandas em comparação com as imagens hiperespectrais, cuja resolução espectral é significativamente maior. Essas imagens são representadas como um cubo de imagens, no qual a largura e a altura são associadas respectivamente aos eixos 𝑥 e 𝑦, enquanto a quantidade de bandas é associada ao eixo 𝑧 (GHOSH; PRAMANIK, 2019). Cada pixel da imagem fornece uma informação espectral Capítulo 2. Fundamentação Teórica 23 a respeito de uma observação e pode ser representado como um vetor de alta dimensão, em que cada dimensão representa uma banda espectral (SELLAMI; FARAH, 2018). Por conta da alta resolução espectral, essas imagens possuem muitas informações redun- dantes (alta dimensionalidade) que, além de aumentar o custo e armazenamento computacional, podem reduzir a acurácia da classificação, por exemplo. Diante disso, o uso da redução de dimen- sionalidade é importante, uma vez que ela busca um espaço de baixa dimensão a partir de uma seleção de bandas, na qual as informações redundantes entre elas são eliminadas, podendo tornar a classificação computacional mais eficiente (FOWLER et al., 2009; GHOSH; PRAMANIK, 2019; LIANG et al., 2018; SELLAMI; FARAH, 2018; GU; WANG, 2016; JOURNAUX et al., 2006; YANG et al., 2019). 2.4 Classificação A classificação é uma atividade que consiste em atribuir, para cada amostra, uma classe discreta pertencente a um conjunto de classes disponíveis (BISHOP, 2006). Na classificação de imagens de sensoriamento remoto, uma amostra pode ser representada por um subconjunto de pixels pertencentes à mesma classe. Desse modo, após a seleção manual de algumas amostras em uma imagem, um modelo é gerado por meio do treinamento de um classificador, uma espécie de especialista. Com base nesse modelo, identifica-se a qual classe pertence cada pixel da imagem inteira. Quando amostras rotuladas, i.e., amostras identificadas quanto à classe, são usadas para o treinamento do classificador, a classificação é chamada de supervisionada (RICHARDS; JIA, 1999). Quando não há amostras rotuladas, a classificação é chamada de não-supervisionada. Se apenas parte das amostras estiverem rotuladas, a classificação é chamada de semi-supervisionada. Neste estudo, classificações supervisionadas são feitas, uma vez que amostras rotuladas são usadas para o treinamento dos classificadores selecionados. Além dessas categorias de clas- sificação, no sensoriamento remoto existem dois tipos de classificadores: contextuais e não contextuais (KITTLER et al., 2014), que serão explicados a seguir. Os classificadores contextuais (i.e., classificadores fortes) dependem de conhecimentos específicos, como conhecimentos anteriores ou dados de treinamento. Este estudo usou, a saber, o classificador Boost (OpenCV Project, 2019a; DING; XIAO, 2012) como classificador contextual. Esse classificador realiza a tarefa de classificação supervisionada e faz uso de classificadores Capítulo 2. Fundamentação Teórica 24 fracos, combinando os resultados desses, para alcançar o objetivo final. Como sugerido pelo nome, a tomada de decisão de um classificador contextual não considera somente a informação individual de cada pixel, mas também, a relação (contexto) entre seus vizinhos. Já os classificadores não contextuais (i.e., classificadores fracos) são menos restritos e precisos em relação aos contextuais. Este estudo usou o classificador Árvore de Decisão (DT, do inglês Decision Tree) (OpenCV Project, 2019b) como classificador não contextual. Esse classificador, também usado na classificação supervisionada, pode ser usado em conjunto ou sozinho; cada nó de decisão é responsável por realizar uma separação dos dados em duas classes (no caso das Árvores Binárias). O classificador não contextual realiza a classificação levando em consideração apenas a individualidade de cada pixel isoladamente, por isso, também pode ser chamado de classificação baseada em pixel. Ao fazer uso de um classificador contextual e um não contextual espera-se que seus resultados ao classificar o mesmo dado de entrada, sejam similares, i.e., que suas estimativas de probabilidade de classe sejam parecidas (WEINSHALL et al., 2012; KITTLER; ZOR, 2015; PONTI et al., 2017; KITTLER; ZOR, 2019). Nesse contexto, quando ocorre uma discordância entre os resultados, pode existir uma incongruência relacionada a algum tipo de anomalia. Dessa forma, a análise da divergência entre os resultados obtidos por um classificador contextual e um não-contextual é essencial para detectar incongruências no contexto de uso neste estudo. Por exemplo, os classificadores contextuais e não contextuais podem ser usados para classificar uma imagem de satélite composta por um rio e por outros elementos diversos, considerando-se que os resultados obtidos por ambos os classificadores divirjam em algumas regiões desse rio. Dito de outro modo, um classificador pode atribuir uma classe “água” e o outro uma classe “não-água” para uma mesma porção do rio. Essa divergência pode indicar a presença de uma incongruência. A categorização da anomalia que pode estar relacionada com essa incongruência pode ser feita por meio da Taxonomia de Kittler (KITTLER et al., 2014). 2.5 Taxonomia de Kittler A Taxonomia de Kittler consiste em um framework de detecção de anomalia que foi proposto por Kittler et al. (2014). Esse framework expõe a natureza multifacetada de cada anomalia e sugere mecanismos efetivos para identificar e para diferenciar cada particularidade da anomalia, contribuindo com a sua detecção. A Taxonomia também ajuda a identificar as Capítulo 2. Fundamentação Teórica 25 diferentes causas de eventos anômalos. É útil ressaltar que, anomalia, de acordo com Kittler et al. (2014), é o fenômeno que acontece quando os sistemas de percepção de máquina, já treinados e modelados para um domínio de aplicação, são expostos a um novo cenário. Assim, após essa mudança de domínio, eles irão falhar ao atribuir o significado correto dos dados. Métodos convencionais de detecção de anomalia estão concentrados no conceito de anomalia observacional (observational anomaly), que pode ser outlier (likelihood anomaly) ou desvio de uma distribuição (distributional anomaly). Esses tipos de abordagens não evidenciam diretamente uma anomalia de domínio (domain anomaly), mas fornecem meios para isso. A anomalia de domínio surge quando os dados observados não são explicados pelos modelos existentes. Os métodos convencionais usam modelos não generativos para a classificação de dados, por conta de sua performance. Contudo, os modelos não generativos não são capazes de detectar anomalia de domínio. Posto isso, o uso de mais de um especialista permite que essa detecção aconteça. A incongruência entre os resultados de vários modelos não generativos é um indicativo de uma potencial anomalia de domínio. Ademais, a incongruência pode ajudar na identificação do tipo da anomalia. Quando múltiplos especialistas devem ser usados para permitirem a detecção de anomalias de domínio, a categoria de classificador contextual se destaca. Isso, se deve ao fato de que sua classificação é capaz de representar hierarquicamente os dados sensoriais. A atribuição da classe para cada dado é feita pelo classificador contextual a partir de informações desse dado e de seus vizinhos, já o classificador não contextual faz uso apenas de informações relativas ao próprio dado. Alguns fatores, por conseguinte, devem ser avaliados em conjunto, para a detecção e iden- tificação de anomalia de domínio, a saber: alta qualidade do dado obtido pelo sensor, classificação contextual e não contextual dos mesmos dados, e ocorrência de incongruência. A Taxonomia descrita por Kittler et al. (2014) organiza as anomalias nos seguintes tipos: Measurement model drift, Component model drift, Unexpected structure and structural components, Unknown object, Unknown structure e Unexpected structural component. A seguir, serão detalhadas apenas as categorias analisadas nos resultados deste estudo. • Unexpected structure and structural components: essa anomalia está relacionada a uma Capítulo 2. Fundamentação Teórica 26 mudança integral ou parcial da área de estudo, i.e., do domínio. Nesse caso, a observação difere consideravelmente dos modelos de referência dos classificadores em relação a sua estrutura (que define sua forma) e componentes (que, em conjunto, compõem a estrutura). Isso, considerando-se um modelo criado para classificar pixels em uma imagem nas classes “água” e “não-água”. Durante a classificação, ao analisar um rio que pertence à imagem, caso esse rio tenha sofrido uma mudança de domínio (tenha recebido uma quantidade considerável de rejeitos de minério, por exemplo) o classificador que tinha condições de identificar o rio como “água” pode falhar, já que a estrutura e os componentes desse rio são inesperados (esperava-se água, e virou lama). Este exemplo foi estudado e publicado por Dias et al. (2020); • Unexpected structural component: essa outra categoria de anomalia está relacionada à falta de atributos nas características do modelo (apenas um subconjunto de modelos de objetos é usado), i.e., a ausência de informações relevantes leva à ocorrência desse tipo de anomalia. Por exemplo, a aplicação de um filtro qualquer pode ser responsável por eliminar características relevantes do modelo para classificar um objeto como pertencente a certo tipo de anomalia, já que nem todas as características do universo considerado foram contempladas. 27 3 TRABALHOS RELACIONADOS No que se refere aos estudos envolvendo detecção de anomalias, uma estratégia inovadora que aplica a Taxonomia de Kittler em situações do mundo real é apresentada por Dias et al. (2020). O estudo descrito no capítulo anterior apresenta uma abordagem para sistemas de tomada de decisão, na qual as máquinas seriam capazes de reconhecer com mais precisão os contextos nos quais os problemas estão inseridos. A estratégia apresentada por Dias et al. (2020) é usada neste estudo para que seja possível entender o seu comportamento em um espaço de baixa dimensionalidade. Diversos são os estudos que analisam o impacto da redução de dimensionalidade em atividades de análise de imagens (FOWLER et al., 2009; GHOSH; PRAMANIK, 2019; BILIUS; PENTIUC, 2022; SELLAMI; FARAH, 2018; AVRAMOVIC; RISOJEVIC, 2011; JOURNAUX et al., 2006; GROBLER; KLEYNHANS; SALMON, 2019; WANG; LAURI; HASSANI, 2021; NAVIN; AGILANDEESWARI; ANJANEYULU, 2020; YANG et al., 2019) ou que propõem métodos diferentes daqueles anteriormente disponíveis na literatura (ZHANG et al., 2016; GU; WANG, 2016; LIANG et al., 2018). A Tabela 1 apresenta um resumo desses estudos. Tabela 1 – Resumo dos trabalhos relacionados. Artigo Métodos e técnicas Conclusão Fowler et al. (2009) Projeção aleatória e CPPCA CPPCA gerou resultados de classificação e de detecção de anomalias semelhantes Ghosh e Pramanik (2019) SBS e Relief Relief gerou melhor acurácia na classificação Bilius e Pentiuc (2022) Decomposição de Tucker e PCA Decomposição de Tucker gerou resultados da classificação mais semelhantes Sellami e Farah (2018) Diversas técnicas de redução de dimen- sionalidade e classificador SVM TLPP mostrou melhores resultados na classifi- cação Avramovic e Risojevic (2011) PCA, ICA e descritores (Gabor e Dist) O uso dos descritores e das técnicas de redução de dimensionalidade melhoraram a classificação Journaux et al. (2006) Cinco métodos de redução de dimen- sionalidade e algoritmo K-means PCA foi responsável por apresentar um custo computacional baixo e um alto desempenho durante a clusterização Grobler, Kleynhans e Salmon (2019) FFT e PCA PCA realizou uma separação maior das classes envolvidas no problema de classificação Navin, Agilandeeswari e Anjaneyulu (2020) PCA e NDVI O uso das técnicas gerou uma similaridade com os dados originais durante análise de imagens Yang et al. (2019) MNF Melhorou a qualidade da imagem e a acurácia da classificação Zhang et al. (2016) Um novo método semi-supervisionado O novo método proposto permitiu alcançar me- lhores resultados na classificação Gu e Wang (2016) Dois novos métodos: DGDR e MS-DGDR Ambos métodos propostos melhoraram a acurá- cia da classificação Liang et al. (2018) Um novo método CPSDR O novo método melhorou o desempenho da clas- sificação Fonte: Elaborado pela autora. Capítulo 3. Trabalhos Relacionados 28 Uma análise da separabilidade das classes e da performance de detecção de anomalias foi feita por Fowler et al. (2009). No estudo foi investigado o impacto da redução de dimensionalidade aplicada no início das análises, i.e., durante o processo de aquisição dos sinais. As performances da redução de dimensionalidade baseada em projeção aleatória e no método Compressive-Projection Principal Component Analysis (CPPCA) foram avaliadas analisando os resultados de classificação e detecção de anomalias. As classificações obtidas sobre os conjuntos de dados reconstruídos a partir dessa última estratégia foram bastante semelhantes aos obtidos sobre os dados originais (coeficiente de correlação acima de 0, 9 para cada componente). Um outro estudo realizado por Ghosh e Pramanik (2019) teve o objetivo de melhorar a acurácia da classificação por meio de duas estratégias. O critério Maximum Margin Criterion (MMC) foi usado para extração de características, além disso, um método baseado em correlação foi usado para gerar um sub-conjunto de características. Em seguida, duas estratégias foram definidas para combinar exaustivamente essas características extraídas e selecionadas. Na primeira, a quantidade de características extraídas poderia ser diferente da quantidade de características selecionadas, i.e., conjuntos de diferentes cardinalidades foram considerados. Já na segunda estratégia, ambos os conjuntos tiveram a mesma cardinalidade. Por fim, a partir desses conjuntos combinados de características, obtidos nas duas estratégias, os algoritmos Sequential Backward Selection (SBS) e Relief foram usados de modo independente para eliminar redundâncias e informações menos relevantes, i.e., para realizar a redução de dimensionalidade. Os resultados obtidos a partir de três conjuntos de dados de imagens hiperespectrais mostraram que a acurácia obtida foi maior na segunda estratégia. O uso do algoritmo SBS mostrou um maior consumo de tempo quando a cardinalidade do conjunto de características combinadas era maior e nem sempre fornecia um conjunto de características reduzido e otimizado. Dois métodos de redução de dimensionalidade foram analisados no estudo publicado por Bilius e Pentiuc (2022). O trabalho aplica a decomposição de Tucker para decompor (ou comprimir) a informação espectral de uma imagem hiperespectral. Com isso a extração de características é aplicada nesse espaço espectral para obter um conjunto de características que podem ser usadas para classificação. Em seguida, os autores aplicaram o método PCA para comparar as características obtidas e realizaram classificações a partir dessas características. Analisando os valores das métricas aplicadas sobre os resultados obtidos, a primeira transformação permitiu obter dados mais próximos dos dados originais, enquanto o PCA apresentou valor de acurácia mais baixo em um tempo mais curto. Capítulo 3. Trabalhos Relacionados 29 Uma revisão das técnicas de redução de dimensionalidade comparando os resultados obtidos pelo classificador Support Vector Machines (SVM) foi realizado no estudo publicado por Sellami e Farah (2018). Os autores fizeram uso de técnicas de extração de características lineares - PCA e Tensor Locality Preserving Projection (TLPP), e não lineares - Kernel Principal component analysis (KPCA) e Laplacian Eigenmaps (LE), além de métodos de seleção de banda supervisionados - Mutual Information (MI) e Divergence Measure (DM), e não supervisionados - Constrained Band Selection (CBS) e Propagation Affinity (PA). A partir de imagens hiperespectrais foram feitas combinações de técnicas e análise da performance na classificação. Os resultados mostram que o TLPP ofereceu melhores resultados na classificação. Além disso, o uso conjunto do TLPP com CBS melhorou a precisão dos resultados. Uma investigação foi feita por Avramovic e Risojevic (2011) para entender como os métodos de redução de dimensionalidade PCA e Independent Component Analysis (ICA) afetam a exatidão da classificação. Imagens aéreas, originalmente representadas por descritores de alta dimensão, (Gabor e Dist) foram consideradas para os testes de classificação. As técnicas de redução de dimensionalidade foram aplicadas nos descritores completos e naqueles calculados para cada componente espectral. Analisando a performance, a acurácia da classificação foi próxima de 90%, mesmo a partir de descritores com dimensões menores. Os autores concluíram que, por meio do uso de descritores e técnicas de redução de dimensionalidade, é possível obter resultados avançados de classificação de imagens aéreas. No estudo publicado por Journaux et al. (2006), cinco métodos de redução de dimen- sionalidade foram comparados a partir dos resultados obtidos pelo algoritmo de agrupamento K-means (não supervisionado). Esses métodos foram aplicados em dez imagens multiespectrais do satélite Landsat e os resultados mostraram que alguns métodos não lineares mais avançados encontraram um melhor agrupamento, no entanto, o PCA, método linear, foi responsável por apresentar um custo computacional baixo e um alto desempenho. Um framework de comparação de métodos para extração de características sem a necessidade do uso de rótulos foi proposto por Grobler, Kleynhans e Salmon (2019). Os testes realizados comparam os métodos Fast Fourier Transform (FFT) e PCA aplicados a algumas imagens de sensoriamento remoto. Os resultados compostos por um espaço de características reduzido obtido pelo framework indicam que essa última técnica (PCA) superou a primeira (FFT). Essas conclusões se devem ao fato de que o PCA realizou uma separação maior de duas classes envolvidas no problema; essa técnica produziu um espaço que tem mais de 15% de separabilidade Capítulo 3. Trabalhos Relacionados 30 em relação ao FFT. O tema do estudo realizado por Navin, Agilandeeswari e Anjaneyulu (2020) foi a aplicação da redução de dimensionalidade por meio do método PCA e o monitoramento da vegetação por meio do índice Normalized Difference Vegetation Index (NDVI), em imagens de satélite. Tanto a aplicação quanto o monitoramento referem-se à mesma área de estudo. O PCA foi usado no estudo para auxiliar na análise da imagem. Já o índice NDVI, para auxiliar no monitoramento da vegetação local. A validação da imagem gerada por meio do índice NDVI foi realizado comparando essa imagem com a mesma região de uma imagem do Google Earth. Essa comparação indicou uma similaridade entre as duas imagens. O trabalho permitiu analisar o monitoramento da área de estudo e o gerenciamento de recursos terrestres. A correlação entre as imagens hiperespectrais e a redução de dimensionalidade foi analisada por Yang et al. (2019). Por meio da aplicação de um método Minimum Noise Fraction Rotation (MNF) em certa área de estudo, os autores observaram uma melhoria na qualidade da imagem em termos de reduções tanto de ruído como de redundâncias entre as características. Os autores afirmam que após a transformação, os dados processados melhoraram a acurácia de algumas atividades, como a classificação. Os estudos citados analisaram o impacto de técnicas de redução de dimensionalidade consolidadas, nas atividades de análise de imagens. Todavia, existem outros estudos (ZHANG et al., 2016; GU; WANG, 2016; LIANG et al., 2018) que propõem métodos diferentes daque- les anteriormente disponíveis na literatura. Um método semi-supervisionado de redução de dimensionalidade baseado no conceito de representação esparsa foi proposto por Zhang et al. (2016). As informações de geometria intrínseca e informações discriminativas das amostras são preservadas nesse método. As amostras selecionadas no estudo são diferenciadas por meio de um coeficiente esparso, que apresenta valores mais altos quando as amostras e as entidades de referência pertencem à mesma classe, e valores mais baixos quando são de classes diferentes. Esse coeficiente é usado na construção de um grafo. Além disso, um termo de regularização é incorporado a essa estrutura para a redução de dimensionalidade. Esse método faz uso de amostras rotuladas e não rotuladas para melhorar a performance. Além disso, o método Linear Discriminantion Analysis (LDA) foi incorporado e comparado com métodos já existentes com base na classificação de imagens hiperespectrais e, a partir dos resultados, foi possível concluir que o método alcançou melhores resultados. Capítulo 3. Trabalhos Relacionados 31 No estudo realizado por Gu e Wang (2016) foram apresentados dois outros métodos de redução de dimensionalidade para imagens hiperespectrais, o Discriminative Graph-based Dimensionality Reduction (DGDR) e a sua extensão Multi-Scale (MS-DGDR). No que se refere a esses métodos, uma função de projeção é buscada de modo a atingir os seguintes objetivos: a minimização de um termo de similaridade (que possui a relação de dispersão intra-classe) e a maximização de um termo de dissimilaridade (que possui a relação de distância inter-classe). Os resultados obtidos em dados reais mostraram que ambos os métodos fornecem melhorias na acurácia da classificação, em comparação aos outros métodos já existentes. Por fim, um método de redução de dimensionalidade chamado Class Predabillity Semi- supervised DR (CPSDR) é descrito por Liang et al. (2018). O algoritmo do CPSDR é baseado no Local Fisher Discriminant Analysis (LFDA). Diferentemente dos métodos semi-supervisionados, que focam apenas em uma pequena quantidade de dados rotulados e dependem da informação da geometria local, o CPSDR foca nas amostras não rotuladas e explora, além das informações da geometria local, a informação de estrutura da classe. Por meio dessas informações, a matriz de dispersão é mais discriminativa; em termos de implementação, o problema é formulado como uma otimização e é resolvido a partir de decomposição de autovalores. Os resultados obtidos a partir de dois conjuntos de dados de imagens sugerem que o método proposto apresenta uma matriz de dispersão intra e inter-classe mais discriminativa, alcançando uma performance de classificação eficiente que resulta em um método semi-supervisionado efetivo. 32 4 METODOLOGIA PROPOSTA 4.1 Área de estudo De modo a verificar a metodologia proposta, dados da região de Mariana (Minas Gerais, Brasil) foram selecionados. Essa região é importante para este estudo, porque nela ocorreu um desastre ambiental envolvendo o rompimento de uma barragem, causando um despejo de rejeitos de minério no Rio Doce em 05 de novembro de 2015. A Figura 1 apresenta informações relacionadas à área de estudo. Figura 1 – Informações relacionadas à área de estudo: localização da cidade de Mariana e do estado de Minas Gerais na América do Sul (a); destaque do Rio Doce, da bacia que recebe o mesmo nome do rio, e da hidrografia da região (b); sobreposição da imagem da área de estudo renderizada com a composição R(4)G(3)B(2) e com ajuste de contraste (c). Fonte: Elaborado pela autora. 4.2 Materiais A plataforma Earth Explorer da United States Geological Survey (USGS, 2024) foi usada para selecionar os dados da área de estudo a partir das seguintes informações: zona UTM 23; coordenadas 20º13′48,07′′S e 42º43′47,24′′W; data 12 de novembro de 2015; e identificador 𝐿𝐶08_𝐿1𝑇𝑃_217074_20151112_20170402_01_𝑇1. Tais dados foram capturados pelo satélite Landsat 8 e foram obtidos do catálogo USGS no “Level L1TP”, garantindo uma representação precisa em termos radiométricos e geométricos. Capítulo 4. Metodologia Proposta 33 A cena corresponde a uma das imagens estudadas por Dias et al. (2020) e, uma vez que sua metodologia foi executada neste estudo, os mesmos dados (satélite e área) também foram usados aqui, a fim de permitir uma comparação mais adequada entre os estudos. Sendo assim, foram consideradas oito bandas espectrais, com os comprimentos de onda (em micrômetros) e resoluções espaciais (em metros) apresentados na Tabela 2. Cada banda possui largura e altura de 7721 × 7831 pixels respectivamente, com exceção da banda 8, que possui 15441 × 15661 pixels. Tabela 2 – Comprimentos de onda e resoluções espaciais das bandas do satélite Landsat 8. Banda Comprimento de onda (micrômetros) Resolução espacial (metros) 1—Aerossol Costeiro 0,43-0,45 µm 30 m 2—Azul 0,45–0,51 µm 30 m 3—Verde 0,53–0,59 µm 30 m 4—Vermelho 0,64–0,67 µm 30 m 5—Infravermelho Próximo (NIR) 0,85–0,88 µm 30 m 6—SWIR 1 1,57–1,65 µm 30 m 7—SWIR 2 2,11–2,29 µm 30 m 8—Pancromática (PAN) 0,50–0,68 µm 15 m Fonte: Elaborado pela autora. O software QGis e a toolbox Orfeo, i.e., as mesmas ferramentas usadas por Dias et al. (2020), foram empregadas neste estudo para as etapas envolvendo análise de imagem. Para a criação de gráficos e de visualizações, a linguagem Python e o ambiente de desenvolvimento Colaboratory - Google foram usados em virtude da eficiência na análise de dados. 4.3 Metodologia 4.3.1 Descrição resumida da metodologia A Figura 2 apresenta a metodologia proposta. Assim como apresentado por Dias et al. (2020), a metodologia recebeu como dados de entrada as bandas 1 a 7 da cena do Landsat 8 (comentada no Subcapítulo 4.2). Elas foram adicionadas como raster layers de modo a criar um raster virtual dessas bandas. Esse raster virtual teve suas propriedades de renderização modificadas para a composição de bandas R(4)G(3)B(2), e de contraste ajustadas com base na média e desvio padrão, gerando uma imagem multiespectral (de 30 metros de resolução espacial) exibida em cores naturais. Em seguida, a banda 8 do conjunto de dados foi usada como entrada do pan-sharpening (também conhecido como fusão de imagens) que foi responsável Capítulo 4. Metodologia Proposta 34 por gerar uma imagem com resolução espacial mais alta que a anterior (no caso, 15 metros). A imagem fusionada resultante também teve as propriedades de composição de bandas e o ajuste de contraste modificados, assim como foi feito, anteriormente, para a imagem multiespectral. Após, uma redução de dimensionalidade com Principal Components Analysis (PCA) foi aplicada na imagem fusionada, dando origem a uma imagem composta por sete componentes. Essa etapa foi a única que diferiu da metodologia apresentada por Dias et al. (2020). Figura 2 – Sequência de etapas da metodologia proposta. A etapa usada para a redução de dimensionalidade encontra-se destacada em verde. Com essa etapa a metodologia proposta neste estudo diferencia- se da ADS-KT apresentada por Dias et al. (2020). Fonte: Elaborado pela autora. Capítulo 4. Metodologia Proposta 35 A metodologia continuou com a coleta de amostras da classe “água” e “não-água“ na imagem fusionada em cores naturais, facilitando esse processo. Essas amostras delimitaram regiões que foram usadas para analisar visualmente algumas características das duas imagens (fusionada e das componentes do PCA). As amostras serviram como entrada para o treinamento, validação e teste dos classificadores, junto com as estatísticas de segunda ordem (REINHARD et al., 2004) que foram também computadas para as duas imagens. A partir desses dados, foram feitos treinamentos dos classificadores contextuais e não-contextuais e, em seguida, a classificação da imagem fusionada (duas classificações para essa imagem) e das diferentes combinações de componentes do PCA (duas classificações para cada uma das sete imagens). Por fim, os resultados obtidos foram analisados e comparados. Mais detalhes sobre os parâmetros usados em algumas etapas da metodologia podem ser encontrados no Apêndice A. 4.3.2 Descrição detalhada da metodologia Uma visão mais detalhada da metodologia é apresentada na Figura 3. Inicialmente, as sete primeiras bandas (com resolução espacial de 30 metros cada), que compõem o conjunto de dados selecionado, foram adicionadas como raster layers a um projeto no QGis. A partir desses dados, um raster virtual foi criado por meio da sobreposição dessas bandas, de modo a facilitar a sua manipulação. Em seguida, as bandas 4 (vermelho), 3 (verde) e 2 (azul) foram escolhidas para a renderização do raster, e um aumento de contraste baseado na média e no desvio padrão foi realizado. Tais atividades foram importantes para melhorar a análise e a visualização das observações da imagem (raster) nas cores naturais. Vamos considerar 𝑓 (𝑥, 𝑦) uma função bidimensional que representa um raster (uma matriz numérica de dimensão 𝑀 × 𝑁), na qual podemos acessar o valor de intensidade do pixel nas coordenadas (𝑥, 𝑦), como mostra a Equação 4.1 (GONZALES; WINTZ, 1987). 𝑓 (𝑥, 𝑦) =  𝑓 (0, 0) 𝑓 (0, 1) . . . 𝑓 (0, 𝑁 − 1) 𝑓 (1, 0) 𝑓 (1, 1) . . . 𝑓 (1, 𝑁 − 1) ... ... ... 𝑓 (𝑀 − 1, 0) 𝑓 (𝑀 − 1, 1) . . . 𝑓 (𝑀 − 1, 𝑁 − 1)  (4.1) A notação matricial apresentada na Equação 4.2 também fornece uma representação de uma imagem e seus pixels, onde 𝑎𝑖, 𝑗 = 𝑓 (𝑥 = 𝑖, 𝑦 = 𝑗) = 𝑓 (𝑖, 𝑗) indica uma relação com a Capítulo 4. Metodologia Proposta 36 Figura 3 – Fluxograma com uma visão detalhada da metodologia proposta. Fonte: Elaborado pela autora. representação anterior (GONZALES; WINTZ, 1987). Ambas notações serão usadas nas equações desse capítulo. 𝐴 =  𝑎0,0 𝑎0,1 . . . 𝑎0,𝑁−1 𝑎1,0 𝑎1,1 . . . 𝑎1,𝑁−1 ... ... ... 𝑎𝑀−1,0 𝑎𝑀−1,1 . . . 𝑎𝑀−1,𝑁−1  (4.2) Assim, podemos definir o raster virtual gerado nessa etapa como um vetor 𝑘-dimensional definido na Equação 4.3 (GONZALES; WINTZ, 1987). Nesse caso, 𝑘 = 7 pois foram usadas sete bandas, e 𝑏1(𝑥, 𝑦) corresponde à intensidade dos pixels da banda 1, e assim sucessivamente. 𝑣𝑟 (𝑥, 𝑦) =  𝑏1(𝑥, 𝑦) 𝑏2(𝑥, 𝑦) ... 𝑏𝑘 (𝑥, 𝑦)  (4.3) Como o raster virtual é composto por sete bandas, apenas 𝑏4, 𝑏3 e 𝑏2 foram escolhidas para renderizar a imagem RGB no QGis. Nesse processo de renderização a média (Equa- Capítulo 4. Metodologia Proposta 37 ção 4.4) (GONZALES; WINTZ, 1987) e o desvio padrão (Equação 4.5) (GONZALES; WINTZ, 1987) foram calculados para ajustar o contraste, criando uma tabela de cores e facilitando a visualização da cena. Nas equações a seguir, 𝐾 é um conjunto contendo os índices 𝑖 das bandas da imagem 𝑓 envolvidas nessa etapa, i.e., 𝐾 = {4, 3, 2}. 𝑔(𝑥, 𝑦) = 1 |𝐾 | ∑︁ 𝑖∈𝐾 𝑓𝑖 (𝑥, 𝑦) (4.4) ℎ(𝑥, 𝑦) = √︄ 1 |𝐾 | ∑︁ 𝑖∈𝐾 ( 𝑓𝑖 (𝑥, 𝑦) − 𝑔(𝑥, 𝑦))2 (4.5) A Figura 4 apresenta o raster virtual (Figura 4a, a imagem multiespectral renderizada com as configurações definidas anteriormente), e as bandas (Figuras 4b-h) que o compõem. Nas Figuras 4b-h, as bandas são exibidas de modo a destacar apenas uma parte da área de estudo e que foi diretamente afetada pelo desastre ambiental. As bandas 4 (Figura 4e), 3 (Figura 4d) e 2 (Figura 4c) foram usadas para a composição em cores naturais apresentada na Figura 4a. Observa-se que o ajuste das configurações de renderização do raster auxilia a visualização das informações da cena em comparação com os dados brutos, apesar desse processo não modificar os dados originais (apenas a visualização). Figura 4 – Raster virtual (a imagem multiespectral com resolução espacial de 30 metros) e as bandas que o compõem, após ajuste de contraste. A Figura (a) apresenta toda a área de estudo, enquanto as Figuras (b-h) destacam apenas uma parte dela e que foi diretamente afetada pelo desastre ambiental de Mariana. Fonte: Elaborado pela autora. Capítulo 4. Metodologia Proposta 38 Na etapa seguinte, foi feita uma fusão do raster virtual (composto pelas 7 bandas) com a banda 8 (pancromática, com resolução espacial de 15 metros). Esse processo é importante pois, seguindo a metodologia apresentada por Dias et al. (2020) e considerando a resolução espacial desses dados (30 metros), a visualização e a análise dos elementos presentes, e.g., corpos d’água, são melhoradas ao usar uma maior (e, consequentemente, melhor) resolução. Para isso, a partir da toolbox Orfeo, primeiro foi realizada uma atividade chamada superimpose sensor para preparar o raster virtual e fazer a sua projeção. Com isso, existe uma projeção dessa imagem multiespectral na geometria da imagem pancromática. Em seguida, o pan-sharpening baseado na substituição de componentes (RCS) foi aplicado para fazer a fusão entre o raster virtual (já projetado) e a banda pancromática. Dessa forma, obtém-se uma imagem composta pelas sete bandas, mas com resolução espacial de 15 metros. A Equação 4.6 descreve matematicamente as operações envolvidas nessa etapa. Na Equação 4.6 (VIVONE et al., 2015), 𝑘 indica os índices das 𝑁 bandas espectrais, 𝑔 consiste em um vetor de injection gains, e 𝑤, um vetor de pesos. Assim, a partir da imagem multiespectral interpolada na escala da imagem pancromática (𝑆(𝑥, 𝑦)), a intensidade do componente 𝐼𝐿 é calculada. Em seguida, o processo de histogram matching é feito entre a imagem pancromática 𝑃 e o componente de intensidade 𝐼𝐿 . Por fim, a partir da soma desses valores, o resultado do pan-sharpening (𝑅(𝑥, 𝑦)) é obtido (VIVONE et al., 2015; MHANGARA; MAPURISA; MUDAU, 2020; XU et al., 2014). 𝑅𝑘 (𝑥, 𝑦) = 𝑆𝑘 (𝑥, 𝑦) + 𝑔𝑘 (𝑃 − 𝐼𝐿), onde 𝑘 = 1, ..., 𝑁, 𝑔 = [ 𝑔1, . . . , 𝑔𝑘 , . . . , 𝑔𝑁 ] , 𝐼𝐿 = 𝑁∑︁ 𝑖=1 𝑤𝑖𝑆𝑖 (𝑥, 𝑦), 𝑤 = [ 𝑤1, . . . , 𝑤𝑖, . . . , 𝑤𝑁 ] . (4.6) Depois, as bandas 4, 3 e 2 foram selecionadas para renderização, e o aumento de contraste também foi aplicado para uma melhor visualização da imagem nessa etapa. Esses processamentos anteriores (fusão e ajustes de renderização) são importantes porque facilitam a seleção manual de amostras na imagem estudada. Essa imagem é chamada de imagem fusionada. A Figura 5 apresenta a imagem fusionada (Figura 5a) e as bandas (Figuras 5b-h) que a Capítulo 4. Metodologia Proposta 39 compõem em uma região aproximada. As bandas 4 (Figura 5e), 3 (Figura 5d) e 2 (Figura 5c) foram usadas para a composição em cores naturais apresentada na Figura 5a. É possível observar que houve uma mudança na resolução espacial dos dados, ao comparar com as bandas da Figura 4. Figura 5 – Imagem fusionada (com resolução espacial de 15 metros) e as bandas que a compõem, após ajuste de contraste. A Figura (a) apresenta toda a área de estudo, enquanto as Figuras (b-h) destacam apenas uma parte dela e que foi diretamente afetada pelo desastre ambiental de Mariana. Fonte: Elaborado pela autora. Em seguida, diferentemente da estratégia proposta por Dias et al. (2020), o método PCA foi aplicado para realizar a transformação do espaço de atributos na imagem fusionada. Essa etapa foi realizada por meio da toolbox Orfeo, sendo definida a quantidade de sete componentes de saída, ou seja, a mesma dimensão da imagem de entrada. Assim, a partir da imagem de entrada, com alta dimensão espacial, essa etapa gerou uma imagem com espaço de atributos transformado. A preservação dessa dimensão (i.e., a manutenção de todas as sete componentes), que ocorreu em um primeiro momento, foi motivada pela seguinte hipótese: se as transformações no espaço de dados original impactam a ADS-KT mesmo que a dimensão seja mantida, então a redução da dimensionalidade também impacta a mesma estratégia, já que o espaço de dados original é transformado e reduzido como consequência da redução da dimensionalidade. Em outro momento, ainda dentro deste estudo, a verificação dessa hipótese aconteceu por meio do uso do método PCA associado à ADS-KT no espaço reduzido (i.e., considerando as diferentes combinações das componentes). Capítulo 4. Metodologia Proposta 40 Em notações matemáticas, inicialmente o PCA realiza o cálculo da matriz de covariância a partir da imagem de entrada (NAVIN; AGILANDEESWARI; ANJANEYULU, 2020), nesse caso, a imagem fusionada. A matriz de covariância é composta pelas variâncias de cada dimensão e pelas covariâncias entre as diferentes combinações de dimensões, e permite calcular autovalores para a redução de dimensionalidade. A Equação 4.7 mostra esse processo, onde 𝜎𝑖, 𝑗 corresponde à covariância de cada combinação das 𝑁 bandas disponíveis, 𝐷 𝑝,𝑖 representa a intensidade do pixel 𝑝 na banda 𝑖, e 𝜇𝑖 é a média de 𝐷 para a banda 𝑖 (ANTON; RORRES, 2012; GONZALES; WINTZ, 1987). 𝐶 =  𝜎1,1 . . . 𝜎1,𝑛 ... ... ... 𝜎𝑛,1 . . . 𝜎𝑛,𝑛  onde 𝜎𝑖, 𝑗 = 1 𝑁 − 1 𝑁∑︁ 𝑝−1 (𝐷 𝑝,𝑖 − 𝜇𝑖) (𝐷 𝑝, 𝑗 − 𝜇 𝑗 ) (4.7) Ainda com relação ao PCA, os autovalores 𝜆 são calculados a partir da matriz de variância-covariância como raiz de 𝑑𝑒𝑡 (𝐶 − 𝜆𝐼) = 0, em que 𝐶 é a matriz de covariância das bandas, e 𝐼 é a matriz de identidade. Os autovetores 𝑡 são calculados considerando os autovalores 𝜆, i.e., (𝐶 − 𝜆𝐼)𝑡𝑘 = 0. Durante essa etapa, os autovetores são ordenados em ordem decrescente de acordo com os respectivos autovalores associados. Assim, uma transformação é iniciada para que sejam obtidos os componentes principais. A matriz da Equação 4.8 apresenta os componentes principais, onde 𝑌 consiste no vetor de componentes principais, 𝑡 é a matriz de transformação (composta pelos autovetores), e 𝑋 corresponde ao vetor de dados originais de entrada (ANTON; RORRES, 2012). 𝑌 = ©­­­­­­­« 𝑦1 𝑦2 ... 𝑦𝑛 ª®®®®®®®¬ = ©­­­­« 𝑡1,1 . . . 𝑡1,𝑛 ... ... ... 𝑡𝑛,1 . . . 𝑡𝑛,𝑛 ª®®®®¬ ©­­­­­­­« 𝑥1 𝑥2 ... 𝑥𝑛 ª®®®®®®®¬ (4.8) Cada autovalor armazena a variância da componente principal correspondente, sendo que quanto maior o valor, maior a retenção de informação. Os autovetores, que definem as componentes principais, estão associados com seus respectivos autovalores e compõem a matriz de transformação para realizar o mapeamento dos dados do espaço original para o transformado. Capítulo 4. Metodologia Proposta 41 As Tabelas 3 e 4 apresentam a matriz de transformação do PCA e os autovalores obtidos nessa etapa. Observa-se na Tabela 4 que a primeira componente é aquela que é responsável por reter aproximadamente 96, 77% da informação, enquanto as últimas componentes armazenam menos informação. Tabela 3 – Matriz do PCA usada para fazer a transformação linear dos dados no espaço de origem para o de destino. O número de colunas está vinculado ao número de bandas do espaço de origem e, o número de linhas, à quantidade de componentes da saída. Dessa forma, cada linha representa um autovetor. B1 B2 B3 B4 B5 B6 B7 C1 0,0000200588 0,0000189531 0,0000183327 0,0000180938 0,0000304597 0,0000252888 0,0000178068 C2 -0,0001402099 -0,0001599618 -0,0001427541 -0,0001565825 0,0001300476 0,0002326926 0,0000813597 C3 0,0000287708 0,0000009046 -0,0000244494 -0,0001309565 0,0003817231 -0,0002261554 -0,0002069157 C4 0,0013285182 0,0005975022 -0,0005057715 -0,0015201507 -0,0003385573 -0,0002220036 0,0008272668 C5 0,0010048158 0,0006950163 -0,0000885954 -0,0005777079 -0,0006700878 0,0020481686 -0,0029559561 C6 0,0016650022 0,0007759808 -0,0068226694 0,003885498 0,0005305906 -0,0002869542 -0,0001255631 C7 -0,0074477338 0,0103106066 -0,0016501533 -0,0017590062 0,0001468705 0,0001882505 0,0003829486 Fonte: Elaborado pela autora. Tabela 4 – Autovalores do PCA vinculados a cada componente e a retenção de informação para cada uma. Componente Autovalor Porcentagem do autovalor Autovalor acumulado 1 302.165.501,8757 96,7660% 96,7660% 2 5.958.728,2976 1,9082% 98,6743% 3 3.872.234,0860 1,2401% 99,9143% 4 180.606,1683 0,0578% 99,9721% 5 65.720,3511 0,0210% 99,9932% 6 15.290,5374 0,0049% 99,9981% 7 5.959,5426 0,0019% 100% Soma 312.264.040,8588 100% Fonte: Elaborado pela autora. A Figura 6 apresenta a imagem resultante do PCA (a Figura 6a foi renderizada com as componentes 5, 6 e 7) e as componentes (Figuras 6b-h). As Figuras 6b-h destacam apenas uma parte da área de estudo e que foi diretamente afetada pelo desastre ambiental. É possível observar uma maior retenção de informação nas primeiras componentes em relação às últimas. Na próxima etapa, a amostragem foi realizada selecionando-se manualmente 250 polígo- nos que delimitam regiões na imagem. Essa seleção foi realizada na imagem fusionada, já que ela estava nas cores naturais e em uma melhor resolução para a visualização das amostras. Para cada polígono, foi atribuída uma das classes (“água” ou “não-água”), de acordo com os elementos da região selecionada. Metade das 250 amostras corresponde a corpos d’água abertos, como lagos, rios, reservatórios, etc. Espera-se que esses corpos d’água abertos sejam classificados como “água” pelos classificadores. A outra metade corresponde a características geográficas diversas, Capítulo 4. Metodologia Proposta 42 Figura 6 – Imagem resultante do PCA (renderizada com as componentes 5, 6 e 7) e as suas componentes. A Figura (a) apresenta toda a área de estudo, enquanto as Figuras (b-h) destacam apenas uma parte dela e que foi diretamente afetada pelo desastre ambiental de Mariana. Fonte: Elaborado pela autora. como campos, florestas, estradas, cidades, etc. Espera-se que essas características geográficas diversas sejam classificadas como “não-água” pelos classificadores. As observações diretamente relacionadas ao desastre ambiental, tais como reservatórios de rejeitos de minério, reservatórios de água e rios contaminados, por exemplo, não foram selecionadas como amostras para evitar resultados tendenciosos. Além disso, as amostras foram selecionadas de maneira bem distribuída na imagem, e a validação foi feita a partir de mapas topográficos da região (Agência Nacional de Águas e Saneamento Básico (ANA), 2016) adotados como ground truth. A Figura 7 apresenta um exemplo de amostra de cada classe, além de pontos indicando a dispersão de todas as amostras na imagem. A Figura 8 apresenta uma representação do espaço espectral das amostras coletadas sobre a imagem fusionada. O espaço espectral é um sistema de coordenadas cujo número de dimensões consiste na dimensão do vetor que representa um pixel, i.e., no número de bandas de uma imagem (RICHARDS, 2012). Nesse sentido, para fazer essa visualização, cada pixel deve ser plotado como um ponto no espaço seguindo a sua intensidade em cada uma das direções de coordenadas. Uma vez que a visualização é facilitada em duas dimensões, apenas duas bandas foram selecionadas para gerar esses gráficos: infravermelho próximo e vermelho visível, que permitem a análise de coberturas como água, vegetação, solo, etc. Entretanto, caso outras bandas fossem selecionadas, poderia haver outra diferenciação entre outros tipos de cobertura. Capítulo 4. Metodologia Proposta 43 Figura 7 – Os pontos em vermelho, na Figura (a), indicam as localizações das amostras coletadas na imagem. Exemplo de amostras de água (b) e não-água (c) selecionadas na imagem, em uma região aproximada. Fonte: Elaborado pela autora. Figura 8 – Gráfico de pontos do espaço espectral dos pixels das amostras usando a banda infravermelho próximo (5, NIR) e a banda vermelho (4, Red). Os pontos em azul indicam os pixels das amostras de água e, em cinza, não-água. A Figura (a) mostra todo o gráfico, enquanto a Figura (b), uma aproximação (zoom) na região dos pixels das amostras de água. Em outras palavras, a Figura (b) é a ampliação (zoom) do canto inferior esquerdo da Figura (a). (a) Pixels de todas as amostras. (b) Zoom na região próxima dos pixels da classe água. Fonte: Elaborado pela autora. Capítulo 4. Metodologia Proposta 44 O gráfico permite uma análise dos valores de todos os pixels das regiões delimitadas pelas amostras nas bandas infravermelho próximo e vermelho visível. Essa correlação é importante para entender a representatividade e a separabilidade das amostras coletadas no espaço espectral das bandas selecionadas, antes de realizar o treinamento dos classificadores. É possível observar que a maior parte dos pixels da classe água (pontos azuis) não estão sobrepostos no espaço dos pixels das amostras de não água (pontos cinza). Sendo assim, apesar da sobreposição de alguns pontos nesse espaço, é possível observar uma separação entre as classes. Logo após, características foram extraídas da imagem fusionada e das componentes do PCA considerando as regiões selecionadas na amostragem. Assim, para cada amostra foi usada a média (Equação 4.9) e o desvio padrão (Equação 4.10) dos valores dos pixels em cada banda ou componente da imagem, gerando distribuições de valores. A Figura 9 representa graficamente essa etapa da metodologia proposta neste estudo. Figura 9 – Processo de extração de características das imagens. Cada imagem possui sete bandas ou componentes. O processo para duas amostras (𝐴, em vermelho, e 𝐵, em azul) é exemplificado. A média e o desvio padrão foram calculados levando-se em consideração as regiões delimitadas pelas amostras. Fonte: Elaborado pela autora. As equações a seguir apresentam essas métricas, sendo 𝑆𝑥,𝑦,𝑘 um subconjunto de 𝑀 elementos da imagem 𝑓 , que representa uma amostra coletada sobre as 𝑘 bandas ou componentes (GONZALES; WINTZ, 1987). 𝑚𝑒𝑎𝑛𝑘 = 1 𝑀 ∑︁ (𝑠,𝑡)∈𝑆𝑥,𝑦,𝑘 𝑓𝑘 (𝑠, 𝑡) (4.9) Capítulo 4. Metodologia Proposta 45 𝑠𝑡𝑑𝑘 = √√ 1 𝑀 ∑︁ (𝑠,𝑡)∈𝑆𝑥,𝑦,𝑘 [ 𝑓𝑘 (𝑠, 𝑡) − 𝑚𝑒𝑎𝑛𝑘 ]2 (4.10) A partir dessas distribuições, visualizações do tipo gráfico de densidade, diagrama de caixa, e mapa de calor foram geradas (ver Figuras 11, 12, 13 e 14 do Capítulo 5). A primeira consiste em gráficos de densidade úteis para comparar visualmente distribuições de duas ou mais variáveis. Já a segunda permite visualizar informações como: dados discrepantes, limite inferior e superior e quartis de uma distribuição de valores. A última visualização permite analisar, a partir de cores, a relação entre valores de uma matriz. Tais visualizações foram úteis para analisar as diferenças entre os dois espaços de atributos. Em seguida, como mostra a Figura 10, as seguintes combinações das sete componentes do PCA foram feitas considerando apenas a primeira componente (PC 1) e o empilhamento das primeiras: duas componentes (PC 1−2); três componentes (PC 1−2−3); quatro componentes (PC 1−2−3−4); cinco componentes (PC 1−2−3−4−5); seis componentes (PC 1−2−3−4−5−6); e todas as componentes (PC 1 − 2 − 3 − 4 − 5 − 6 − 7). Esse processo gerou sete imagens, cada uma com uma quantidade de informação diferente. Figura 10 – Geração das combinações de componentes do PCA. Para os rasters com mais de três componentes, as três últimas foram escolhidas para a sua renderização RGB. Por exemplo, na Figura (j), as componentes 2, 3 e 4 foram escolhidas; na Figura (k), componentes 3, 4 e 5; na Figura (l), componentes 4, 5 e 6; e na Figura (m), componentes 5, 6 e 7. Fonte: Elaborado pela autora. Desse modo, as abordagens de treinamento, de validação e de teste de dois classificadores (Boost - contextual; Decision Tree ou Árvore de Decisão – não contextual) foram realizadas separadamente para a imagem fusionada e para as sete combinações das componentes do PCA. Para tanto, foi necessário computar as estatísticas de segunda ordem dessas imagens por meio da toolbox Orfeo, de acordo com as Equações 4.11 e 4.12 (GONZALES; WINTZ, 1987). Essa Capítulo 4. Metodologia Proposta 46 etapa resulta em um arquivo para cada imagem 𝑓 (de dimensão 𝑀 × 𝑁), contendo a média 𝑚𝑒𝑎𝑛 e o desvio padrão 𝑠𝑡𝑑 de cada banda ou componente 𝑘 . Tais informações foram necessárias para a construção dos modelos, que foram gerados considerando cada um dos dois classificadores e uma das oito imagens, totalizando dezesseis modelos. 𝑚𝑒𝑎𝑛𝑘 = 1 𝑀𝑁 𝑀−1∑︁ 𝑥=0 𝑁−1∑︁ 𝑦=0 𝑓𝑘 (𝑥, 𝑦) (4.11) 𝑠𝑡𝑑𝑘 = √√√ 1 𝑀𝑁 𝑀−1∑︁ 𝑥=0 𝑁−1∑︁ 𝑦=0 [ 𝑓𝑘 (𝑥, 𝑦) − 𝑚𝑒𝑎𝑛𝑘 ]2 (4.12) O classificador Boost, durante seu treinamento, realiza uma sequência de passos a partir de um conjunto de dados {(𝑥1, 𝑦1), (𝑥2, 𝑦2), ..., (𝑥𝑛, 𝑦𝑛)}, onde 𝑥𝑖 representa uma amostra e 𝑦𝑖 o seu respectivo rótulo (𝑦𝑖 ∈ −1, 1). Seja 𝐷𝑡 (𝑥𝑖, 𝑦𝑖) a 𝑡-ésima distribuição sobre as amostras, a etapa começa com a inicialização dos pesos 𝐷0(𝑥𝑖, 𝑦𝑖) (Equação 4.13). Em seguida, um processo iterativo (em relação a 𝑡 = 1, ..., 𝑇 , onde 𝑇 é o número máximo de épocas de treinamento) se inicia. Dentro desse processo iterativo as seguintes etapas são realizadas: treino de um classificador ℎ 𝑗 (para cada característica 𝑗) que está restrito a usar uma única característica e que o erro 𝜖 𝑗 é calculado como mostrado na Equação 4.14; escolha do classificador fraco ℎ 𝑗 com o menor erro 𝜖 𝑗 seguindo as regras da Equação 4.15; atualização dos pesos 𝐷𝑡+1(𝑥𝑖, 𝑦𝑖), conforme exibido na Equação 4.16, em que a constante de normalização 𝑍𝑡 garante que 𝐷𝑡 (𝑥𝑖, 𝑦𝑖) seja uma distribuição normal, i.e. ∑𝑁 𝑖=1 𝐷𝑡 (𝑥𝑖, 𝑦) = 1; Esse processo iterativo é feito até que um critério de parada seja satisfeito (𝜖 ≥ 1/2, em Equação 4.15) ou o número máximo de épocas de treinamento 𝑇 seja atingido. Ao final desses passos, a saída final 𝐻 (𝑥) é obtida, de acordo com a Equação 4.17 (SHEN; LI, 2010; OpenCV Project, 2019a). 𝐷0(𝑥𝑖, 𝑦𝑖) = 1 𝑁 , 𝑖 = 1, ..., 𝑁 (4.13) 𝜖 𝑗 = ∑︁ 𝑖:𝑦𝑖≠ℎ 𝑗 𝐷𝑡 (𝑥𝑖, 𝑦𝑖) (4.14) Se 𝜖𝑡 ≥ 1 2 , então pare se não 𝛼𝑡 = 1 2 𝐼𝑛(1 − 𝜖𝑡 𝜖𝑡 ) (4.15) Capítulo 4. Metodologia Proposta 47 𝐷𝑡+1(𝑥𝑖, 𝑦𝑖) = 𝐷𝑡 (𝑥𝑖, 𝑦𝑖)𝑒−𝛼𝑡 𝑦𝑡 ℎ𝑡 (𝑥𝑖) 𝑍𝑡 (4.16) 𝐻 (𝑥) = 𝑠𝑖𝑔𝑛( 𝑇∑︁ 𝑡=1 𝛼𝑡ℎ𝑡 (𝑥)), 𝑠𝑖𝑔𝑛(𝑥)  −1, 𝑥 < 0 0, 𝑥 = 0 1, 𝑥 > 0 (4.17) O classificador Decision Tree ou Árvore de Decisão, por sua vez, realiza a construção de uma estrutura de árvore a partir dos dados do treinamento. O Iterative Dichotomiser 3 (ID3), por exemplo, é um algoritmo que realiza a construção da árvore de decisão a partir da entropia (𝐸𝑛𝑡 (𝐷), que consiste na impureza de uma coleção de amostras 𝐷 de cada nó da árvore) e do ganho de informação (𝐺𝑎𝑖𝑛(𝐷, 𝑎), que representa a redução esperada na entropia da coleção de amostras 𝐷 em relação ao atributo 𝑎), apresentados nas Equações 4.18 e 4.19 (YI-BIN; YING- YING; XUE-WEN, 2017; SWAIN; HAUSKA, 1977; OpenCV Project, 2019b), respectivamente. Nesse processo são considerados: o conjunto de treinamento𝐷 = {(𝑥1, 𝑦1), (𝑥2, 𝑦2), ..., (𝑥𝑚, 𝑦𝑚)} e um conjunto de atributos 𝐴 = {𝑎1, 𝑎2, ..., 𝑎𝑑} de 𝐷, como cor, formato, textura, etc., onde 𝑑 = {1, 2, ..., 𝑘}; 𝑝𝑘 (𝑘 = 1, 2, ..., |𝐷 |), que consiste na proporção de cada tipo para cada conjunto de amostra atual; 𝑉 = {𝑎1 𝑖 , 𝑎2 𝑖 , ..., 𝑎𝑣 𝑖 }, que é um conjunto de 𝑣 características para cada atributo 𝑎𝑖, e 𝐷𝑣, que representa o subconjunto de amostras referente ao valor 𝑎𝑣 𝑖 de 𝑎𝑖 em 𝐷. Assim, considerando esses dados, um processo recursivo é iniciado a partir do nó raiz e todos os dados de treinamento. O critério de pureza é aplicado em cada nó para encontrar a divisão ideal a fim de gerar novos nós-filhos. Caso alguns critérios de parada sejam atingidos (e.g., tamanho máximo do galho foi atingido, todas as amostras de um nó são da mesma classe, etc.), o processo recursivo é parado. Algumas otimizações de poda da árvore podem ser usadas em algumas implementações. 𝐸𝑛𝑡 (𝐷) = − 𝑘∑︁ 𝑑=1 𝑝𝑘 log2 𝑝𝑘 (4.18) 𝐺𝑎𝑖𝑛(𝐷, 𝑎) = 𝐸𝑛𝑡 (𝐷) − 𝑉∑︁ 𝑣=1 |𝐷𝑣 | |𝐷 | 𝐸𝑛𝑡 (𝐷𝑣) (4.19) As etapas de treinamento e validação dos modelos dos classificadores foram realizadas considerando a imagem fusionada e as combinações de componentes do PCA. Para isso, além Capítulo 4. Metodologia Proposta 48 das amostras selecionadas anteriormente, cada imagem analisada e o seu arquivo de estatísticas de segunda ordem foram usados. Durante essas etapas, metade (50%) das amostras foi usada para treinar cada modelo (i.e., ajustar os hiperparâmetros) e, o restante (50%), para validar (i.e., avaliar o desempenho). Embora as amostras tenham sido selecionadas sobre a imagem fusionada, os mesmos polígonos georreferenciados foram usados para indicar as mesmas regiões na imagem do PCA. Assim, os modelos aprenderam (com determinado desempenho) a classificar cada pixel dessas amostras de treinamento nas duas classes envolvidas no problema. Em seguida, foi realizada a etapa de classificação da imagem fusionada e das combinações de componentes do PCA. Essa etapa considerou os modelos previamente treinados e validados. Assim, para cada imagem, foram usados também o respectivo arquivo de estatísticas de segunda ordem e o modelo correspondente. Cada resultado dessa etapa consiste em uma imagem binária contendo a classificação dos objetos da classe “água” na cor preta e da classe “não-água” na cor branca. Nessa etapa, o classificador atribui automaticamente, para cada pixel da imagem inteira, a classe a que o pixel pertence: “água” ou “não-água”. Uma análise das diferenças entre as classificações contextuais e não contextuais foi realizada. Para tal atividade, algumas métricas foram obtidas e analisadas considerando os valores das matrizes de confusão geradas antes da classificação, ou seja, durante a etapa de validação. Além disso, uma análise visual das imagens obtidas na etapa de classificação foi feita. Essa etapa é importante para verificar a ocorrência ou não de divergências. As matrizes de confusão foram construídas visando a etapa de análise do desempenho dos classificadores nas regiões cujas classes são previamente conhecidas, ou seja, nas amostras. Dada a quantidade real de pixels da classe positiva (“água”) e negativa (“não-água”) envolvidas no problema, a matriz de confusão apresenta a quantidade de pixels dessas classes preditas correta (verdadeiro) e incorretamente (falso) pelo classificador. A estrutura de uma matriz de confusão é apresentada na Tabela 5. Tabela 5 – Matriz de confusão. Predito Não-água Água Real Não-água Verdadeiro Negativo (𝑉𝑁) Falso Positivo (𝐹𝑃) Água Falso Negativo (𝐹𝑁) Verdadeiro Positivo (𝑉𝑃) Fonte: Elaborado pela autora. A matriz de confusão permite analisar a quantidade de: Verdadeiros Negativos (𝑉𝑁 , i.e., Capítulo 4. Metodologia Proposta 49 pixels da classe “não-água” preditos corretamente como “não-água”), Falsos Positivos (𝐹𝑃, i.e., pixels da classe “não-água” preditos incorretamente como “água”), Falsos Negativos (𝐹𝑁 , i.e., pixels da classe “água” preditos incorretamente como “não-água”) e Verdadeiros Positivos (𝑉𝑃, i.e., pixels da classe “água” preditos corretamente como “água”). Diversas métricas podem ser calculadas a partir da matriz de confusão para sintetizar as informações descritas anteriormente em um único valor, e.g., as métricas acurácia (Equação 4.20), precisão (Equação 4.21), recall (Equação 4.22), F1-score (Equação 4.23) e Kappa score (Equação 4.24) (FAWCETT, 2006; COHEN, 1960). Essas métricas, que são importantes para comparar os desempenhos dos modelos treinados, são apresentadas a seguir. Acurácia = 𝑉𝑁 +𝑉𝑃 𝑉𝑁 + 𝐹𝑃 + 𝐹𝑁 +𝑉𝑃 (4.20) Precisão = 𝑉𝑃 𝐹𝑃 +𝑉𝑃 (4.21) Recall = 𝑉𝑃 𝐹𝑁 +𝑉𝑃 (4.22) F1-score = 2 × Precisão × Recall Precisão + Recall (4.23) Kappa score = 2 × (𝑉𝑁 ×𝑉𝑃 − 𝐹𝑃 × 𝐹𝑁) (𝐹𝑃 +𝑉𝑃) × (𝑉𝑁 + 𝐹𝑃) + (𝐹𝑁 +𝑉𝑃) × (𝐹𝑁 +𝑉𝑁) (4.24) A acurácia representa a taxa de acertos da classificação sobre a quantidade total de classificações, indicando a eficiência dos resultados. A precisão mede a taxa de acertos da classificação na classe positiva, mensurando a relevância dos resultados. O recall, também chamado de taxa de verdadeiros positivos ou sensibilidade do modelo, indica a quantidade de resultados positivos relevantes. O F1-score calcula a média harmônica entre precisão e recall e fornece uma taxa considerando essas duas métricas. Por fim, o Kappa score representa a taxa de concordância entre as classificações. 50 5 RESULTADOS A partir das amostras selecionadas anteriormente, as métricas média e desvio padrão foram usadas para analisar visualmente parte do espaço de atributos da imagem fusionada (bandas) e da imagem resultante do PCA (componentes). Dessa forma, para cada amostra foi considerada a região delimitada em cada banda ou componente da respectiva imagem e, cada métrica foi calculada sobre esse conjunto de pixels. Ao realizar esse cálculo para todas as amostras, uma distribuição de valores foi obtida para cada métrica e imagem. Assim, visualizações do tipo gráfico de densidade, diagramas de caixa e mapas de calor foram geradas para comparar os valores obtidos. A Figura 11 apresenta duas visualizações do tipo gráfico de densidade considerando a média das características extraídas. A Figura 11a é referente aos resultados obtidos com as amostras sobre a imagem fusionada, e a Figura 11b, sobre a imagem do PCA. Essas visualizações permitem uma análise das médias dos valores de intensidade (pixels) em cada banda ou componente da imagem. Figura 11 – Gráficos de densidade obtidos considerando a média das características extraídas sobre a imagem fusionada (a) e a imagem do PCA (b). Em cada visualização, uma distribuição é gerada para cada banda ou componente. (a) Distribuições dos valores médios das amostras sobre as bandas da imagem fusionada. (b) Distribuições dos valores médios das amostras sobre as componentes da imagem do PCA. Fonte: Elaborado pela autora. Capítulo 5. Resultados 51 Observa-se na Figura 11a que as distribuições da média para a imagem fusionada seguem o padrão encontrado em seu histograma, em termos de valores de intensidade, amplitude e largura da distribuição. As Bandas 5 e 6 estão mais deslocadas que as demais, além de apresentarem uma distribuição mais dispersa. As Bandas 1, 2 e 3 são aquelas que possuem uma distribuição com maior amplitude. Paralelamente, a Figura 11b mostra que, após a transformação do PCA, a Componente 1 foi aquela que apresentou uma distribuição que se destaca das demais em termos de amplitude. Isso mostra que a média dos valores de intensidade dos pixels delimitados pelas amostras na Componente 1 está majoritariamente entre 0 e 1. Outro ponto importante a ser destacado é em relação aos novos valores de intensidade nesse espaço transformado, em que a maioria das distribuições está com valores entre −3 e 3. Assim a transformação do PCA modificou os valores de intensidade em um novo intervalo. Ainda considerando o mesmo tipo de visualização, distribuições do desvio padrão de cada amostra foram geradas para cada banda ou componente da imagem. Esses resultados são apresentados na Figura 12, sendo que a Figura 12a considera a imagem fusionada, e a Figura 12b, a imagem do PCA. Figura 12 – Gráficos de densidade obtidos considerando o desvio padrão das características extraídas sobre a imagem fusionada (a) e a imagem do PCA (b). Em cada visualização, uma distribuição é gerada para cada banda ou componente. (a) Distribuições dos valores de desvio padrão das amostras sobre as bandas da imagem fusionada. (b) Distribuições dos valores de desvio padrão das amostras sobre as componentes da imagem do PCA. Fonte: Elaborado pela autora. A Figura 12a mostra que as distribuições de desvio padrão das Bandas 5, 6 e 7 foram aquelas que desviaram das outras distribuições, que tiveram um valor mediano próximo de 250 a Capítulo 5. Resultados 52 500. Isso mostra que o desvio padrão das amostras nessas três bandas abrange um intervalo maior de valores. Já a Figura 12b mostra que a Componente 1 se destaca das demais (comportamento evidenciado também na Figura 11b). Isso indica que as regiões delimitadas pelas amostras nessa Componente 1 tiveram valor de desvio padrão próximo de 0 e 0, 25 após a aplicação do PCA, enquanto as outras componentes apresentaram valores mais dispersos. Alguns diagramas de caixa foram gerados a partir das duas métricas (média e desvio padrão). Assim, em cada visualização considerou-se uma métrica e obteve-se um diagrama para cada componente ou banda. A Figura 13 exibe essas visualizações. A partir dessas visualizações, é possível realizar uma comparação mais minuciosa entre os valores obtidos pelas métricas para as duas imagens. Figura 13 – Diagramas de caixa obtidos considerando as características extraídas sobre a imagem fusionada (a) e a imagem do PCA (b), e considerando a média e o desvio padrão. Cada visualização considera uma das métricas usadas para cada banda ou componente. (a) Diagramas de caixa da média e do desvio padrão das amostras sobre as bandas da imagem fusionada. (b) Diagramas de caixa da média e do desvio padrão das amostras sobre as componentes da imagem do PCA. Fonte: Elaborado pela autora. Capítulo 5. Resultados 53 A Figura 13a mostra que as caixas referentes às distribuições das Bandas 5 e 6 são aquelas com maior amplitude (intervalo interquartil), e valor mediano desviando da tendência das outras bandas. Isso acontece tanto na média quanto no desvio padrão. Tal fato indica que, as regiões delimitadas pelas amostras nessas bandas estão gerando uma distribuição com maior variabilidade de valores. Além disso, observa-se que as distribuições das outras bandas possuem um menor intervalo interquartil e uma quantidade relevante de outliers. Ou seja, existem regiões em que essas métricas desviam da tendência geral da distribuição. Já a Figura 13b indica que a Componente 1 possui uma distribuição de valores diferente das demais, apesar do intervalo interquartil ser o menor. Isso evidencia que as amostras analisadas nessa componente apresentaram valores médios e de desvio padrão dentro de um intervalo menor de valores, enquanto as demais componentes indicam um intervalo maior. Por fim, considerando apenas os valores de desvio padrão obtidos nas bandas da imagem fusionada e nas componentes da imagem resultante do PCA, a similaridade por cossenos dessas distribuições foi calculada para mostrar quão semelhantes são esses valores, ou seja, se existem bandas ou componentes com valores de desvio padrão parecidos. Três mapas de calor foram construídos considerando a similaridade entre: a imagem fusionada e a imagem do PCA; apenas a imagem fusionada; e apenas a imagem do PCA. Tais visualizações, exibidas na Figura 14, são úteis para analisar a relação entre esses valores. Figura 14 – Mapas de calor obtidos a partir da similaridade de cossenos das distribuições do desvio padrão das amostras entre a imagem fusionada e a do PCA (a), apenas a imagem fusionada (b) e apenas a imagem do PCA (c). Valores próximos de 1 indicam maior similaridade. (a) Imagem fusionada e imagem PCA (b) Apenas imagem fusionada (c) Apenas imagem PCA Fonte: Elaborado pela autora. Observa-se na Figura 14a menores similaridades (valores próximos de 0, 5) ao comparar o desvio padrão das Bandas 1, 2 e 3 da imagem fusionada com o desvio padrão da Componente 3 da imagem do PCA. Ou seja, existe uma maior diferença ao comparar as distribuições de valores Capítulo 5. Resultados 54 das Bandas 1, 2 e 3 com a distribuição de valores da Componente 3. Já na Figura 14b, é possível observar que existem maiores similaridades (valores próximos de 1, 0) entre os valores de desvio padrão das Bandas 1, 2, 3 e 4, assim como entre os valores de desvio padrão das Bandas 6 e 7. Por fim, a Figura 14c mostra que existem menores similaridades (valores próximos de 0, 65) ao comparar os valores de desvio padrão das Componentes 1, 2 e 7 com o desvio padrão da Componente 3. Matrizes de confusão foram geradas durante a validação dos dois modelos de classificação treinados com cada uma das oito imagens. Essas matrizes apresentam a quantidade de acertos e erros obtidos pelos modelos nas amostras selecionadas, cujas classes dos pixels (“água” e “não-água”) já são conhecidas. A partir desses valores, as métricas acurácia, precisão, recall, f1-score e Kappa score foram obtidas para uma análise geral da performance de cada modelo. As Tabelas 6, 7, 8, 9, 10, 11, 12 e 13 apresentam esses valores. Tabela 6 – Matriz de confusão e métricas do desempenho dos modelos, considerando a imagem fusionada. Classificador Matriz de confusão Acurácia Precisão Recall F1-score Kappa scorePredito Não-água Água Decision Tree Real Não-água 1607 60 0,9643 0,9640 0,9646 0,9643 0,93Água 59 1608 Boost Real Não-água 1625 42 0,9685 0,9745 0,9622 0,9683 0,94Água 63 1604 Fonte: Elaborado pela autora. Tabela 7 – Matriz de confusão e métricas do desempenho dos modelos, considerando a imagem PC 1. Classificador Matriz de confusão Acurácia Precisão Recall F1-score Kappa scorePredito Não-água Água Decision Tree Real Não-água 1454 213 0,8629 0,8698 0,8536 0,8616 0,73Água 244 1423 Boost Real Não-água 1465 202 0,8986 0,8834 0,9184 0,9006 0,80Água 136 1531 Fonte: Elaborado pela autora. Tabela 8 – Matriz de confusão e métricas do desempenho dos modelos, considerando a imagem PC 1 − 2. Classificador Matriz de confusão Acurácia Precisão Recall F1-score Kappa scorePredito Não-água Água Decision Tree Real Não-água 1613 54 0,9598 0,9671 0,9520 0,9595 0,92Água 80 1587 Boost Real Não-água 1579 88 0,9538 0,9479 0,9604 0,9541 0,91Água 66 1601 Fonte: Elaborado pela autora. Capítulo 5. Resultados 55 Tabela 9 – Matriz de confusão e métricas do desempenho dos modelos, considerando a imagem PC 1 − 2 − 3. Classificador Matriz de confusão Acurácia Precisão Recall F1-score Kappa scorePredito Não-água Água Decision Tree Real Não-água 1622 45 0,9682 0,9727 0,9634 0,9681 0,94Água 61 1606 Boost Real Não-água 1616 51 0,9574 0,9687 0,9454 0,9569 0,91Água 91 1576 Fonte: Elaborado pela autora. Tabela 10 – Matriz de confusão e métricas do desempenho dos modelos, considerando a imagem PC 1 − 2 − 3 − 4. Classificador Matriz de confusão Acurácia Precisão Recall F1-score Kappa scorePredito Não-água Água Decision Tree Real Não-água 1631 36 0,9724 0,9781 0,9664 0,9722 0,94Água 56 1611 Boost Real Não-água 1615 52 0,9697 0,9689 0,9706 0,9697 0,94Água 49 1618 Fonte: Elaborado pela autora. Tabela 11 – Matriz de confusão e métricas do desempenho dos modelos, considerando a imagem PC 1 − 2 − 3 − 4 − 5. Classificador Matriz de confusão Acurácia Precisão Recall F1-score Kappa scorePredito Não-água Água Decision Tree Real Não-água 1597 70 0,9601 0,9582 0,9622 0,9602 0,92Água 63 1604 Boost Real Não-água 1600 67 0,9646 0,9602 0,9694 0,9648 0,93Água 51 1616 Fonte: Elaborado pela autora. T