RESSALVA Atendendo a solicitação do autor, o texto completo desta tese será disponibilizado somente a partir de 04/03/2026. UNIVERSIDADE ESTADUAL PAULISTA “JÚLIO DE MESQUITA FILHO” Câmpus de Ilha Solteira - SP ANDRÉIA BRASIL ALVES FERREIRA PREVISÃO MÚLTIPLA EM SÉRIES TEMPORAIS DE ENERGIA ELÉTRICA COM TEMPORAL FUSION TRANSFORMER Ilha Solteira 2024 UNIVERSIDADE ESTADUAL PAULISTA “JÚLIO DE MESQUITA FILHO” Câmpus de Ilha Solteira - SP ANDRÉIA BRASIL ALVES FERREIRA PREVISÃO MÚLTIPLA EM SÉRIES TEMPORAIS DE ENERGIA ELÉTRICA COM TEMPORAL FUSION TRANSFORMER Tese apresentada à Universidade Estadual Paulista (UNESP), Faculdade de Engenha- ria, Ilha Solteira, para obtenção do título de Doutora em Engenharia Elétrica. Área do Conhecimento: Automação Orientador: Prof. Dr. Jonatas Boas Leite Ilha Solteira 2024 Ferreira PREVISÃO MÚLTIPLA EM SÉRIES TEMPORAIS DE ENERGIA ELÉTRICA COM TEMPORAL FUSION TRANSFORMERIlha Solteira2024 186 Sim Tese (doutorado)Engenharia ElétricaAutomaçãoNão . . . FICHA CATALOGRÁFICA Desenvolvido pelo Serviço Técnico de Biblioteca e Documentação Ferreira, Andréia Brasil Alves. Previsão múltipla em séries temporais de energia elétrica com temporal fusion transformer / Andréia Brasil Alves Ferreira. -- Ilha Solteira: [s.n.], 2024 188 f. : il. Tese (doutorado) - Universidade Estadual Paulista. Faculdade de Engenharia de Ilha Solteira. Área de conhecimento: Automação, 2024 Orientador: Jonatas Boas Leite Inclui bibliografia 1. Inteligência artificial. 2. Aprendizado profundo. 3. Mecanismos de atenção. 4. Análise de séries temporais. 5. Previsão de demanda. 6. Transformers. F383p UNIVERSIDADE ESTADUAL PAULISTA Clmpua de llha Soltelra CERTIFICADO DE APROVAf;ÁO TÍTULO DA TESE: Prevlsáo Múltipla de Energia Elétrica em Séries Temporais com Temporal Fusion Transformer AUTORA: ANDRÉIA BRASIL ALVES FERREIRA ORIENTADOR: JONATAS BOAS LEITE Aprovada como parte das exigencias para obtencáo do Título de Doutora em Engenharia Elétrica, área: Automacáo pela Cornissáo Examinadora: Prof. Dr. JONATAS BOAS LEITE (Parttclpacao Presencial) � ";?C<,j_, � & Departamento de Engenharia Eletrica I Faculdade de Engenharia der/a' �:;a - UNESP Dr. MARIO ANDRES MEJIA ALZATE (Participacao Virtual) Departamento de Engenharia Elétrica / Faculdade de Engenharia de llha Solteira - UNESP Prof. Dr. JULIO CESAR LOPEZ QUIZHPI (Partlclpacao Virtual) Department of Electrical and Computing Engineering / lowa State University - U.S.A PROFESSOR DOUTOA MADSON CORTES DE ALMEIDA (Partícípacao Virtual) � . ---- Departamento de Sistemas de Energía Elétrica / UNIVERSIDADE ESTADUAL DE CA� Prof. Dr. RENZO AMILCAR VARGAS PERALTA (Partícipacao Virtual) .;!:! ¡,;�,.,_-,-. Departamento de Engenharia de energia / Universidade Federal do ABC - UFABC � llha Solteira, 04 de setembro de 2024 Faculdade de Engenhana • campus de llha Soltelra • Avenida Brasil Centro 56, 15385000 hllps:l/www.les.unesp.br/#1/ppgeeCNPJ: 48.031.918/001 5-20. DEDICATÓRIA A Deus, pela luz e força que me acompanharam ao longo desta jornada. A todos que acreditaram em mim, oferecendo apoio, amor e incentivo em cada etapa do caminho. A todos aqueles que buscam a verdade através da ciência, mantendo acesa a chama da curiosidade e preservando a integridade do espírito científico, convictos de que o verdadeiro progresso não se encontra no caminho mais fácil, mas na perseverança de quem ousa trilhar o desconhecido. A ciência é, acima de tudo, um exercício de coragem, dedicação e questionamento cons- tante. Por isso, dedico este trabalho àqueles que, dentro das paredes da academia, permanecem firmes em suas convicções. Que esta obra seja uma prova de que o espírito científico pode sempre se renovar e florescer, mesmo em terrenos áridos. AGRADECIMENTOS A todos que, direta ou indiretamente, contribuíram para a concretização deste trabalho, manifesto minha mais profunda e sincera gratidão. O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de Pes- soal de Nível Superior – Brasil (CAPES) – Código de Financiamento 001. "Meu cérebro é mais do que algo meramente mortal, e o tempo mostrará isso." Ada Lovelace RESUMO A previsão da demanda energética é essencial para a eficiência e estabilidade dos sistemas elé- tricos de potência. Tradicionalmente, as metodologias de previsão analisam as séries temporais de forma isolada, sem considerar o contexto global do sistema e as possíveis interações entre séries semelhantes. Este estudo examina a complexidade da demanda elétrica, sublinhando a importância das interdependências dinâmicas e das correlações presentes nas séries temporais do setor energético. Utilizando o Temporal Fusion Transformer (TFT), uma técnica avançada de aprendizado de máquina desenvolvida para lidar com dados periódicos complexos, a meto- dologia proposta investiga como a integração de diferentes sequências temporais de consumo influencia a precisão das previsões. Experimentos realizados com dados históricos de duas ba- ses de dados distintas visaram obter projeções de demanda com um horizonte preditivo de 24 horas. Os resultados indicam que a abordagem múltipla resulta em uma melhoria significativa na precisão das previsões, evidenciando que, no contexto dos sistemas elétricos, a amplitude e a variedade das séries temporais utilizadas são fundamentais para alcançar previsões mais precisas e confiáveis. Palavras-chave: inteligência artificial; aprendizado profundo; mecanismos de atenção; análise de séries temporais; previsão de demanda; transformers. ABSTRACT Energy demand forecasting is essential for the efficiency and stability of electrical power sys- tems. Traditionally, forecasting methodologies analyze time series in isolation, without consi- dering the overall context of the system and the possible interactions between similar series. This study examines the complexity of electricity demand, highlighting the importance of the dynamic interdependencies and correlations present in the energy sector’s time series. Using the Temporal Fusion Transformer (TFT), an advanced machine learning technique developed to deal with complex periodic data, the proposed methodology investigates how the integration of different consumption time sequences influences forecast accuracy. Experiments carried out with historical data from two different databases aimed to obtain demand projections with a predictive horizon of 24 hours. The results indicate that the multiple approach results in a sig- nificant improvement in forecast accuracy, showing that, in the context of electricity systems, the breadth and variety of the time series used are fundamental to achieving more accurate and reliable forecasts. Keywords: artificial intelligence; deep learning; attention mechanisms; time series analysis; demand forecasting; transformers. LISTA DE FIGURAS Figura 1 Exemplo de Série Temporal. . . . . . . . . . . . . . . . . . . . . . . . 28 Figura 2 Exemplo de Série Temporal Decomposta: Série Original. . . . . . . . . 30 Figura 3 Exemplo de Série Temporal Decomposta: Componentes. . . . . . . . . 31 Figura 4 Classificação e Aplicações da Previsão de Carga. . . . . . . . . . . . . 39 Figura 5 Fatores Exógenos que Influenciam a Carga Elétrica. . . . . . . . . . . . 41 Figura 6 Principais Tipos de Aprendizado de Máquina. . . . . . . . . . . . . . . 49 Figura 7 Tipos de Aprendizado Indutivo. . . . . . . . . . . . . . . . . . . . . . 51 Figura 8 Neurônio Biológico. . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 Figura 9 Neurônio Artificial de McCulloch e Pitts. . . . . . . . . . . . . . . . . 55 Figura 10 Arquitetura de uma Rede Neural Artificial. . . . . . . . . . . . . . . . 58 Figura 11 Conexão Feedforward e Conexão Feedback. . . . . . . . . . . . . . . . 59 Figura 12 Exemplo de Descida do Gradiente. . . . . . . . . . . . . . . . . . . . . 60 Figura 13 Exemplo de Função de Ativação Linear. . . . . . . . . . . . . . . . . . 62 Figura 14 Exemplo de Função de Ativação Limiar. . . . . . . . . . . . . . . . . . 62 Figura 15 Exemplo de Função de Ativação Tangente Hiperbólica. . . . . . . . . . 63 Figura 16 Exemplo de Função de Ativação Sigmoide. . . . . . . . . . . . . . . . 64 Figura 17 Exemplo de Função de Ativação Softmax. . . . . . . . . . . . . . . . . 64 Figura 18 Exemplo de Função de Ativação ReLU. . . . . . . . . . . . . . . . . . 65 Figura 19 Treinamento por Backpropagation. . . . . . . . . . . . . . . . . . . . . 67 Figura 20 Arquitetura de uma Rede Neural Profunda. . . . . . . . . . . . . . . . 69 Figura 21 Mecanismo de Autoatenção. . . . . . . . . . . . . . . . . . . . . . . . 73 Figura 22 Autoatenção Multifacetada. . . . . . . . . . . . . . . . . . . . . . . . 74 Figura 23 Arquitetura do Temporal Fusion Transformer. . . . . . . . . . . . . . . 76 Figura 24 Rede de Seleção de Variáveis . . . . . . . . . . . . . . . . . . . . . . . 77 Figura 25 Gate Residual Network (GRN). . . . . . . . . . . . . . . . . . . . . . 80 Figura 26 Atenção Multicabeça Interpretável. . . . . . . . . . . . . . . . . . . . 82 Figura 27 Sistema Previsor de Única Série Temporal (SPUST). . . . . . . . . . . 92 Figura 28 Sistema Previsor de Múltiplas Séries Temporais (SPMST). . . . . . . . 92 Figura 29 Visualização da Série Temporal ST1A. . . . . . . . . . . . . . . . . . 96 Figura 30 Visualização da Série Temporal ST2A. . . . . . . . . . . . . . . . . . 96 Figura 31 Visualização da Série Temporal ST3A. . . . . . . . . . . . . . . . . . 97 Figura 32 Visualização da Série Temporal ST4A. . . . . . . . . . . . . . . . . . 97 Figura 33 Visualização da Série Temporal ST1B. . . . . . . . . . . . . . . . . . . 97 Figura 34 Visualização da Série Temporal ST2B. . . . . . . . . . . . . . . . . . . 98 Figura 35 Visualização da Série Temporal ST3B. . . . . . . . . . . . . . . . . . . 98 Figura 36 Visualização da Série Temporal ST4B. . . . . . . . . . . . . . . . . . . 98 Figura 37 Experimento 1 - Janela Retrospectiva e Previsão da ST1A. . . . . . . . 108 Figura 38 Experimento 1 - Janela Retrospectiva e Previsão da ST2A. . . . . . . . 108 Figura 39 Experimento 1 - Janela Retrospectiva e Previsão da ST3A. . . . . . . . 109 Figura 40 Experimento 1: Curvas de Carga Real e Prevista da ST1A. . . . . . . . 109 Figura 41 Experimento 1: Curvas de Carga Real e Prevista da ST2A. . . . . . . . 110 Figura 42 Experimento 1: Curvas de Carga Real e Prevista da ST3A. . . . . . . . 110 Figura 43 Gráfico de Dispersão do Experimento 1. . . . . . . . . . . . . . . . . . 111 Figura 44 Experimento 2 - Janela Retrospectiva e Previsão da ST1B. . . . . . . . 112 Figura 45 Experimento 2 - Janela Retrospectiva e Previsão da ST2B. . . . . . . . 112 Figura 46 Experimento 2 - Janela Retrospectiva e Previsão da ST3B. . . . . . . . 113 Figura 47 Experimento 2: Curvas de Carga Real e Prevista da ST1B. . . . . . . . 113 Figura 48 Experimento 2: Curvas de Carga Real e Prevista da ST2B. . . . . . . . 114 Figura 49 Experimento 2: Curvas de Carga Real e Prevista da ST3B . . . . . . . 114 Figura 50 Gráfico de Dispersão do Experimento 2. . . . . . . . . . . . . . . . . 115 Figura 51 Experimento 3 - Janela Retrospectiva e Previsão da ST1A. . . . . . . . 116 Figura 52 Experimento 3 - Janela Retrospectiva e Previsão da ST2A. . . . . . . . 117 Figura 53 Experimento 3 - Janela Retrospectiva e Previsão da ST3A. . . . . . . . 117 Figura 54 Experimento 3: Curvas de Carga Real e Prevista da ST1A. . . . . . . . 118 Figura 55 Experimento 3: Curvas de Carga Real e Prevista da ST2A. . . . . . . . 118 Figura 56 Experimento 3: Curvas de Carga Real e Prevista da ST3A. . . . . . . . 119 Figura 57 Gráfico de Dispersão do Experimento 3. . . . . . . . . . . . . . . . . . 119 Figura 58 Experimento 4 - Janela Retrospectiva e Previsão da ST1A. . . . . . . . 120 Figura 59 Experimento 4 - Janela Retrospectiva e Previsão da ST2A. . . . . . . . 121 Figura 60 Experimento 4 - Janela Retrospectiva e Previsão da ST3A. . . . . . . . 121 Figura 61 Experimento 4 - Janela Retrospectiva e Previsão da ST4A. . . . . . . . 122 Figura 62 Experimento 4: Curvas de Carga Real e Prevista da ST1A. . . . . . . . 122 Figura 63 Experimento 4: Curvas de Carga Real e Prevista da ST2A. . . . . . . . 123 Figura 64 Experimento 4: Curvas de Carga Real e Prevista da ST3A. . . . . . . . 123 Figura 65 Experimento 4: Curvas de Carga Real e Prevista da ST4A. . . . . . . . 124 Figura 66 Gráfico de Dispersão do Experimento 4. . . . . . . . . . . . . . . . . . 125 Figura 67 Experimento 5 - Janela Retrospectiva e Previsão da ST1B. . . . . . . . 126 Figura 68 Experimento 5 - Janela Retrospectiva e Previsão da ST2B. . . . . . . . 126 Figura 69 Experimento 5 - Janela Retrospectiva e Previsão da ST3B. . . . . . . . 127 Figura 70 Experimento 5: Curvas de Carga Real e Prevista da ST1B. . . . . . . . 127 Figura 71 Experimento 5: Curvas de Carga Real e Prevista da ST2B. . . . . . . . 128 Figura 72 Experimento 5: Curvas de Carga Real e Prevista da ST3B . . . . . . . 128 Figura 73 Gráfico de Dispersão do Experimento 5. . . . . . . . . . . . . . . . . 129 Figura 74 Experimento 6 - Janela Retrospectiva e Previsão da ST1B. . . . . . . . 130 Figura 75 Experimento 6 - Janela Retrospectiva e Previsão da ST2B. . . . . . . . 130 Figura 76 Experimento 6 - Janela Retrospectiva e Previsão da ST3B. . . . . . . . 131 Figura 77 Experimento 6 - Janela Retrospectiva e Previsão da ST4B. . . . . . . . 131 Figura 78 Experimento 6: Curvas de Carga Real e Prevista da ST1B. . . . . . . . 132 Figura 79 Experimento 6: Curvas de Carga Real e Prevista da ST2B. . . . . . . . 132 Figura 80 Experimento 6: Curvas de Carga Real e Prevista da ST3B . . . . . . . 133 Figura 81 Experimento 6: Curvas de Carga Real e Prevista da ST4B . . . . . . . 133 Figura 82 Gráfico de Dispersão do Experimento 6. . . . . . . . . . . . . . . . . 134 Figura 83 Comparação do MAPE entre Experimentos com a Base de Dados A. . . 136 Figura 84 Percentuais de Melhoria Entre Experimentos com a Base de Dados A. . 137 Figura 85 Comparação do MAPE entre Experimentos com a Base de Dados B. . . 139 Figura 86 Percentuais de Melhoria Entre Experimentos com a Base de Dados B. . 141 Figura 87 Experimento 1: Importância dos Recursos - Codificador. . . . . . . . . 145 Figura 88 Experimento 1: Importância dos Recursos - Decodificador. . . . . . . . 146 Figura 89 Experimento 3: Importância dos Recursos - Codificador. . . . . . . . . 146 Figura 90 Experimento 3: Importância dos Recursos - Decodificador. . . . . . . . 147 Figura 91 Experimento 4: Importância dos Recursos - Codificador. . . . . . . . . 147 Figura 92 Experimento 4: Importância dos Recursos - Decodificador. . . . . . . . 148 Figura 93 Experimento 2: Importância dos Recursos - Codificador. . . . . . . . . 149 Figura 94 Experimento 2: Importância dos Recursos - Decodificador. . . . . . . . 149 Figura 95 Experimento 5: Importância dos Recursos - Codificador. . . . . . . . . 150 Figura 96 Experimento 5: Importância dos Recursos - Decodificador. . . . . . . . 150 Figura 97 Experimento 6: Importância dos Recursos - Codificador. . . . . . . . . 151 Figura 98 Experimento 6: Importância dos Recursos - Decodificador. . . . . . . . 151 LISTA DE TABELAS Tabela 1 Modelos de RNAs Profundas para Previsão de Demanda Elétrica. . . . 19 Tabela 2 Modelos de Previsão de Carga com Mecanismos de Atenção. . . . . . . 23 Tabela 3 Análise Comparativa do Desempenho do TFT. . . . . . . . . . . . . . . 25 Tabela 4 Principais Características das Bases de Dados. . . . . . . . . . . . . . . 95 Tabela 5 Período da Análise Experimental, . . . . . . . . . . . . . . . . . . . . 95 Tabela 6 Nomenclatura das Séries Temporais. . . . . . . . . . . . . . . . . . . . 96 Tabela 7 Distribuição dos Dados. . . . . . . . . . . . . . . . . . . . . . . . . . 99 Tabela 8 Informações de Treinamento por Teste Experimental. . . . . . . . . . . 101 Tabela 9 Covariáveis Utilizadas na Base de Dados A. . . . . . . . . . . . . . . . 102 Tabela 10 Covariáveis Utilizadas na Base de Dados B. . . . . . . . . . . . . . . . 102 Tabela 11 Configuração dos Hiperparâmetros. . . . . . . . . . . . . . . . . . . . 104 Tabela 12 Configurações Experimentais. . . . . . . . . . . . . . . . . . . . . . . 106 Tabela 13 Métricas de Desempenho do Experimento 1. . . . . . . . . . . . . . . . 111 Tabela 14 Métricas de Desempenho do Experimento 2. . . . . . . . . . . . . . . . 115 Tabela 15 Métricas de Desempenho do Experimento 3. . . . . . . . . . . . . . . . 120 Tabela 16 Métricas de Desempenho do Experimento 4. . . . . . . . . . . . . . . . 124 Tabela 17 Métricas de Desempenho do Experimento 5. . . . . . . . . . . . . . . . 129 Tabela 18 Métricas de Desempenho do Experimento 6. . . . . . . . . . . . . . . . 134 Tabela 19 Percentuais de Melhoria nos Experimentos da Base de Dados A. . . . . 136 Tabela 20 Percentuais de Melhoria nos Experimentos da Base de Dados B. . . . . 140 Tabela 21 Valores Observados da Base de Dados B. . . . . . . . . . . . . . . . . 171 Tabela 22 Valores Observados da Base de Dados A. . . . . . . . . . . . . . . . . 172 Tabela 23 Valores Previstos no Experimento 1. . . . . . . . . . . . . . . . . . . . 173 Tabela 24 Valores Previstos no Experimento 2. . . . . . . . . . . . . . . . . . . . 174 Tabela 25 Valores Previstos no Experimento 3. . . . . . . . . . . . . . . . . . . . 175 Tabela 26 Valores Previstos no Experimento 4. . . . . . . . . . . . . . . . . . . . 176 Tabela 27 Valores Previstos no Experimento 5. . . . . . . . . . . . . . . . . . . . 177 Tabela 28 Valores Previstos no Experimento 6. . . . . . . . . . . . . . . . . . . . 178 LISTA DE ABREVIAÇÕES E SIGLAS ARIMA Autoregressive Integrated Moving Average CNN Convolutional Neural Network DL Deep Learning DNN Redes Neurais Profundas GLU Gated Linear Units GRN Gate Residual Network GRU Gated Recurrent Unit IA Inteligência Artificial LSTM Long Short-Term Memory LTLF Long-term Load Forecasting MAE Erro Médio Absoluto MAPE Erro Absoluto Médio Percentual ML machine learning MLP Multilayer Perceptron MTLF Medium-term Load Forecasting PE Previsão Energética PMST Previsão de Múltiplas Séries Temporais ReLU Rectified Linear Unit RFE Eliminação Recursiva de Características RNA Rede Neurais Artificial RNN Rede Neurais Recorrente RMSE Raiz do Erro Quadrático Médio SARIMA Média Móvel Integrada Autorregressiva Sazonal SEP Sistemas Elétricos de Potência Seq2Seq Sequência a Sequência sMAPE Erro Percentual Médio Absoluto Simétrico SPMST Sistema Previsor de Múltiplas Séries Temporais SPUST Sistema Previsor de Única Série Temporal ST Série Temporal STLF Short-term Load Forecasting TCN Temporal Convolutional Network TFT Temporal Fusion Transformer VMD Decomposição Modal Variacional XGBoost Extreme Gradient Boosting SUMÁRIO 1 INTRODUÇÃO 8 1.1 Justificativa da Pesquisa 9 1.2 Proposta do Trabalho 10 1.3 Contribuições 11 1.4 Estrutura do Documento 12 2 REVISÃO DE LITERATURA 14 2.1 Introdução 14 2.2 Redes Neurais Profundas 16 2.3 Mecanismo de Atenção 20 2.4 Temporal Fusion Transformer 24 2.5 Síntese do Capítulo 26 3 SÉRIES TEMPORAIS 27 3.1 Introdução 27 3.2 Elementos das Séries Temporais 29 3.3 Decomposição de Séries Temporais 32 3.4 Modelos de Previsão de Séries Temporais 32 3.4.1 Avaliação de Precisão 34 3.5 Propriedades dos Dados de Séries Temporais 35 3.6 Séries Temporais de Energia Elétrica 36 3.6.1 Previsão de Carga Elétrica 37 3.6.1.1 Classificação da Previsão de Carga 38 3.6.1.2 Fatores que Influenciam a Previsão de Carga 40 3.6.1.3 Técnicas de Previsão de Carga 42 3.7 Síntese do Capítulo 44 4 REDES NEURAIS DE APRENDIZADO PROFUNDO 45 4.1 Introdução 46 4.2 Aprendizado de Máquina 47 4.2.1 Aprendizado Supervisionado 50 4.3 Redes Neurais Artificiais 53 4.3.1 O Neurônio Artificial 54 4.3.2 Arquitetura 57 4.3.3 Descida do Gradiente 60 4.3.4 Funções de Ativação 61 4.3.5 Treinamento 66 4.4 Aprendizado Profundo 68 4.5 Rede Neural Google Transformer 70 4.6 Temporal Fusion Transformer 75 4.6.1 Redes de Seleção de Variáveis 77 4.6.2 Mecanismos de Bloqueio 78 4.6.3 Encoders de Covariáveis Estáticas 80 4.6.4 Processamento Temporal 80 4.6.4.1 Atenção Multicabeça Interpretável 80 4.6.4.2 Camada de Sequência a Sequência 82 4.6.4.3 Camadas Adicionais 83 4.6.5 Intervalos de Previsão 84 4.7 Síntese do Capítulo 85 5 PREVISÃO DE DEMANDA ELÉTRICA COM TFT 86 5.1 Introdução 86 5.2 Descrição dos Dados 87 5.2.1 Base de Dados A 87 5.2.2 Base de Dados B 88 5.2.3 Pré-processamento dos Dados 89 5.3 Arquitetura Neural Utilizada 89 5.3.1 Configurações do Modelo 90 5.4 Desenvolvimento dos Modelos de Previsão Propostos 91 5.4.1 Modelagem Matemática da Previsão 93 5.5 Procedimentos e Definições do Arranjo Experimental 94 5.5.1 Divisão dos Dados 94 5.5.2 Variáveis Exógenas Utilizadas 101 5.5.3 Critérios de Avaliação 103 5.5.4 Definições de Treinamento do Modelo Neural 103 5.5.5 Ferramentas e Ambiente de Desenvolvimento 105 5.6 Síntese do Capítulo 105 6 RESULTADOS E DISCUSSÃO 106 6.1 Introdução 106 6.2 Análise dos Resultados 107 6.2.1 Resultados Experimentais do SPUST 107 6.2.1.1 Experimento 1: Base de Dados A 107 6.2.1.2 Experimento 2: Base de Dados B 111 6.2.2 Resultados Experimentais do SPMST 116 6.2.2.1 Experimento 3: Base de Dados A (3 STs) 116 6.2.2.2 Experimento 4: Base de Dados A (4 STs) 120 6.2.2.3 Experimento 5: Base de Dados B (3 STs) 125 6.2.2.4 Experimento 6: Base de Dados B (4 STs) 129 6.3 Discussão dos Resultados 135 6.3.1 Considerações sobre os Experimentos com a Base de Dados A 135 6.3.2 Considerações sobre os Experimentos com a Base de Dados B 138 6.3.3 Considerações Gerais 142 6.4 Análise de Interpretabilidade em Nível de Recursos 144 6.5 Síntese do Capítulo 153 7 CONCLUSÃO 154 REFERÊNCIAS 157 APÊNDICE A - VALORES OBSERVADOS E PREVISTOS 171 8 1 INTRODUÇÃO A previsão da demanda elétrica constitui um componente essencial para a operação efici- ente dos sistemas de potência. À medida que as redes de energia se tornam progressivamente mais complexas e integradas, a capacidade de prever com precisão o consumo futuro torna-se imprescindível para assegurar o equilíbrio entre oferta e demanda, minimizar custos operacio- nais e mitigar o impacto ambiental. No entanto, essa tarefa é complexa e desafiadora, uma vez que as séries temporais energéticas são influenciadas por uma multiplicidade de fatores, como condições climáticas, padrões de consumo, eventos sazonais e atividades econômicas. Erros nas projeções podem acarretar uma série de consequências adversas, como sobrecarga na rede elétrica, falhas no fornecimento, desperdício de recursos e custos operacionais elevados. Por exemplo, subestimar a demanda pode ocasionar apagões e instabilidades, enquanto supe- restimar o consumo pode gerar custos excedentes com a geração e armazenamento de energia. Portanto, aprimorar a precisão das previsões é crucial para garantir a eficiência e a estabilidade do sistema elétrico. A crescente disponibilidade de dados de alta frequência e alta resolução, oriundos de dispo- sitivos de medição avançada, como os smart meters, proporciona oportunidades para o desen- volvimento de modelos preditivos mais robustos e precisos. Entretanto, a amplitude e o volume desses dados também impõem desafios significativos. Os métodos convencionais de previsão muitas vezes não conseguem lidar com a complexidade e a riqueza dos dados, resultando na incapacidade de capturar as nuances presentes nas informações. Além disso, as abordagens tradicionais frequentemente analisam as séries temporais de forma isolada, ou seja, geram previsões para uma única sequência histórica em cada iteração, sem considerar o contexto global ou as possíveis confluências entre séries temporais correla- cionadas. Essa abordagem restringe a capacidade do modelo de capturar padrões complexos e dependências dinâmicas entre as diferentes entidades que compõem o sistema, o que pode resultar em previsões imprecisas e, consequentemente, em desafios para a gestão eficiente da infraestrutura. Com o avanço das tecnologias de aprendizado de máquina e a crescente disponi- bilidade de dados históricos detalhados, surge a oportunidade de aprimorar as metodologias de previsão por meio do englobamento de interdependências e informações contextuais. A utilização de técnicas avançadas de aprendizado de máquina, como o Temporal Fusion Transformer TFT, apresenta-se como uma solução promissora para aprimorar as previsões de demanda energética. O TFT é uma arquitetura de rede neural projetada para lidar com dados temporais e suas complexas inter-relações. Ao considerar simultaneamente diversos conjuntos de dados relacionados, o TFT é capaz de capturar os padrões temporais e as relações não lineares entre as variáveis, proporcionando uma análise abrangente das tendências de consumo. Neste contexto, o presente estudo tem como objetivo investigar os padrões de associação 1.1 Justificativa da Pesquisa 9 entre dados temporais do setor energético, utilizando a rede neural TFT. Assim, a metodologia proposta baseia-se na fusão de séries históricas correlacionadas, com o propósito de capturar as interdependências entre variáveis e aprimorar a capacidade do modelo de se adaptar a variações e tendências do sistema elétrico. Dessa forma, esta pesquisa visa explorar e avaliar, com um horizonte preditivo de 24 horas, a combinação de dados integrados de consumo e técnicas avan- çadas de aprendizado de máquina, com o intuito de refinar as previsões de demanda e contribuir para uma gestão mais eficiente dos sistemas elétricos de potência. 1.1 Justificativa da Pesquisa Historicamente, a previsão de cargas elétricas tem se fundamentado predominantemente em modelos que tratam cada série temporal de forma isolada. Embora tais abordagens possam ser eficazes em contextos específicos, apresentam limitações substanciais em situações onde as séries temporais interagem e se influenciam mutuamente. Por exemplo, prever a demanda elétrica de uma região sem levar em consideração o consumo nas regiões vizinhas pode resultar em estimativas imprecisas. Eventos em uma região específica, como picos de consumo devido a condições climáticas extremas, feriados ou grandes eventos esportivos, podem impactar con- sideravelmente o consumo em múltiplas áreas simultaneamente. Modelos que desconsideram essas influências cruzadas podem falhar em capturar as complexas dinâmicas do sistema, resul- tando em subestimações ou superestimações significativas da demanda total, o que pode levar a erros na gestão da oferta e no planejamento do sistema elétrico. Além disso, os padrões de consumo de energia apresentam variações significativas entre os consumidores residenciais, comerciais e industriais, e essas variações estão frequentemente correlacionadas. Por exemplo, um aumento na atividade industrial pode elevar a demanda por energia, impactando os preços e, consequentemente, influenciando o consumo nos setores re- sidencial e comercial. Também, a variabilidade na geração de energia renovável, como solar e eólica, em uma determinada região pode exigir ajustes imediatos em outras regiões para garantir a estabilidade da rede elétrica. Modelos que não considerem essas interações entre diferentes tipos de consumidores e fontes de energia podem revelar-se inadequados para prever com preci- são as necessidades reais do sistema em termos de redistribuição de carga e ajustes operacionais. A previsão múltipla aborda essas interdependências, capturando não apenas a evolução temporal de cada série histórica, mas também o impacto que mudanças em uma série podem ter sobre as demais. Essa abordagem revela-se particularmente vantajosa no setor de energia elétrica, onde diversas séries temporais, como a demanda de energia, a temperatura, os níveis de atividade econômica e a produção de energia renovável, estão interligadas. Ao incorporar essas variáveis, modelos de múltiplas séries temporais oferecem uma visão mais abrangente, identificando padrões e tendências que podem não ser reconhecidos em abordagens convencio- nais. 1.2 Proposta do Trabalho 10 Recentemente, a previsão de múltiplas séries temporais tem atraído considerável interesse no campo do aprendizado de máquina, devido à crescente necessidade de analisar dados com- plexos em diversas áreas, como finanças, saúde e meteorologia. O uso de redes neurais avan- çadas, como o modelo TFT, tem se mostrado particularmente eficaz para essa finalidade. Esse modelo permite capturar as complexas interdependências entre múltiplas séries temporais, fa- cilitando uma análise detalhada e precisa da importância relativa de cada variável, além de proporcionar previsões mais robustas e interpretáveis. Neste contexto, a pesquisa proposta justifica-se pela necessidade de aprimorar as previsões de cargas elétricas por meio de abordagens que considerem as interações complexas entre múlti- plas séries temporais. Tal abordagem não apenas melhora a precisão das previsões, mas também contribui para uma gestão mais eficiente e sustentável da energia. Isso garante uma infraestru- tura elétrica capaz de responder de maneira ágil e eficaz às demandas dinâmicas do mercado energético, promovendo uma alocação de recursos mais equilibrada e reduzindo desperdícios. 1.2 Proposta do Trabalho A presente proposta visa a aplicação do modelo TFT para a previsão de múltiplas séries temporais (PMST) no setor de energia elétrica. O objetivo central é demonstrar que, dentro deste contexto específico, a abordagem PMST é mais vantajosa em relação às metodologias que consideram apenas uma única série temporal, devido à capacidade do PMST de capturar e explorar as interações entre diferentes séries temporais. Com esta abordagem, espera-se apri- morar a precisão dos resultados e contribuir para a criação de uma infraestrutura elétrica mais adaptável às variações dinâmicas do setor energético. Para alcançar este objetivo, foram desenvolvidos dois sistemas de previsão baseados em redes neurais artificiais (RNAs) do tipo TFT. O primeiro sistema, denominado Sistema Previsor de Única Série Temporal (SPUST), concentra-se na previsão do comportamento futuro de uma única série temporal, utilizando informações exógenas e dados de cargas elétricas processados de forma isolada. Em contraste, o segundo sistema, denominado Sistema Previsor de Múlti- plas Séries Temporais (SPMST), integra diversas séries temporais em um modelo unificado. Esta abordagem permite explorar as interações entre diferentes conjuntos de dados por meio de uma estratégia de fusão de informações, na qual cada sequência temporal é tratada como uma variável de entrada no modelo TFT. A implementação e o treinamento desses modelos preditivos visam avaliar e comparar a efi- cácia das duas abordagens de previsão no contexto do setor elétrico. Para validar os resultados, foram realizados testes em diferentes níveis do sistema elétrico de potência, utilizando duas bases de dados distintas: uma referente ao nível de distribuição e outra ao nível de transmissão. Estas bases de dados incluem informações sobre o consumo de energia e variáveis exógenas 1.3 Contribuições 11 que refletem o comportamento das cargas, permitindo uma validação abrangente e robusta da aplicabilidade do método proposto. 1.3 Contribuições As principais contribuições deste trabalho são: 1. Desenvolvimento e Implementação de Modelos Transformers: Esta pesquisa se dedica ao desenvolvimento e à implementação de dois modelos preditivos baseados na arquitetura Transformers: o SPUST e o SPMST. Uma comparação detalhada dessas abordagens é realizada, destacando suas respectivas vantagens e limitações. Esta contribuição é sig- nificativa para o avanço da previsão de cargas elétricas, uma vez que os Transformers oferecem novas perspectivas e melhorias substanciais na precisão preditiva; 2. Avanço na Previsão de Demanda Energética: Este trabalho apresenta e avalia a aplicação do modelo TFT para a previsão de múltiplas séries temporais no setor de energia elétrica. O TFT captura e explora interações complexas entre diversas séries temporais, oferecendo uma abordagem que potencialmente aprimora a precisão das previsões em comparação com métodos convencionais; 3. Avaliação Abrangente e Validada: A pesquisa conduz uma validação extensiva dos méto- dos propostos por meio de testes em diferentes níveis do sistema elétrico: distribuição e transmissão. Essa abordagem demonstra a aplicabilidade dos modelos de múltiplas séries temporais em contextos fundamentais da infraestrutura elétrica; 4. Exploração das Interdependências Temporais e Contextuais: A tese investiga a importân- cia de capturar padrões temporais e interdependências complexas entre variáveis relaci- onadas ao consumo de energia, como condições climáticas, padrões de atividade econô- mica e produção de energia renovável. Essa análise proporciona percepções sobre os fatores que influenciam a demanda elétrica e como essas interações são essenciais para melhorar a precisão das previsões; 5. Análise de Interpretabilidade: A pesquisa realiza uma análise detalhada da interpretabi- lidade dos modelos, elucidando os mecanismos subjacentes às decisões preditivas. Essa análise é fundamental para a transparência e a compreensão das contribuições individu- ais de cada variável no processo preditivo, proporcionando uma melhor interpretação dos resultados e maior confiança nos modelos desenvolvidos; 6. Importância dos Recursos na Abordagem Múltipla: A tese apresenta uma análise com- parativa da importância dos recursos (features) nos modelos de previsão de Única Série Temporal e Múltiplas Séries Temporais. Essa comparação revela como a consideração de 1.4 Estrutura do Documento 12 múltiplas séries temporais pode alterar significativamente a relevância das variáveis para o modelo, oferecendo insights sobre os fatores determinantes na demanda de energia; 7. Contribuição para o Avanço da Pesquisa em Aprendizado de Máquina Aplicado à Ener- gia: Este trabalho avança o campo de aprendizado de máquina aplicado à previsão de demanda energética, demonstrando a aplicabilidade de técnicas avançadas, como o Tem- poral Fusion Transformer. A pesquisa abre novos caminhos para futuras investigações sobre a aplicação de modelos preditivos complexos em outros contextos relacionados à gestão de energia e áreas que envolvem séries temporais. Em síntese, esta pesquisa apresenta avanços substanciais na metodologia de previsão de cargas elétricas, evidenciando a superioridade da abordagem de múltiplas séries temporais e a eficácia do modelo Temporal Fusion Transformer no setor energético. As contribuições desta pesquisa têm o potencial de influenciar práticas futuras e proporcionar melhorias significativas na gestão e operação dos sistemas elétricos. 1.4 Estrutura do Documento Este documento está estruturado em sete capítulos. A seguir, apresenta-se uma breve des- crição do conteúdo de cada capítulo, com o objetivo de orientar o leitor na compreensão do fluxo e da lógica da pesquisa. • Capítulo 1: Introdução - Este capítulo proporciona uma visão geral do tema da pesquisa, destacando sua relevância e os objetivos principais. Apresenta a justificativa para a re- alização do estudo, a proposta específica e as principais contribuições esperadas. Dessa forma, estabelece a base necessária para contextualizar as questões que são abordadas ao longo do trabalho; • Capítulo 2: Revisão de Literatura - Neste capítulo, realiza-se uma revisão detalhada da literatura existente sobre os tópicos pertinentes à pesquisa. São abordados os conceitos fundamentais e avanços recentes em redes neurais profundas, mecanismos de atenção e o modelo TFT. O objetivo é fornecer uma base teórica sólida, contextualizando o estudo no cenário acadêmico e tecnológico atual; • Capítulo 3: Séries Temporais - O terceiro capítulo explora os elementos fundamentais das séries temporais, incluindo sua decomposição e modelos de previsão. São examinadas as propriedades dos dados de séries temporais no setor de energia elétrica, com uma ênfase na previsão da demanda de carga elétrica. Diversas técnicas de previsão de carga e os fatores que influenciam essas previsões são analisados para estabelecer o contexto da aplicação prática deste estudo; 1.4 Estrutura do Documento 13 • Capítulo 4: Redes Neurais de Aprendizado Profundo - Este capítulo aprofunda-se nas re- des neurais de aprendizado profundo, abordando conceitos essenciais, como aprendizado de máquina supervisionado, estruturas de redes neurais artificiais e técnicas de treina- mento. É dada atenção ao modelo Google Transformer e ao TFT, com ênfase em suas características e componentes específicos; • Capítulo 5: Previsão de Demanda Elétrica com TFT - No quinto capítulo, descrevem- se os dados utilizados na pesquisa, incluindo as bases de dados empregadas e o pré- processamento realizado. A arquitetura neural aplicada aos modelos preditivos é deta- lhada, assim como o desenvolvimento dos modelos de previsão propostos, abrangendo a modelagem matemática e os procedimentos experimentais. Este capítulo também aborda as variáveis exógenas utilizadas e os critérios de avaliação adotados; • Capítulo 6: Análise dos Resultados - O sexto capítulo apresenta e discute os resultados obtidos a partir dos experimentos realizados com os modelos desenvolvidos. São analisa- dos os desempenhos dos sistemas preditivos, com uma comparação das duas abordagens analisadas na previsão de demanda elétrica. • Capítulo 7: Conclusão - Neste capítulo, são apresentadas as conclusões da pesquisa, com destaque para as principais implicações dos resultados obtidos. Além disso, são sugeridas direções para pesquisas futuras. Além dos capítulos mencionados, este trabalho inclui o Apêndice A, que apresenta uma compilação detalhada dos valores reais e previstos obtidos em cada experimento realizado du- rante a pesquisa, fornecendo uma visão abrangente dos resultados experimentais e facilitando a análise e a verificação dos dados. 154 7 CONCLUSÃO Este estudo investigou a aplicação de previsões múltiplas no setor de energia elétrica, uti- lizando a rede neural TFT. A pesquisa foi motivada pela crescente complexidade das redes elétricas modernas e pela necessidade de ferramentas preditivas mais sofisticadas, capazes de lidar com a diversidade e as correlações presentes nos dados gerados por esses sistemas. A metodologia adotada baseou-se na fusão de séries históricas correlacionadas, visando capturar as interações entre variáveis e adaptar o modelo às variações e tendências dos cenários analisa- dos. O estudo concentrou-se no aprimoramento das previsões de demanda energética com um horizonte preditivo de 24 horas, utilizando dados de consumo provenientes de dois contextos operacionais da infraestrutura elétrica e técnicas avançadas de aprendizado de máquina. O desenvolvimento dos sistemas preditivos — SPUST e SPMST — possibilitou uma aná- lise aprofundada da eficácia de cada abordagem em diferentes contextos. Os resultados indicam que tanto o SPUST quanto o SPMST apresentam vantagens e limitações específicas, refletindo a complexidade e os desafios inerentes à previsão de demanda energética. O SPUST demonstrou uma eficácia significativa ao lidar com séries temporais individuais, como evidenciado pelos resultados obtidos na Base de Dados B, onde os valores de MAPE fo- ram relativamente baixos. Esses resultados sugerem que o SPUST é particularmente adequado para cenários em que há uma única série temporal relevante e onde a variabilidade pode ser bem modelada a partir dessa fonte de dados. Entretanto, os erros observados na Base de Dados A destacam uma limitação importante do SPUST em prever períodos de alta demanda energé- tica. Os elevados valores de erro indicam que o modelo pode não capturar adequadamente as variações extremas ou eventos raros, como aqueles que ocorrem em contextos de alta demanda. Nesses cenários, o consumo de energia atinge níveis excepcionalmente elevados, geralmente devido a fatores como condições climáticas extremas, eventos especiais ou picos repentinos na atividade industrial. Em contraste, o SPMST demonstrou que a integração de múltiplas séries temporais pode melhorar significativamente a precisão das previsões. A análise dos Experimentos 3 e 4, bem como dos Experimentos 5 e 6, indicou que a inclusão de um maior número de séries temporais correlacionadas resulta em uma modelagem mais rica e robusta dos fatores que influenciam a demanda energética. A capacidade do SPMST de capturar interações e correlações entre dife- rentes séries temporais contribuiu para uma precisão aprimorada nas previsões. No entanto, a necessidade de processamento intensivo pode se tornar um obstáculo, especialmente em ambi- entes com recursos computacionais limitados. Portanto, ao comparar o SPUST e o SPMST, é essencial considerar não apenas a capaci- dade preditiva de cada abordagem, mas também o contexto específico da demanda energética, a disponibilidade de dados e os recursos computacionais disponíveis. Para aplicações práticas, 7 CONCLUSÃO 155 o SPUST pode ser mais adequado em cenários com uma única série temporal de alta qualidade e onde a demanda permanece relativamente estável. Nessas situações, a simplicidade e a efi- ciência do SPUST oferecem vantagens significativas, possibilitando previsões precisas sem a necessidade de processamento intensivo. Por outro lado, o SPMST emerge como uma abordagem altamente promissora quando se dispõe de múltiplas séries temporais correlacionadas. A capacidade de integrar diversas fon- tes de dados permite uma modelagem mais sofisticada e detalhada, resultando em previsões mais precisas em contextos complexos. Ao capturar interações e correlações entre variáveis, o SPMST oferece uma visão abrangente e adaptada às nuances do setor energético. Embora essa abordagem exija um tempo de treinamento maior, os benefícios potenciais superam am- plamente os desafios. O aprimoramento na precisão das previsões e a capacidade de adaptação a cenários dinâmicos e variáveis justificam o investimento adicional, tornando o SPMST uma escolha estratégica para enfrentar os desafios do segmento elétrico. Neste contexto, é importante destacar que as séries temporais de energia elétrica tendem a ser instáveis e suscetíveis a flutuações causadas por condições climáticas, eventos sazonais e variáveis econômicas. Além disso, os dados de demanda frequentemente estão correlacionados e refletem uma complexa rede de fatores que influenciam o consumo. A análise de interpretabi- lidade revelou que a inclusão de múltiplas séries temporais no SPMST oferece uma visão mais detalhada dessas influências. Com a inclusão de séries temporais adicionais, os codificadores e decodificadores conseguiram identificar uma gama mais ampla de variáveis, abrangendo aspec- tos climáticos, sazonais e outras características temporais relevantes. Em contraste, o SPUST, que se baseia em uma única série temporal, apresentou uma interpretação mais restrita, focando principalmente em atributos diretamente relacionados à demanda elétrica e às características temporais básicas. Essa diferença ressalta a importância da integração de múltiplas fontes de dados no setor energético, pois a fusão dessas fontes permite uma modelagem mais robusta, capaz de proporcionar uma compreensão mais completa da dinâmica da demanda energética. Diante dos resultados obtidos neste trabalho, pesquisas futuras poderão explorar: 1. Expansão do Número de Séries Temporais: Investigar a eficácia do modelo TFT ao in- corporar um maior número de séries temporais, com o objetivo de avaliar se a inclusão de dados adicionais pode resultar em melhorias significativas na precisão das previsões e na capacidade de generalização do modelo; 2. Avaliação de Séries Temporais Não Correlacionadas: Analisar o impacto da integração de séries temporais não correlacionadas para determinar se a inclusão de dados variados pode aprimorar ou comprometer a performance preditiva do modelo; 3. Integração de Dados Externos e Contextuais: Explorar a inclusão de séries temporais de dados externos e contextuais, como eventos econômicos ou tendências de mercado, para 7 CONCLUSÃO 156 avaliar se esses fatores adicionais podem aprimorar a capacidade preditiva no contexto abordado nesta pesquisa; 4. Estudos de Caso em Outros Cenários Operacionais: Aplicar a metodologia proposta em outros contextos de demanda para avaliar a flexibilidade e a aplicabilidade do modelo no setor elétrico; 5. Análise de Impacto Econômico e Operacional: Avaliar o impacto econômico e operacio- nal da adoção de modelos que utilizam múltiplas séries temporais, incluindo uma análise de custo-benefício e o efeito sobre os processos de tomada de decisão. Este estudo evidenciou que a previsão de múltiplas séries temporais, utilizando o Temporal Fusion Transformer, representa uma abordagem promissora para a previsão de demanda ener- gética. Os aprimoramentos observados na precisão das previsões contribuem significativamente para uma gestão mais eficiente e sustentável dos sistemas elétricos de potência, destacando a relevância de técnicas avançadas de aprendizado de máquina no desenvolvimento de soluções para os desafios contemporâneos enfrentados pelo setor energético. Esta pesquisa propõe uma perspectiva inovadora para o uso de modelos preditivos no con- texto dos sistemas de energia elétrica, explorando a fusão de informações contextuais e a análise das interdependências entre séries temporais para aprofundar a compreensão das dinâmicas do consumo. Essa abordagem tem o potencial de melhorar a precisão na previsão de flutuações na demanda e de apoiar decisões estratégicas, contribuindo para uma alocação mais eficiente de recursos. Além disso, o estudo sugere caminhos para práticas operacionais mais ágeis e in- formadas, que podem fortalecer a adaptabilidade das redes elétricas diante das mudanças nas condições operacionais e das exigências do mercado energético. 157 REFERÊNCIAS AL-KANDARI, A.; SOLIMAN, S.; EL-HAWARY, M. Fuzzy short-term electric load forecasting. International Journal of Electrical Power & Energy Systems, Elsevier, Amsterdam, v. 26, n. 2, p. 111–122, 2004. ALPAYDIN, E. Introduction to machine learning. Cambridge, Massachusetts: MIT press, 2020. ANAND, D.; KHALAF, O. I.; ABDULSAHIB, G. M.; CHANDRA, G. R. Original research article identification of meningioma tumor using recurrent neural networks. Journal of Autonomous Intelligence, [S. l.], v. 7, n. 2, 2024. ANDRADE, G. N. de; SANT’ANNA, A. P. Estimativa do impacto das variações de temperatura sobre o consumo residencial de energia elétrica no rio de janeiro. Simpósio brasileiro de Pesquisa Operacional, Rio de Janeiro, p. 949–260, 2013. ARMSTRONG, J. S. Principles of forecasting: a handbook for researchers and practitioners. Berlin: Springer, 2001. v. 30. ARNAOUT, R.; CURRAN, L.; ZHAO, Y.; LEVINE, J. C.; CHINN, E.; MOON-GRADY, A. J. An ensemble of neural networks provides expert-level prenatal detection of complex congenital heart disease. Nature medicine, Nature Publishing Group, London, v. 27, n. 5, p. 882–891, 2021. AYACHI, R.; SAID, Y.; ABDELAALI, A. B. Pedestrian detection based on light-weighted separable convolution for advanced driver assistance systems. Neural Processing Letters, Springer, Berlin, v. 52, n. 3, p. 2655–2668, 2020. BA, J. L.; KIROS, J. R.; HINTON, G. E. Layer normalization. arXiv preprint ar- Xiv:1607.06450, [S. l.], 2016. BADŽA, M. M.; BARJAKTAROVIĆ, M. Č. Classification of brain tumors from mri images using a convolutional neural network. Applied Sciences, MDPI, Basel, v. 10, n. 6, p. 1999, 2020. BAI, Y.; XIE, J.; LIU, C.; TAO, Y.; ZENG, B.; LI, C. Regression modeling for enterprise electricity consumption: A comparison of recurrent neural network and its variants. International Journal of Electrical Power & Energy Systems, Elsevier, Amsterdam, v. 126, p. 106612, 2021. BALAKRISHNAN, R.; GEETHA, V.; KUMAR, M. R.; LEUNG, M.-F. Reduction in residential electricity bill and carbon dioxide emission through renewable energy integration using an adaptive feed-forward neural network system and mppt technique. Sustainability, MDPI, Basel, v. 15, n. 19, p. 14088, 2023. BANDARA, K.; BERGMEIR, C.; HEWAMALAGE, H. Lstm-msnet: Leveraging forecasts on sets of related time series with multiple seasonal patterns. IEEE transactions on neural networks and learning systems, IEEE, New York, v. 32, n. 4, p. 1586–1599, 2020. REFERÊNCIAS 158 BASHEER, I. A.; HAJMEER, M. Artificial neural networks: fundamentals, computing, design, and application. Journal of microbiological methods, Elsevier, Amsterdam, v. 43, n. 1, p. 3–31, 2000. BECKEN, S.; FRAMPTON, C.; SIMMONS, D. Energy consumption patterns in the accommodation sector—the new zealand case. Ecological economics, Elsevier, Amsterdam, v. 39, n. 3, p. 371–386, 2001. BENGIO, Y. Practical recommendations for gradient-based training of deep architectures. In: Neural networks: Tricks of the trade: Second edition. Berlin: Springer, 2012. p. 437–478. BHATT, D.; PATEL, C.; TALSANIA, H.; PATEL, J.; VAGHELA, R.; PANDYA, S.; MODI, K.; GHAYVAT, H. Cnn variants for computer vision: History, architecture, application, challenges and future scope. Electronics, MDPI, Basel, v. 10, n. 20, p. 2470, 2021. BHAVSAR, P.; SAFRO, I.; BOUAYNAYA, N.; POLIKAR, R.; DERA, D. Machine learning in transportation data analytics. In: Data analytics for intelligent transportation systems. Amsterdam: Elsevier, 2017. p. 283–307. BOCCI, C.; CARLINI, E.; KILEEL, J. Hadamard products of linear spaces. Journal of Algebra, Elsevier, Amsterdam, v. 448, p. 595–617, 2016. BUNN, D.; FARMER, E. D. Comparative models for electrical load forecasting. John Wiley and Sons Inc., New York, NY, 1985. CARBONELL, J. G.; MICHALSKI, R. S.; MITCHELL, T. M. An overview of machine learning. Machine learning, Elsevier, Amsterdam, p. 3–23, 1983. CDS. CDS-Centralized Dataset. 2010. Electricity commission for the load dataset. New Zealand. CHAE, Y. T.; HORESH, R.; HWANG, Y.; LEE, Y. M. Artificial neural network model for forecasting sub-hourly electricity usage in commercial buildings. Energy and Buildings, Elsevier, Amsterdam, v. 111, p. 184–194, 2016. CHANDRASEKARAN, K.; SELVARAJ, J.; AMALADOSS, C. R.; VEERAPAN, L. Hybrid renewable energy based smart grid system for reactive power management and voltage profile enhancement using artificial neural network. Energy Sources, Part A: Recovery, Utilization, and Environmental Effects, Taylor & Francis, London, v. 43, n. 19, p. 2419–2442, 2021. CHANG, J.-H.; TSENG, C.-Y. Analysis of correlation between secondary pm2. 5 and factory pollution sources by using ann and the correlation coefficient. Ieee Access, IEEE, New York, v. 5, p. 22812–22822, 2017. CHATFIELD, C. Time-series forecasting. Boca Raton, FL: Chapman and Hall/CRC, 2000. CHAUVIN, Y.; RUMELHART, D. E. Backpropagation: theory, architectures, and applications. New York: Psychology press, 2013. CHEN, J. I.-Z.; LAI, K.-L. Deep convolution neural network model for credit-card fraud detection and alert. Journal of Artificial Intelligence, [S. l.], v. 3, n. 02, p. 101–112, 2021. REFERÊNCIAS 159 CHEN, S.; DONG, J.; HA, P.; LI, Y.; LABI, S. Graph neural network and reinforcement learning for multi-agent cooperative control of connected autonomous vehicles. Computer- Aided Civil and Infrastructure Engineering, Wiley Online Library, Hoboken, New Jersey, v. 36, n. 7, p. 838–857, 2021. CHENG, D.; YANG, F.; XIANG, S.; LIU, J. Financial time series forecasting with multi-modality graph neural network. Pattern Recognition, Elsevier, Amsterdam, v. 121, p. 108218, 2022. CHITALIA, G.; PIPATTANASOMPORN, M.; GARG, V.; RAHMAN, S. Robust short-term electrical load forecasting framework for commercial buildings using deep recurrent neural networks. Applied Energy, Elsevier, Amsterdam, v. 278, p. 115410, 2020. CHITTY-VENKATA, K. T.; EMANI, M.; VISHWANATH, V.; SOMANI, A. K. Neural architecture search for transformers: A survey. IEEE Access, IEEE, New York, v. 10, p. 108374–108412, 2022. CHO, K.; MERRIËNBOER, B. V.; GULCEHRE, C.; BAHDANAU, D.; BOUGARES, F.; SCHWENK, H.; BENGIO, Y. Learning phrase representations using rnn encoder-decoder for statistical machine translation. arXiv preprint arXiv:1406.1078, [S. l.], 2014. CHOLLET, F. Deep learning with Python. New York: Simon and Schuster, 2021. CHOU, J.-S.; TRAN, D.-S. Forecasting energy consumption time series using machine learning techniques based on usage patterns of residential householders. Energy, Elsevier, Amsterdam, v. 165, p. 709–726, 2018. DAGUM, E. B. Time series modeling and decomposition. Statistica, Bologna, v. 70, n. 4, p. 433–457, 2010. DAMBORG, M.; EL-SHARKAWI, M.; AGGOUNE, M.; MARKS, R. Potential of artificial neural networks in power system operation. In: IEEE. IEEE International Symposium on Circuits and Systems. New York, 1990. p. 2933–2937. DAUPHIN, Y. N.; FAN, A.; AULI, M.; GRANGIER, D. Language modeling with gated convolutional networks. In: PMLR. International conference on machine learning. [S. l.], 2017. p. 933–941. DESAI, M.; SHAH, M. An anatomization on breast cancer detection and diagnosis employing multi-layer perceptron neural network (mlp) and convolutional neural network (cnn). Clinical eHealth, Elsevier, Amsterdam, v. 4, p. 1–11, 2021. DHANJAL, A. S.; SINGH, W. A comprehensive survey on automatic speech recognition using neural networks. Multimedia Tools and Applications, Springer, Berlin, v. 83, n. 8, p. 23367–23412, 2024. FAUSETT, L. V. Fundamentals of neural networks: architectures, algorithms and applications. Delhi: Pearson Education India, 2006. FEKRI, M. N.; PATEL, H.; GROLINGER, K.; SHARMA, V. Deep learning for load forecasting with smart meter data: Online adaptive recurrent neural network. Applied Energy, REFERÊNCIAS 160 Elsevier, Amsterdam, v. 282, p. 116177, 2021. FENG, Q.; CHEN, H.; JIANG, R. Analysis of early warning of corporate financial risk via deep learning artificial neural network. Microprocessors and Microsystems, Elsevier, Amsterdam, v. 87, p. 104387, 2021. FRINTROP, S.; JENSFELT, P. Attentional landmarks and active gaze control for visual slam. IEEE Transactions on Robotics, IEEE, New York, v. 24, n. 5, p. 1054–1065, 2008. FÜEGI, J.; FRANCIS, J. Lovelace & babbage and the creation of the 1843’notes’. ACM Inroads, ACM New York, NY, USA, v. 6, n. 3, p. 78–86, 2015. GAL, Y.; GHAHRAMANI, Z. A theoretically grounded application of dropout in recurrent neural networks. Advances in neural information processing systems, [S. l.], v. 29, 2016. GALASSI, A.; LIPPI, M.; TORRONI, P. Attention in natural language processing. IEEE transactions on neural networks and learning systems, IEEE, New York, v. 32, n. 10, p. 4291–4308, 2020. GALIĆ, D.; STOJANOVIĆ, Z.; ČAJIĆ, E. Application of neural networks and machine learning in image recognition. Tehnički vjesnik, Strojarski fakultet u Slavonskom Brodu; Fakultet elektrotehnike, računarstva . . . , [S. l.], v. 31, n. 1, p. 316–323, 2024. GAO, J.; CHEN, Y.; HU, W.; ZHANG, D. An adaptive deep-learning load forecasting framework by integrating transformer and domain knowledge. Advances in Applied Energy, Elsevier, Amsterdam, v. 10, p. 100142, 2023. GAO, Y.; WEI, X.; ZHOU, L. Personalized qoe improvement for networking video service. IEEE Journal on Selected Areas in Communications, IEEE, New York, v. 38, n. 10, p. 2311–2323, 2020. GASPARIN, A.; LUKOVIC, S.; ALIPPI, C. Deep learning for time series forecasting: The electric load case. CAAI Transactions on Intelligence Technology, Wiley Online Library, Hoboken, New Jersey, v. 7, n. 1, p. 1–25, 2022. GHADAMI, N.; GHEIBI, M.; KIAN, Z.; FARAMARZ, M. G.; NAGHEDI, R.; EFTEKHARI, M.; FATHOLLAHI-FARD, A. M.; DULEBENETS, M. A.; TIAN, G. Implementation of solar energy in smart cities using an integration of artificial neural network, photovoltaic system and classical delphi methods. Sustainable Cities and Society, Elsevier, Amsterdam, v. 74, p. 103149, 2021. GHAZANFAR, A. A.; SCHROEDER, C. E. Is neocortex essentially multisensory? Trends in cognitive sciences, Elsevier, Amsterdam, v. 10, n. 6, p. 278–285, 2006. GOODFELLOW, I.; BENGIO, Y.; COURVILLE, A. Deep learning. Cambridge, Massachusetts: MIT press, 2016. GROSS, G.; GALIANA, F. D. Short-term load forecasting. Proceedings of the IEEE, IEEE, New York, v. 75, n. 12, p. 1558–1573, 1987. GURNEY, K. An introduction to neural networks. [S. l.]: CRC press, 2018. REFERÊNCIAS 161 HAYKIN, S. Neural networks: a comprehensive foundation. [S. l.]: Prentice Hall PTR, 1998. HAYKIN, S. Neural networks and learning machines, 3/E. London: Pearson, 2009. HELBING, G.; RITTER, M. Deep learning for fault detection in wind turbines. Renewable and Sustainable Energy Reviews, Elsevier, Amsterdam, v. 98, p. 189–198, 2018. HIREŠ, M.; GAZDA, M.; DROTÁR, P.; PAH, N. D.; MOTIN, M. A.; KUMAR, D. K. Convolutional neural network ensemble for parkinson’s disease detection from voice recordings. Computers in biology and medicine, Elsevier, Amsterdam, v. 141, p. 105021, 2022. HONG, T. Energy forecasting: Past, present, and future. Foresight: The International Journal of Applied Forecasting, [S. l.], n. 32, 2014. HONG, T.; PINSON, P.; FAN, S.; ZAREIPOUR, H.; TROCCOLI, A.; HYNDMAN, R. J. Probabilistic energy forecasting: Global energy forecasting competition 2014 and beyond. Amsterdam: Elsevier, 2016. 896–913 p. HONG, T.; PINSON, P.; WANG, Y.; WERON, R.; YANG, D.; ZAREIPOUR, H. Energy forecasting: A review and outlook. IEEE Open Access Journal of Power and Energy, IEEE, New York, v. 7, p. 376–388, 2020. HONG, T.; WANG, P. Fuzzy interaction regression for short term load forecasting. Fuzzy optimization and decision making, Springer, Berlin, v. 13, p. 91–103, 2014. HOPFIELD, J. J. Neural networks and physical systems with emergent collective computational abilities. Proceedings of the national academy of sciences, National Acad Sciences, Washington, v. 79, n. 8, p. 2554–2558, 1982. HU, L.; WANG, J.; GUO, Z.; ZHENG, T. Load forecasting based on lvmd-dbfcm load curve clustering and the cnn-ivia-blstm model. Applied Sciences, MDPI, Basel, v. 13, n. 12, p. 7332, 2023. HUANG, B.; WANG, J. Applications of physics-informed neural networks in power systems-a review. IEEE Transactions on Power Systems, IEEE, New York, v. 38, n. 1, p. 572–588, 2022. HUY, P. C.; MINH, N. Q.; TIEN, N. D.; ANH, T. T. Q. Short-term electricity load forecasting based on temporal fusion transformer model. Ieee Access, IEEE, New York, v. 10, p. 106296–106304, 2022. HYNDMAN, R. J. et al. Another look at forecast-accuracy metrics for intermittent demand. Foresight: The International Journal of Applied Forecasting, [S. l.], v. 4, n. 4, p. 43–46, 2006. INNAN, N.; SAWAIKA, A.; DHOR, A.; DUTTA, S.; THOTA, S.; GOKAL, H.; PATEL, N.; KHAN, M. A.-Z.; THEODONIS, I.; BENNAI, M. Financial fraud detection using quantum graph neural networks. Quantum Machine Intelligence, Springer, Berlin, v. 6, n. 1, p. 1–18, 2024. IVANKO, D.; RYUMIN, D.; KASHEVNIK, A.; AXYONOV, A.; KARNOV, A. Visual speech recognition in a driver assistance system. In: IEEE. 2022 30th European Signal Processing Conference (EUSIPCO). New York, 2022. p. 1131–1135. REFERÊNCIAS 162 JITTANON, S.; MENSIN, Y.; TERMRITTHIKUN, C. Intelligent forecasting of energy consumption using temporal fusion transformer model. In: IEEE. 2023 IEEE International Conference on Cybernetics and Innovations (ICCI). New York, 2023. p. 1–5. JOVANOVIĆ, R. Ž.; SRETENOVIĆ, A. A.; ŽIVKOVIĆ, B. D. Ensemble of various neural networks for prediction of heating energy consumption. Energy and Buildings, Elsevier, Amsterdam, v. 94, p. 189–199, 2015. KAMAEV, V.; SHCHERBAKOV, M.; PANCHENKO, D.; SHCHERBAKOVA, N.; BREBELS, A. Using connectionist systems for electric energy consumption forecasting in shopping centers. Automation and Remote Control, Springer, Berlin, v. 73, n. 6, p. 1075–1084, 2012. KANG, K.-M.; CHOI, B.-Y.; LEE, H.; AN, C.-G.; KIM, T.-G.; LEE, Y.-S.; KIM, M.; YI, J.; WON, C.-Y. Energy management method of hybrid ac/dc microgrid using artificial neural network. Electronics, MDPI, Basel, v. 10, n. 16, p. 1939, 2021. KAUR, K.; KUMAR, Y.; KAUR, S. Artificial intelligence and machine learning in financial services to improve the business system. In: Computational Intelligence for Modern Business Systems: Emerging Applications and Strategies. Berlin: Springer, 2023. p. 3–30. KHAN, M. A.-Z.; INNAN, N.; GALIB, A. A. O.; BENNAI, M. Brain tumor diagnosis using quantum convolutional neural networks. arXiv preprint arXiv:2401.15804, [S. l.], 2024. KHANDAY, N. Y.; SOFI, S. A. Deep insight: Convolutional neural network and its applications for covid-19 prognosis. Biomedical Signal Processing and Control, Elsevier, Amsterdam, v. 69, p. 102814, 2021. KHATOON, S.; SINGH, A. K. et al. Effects of various factors on electric load forecasting: An overview. In: IEEE. 2014 6th IEEE Power India International Conference (PIICON). New York, 2014. p. 1–5. KHODAYAR, M.; WANG, J.; MANTHOURI, M. Interval deep generative neural network for wind speed forecasting. IEEE Transactions on Smart Grid, IEEE, New York, v. 10, n. 4, p. 3974–3989, 2018. KONG, K. G. H.; HOW, B. S.; TENG, S. Y.; LEONG, W. D.; FOO, D. C.; TAN, R. R.; SUNARSO, J. Towards data-driven process integration for renewable energy planning. Current Opinion in Chemical Engineering, Elsevier, Amsterdam, v. 31, p. 100665, 2021. KOPRINSKA, I.; WU, D.; WANG, Z. Convolutional neural networks for energy time series forecasting. In: IEEE. 2018 international joint conference on neural networks (IJCNN). New York, 2018. p. 1–8. KOVÁCS, Z. L. Redes neurais artificiais. São Paulo: Editora Livraria da Fisica, 2006. KROSE, B.; SMAGT, P. v. d. An introduction to neural networks. Amsterdam: The University of Amsterdam, 1996. KUBAT, M.; BRATKO, I.; MICHALSKI, R. S. A review of machine learning methods. Machine learning and data mining: methods and applications, Citeseer, [S. l.], p. 3–69, 1998. REFERÊNCIAS 163 KUMAR, K.; PANDE, S. V.; KUMAR, T. C. A.; SAINI, P.; CHATURVEDI, A.; REDDY, P. C. S.; SHAH, K. B. Intelligent controller design and fault prediction using machine learning model. International Transactions on Electrical Energy Systems, Wiley Online Library, Hoboken, New Jersey, v. 2023, n. 1, p. 1056387, 2023. LAGO, J.; BRABANDERE, K. D.; RIDDER, F. D.; SCHUTTER, B. D. Short-term forecasting of solar irradiance without local telemetry: A generalized model using satellite data. Solar Energy, Elsevier, Amsterdam, v. 173, p. 566–577, 2018. LAI, K. K.; YU, L.; WANG, S.; ZHOU, L. Credit risk analysis using a reliability-based neural network ensemble model. In: SPRINGER. International Conference on Artificial Neural Networks. Berlin, 2006. p. 682–690. LAITSOS, V.; VONTZOS, G.; BARGIOTAS, D.; DASKALOPULU, A.; TSOUKALAS, L. H. Enhanced automated deep learning application for short-term load forecasting. Mathematics, MDPI, Basel, v. 11, n. 13, p. 2912, 2023. LÄNGKVIST, M.; KARLSSON, L.; LOUTFI, A. A review of unsupervised feature learning and deep learning for time-series modeling. Pattern recognition letters, Elsevier, Amsterdam, v. 42, p. 11–24, 2014. LECUN, Y.; BENGIO, Y.; HINTON, G. Deep learning. nature, Nature Publishing Group UK London, London, v. 521, n. 7553, p. 436–444, 2015. LI, H.; SUN, J.; LIAO, X. A novel short-term load forecasting model by tcn-lstm structure with attention mechanism. In: IEEE. 2022 4th International Conference on Machine Learning, Big Data and Business Intelligence (MLBDBI). New York, 2022. p. 178–182. LI, H.; YEO, J. H.; BORNSHEUER, A. L.; OVERBYE, T. J. The creation and validation of load time series for synthetic electric power systems. IEEE Transactions on Power Systems, IEEE, New York, v. 36, n. 2, p. 961–969, 2020. LI, L.; YANG, L.; ZENG, Y. Improving sentiment classification of restaurant reviews with attention-based bi-gru neural network. Symmetry, MDPI, Basel, v. 13, n. 8, p. 1517, 2021. LI, X.; WANG, J.; YANG, C. Risk prediction in financial management of listed companies based on optimized bp neural network under digital economy. Neural Computing and Applications, Springer, Berlin, v. 35, n. 3, p. 2045–2058, 2023. LIAO, H.; RADHAKRISHNAN, K. K. Short-term load forecasting with temporal fusion transformers for power distribution networks. In: IEEE. 2022 IEEE Sustainable Power and Energy Conference (iSPEC). New York, 2022. p. 1–5. LIAO, W.; BAK-JENSEN, B.; PILLAI, J. R.; WANG, Y.; WANG, Y. A review of graph neural networks and their applications in power systems. Journal of Modern Power Systems and Clean Energy, SGEPRI, Nanjing, v. 10, n. 2, p. 345–360, 2021. LIM, B.; ARIK, S. Ö.; LOEFF, N.; PFISTER, T. Temporal fusion transformers for interpretable multi-horizon time series forecasting. International Journal of Forecasting, Elsevier, Amsterdam, v. 37, n. 4, p. 1748–1764, 2021. REFERÊNCIAS 164 LIM, B.; ZOHREN, S. Time-series forecasting with deep learning: a survey. Philosophical Transactions of the Royal Society A, The Royal Society Publishing, London, v. 379, n. 2194, p. 20200209, 2021. LIU, Z.; WANG, X.; XING, J.; REN, M.; XU, X. Short-term power load forecasting based on iwoa-attention-bilstm. In: IEEE. 2022 IEEE 8th International Conference on Cloud Computing and Intelligent Systems (CCIS). New York, 2022. p. 444–450. LUO, Y.; CHENG, Q.; YAN, S.; YANG, D. Situation awareness method of the distribution network based on emd-svd and elman neural network. Energy Reports, Elsevier, Amsterdam, v. 8, p. 632–639, 2022. LUONG, M.-T.; PHAM, H.; MANNING, C. D. Effective approaches to attention-based neural machine translation. arXiv preprint arXiv:1508.04025, [S. l.], 2015. LYASHENKO, V.; LAARIEDH, F.; SOTNIK, S.; AYAZ, A. M. Recognition of voice commands based on neural network. TEM Journal, [S. l.], 2021. MARCOS, I. P.; JÚNIOR, A. P. P. Previsão do consumo de energia elétrica na região nordeste do brasil. Revista de Engenharia e Pesquisa Aplicada, [S. l.], v. 6, n. 3, p. 21–30, 2021. MARQUES, G.; AGARWAL, D.; DÍEZ, I. De la T. Automated medical diagnosis of covid-19 through efficientnet convolutional neural network. Applied soft computing, Elsevier, Amsterdam, v. 96, p. 106691, 2020. MASON, E. S. Energy requirements and economic growth. Washington, D.C.: National planning association, 1955. MCCULLOCH, W. S.; PITTS, W. A. A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, New York, v. 5, p. 115–133, 1943. MICHALSKI, R. S. A theory and methodology of inductive learning. In: Machine learning. Amsterdam: Elsevier, 1983. p. 83–134. MILLER, A.; BLOTT, B.; HAMES, T. Review of neural network applications in medical imaging and signal processing. Medical and Biological Engineering and Computing, Springer, Berlin, v. 30, p. 449–464, 1992. MISHRA, M.; NAYAK, J.; NAIK, B.; ABRAHAM, A. Deep learning in electrical utility industry: A comprehensive review of a decade of research. Engineering Applications of Artificial Intelligence, Elsevier, Amsterdam, v. 96, p. 104000, 2020. MOGHRAM, I.; RAHMAN, S. Analysis and evaluation of five short-term load forecasting techniques. IEEE Transactions on power systems, IEEE, New York, v. 4, n. 4, p. 1484–1491, 1989. MOHSENIMANESH, A.; ENTCHEV, E.; BOSNJAK, F. Hybrid model based on an sd selection, ceemdan, and deep learning for short-term load forecasting of an electric vehicle fleet. Applied Sciences, Basel, v. 12, n. 18, 2022. ISSN 2076-3417. MONARD, M. C.; BARANAUSKAS, J. A. Conceitos sobre aprendizado de máquina. Sistemas REFERÊNCIAS 165 inteligentes-Fundamentos e aplicações, Barueri, v. 1, n. 1, p. 32, 2003. MONTEIRO, F.; OLIVEIRA, R.; ALMEIDA, J.; GONÇALVES, P.; BARTOLOMEU, P.; NETO, J.; DEUS, R. Electricity consumption dataset of a local energy cooperative. Data in Brief, Elsevier, Amsterdam, v. 54, p. 110373, 2024. MORAL-CARCEDO, J.; VICÉNS-OTERO, J. Modelling the non-linear response of spanish electricity demand to temperature variations. Energy economics, Elsevier, Amsterdam, v. 27, n. 3, p. 477–494, 2005. MORETTIN, P. A.; TOLOI, C. M. d. C. Análise de séries temporais. [S. l.], 2022. MOTIE, S.; RAAHEMI, B. Financial fraud detection using graph neural networks: A systematic review. Expert Systems With Applications, Elsevier, Amsterdam, p. 122156, 2023. MOTLAGH, O.; BERRY, A.; O’NEIL, L. Clustering of residential electricity customers using load time series. Applied energy, Elsevier, Amsterdam, v. 237, p. 11–24, 2019. MÜLLER, A. C.; GUIDO, S. Introduction to machine learning with Python: a guide for data scientists. Sebastopol, California: "O’Reilly Media, Inc.", 2016. MURPHY, K. P. Machine learning: a probabilistic perspective. Cambridge, Massachusetts: MIT press, 2012. MURTO, P. Neural network models for short-term load forescasting. [S. l.], 1998. NAIR, V.; HINTON, G. E. Rectified linear units improve restricted boltzmann machines. In: Proceedings of the 27th international conference on machine learning (ICML-10). [S. l.]: [s.n.], 2010. p. 807–814. NAZIR, A.; SHAIKH, A. K.; SHAH, A. S.; KHALIL, A. Forecasting energy consumption demand of customers in smart grid using temporal fusion transformer (tft). Results in Engineering, Elsevier, Amsterdam, v. 17, p. 100888, 2023. NIELSEN, M. A. Neural networks and deep learning. San Francisco, CA: Determination press San Francisco, CA, USA, 2015. v. 25. NILSSON, N. J. Principles of artificial intelligence. New York: Springer Science & Business Media, 1982. NIU, Z.; ZHONG, G.; YU, H. A review on the attention mechanism of deep learning. Neurocomputing, Elsevier, Amsterdam, v. 452, p. 48–62, 2021. O’DONOVAN, T. M. Short term forecasting: An introduction to the box-jenkins approach. (No Title), [S. l.], 1983. ONS. Operador Nacional do Sistema Elétrico - Glossário. 2024. Acesso em: 31 maio 2024. Disponível em: . OYEWOLE, A. T.; ADEOYE, O. B.; ADDY, W. A.; OKOYE, C. C.; OFODILE, O. C.; UGOCHUKWU, C. E. Predicting stock market movements using neural networks: a review and application study. Computer Science & IT Research Journal, [S. l.], v. 5, n. 3, p. 651–670, REFERÊNCIAS 166 2024. PARLOS, A. G.; OUFI, E.; MUTHUSAMI, J.; PATTON, A. D.; ATIYA, A. F. Development of an intelligent long-term electric load forecasting system. In: IEEE. Proceedings of international conference on intelligent system application to power systems. New York, 1996. p. 288–292. PASCANU, R.; MIKOLOV, T.; BENGIO, Y. On the difficulty of training recurrent neural networks. In: PMLR. International conference on machine learning. [S. l.], 2013. p. 1310–1318. QIN, B.; GAO, X.; LI, F.; LIU, D.; ZHANG, Z.; DING, T.; HUANG, R. Cnn-gru-attention based short-term load forecasting of distribution networks. Authorea Preprints, Authorea, 2022. RÁCZ, L.; SZABÓ, D.; GÖCSEI, G.; NÉMETH, B. Grid management technology for the integration of renewable energy sources into the transmission system. In: IEEE. 2018 7th International Conference on Renewable Energy Research and Applications (ICRERA). New York, 2018. p. 612–617. RAGAB, D. A.; SHARKAS, M.; MARSHALL, S.; REN, J. Breast cancer detection using deep convolutional neural networks and support vector machines. PeerJ, PeerJ Inc., San Mateo, California, v. 7, p. e6201, 2019. RASAMOELINA, A. D.; ADJAILIA, F.; SINČÁK, P. A review of activation function for artificial neural network. In: IEEE. 2020 IEEE 18th World Symposium on Applied Machine Intelligence and Informatics (SAMI). New York, 2020. p. 281–286. RAVINDRAN, R.; SANTORA, M. J.; JAMALI, M. M. Multi-object detection and tracking, based on dnn, for autonomous vehicles: A review. IEEE Sensors Journal, IEEE, New York, v. 21, n. 5, p. 5668–5677, 2020. ROSENBLATT, F. The perceptron: a probabilistic model for information storage and organization in the brain. Psychological review, American Psychological Association, Washington, D.C., v. 65, n. 6, p. 386, 1958. RUMELHART, D. E.; HINTON, G. E.; WILLIAMS, R. J. Learning internal representations by error propagation, parallel distributed processing, explorations in the microstructure of cognition, ed. de rumelhart and j. mcclelland. vol. 1. 1986. Biometrika, [S. l.], v. 71, p. 599–607, 1986. RUSSELL, S.; NORVIG, P. Inteligência Artificial. 3. ed. Rio de Janeiro: GEN LTC, 2013. 1016 p. ISBN 8535237011. RUSSELL, S. J.; NORVIG, P. Artificial intelligence: a modern approach. London: Pearson, 2016. SADI, M. Z.; DEEBA, S. R.; SIDDIQUE, R. H. et al. Temperature sensitivity forecasting of electrical load. In: IEEE. 2010 4th International Power Engineering and Optimization Conference (PEOCO). New York, 2010. p. 244–248. REFERÊNCIAS 167 SANTOS, M. L.; GARCÍA-SANTIAGO, X.; CAMARERO, F. E.; GIL, G. B.; ORTEGA, P. C. Application of temporal fusion transformer for day-ahead pv power forecasting. Energies, MDPI, Basel, v. 15, n. 14, p. 5232, 2022. SCHMIDHUBER, J. Deep learning in neural networks: An overview. Neural networks, Elsevier, Amsterdam, v. 61, p. 85–117, 2015. SFETSOS, A. Short-term load forecasting with a hybrid clustering algorithm. IEE Proceedings-Generation, Transmission and Distribution, IET, London, v. 150, n. 3, p. 257–262, 2003. SHARMA, S.; SHARMA, S.; ATHAIYA, A. Activation functions in neural networks. Towards Data Sci, [S. l.], v. 6, n. 12, p. 310–316, 2017. SHEPHERD, G. M. The synaptic organization of the brain. Oxford: Oxford university press, 2003. SHRESTHA, A.; MAHMOOD, A. Review of deep learning algorithms and architectures. IEEE access, IEEE, New York, v. 7, p. 53040–53065, 2019. SOUSA, C. A. de. An overview on weight initialization methods for feedforward neural networks. In: IEEE. 2016 International Joint Conference on Neural Networks (IJCNN). New York, 2016. p. 52–59. SRIVASTAVA, N.; HINTON, G.; KRIZHEVSKY, A.; SUTSKEVER, I.; SALAKHUTDINOV, R. Dropout: a simple way to prevent neural networks from overfitting. The journal of machine learning research, JMLR. org, [S. l.], v. 15, n. 1, p. 1929–1958, 2014. SUTSKEVER, I.; VINYALS, O.; LE, Q. V. Sequence to sequence learning with neural networks. Advances in neural information processing systems, [S. l.], v. 27, 2014. SUTTON, R. S.; BARTO, A. G. Reinforcement learning: An introduction. Cambridge, Massachusetts: MIT press, 2018. TIAN, Y. Artificial intelligence image recognition method based on convolutional neural network algorithm. Ieee Access, IEEE, New York, v. 8, p. 125731–125744, 2020. TURING, A. M. Computing machinery and intelligence. Mind, [S. l.], LIX, n. 236, p. 433–460, 1950. Disponível em: . VALENCIA, V. A. N.; SANCHEZ-GALAN, J. E. Use of attention-based neural networks to short-term load forecasting in the republic of panama. In: IEEE. 2022 IEEE 40th Central America and Panama Convention (CONCAPAN). New York, 2022. p. 1–6. VASKOVSKY, A. M.; CHVANOVA, M. S.; REBEZOV, M. B. Creation of digital twins of neural network technology of personalization of food products for diabetics. In: IEEE. 2020 4th Scientific School on Dynamics of Complex Networks and their Application in Intellectual Robotics (DCNAIR). New York, 2020. p. 251–253. VASWANI, A.; SHAZEER, N.; PARMAR, N.; USZKOREIT, J.; JONES, L.; GOMEZ, A. N.; KAISER, Ł.; POLOSUKHIN, I. Attention is all you need. Advances in neural information REFERÊNCIAS 168 processing systems, [S. l.], v. 30, 2017. VISCONDI, G. de F.; ALVES-SOUZA, S. N. A systematic literature review on big data for solar photovoltaic electricity generation forecasting. Sustainable Energy Technologies and Assessments, Elsevier, Amsterdam, v. 31, p. 54–63, 2019. WANG, F.; TAX, D. M. Survey on the attention based rnn model and its applications in computer vision. arXiv preprint arXiv:1601.06823, [S. l.], 2016. WANG, H.; YI, H.; PENG, J.; WANG, G.; LIU, Y.; JIANG, H.; LIU, W. Deterministic and probabilistic forecasting of photovoltaic power based on deep convolutional neural network. Energy conversion and management, Elsevier, Amsterdam, v. 153, p. 409–422, 2017. WANG, N.; XUE, S.; LI, Z. Short-term load forecasting based on vmd and combined deep learning model. IEEJ Transactions on Electrical and Electronic Engineering, Wiley Online Library, Hoboken, New Jersey, v. 18, n. 7, p. 1067–1075, 2023. WANG, R. Electricity load model forecasting research based on woabilstm-attention algorithm. In: SPIE. Second International Conference on Algorithms, Microchips, and Network Applications (AMNA 2023). Bellingham, 2023. v. 12635, p. 64–69. WANG, Y.-L.; JAHANSHAHI, H.; BEKIROS, S.; BEZZINA, F.; CHU, Y.-M.; ALY, A. A. Deep recurrent neural networks with finite-time terminal sliding mode control for a chaotic fractional-order financial system with market confidence. Chaos, Solitons & Fractals, Elsevier, Amsterdam, v. 146, p. 110881, 2021. WANG, Z.; JIA, L.; REN, C. Attention-bidirectional lstm based short term power load forecasting. In: IEEE. 2021 Power System and Green Energy Conference (PSGEC). New York, 2021. p. 171–175. WASSERMAN, P. D. Neural computing: theory and practice. New York: Van Nostrand Reinhold Co., 1989. WEN, R.; TORKKOLA, K.; NARAYANASWAMY, B.; MADEKA, D. A multi-horizon quantile recurrent forecaster. arXiv preprint arXiv:1711.11053, [S. l.], 2017. WU, B.; YANG, L.; WANG, T. Dual attention lstm for building power load forecasting based on feature selection. In: SPIE. International Conference on Computer, Artificial Intelligence, and Control Engineering (CAICE 2023). Bellingham, 2023. v. 12645, p. 1311–1320. WU, Z.; PAN, S.; CHEN, F.; LONG, G.; ZHANG, C.; PHILIP, S. Y. A comprehensive survey on graph neural networks. IEEE transactions on neural networks and learning systems, IEEE, New York, v. 32, n. 1, p. 4–24, 2020. XIAO, Y.; ZHANG, X.; XU, X.; LIU, X.; LIU, J. Deep neural networks with koopman operators for modeling and control of autonomous vehicles. IEEE transactions on intelligent vehicles, IEEE, New York, v. 8, n. 1, p. 135–146, 2022. XIONG, J.; ZHANG, Y. A unifying framework of attention-based neural load forecasting. IEEE Access, IEEE, New York, 2023. REFERÊNCIAS 169 XIONG, J.; ZHOU, P.; CHEN, A.; ZHANG, Y. Attention-based neural load forecasting: A dynamic feature selection approach. In: IEEE. 2021 IEEE Power & Energy Society General Meeting (PESGM). New York, 2021. p. 01–05. YAN, K.; LI, W.; JI, Z.; QI, M.; DU, Y. A hybrid lstm neural network for energy consumption forecasting of individual households. Ieee Access, IEEE, New York, v. 7, p. 157633–157642, 2019. YANG, R.; YU, Y. Artificial convolutional neural network in object detection and semantic segmentation for medical imaging analysis. Frontiers in oncology, Frontiers Media SA, Lausanne, v. 11, p. 638182, 2021. YANG, S.; ZHU, K.; LI, F.; WENG, L.; CHENG, L. Mfamnet: Multi-scale feature attention mixture network for short-term load forecasting. Applied Sciences, MDPI, Basel, v. 13, n. 5, p. 2998, 2023. YANG, W.; SPARROW, S. N.; WALLOM, D. C. A generalised multi-factor deep learning electricity load forecasting model for wildfire-prone areas. arXiv preprint arXiv:2304.10686, [S. l.], 2023. YU, Y.; SI, X.; HU, C.; ZHANG, J. A review of recurrent neural networks: Lstm cells and network architectures. Neural computation, MIT Press One Rogers Street, Cambridge, MA 02142-1209, USA journals-info . . . , Cambridge, Massachusetts, v. 31, n. 7, p. 1235–1270, 2019. YUE, X. Application of ai technology in personalized recommendation system for financial services. Applied Mathematics and Nonlinear Sciences, Berlin, v. 9, n. 1, 2023. ZANKE, P.; SONTAKKE, D.; HASSAN, A. Personalization in insurance and banking services: Ai and ml applications. Journal of Artificial Intelligence Research and Applications, [S. l.], v. 4, n. 1, p. 39–55, 2024. ZARNOWITZ, V.; OZYILDIRIM, A. Time series decomposition and measurement of business cycles, trends and growth cycles. Journal of Monetary Economics, Elsevier, Amsterdam, v. 53, n. 7, p. 1717–1739, 2006. ZHANG, J.; LIN, T.; XIONG, B.; YE, L.; HUANG, Z.; ZHOU, N. Short-term load forecasting of power system based on attention mechanism cnn-bilstm. In: IEEE. 2022 China Automation Congress (CAC). New York, 2022. p. 1443–1446. ZHANG, K.; LU, F.; YU, C.; DAI, C.; HUAYUN, Z.; ZHANG, T.; CHEN, X.; LU, J.; LIN, Z. Short-term electrical load forecasting based on attention-gru networks. In: IEEE. 2023 IEEE 6th International Electrical and Energy Conference (CIEEC). New York, 2023. p. 3338–3343. ZHENG, H.; YUAN, J.; CHEN, L. Short-term load forecasting using emd-lstm neural networks with a xgboost algorithm for feature importance evaluation. Energies, MDPI, Basel, v. 10, n. 8, p. 1168, 2017. ZHOU, X.; WU, X. Load prediction model based on lstm and attention mechanism. In: Proceedings of the 5th International Conference on Computer Science and Software Engineering. [S. l.]: [s.n.], 2022. p. 487–491. REFERÊNCIAS 170 ZOR, K.; TIMUR, O.; TEKE, A. A state-of-the-art review of artificial intelligence techniques for short-term electric load forecasting. In: IEEE. 2017 6th international youth conference on energy (IYCE). New York, 2017. p. 1–7. ZULQARNAIN, M.; GHAZALI, R.; GHOUSE, M. G.; HASSIM, Y. M. M.; JAVID, I. Predicting financial prices of stock market using recurrent convolutional neural networks. International Journal of Intelligent Systems and Applications (IJISA), [S. l.], v. 12, n. 6, p. 21–32, 2020.