ÉLCIO ADILSON DA SILVA JÚNIOR Redução do espaço de busca em problemas de otimização multiobjetivo via simulação utilizando a análise envoltória de dados combinada com delineamento de experimentos Guaratinguetá - SP 2022 Élcio Adilson da Silva Júnior Redução do espaço de busca em problemas de otimização multiobjetivo via simulação utilizando a análise envoltória de dados combinada com delineamento de experimentos Dissertação apresentada à Faculdade de Engenharia e Ciências do Campus de Guaratinguetá, Universidade Estadual Paulista, para obtenção do título de Mestre em Engenharia de Produção em Gestão de Operações. Orientador: Prof. Dr. Aneirson Francisco da Silva Coorientador: Prof. Dr. Fernando Augusto Silva Marins Guaratinguetá - SP 2022 DADOS CURRICULARES ÉLCIO ADILSON DA SILVA JÚNIOR NASCIMENTO 04.12.1991 – Sorocaba / SP FILIAÇÃO Élcio Adilson da Silva Iná da Silva Pupo 2011/2016 Formação acadêmica (Bacharel em Engenharia Química) Universidade de São Paulo – USP 2017/2018 Formação Complementar (MBA em Gestão de Negócios) Universidade de São Paulo – USP ‘A Dimas, O Primeiro. Saúde, guerreiro.’ AGRADECIMENTOS Ao meu orientador e amigo, Prof. Dr. Aneirson Francisco da Silva, que jamais me deixou sem auxílio. Sem a sua presença, orientação, dedicação e atenção, o estudo aqui apresentado seria impossível; Às funcionárias da Biblioteca do Campus de Guaratinguetá pela dedicação, presteza e, principalmente, pela vontade de ajudar; Aos funcionários da Faculdade de Engenharia do Campos de Guaratinguetá pela dedicação e alegria no atendimento. “No more ifs, no bias, no ambiguity No wondering whether this is it. Clarity so brightly wrong The image so painfully absolute” Meshuggah - Combustion RESUMO É comum o uso de técnicas de simulação a eventos discretos para avaliação de viabilidade de mudanças em cenários logísticos, industriais, hospitalares e comerciais. O setor logístico corporativo se depara com problemas complexos que requerem decisões sobre rotas de fretes, tipos de carregamentos, modais de transporte, entre outros fatores que afetam o custo e a eficiência do serviço logístico. Modelos de simulação podem auxiliar neste tipo de análise, porém, os tempos computacionais envolvidos nestas otimizações via simulação podem ser bastante extensos. Dentre os modelos matemáticos possíveis de serem utilizados em conjunto com a simulação probabilística, a Análise Envoltória de Dados (Data Envelopment Analysis - DEA) se apresenta como uma técnica que possibilita estabelecer um ranqueamento das Unidades Tomadoras de Decisão (Decision Making Units – DMUs) envolvidas no problema tratado, em termos das suas eficiências relativas, a partir da análise dos valores de suas entradas (inputs) e saídas (outputs). Esta técnica pode prover uma redução no espaço de busca e, dessa forma, auxiliar a reduzir estes tempos e trazer resultados de boa qualidade na aplicação da Otimização via Simulação. Quando associados a DEA, métodos de delineamento de experimentos também podem contribuir com a geração de matrizes de experimentos que reduzam o número de testes. Nesse trabalho foi utilizado um modelo de simulação, construído com auxílio do software ProModel, para investigação de um cenário logístico de carregamento de caminhões para expedição de materiais, numa empresa do setor químico, caracterizado por ser um problema multiobjetivo de decisão. Nesse contexto, um modelo DEA-BCC orientado ao insumo e ao produto foi utilizado, considerando-se como sendo as 32 DMUs, definidas com o auxílio dos arranjos experimentais das técnicas de Delineamento de Experimentos de Taguchi e de Hipercubo Latino, compostas pelas variáveis de entrada do modelo (número de operadores, empilhadeiras, docas, turnos e tipos de carga, e as saídas dadas pelo custo médio por palete expedido e o número de caminhões carregados), visando à redução do espaço de busca de soluções. Os resultados mostraram as vantagens de se adotar tais técnicas combinadas, podendo serem citadas a redução de mais de 70% no tempo computacional na resolução do problema multiobjetivo e a redução de cerca de 97% no espaço de busca. PALAVRAS-CHAVE: Otimização via Simulação. Análise Envoltória de Dados. Delineamento de Experimentos. Redução do Espaço de Busca. Problemas Logísticos. Expedição de Materiais. ABSTRACT It is common to use discrete-event simulation techniques to assess the feasibility of changes in logistical, industrial, hospital and commercial scenarios. The corporate logistics sector is faced with complex problems that require decisions about freight routes, types of shipments, modes of transport, among other factors that affect the cost and efficiency of the logistics service. Simulation models can help in this type of analysis, however, the computational times involved in these optimizations via simulation can be quite extensive. Among the mathematical models that may be used in conjunction with probabilistic simulation, Data Envelopment Analysis (DEA) is presented as a technique that makes it possible to establish a ranking of the Decision Making Units (DMUs) involved in the evaluated problem, in terms of its relative efficiencies, from the analysis of the values of its inputs and outputs. This technique is able to provide a reduction in the search space and, thus, help to reduce these times and bring good quality results in the application of Optimization via Simulation. When associated with DEA, experimental design methods can also contribute to the generation of experiment arrays that reduce the number of tests. In this work, a simulation model was used, built with the aid of the ProModel software, to investigate a logistical scenario of loading trucks for shipping materials, in a company in the chemical sector, characterized by being a multi-objective decision problem. In this context, an input- and output-oriented DEA-BCC model was used, considering the 32 DMUs, defined with the help of experimental arrangements of the Taguchi and Latin Hypercube Design of Experiments techniques, composed of the variables of model input (number of operators, forklifts, docks, shifts and types of cargo, and outputs given by the average cost per pallet shipped and the number of trucks loaded), in order to reduce the search space for solutions. The results showed the advantages of adopting such combined techniques, including a reduction of more than 70% in computational time in solving the multi-objective problem and a reduction of about 97% in the search space. KEYWORDS: Optimization via Simulation. Data Envelopment Analysis. Design of Experiments. Reduction of Search Space. Logistical Problems. Shipment of Materials. LISTA DE ILUSTRAÇÕES Figura 1 – Resultados de publicações e citações em trabalhos com as palavras-chave "Discrete event simulation", "Optimization" e "Data Envelopment Analysis" ......................................... 19 Figura 2 – Diagrama das palavras-chave presentes nos artigos da base Scopus ...................... 22 Figura 3 – Classificação de pesquisa ........................................................................................ 23 Figura 4 – Fluxograma das etapas de pesquisa......................................................................... 24 Figura 5 – Gráfico do software VOSViewer com os artigos envolvendo a palavra-chave 'simulação a eventos discretos' desde 2018 .............................................................................. 28 Figura 6 – Gráfico do software VOSViewer com os artigos envolvendo a palavra-chave 'otimização via simulação' desde 2018 ..................................................................................... 31 Figura 7 – Comparação de DMU's e representação do conceito de fronteira de eficiência ..... 33 Figura 8 – Análise da Fronteira de Eficiência Invertida ........................................................... 39 Figura 9 – Comportamento da função Desirability maior, melhor, para diferentes valores de s .................................................................................................................................................. 40 Figura 10 – Comportamento da função Desirability menor, melhor para diferentes valores de t .................................................................................................................................................. 41 Figura 11 – Comportamento da função Desirability target para diferentes valores de s e t .... 42 Figura 12 – Classificação dos métodos de delineamento de experimentos mais comuns ........ 44 Figura 13 – Gráfico do software VOSViewer com os artigos envolvendo a palavra-chave 'delineamento de experimentos' desde 2018 ............................................................................. 45 Figura 14 – Gráfico do software VOSViewer com os artigos envolvendo a palavra-chave 'delineamento de experimentos', 'otimização' e 'simulação', combinada, publicados desde 2018 .................................................................................................................................................. 46 Figura 15 – Gráfico do software VOSViewer com os artigos envolvendo a palavra-chave 'método de Taguchi' desde 2018 ............................................................................................... 49 Figura 16 – Exemplos de quadrados latinos ............................................................................. 50 Figura 17 – Gráfico do software VOSViewer com os artigos envolvendo a palavra-chave 'hipercubo latino' desde 2018.................................................................................................... 51 Figura 18 – Método aplicado para construção do modelo e estudo de simulação ................... 52 Figura 19 – Fluxograma básico do modelo de simulação ........................................................ 55 Figura 20 – Captura de Tela do Modelo de Simulação elaborado no software ProModelTM ... 56 Figura 21 – Método de redução do espaço de busca proposto para o problema de OvS multiobjetivo sob estudo ........................................................................................................... 57 Figura 22 – Gráfico dos tempos computacionais e reduções pela aplicação do DOE e DEA . 70 Figura 23 – Gráfico dos tempos computacionais e funções objetivos finais da análise de sensibilidade, considerando o espaço de busca completo ........................................................ 71 Figura 24 – Gráfico dos tempos computacionais e funções objetivos finais da análise de sensibilidade, considerando o espaço de busca reduzido pelo LHD e DEA BCC orientado ao produto ...................................................................................................................................... 73 LISTA DE TABELAS Tabela 1 – Comparação do número de artigos nas bases de dados Scopus e Web of Science . 18 Tabela 2 – Modelos de cálculo da razão sinal-ruído ................................................................ 48 Tabela 3 – Descrição dos fatores envolvidos na construção do modelo no ProModel ............ 54 Tabela 4 – Descrição das variáveis de entrada do modelo ....................................................... 58 Tabela 5 – Descrição das variáveis de saída do modelo ........................................................... 58 Tabela 6 – Delineamento de Experimentos pelo Método de Taguchi ...................................... 59 Tabela 7 – Delineamento de Experimentos pelo Método do Hipercubo Latino ...................... 60 Tabela 8 – Conjuntos de dados de análise divididos por método de DOE e orientação de DEA .................................................................................................................................................. 61 Tabela 9 – DMUs mais eficientes de cada conjunto de dados, após ranqueamento ................. 61 Tabela 10 – Novos espaços de busca reduzidos pela aplicação do DEA sobre os conjuntos de dados ......................................................................................................................................... 62 Tabela 11 – Valores de L e U considerados para o cálculo da função Desirability de cada saída .................................................................................................................................................. 63 Tabela 12 – Rodadas de Otimização via função Desirability com auxílio do SimRunner ....... 64 Tabela 13 – Divisões de pesos para a análise de sensibilidade da função Desirability, baseados no DOE de mistura ................................................................................................................... 64 Tabela 14 – Pesos aplicados na análise de sensibilidade com espaço de busca completo ....... 65 Tabela 15 – Pesos aplicados na análise de sensibilidade com o melhor conjunto de dados .... 65 Tabela 16 – Resultados das simulações pelo DOE utilizando o método de Taguchi ............... 66 Tabela 17 – Resultado das simulações pelo DOE utilizando o método do Hipercubo Latino . 67 Tabela 18 – Resultados da supereficiência para as DMUs em cada conjunto de dados ........... 68 Tabela 19 – DMUs mais eficientes após ranqueamento ........................................................... 68 Tabela 20 – Novos espaços de busca reduzidos pela aplicação do DEA sobre os conjuntos de dados ......................................................................................................................................... 68 Tabela 21 – Reduções nos espaços de busca após a aplicação das técnicas DOE e DEA........ 69 Tabela 22 – Resultados das rodadas de otimização utilizando a função Desirability .............. 70 Tabela 23 – Resultados das funções Desirability na análise de sensibilidade, considerando o espaço de busca completo......................................................................................................... 72 Tabela 24 – Resultados das funções Desirability na análise de sensibilidade, considerando o espaço de busca reduzido pelo LHD e DEA BCC orientado ao produto ................................. 73 LISTA DE ABREVIATURAS E SIGLAS DEA Data Envelopment Analysis, sigla em inglês para Análise por Envoltória de Dados DOE Design of Experiments, sigla em inglês para Delineamento de Experimentos. DMU Decision Making Unit, sigla em inglês para Unidade Tomadora de Decisão. LHD Latin Hypercube Design, sigla em inglês para Projeto de Hipercubo Latino. SED Simulação a Eventos Discretos. TOA Taguchi Orthogonal Arrays, sigla em inglês para Arranjos Ortogonais de Taguchi OvS Otimização via Simulação. SUMÁRIO 1 INTRODUÇÃO ........................................................................................................ 14 1.1 CONTEXTUALIZAÇÃO E QUESTÕES DA PESQUISA ...................................... 14 1.2 OBJETIVOS DA PESQUISA .................................................................................... 16 1.3 JUSTIFICATIVA E RELEVÂNCIA CIENTÍFICA .................................................. 17 1.4 MATERIAIS E MÉTODOS ...................................................................................... 22 1.5 DELIMITAÇÃO DA PESQUISA ............................................................................. 25 1.6 ESTRUTURA DO TRABALHO ............................................................................... 25 2 FUNDAMENTAÇÃO TEÓRICA........................................................................... 26 2.1 SIMULAÇÃO A EVENTOS DISCRETOS .............................................................. 26 2.2 OTIMIZAÇÃO VIA SIMULAÇÃO .......................................................................... 28 2.3 ANÁLISE ENVOLTÓRIA DE DADOS ................................................................... 31 2.4 FUNÇÃO DESIRABILITY ......................................................................................... 39 2.5 DELINEAMENTO DE EXPERIMENTOS ............................................................... 42 2.5.1 Método de Taguchi ................................................................................................... 46 2.5.2 Hipercubo Latino ..................................................................................................... 49 3 MODELAGEM DO PROBLEMA LOGÍSTICO DE EXPEDIÇÃO .................. 52 3.1 DESCRIÇÃO DO PROBLEMA ................................................................................ 52 3.2 MODELAGEM E RESOLUÇÃO.............................................................................. 53 4 RESULTADOS E IMPLICAÇÕES GERENCIAIS ............................................. 66 5 CONCLUSÕES ........................................................................................................ 75 5.1 VERIFICAÇÃO DOS OBJETIVOS GERAIS E RESPOSTAS ÀS QUESTÕES DE PESQUISA ................................................................................................................. 75 5.2 SUGESTÕES PARA CONTINUIDADE DO TRABALHO ..................................... 77 5.3 IMPLICAÇÕES GERENCIAIS................................................................................. 77 REFERÊNCIAS ....................................................................................................... 78 APÊNDICE A – Código de cálculo da função Desirability no modelo de ProModel.................................................................................................................... 86 14 1 INTRODUÇÃO 1.1 CONTEXTUALIZAÇÃO E QUESTÕES DA PESQUISA A simulação a eventos discretos (SED) oferece uma gama de funcionalidades que é de fundamental importância para estudos de tomada de decisão (PARK et al., 2018). Ainda segundo os mesmos autores, a simulação possibilita aos tomadores de decisão verificar gargalos em sistemas reais, sem a necessidade de realizar mudanças no processo real. Além disso, um modelo de simulação estatisticamente validado é de grande valia para auxiliar a definição de uma mudança operacional (MARINS et al., 2020). A validação, geralmente, é feita por meio de testes estatísticos ou utilizando mecanismos academicamente aceitos para comprovar relações de causalidade (GUERINI; MONETA, 2017). De todo modo, a utilização de modelos de simulação para determinação de possíveis melhorias de sistemas produtivos podem demandar tempo computacional elevados, a depender do processo simulado (MARINS et al., 2020). Contudo podem permitir poupar quantias significativas em gastos desnecessários, aumentando a eficiência dos processos investigados (KHEZRIMOTLAGH et al., 2019). A Análise Envoltória de Dados (Data Envelopment Analysis – DEA) é um método não paramétrico, que emprega otimização linear para avaliar a eficiência de unidades tomadoras de decisão (Decision Making Units – DMU) (CHARNES; COOPER; RHODES, 1978). A DEA possibilita reduzir o intervalo de variação das variáveis de decisão que são otimizadas em problemas de otimização via simulação, quando associada a um arranjo ortogonal e incorporada a uma estratégia experimental bem definida (MIRANDA et al., 2017). Além disso, também é possível realizar não somente a análise dos resultados de um determinado conjunto de DMUs, mas também, sua discriminação e ranqueamentos com base na eficiência de cada unidade tomadora de decisão (DMUs), que utiliza os mesmos recursos (Input) e produtos ou saídas (Outputs), diferenciando na escala e na magnitude (MARINS et al., 2020). Na literatura, dois modelos DEA principais recebem maior destaque: os modelos DEA - CCR e DEA - BCC. O DEA - CCR recebe essa nomenclatura em referência ao trabalho pioneiro de Charnes, Cooper e Rhodes (1978) e admite retornos constantes de escala, sendo por isso também encontrado com a nomenclatura DEA - CRS (constant returns to scale) (MARINS et al., 2020). O modelo DEA - BCC é recebe esta nomenclatura também em referência ao trabalho de 15 Banker, Charnes e Cooper (1984). Este modelo admite retornos variáveis de escalas, por isso, também pode ser chamado de DEA - VRS (variable returns to scale). Ambos os modelos podem ser orientados aos insumos (inputs) ou aos produtos (outputs), a depender da necessidade da análise executada (ZHU et al., 2018). O Delineamento de Experimentos (Design of Experiments – DOE) é um conjunto de métodos estatísticos utilizados para condução de análises experimentais, visando a uma consolidação das variáveis de entrada (xs) e seus respectivos níveis de variação, reduzindo o número de experimentos necessários, sem comprometer a qualidade da resposta (MONTEVECHI et al., 2015). Dentre os métodos clássicos de DOE, há uma ampla utilização dos métodos dos Arranjos Ortogonais de Taguchi (Taguchi Orthogonal Arrays - TOA) em trabalhos de pesquisa operacional e simulação, devido à sua baixa complexidade de uso, a boa qualidade de resposta, bem como a facilidade de avaliação dos efeitos entre variáveis (KLEIJNEN, 2010). No entanto, o projeto experimental de Hipercubo Latino (Latin Hypercube Design – LHD), por sua vez, é o conjunto de métodos de DOE mais comumente utilizado para criação de metamodelos voltados para simulação computacional (PARNIANIFARD et al., 2020). Em se tratando de processos logísticos, a busca por modelos de transporte mais econômicos e eficientes para matérias primas, melhorias na consolidação de carga, distribuição de produtos acabados de forma mais eficiente são questões, constantemente, abordadas por pesquisadores de organizações educacionais e empresas privadas (LOPES et al., 2017; MARINS et al., 2019; MATOS, 2007). Assim, a simulação pode ser uma ferramenta útil nessa busca, conforme mostrado nos inúmeros trabalhos publicados envolvendo estudos de otimização, com aplicação de softwares de simulação a eventos discretos desenhados para cenários de cadeia de suprimento, tais como o ProModelTM, o Supply Chain GuruTM e o ArenaTM (FERREIRA, 2019; MARDANI et al., 2017; MIRANDA et al., 2017). Todavia, os cenários simulados em modelos de logística e Supply Chain, frequentemente, envolvem um número alto de parâmetros de entrada e saída como, por exemplo, tipos de veículos, volumes movimentados, sazonalidade, diferentes rotas, disponibilidade de fornecedores, dentre outros (BARCELLOS DE PAULA; MARINS, 2018). Vários destes cenários implicam ainda em problemas de otimização multiobjetivo, que são, por natureza, mais complexos e, portanto, tendem a necessitar de tempos computacionais mais elevados para encontrar soluções ótimas (ROJAS-GONZALEZ et al., 2019). Conforme exposto em seu trabalho Miranda et al. (2017) propõem a associação das 16 técnicas DEA e DOE para redução de espaços de busca em problemas de otimização via simulação. Esta combinação de métodos foi abordada novamente em outras duas publicações, trazendo boas indicações das capacidades de entrega de respostas com boa qualidade em tempos computacionais bastante reduzidos (MARINS et al., 2020; MIRANDA et al., 2019). A proposta de elaborar DMU’s com base em arranjos de DOE, e aplicar a DEA com ranqueamentos por supereficiência para definir novos espaços de busca e submeter estes a rodadas de otimização via simulação será aplicada neste trabalho, porém a aplicação se dará no estudo de um problema multiobjetivo, diferenciando-se também pela aplicação de mais de uma orientação para a DEA (ao insumo e ao produto) e com a utilização de dois diferentes métodos de DOE (Arranjo Ortogonal de Taguchi e Latin Hypercube Design) para criar as matrizes de DMUs. Nesse contexto, as seguintes questões de pesquisa motivaram o desenvolvimento dessa pesquisa: • Como a otimização multiobjetivo via simulação pode ser aplicada para determinar o melhor arranjo operacional logístico estudado? • Quais são vantagens de se combinar um modelo DEA-BCC com os Arranjos Ortogonais de Taguchi e o Hipercubo Latino, visando a redução do espaço de busca em otimizações multiobjetivo com modelos de simulação? • Qual o melhor arranjo experimental (Taguchi ou Hipercubo Latino) para ser combinado com o modelo DEA-BCC, visando a redução do espaço de busca em otimizações multiobjetivo com modelos de simulação? • Como aglutinar múltiplas funções objetivo em problemas de otimização multiobjetivo via simulação? 1.2 OBJETIVOS DA PESQUISA Para buscar respostas às questões de pesquisa elencadas, o objetivo geral deste trabalho foi desenvolver uma sistemática para redução do espaço de busca, e do tempo computacional, em modelos de otimização multiobjetivo via simulação, por meio de um modelo DEA – BCC, combinado com técnicas de DOE, para problemas de expedição logística. Os objetivos específicos, numa aplicação real para uma empresa do setor químico, foram: • Aplicar a sistemática proposta combinando TOA e a DEA, com orientação ao produto e ao insumo. 17 • Aplicar a sistemática proposta combinando LHD e a DEA, com orientação ao produto e ao insumo. • Identificar o melhor arranjo experimental (TOA ou LHD) para ser combinado com o modelo DEA-BCC, visando à redução do espaço de busca. • Identificar a melhor orientação do DEA (insumo ou produto) para ser combinada com os métodos de DOE, , visando à redução do espaço de busca. • Avaliar o uso da função Desirability como método de aglutinação para otimização via simulação multiobjetivo. 1.3 JUSTIFICATIVA E RELEVÂNCIA CIENTÍFICA Neste trabalho foi estudado um modelo de simulação no software ProModelTM, que representa uma operação logística real. Os dados obtidos dessa simulação possibilitaram uma melhor alocação de recursos e resultados de expedição do processo, que permitirão uma avaliação da otimização Multiobjetivo via simulação do processo estudado, otimizando dois objetivos: maior quantidade de material expedida com o menor custo por unidade expedida. Este trabalho possibilitou um estudo conjunto de várias variáveis de entrada x’s e, a otimização de dois objetivos. Para auxiliar na elaboração dos experimentos e na coleta dos dados, serão aplicadas técnicas de DOE e, após estes dados estarem disponíveis, serão aplicadas técnicas de DEA, visando estabelecer novos limites de variação para as variáveis de decisão. A Tabela 1 mostra os resultados encontrados em buscas às bases Web of Science e Scopus utilizando as palavras-chaves envolvidas neste trabalho. Percebe-se que a base Scopus gerou um maior volume de publicação, e essa foi a base selecionada para a análise bibliométrica. 18 Tabela 1 – Comparação do número de artigos nas bases de dados Scopus e Web of Science Publicações Desvio Pesquisa Palavras chaves Scopus (a) Web of Science (b) ( 𝒂 𝒃 ) − 𝟏 #1 “Simulation and Optimization” 7.224 5.030 43,6% #2 “Simulation Optimization” 3.470 3.170 9,46% #3 “Optimization via Simulation” 80 113 -29,2% #4 “Multiobjective optimization” 54.725 16.372 234,2% #5 “Data Envelopment Analysis” 20.004 16.872 18,5% #6 “Design of Experiments” 34.625 15.593 122,0% #7 “Latin Hypercube” 5.346 3.661 46,0% #8 “Discrete Event Simulation” e “Optimization” 2.793 1.280 118,2% #9 “Discrete Events Simulation” e “Optimization” 2.977 117 2.340% #10 “Discrete-Event Simulation” e “Optimization” 2.977 1.412 110,8% #11 “Discrete Event Simulation” e “Multiobjective Optimization” 113 32 253,1% #12 “Discrete Events Simulation” e “Multiobjective Optimization” 116 0 100% #13 “Discrete-Event Simulation” e “Multiobjective Optimization” 116 35 231,4% #14 “Data Envelopment Analysis” e “Multiobjective Optimization” 151 45 235,5% #15 “Taguchi” e “Multiobjective Optimization” 756 312 142,3% #16 “Latin Hypercube” e “Multiobjective Optimization” 389 95 309,5% #17 “Simulation and Optimization” e “Design of Experiments” 60 23 160,9% #18 “Data Envelopment Analysis” e “Taguchi” 59 67 -11,9% #19 “Simulation and Optimization” e “Taguchi” 32 20 60,0% #20 “Simulation and Optimization” e “Latin Hypercube” 12 7 71,4% #21 “Discrete Event Simulation” e “Optimization” e “Data Envelopment Analysis” 15 16 -6,2% #22 “Discrete Events Simulation” e “Optimization” e “Data Envelopment Analysis” 16 0 100% #23 “Discrete-Event Simulation” e “Optimization” e “Data Envelopment Analysis” 16 0 100% #24 “Data Envelopment Analysis” e “Latin Hypercube” 4 4 0% #25 “Simulation and Optimization” e “Data Envelopment Analysis” e “Latin Hypercube 4 1 300% #26 “Discrete Event Simulation” e “Optimization” e “Data Envelopment Analysis” e “Design of Experiments” 3 1 200% #27 “Discrete Events Simulation” e “Optimization” e “Data Envelopment Analysis” e “Design of Experiments” 3 0 100% #28 “Discrete-Event Simulation” e “Optimization” e “Data Envelopment Analysis” e “Design of Experiments” 3 0 100% #29 “Simulation and Optimization” e “Data Envelopment Analysis” 2 2 0% #30 “Discrete Event Simulation” e “Optimization” e “Data Envelopment Analysis” e “Design of Experiments” 2 1 100% #31 “Discrete Events Simulation” e “Optimization” e “Data Envelopment Analysis” e “Design of Experiments” 2 0 100% #32 “Discrete-Event Simulation” e “Optimization” e “Data Envelopment Analysis” e “Design of Experiments” 2 0 100% Fonte: Scopus e Web of Science (2022). 19 Esta pesquisa contribuirá, portanto, para os estudos de simulação a eventos discretos, otimização de processos, DOE e DEA, com uma aplicação real, seguida de uma análise metódica estruturada. A Figura 1 mostra o número de publicações de artigos, desde 2006, utilizando as palavras-chave "Discrete event simulation", "Optimization" e "Data Envelopment Analysis". Nesta Figura, foi possível notar dois picos de publicações, um em 2011, com 2 artigos, e outro mais recente, em 2017. Os picos de citações ocorreram nos mesmos intervalos, foi possível identificar, também, que dos 16 artigos presentes neste conjunto de dados, seis estão nos últimos 5 anos (~37,5%), indicando que se trata de temas que, ainda, possuem interesse acadêmico. Figura 1 – Resultados de publicações e citações em trabalhos com as palavras-chave "Discrete event simulation", "Optimization" e "Data Envelopment Analysis" Fonte: Scopus (2022). A seguir, comenta-se sobre alguns desses trabalhos. Miranda et al. (2017) estudaram uma combinação do arranjo ortogonal de Taguchi e DEA, na redução do espaço de busca e do tempo computacional em problemas de otimização via simulação, buscando à otimização via o toolbox SimRunnerTM. Nesse trabalho, os autores conseguiram uma redução de 97% do espaço de busca, sem comprometer a qualidade das respostas. Como sugestões de novas pesquisas, sugeriu-se: • Aplicação do procedimento proposto em problemas de otimização Multiobjetivo. • Investigação de outros arranjos experimentais combinadas com um DEA de forma a melhorar a eficiência e a eficácia do método proposto. • Teste do procedimento proposto em problemas envolvendo variáveis contínuas. 3 74 48 0 10 20 30 40 50 60 70 80 0 0,5 1 1,5 2 2,5 3 3,5 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019 2020 2021 N ú m er o d e C it aç õ es N ú m er o d e P u b lic aç õ es Publicações Citações 20 • Teste do procedimento proposto usando outros otimizadores. Shadkam e Bijari (2015) apresentaram um trabalho envolvendo simulação e otimização Multiobjetivo aplicada a um problema de seleção de fornecedores, em um modelo de supply chain, tratado por diferentes algoritmos. Os resultados da simulação foram tratados pelo método GDEA (General Data Envelopment Analysis), o qual foi possível indicar, com um nível de acurácia satisfatório, quais seriam os melhores parâmetros para a cadeia de suprimento estudada. Nesse trabalho, sugeriu-se pesquisar mais detalhadamente a robustez do método proposto usando o método de Taguchi ou usando outro algoritmo evolutivo. Ou ainda, usando metamodelos de regressão e rede neural para otimização do módulo de simulação no método proposto em outros problemas aplicados. Rabbani et al. (2018) apresentaram uma abordagem de modelagem e simulação para propor uma otimização no setor de emergência de um hospital. Porém, por se tratar de um hospital de grande porte, não poderia se construir um modelo considerando, apenas, os recursos neste setor. Logo, fez-se uso de uma técnica de otimização com múltiplas respostas. Nesse trabalho, foram aplicadas técnicas de DEA aos dados de saída do modelo e houve, também, a aplicação de técnicas de delineamento de experimentos pelo método de Taguchi para definir quais cenários seriam simulados. O trabalho apresentou uma proposta de DMU’s que reduziria os tempos de atendimento em até 16% na prática, e mostrou que a associação dessas técnicas pode trazer resultados promissores em termos de otimização de processos. Hosseini et al. (2019) desenvolveram uma nova proposta de utilização das técnicas de DEA na forma do Fuzzy Data Envelopment Analysis (F-DEA), aplicado a otimização de um layout fabril. O F-DEA é uma nova abordagem, além das duas formas clássicas da análise por envoltória de dados, a CCR e a BCC (CHARNES et al., 1978), que consistem em modelos em lógica fuzzy que permitem o cálculo da DMU mais eficiente, mas necessita de dados históricos para treinamento e checagem do sistema. Nesse trabalho, os dados históricos foram coletados, e em seguida, as diferentes opções foram inseridas no modelo de simulação a eventos discretos. Os resultados foram tratados com Fuzzy DEA e, com isso, foi possível designar a opção de layout com maior eficiência, sem a necessidade de testes em campo e com uma notável redução do espaço busca e, consequentemente, do tempo computacional. Sislioglu, Celik e Ozkaynak (2019) estudaram opções de investimento para aumentar a produtividade de um terminal de containers por meio de um modelo de simulação a eventos discretos, aliado a técnicas de DEA e análises financeiras. As conclusões desse trabalho mostraram a importância do DEA na identificação da DMU mais eficiente em termos operacionais, porém também foi avaliado com alto nível de detalhamento o resultado financeiro 21 de cada DMU, visando obter a maior produtividade de contêineres, com o menor custo operacional possível. O modelo apresentado foi descrito como uma ferramenta flexível o bastante para realizar análises do mesmo teor, em outros conjuntos de dados, oferecendo essa possibilidade como uma oportunidade de novas pesquisas. Keshtkar et al. (2020) apresentaram, novamente, as técnicas de modelagem e simulação a eventos discretos, aplicadas na busca pela redução de tempos de atendimento em ambientes hospitalares. Na elaboração da pesquisa, utilizaram-se dados reais para a confecção de um modelo de simulação, no qual foram realizados experimentos definidos com base no método de Taguchi, e cujos resultados foram analisados em um sistema de DEA - BCC, com um total de 14 DMU’s. Ao final do estudo, foi possível desenvolver uma sistemática integrada de simulação, otimização, delineamento de experimentos e análise por envoltória de dados que permite identificar formas de reduzir atrasos, em diferentes áreas do atendimento hospitalar. Marins et al. (2020) trouxeram, novamente, a aplicação da técnica de Fuzzy DEA aliada aos métodos clássicos do DEA para melhorar a eficiência e reduzir o espaço de busca. O trabalho se baseou em modelos de simulação validados, nos quais foram aplicadas as técnicas de Fuzzy DEA para identificação de DMU’s supereficientes, ou seja, com eficiências acima de 100%, mas que, ainda, poderiam ser ranqueadas entre si. Os resultados da identificação pelo método Fuzzy DEA-BCC foram comparados com os resultados do software de otimização SimRunner™ para validação. Ao final do artigo, identificou-se que o método proposto pode oferecer reduções de até 97% no espaço de busca, sem comprometer a qualidade de resposta, inclusive, oferecendo respostas ainda mais otimizadas que a do software, em alguns casos. Como recomendações de projetos de pesquisa futuros, os autores sugeriram a aplicação do método apresentado, porém utilizando: • Função de pertinência linear trapezoidal; (KAO; LIU, 2000). • Funções de pertinência não lineares, como Gaussiana, Sigmóide e Curva Z; (YU, 1999). • Outros métodos de classificação em DEA, como modelos de avaliação de eficiência cruzada; (HLADÍK, 2019; RUIZ; SIRVENT, 2016). • Analisar a otimização multiobjetivo via simulação. • Com outros arranjos experimentais ou estratégias, que permitem a redução do número de experimentos necessários, permitindo uma maior redução do tempo computacional e a aplicação deste método a outros objetos de estudo de áreas diferentes das aqui utilizadas, como forma de comprovar a eficiência e a eficácia do método proposto. 22 Na Figura 2, utilizou-se o software VOSViewer (YU et al., 2020) para analisar os dados da base Scopus, em termos de palavras-chave, e como estas estão relacionadas entre si. Nota- se a ligação dos termos “design of experiments”, “simulation optimization” e “multi-objective problem” com o termo central “data envelopment analysis”. Diante destes dados, espera-se que o presente trabalho contribua para a utilização de técnicas DEA combinada com os Arranjos Ortogonais de Taguchi e Hipercubo Latino, visando à redução do espaço de busca em problemas de otimização multiobjetivo via simulação. O presente projeto se mostra como uma oportunidade de inovação, seguindo as sugestões de (MARINS et al., 2020). Figura 2 – Diagrama das palavras-chave presentes nos artigos da base Scopus Fonte: VOSViewer (2022). 1.4 MATERIAIS E MÉTODOS A pesquisa deste trabalho foi classificada conforme o método sugerido por Turrioni e Mello (2012) e Bertrand e Fransoo (2002). 23 Figura 3 – Classificação de pesquisa Fonte: Bertrand; Fransoo, (2002). Dessa forma, pode-se classificar o trabalho como sendo de natureza aplicada, empírica normativa com relação a seus objetivos, pois tem como objetivo desenvolver políticas e estratégias que melhorem uma situação atual. Como meio é uma pesquisa de campo e experimental, quanto à forma de abordar o problema, uma pesquisa quantitativa. Os procedimentos técnicos são a modelagem, simulação e experimentos. Neste trabalho utilizou-se um modelo de simulação a eventos discretos previamente validado para simular diferentes cenários de expedição de carga, em um armazém logístico. As entradas e saídas deste serão explicadas, detalhadamente, adiante. Para definição dos parâmetros de entrada de cada execução do modelo a fim de encontrar os pontos otimizados dos objetivos, foram utilizados dois métodos diferentes de DOE: o método de Taguchi e o Hipercubo Latino. Cada um destes métodos sugeriu um determinado número de experimentos e um ajuste específico. As DMUs aplicadas nesta análise consistem nas combinações de diferentes ajustes para 5 variáveis de entrada do modelo: x1 – número de operadores, x2 – número de docas ativas no armazém, x3 – número de empilhadeiras, x4 – tipo de carga e x5 – número de turnos nos quais a operação ocorrerá. Todos estes parâmetros de entrada são atribuídos como números inteiros, restritos às faixas de variação pré-estabelecidas para cada variável de entrada. As saídas do modelo explorado consistem em: y1 – custo médio por caminhão carregado e y2 – número total de paletes expedidos. Os resultados das simulações executadas junto a seus conjuntos de dados de entrada são alimentados pela aplicação de um modelo DEA-BCC para avaliação das DMU’s e determinação dos arranjos de maior eficiência, ou seja, que apresentam a melhor combinação de baixo custo de operação e alto número de caminhões expedidos. Na Figura 4 é exibido o fluxograma das Natureza Básica Aplicada Objetivos Exploratória Descritiva Explicativa Empírica Normativa Meio Pesquisa de Campo Experimental Pesquisa documental Abordagem Quantitativa Qualitativa Método de Pesquisa Modelagem e Simulação Experimento 24 etapas de pesquisa desenvolvidas neste trabalho. Figura 4 – Fluxograma das etapas de pesquisa Fonte: Adaptado de Miranda et al. (2017). O fluxograma aplicado neste trabalho diferencia-se da sistemática proposta por Miranda et al. (2017) por três fatores principais: • A diferenciação de métodos de DOE para criação das matrizes de DMUs. • A aplicação do modelo DEA - BCC com orientações ao insumo e ao produto. • A possibilidade de aplicação em problemas de otimização via simulação multiobjetivo, utilizando a função Desirability como método de aglutinação. 25 1.5 DELIMITAÇÃO DA PESQUISA Este trabalho se limitará ao estudo do modelo descrito no item anterior, modelo este que será executado conforme a matriz de experimentos estipulada pelo arranjo adequado ao estudo, contemplando seu número de variáveis de entrada e saída. Após a execução destes experimentos, estruturados com o auxílio das duas técnicas de DOE, o trabalho se dedicará à aplicação das técnicas de DEA, com duas diferentes orientações, nas bases de dados construídas pelos resultados do experimento. Esta etapa consistirá na avaliação dos diferentes modelos de DEA e da qualidade das conclusões fornecidas por cada um deles, sobre a eficiência dos arranjos de variáveis de entrada comparadas às múltiplas saídas do modelo simulado. O modelo de simulação estudado foi construído com base em medições de tempos e observações operacionais em um cenário real, operado dentro de uma planta logística de uma empresa multinacional, localizada no Vale do Paraíba. As observações e dados utilizados no modelo foram validados e ajustados conforme a realidade estudada, porém não será feita menção à empresa em questão, nem medições futuras visando alterar o modelo ou os dados utilizados nas distribuições de probabilidade envolvidas nos cálculos executados pelo software ProModelTM. 1.6 ESTRUTURA DO TRABALHO Esse trabalho está organizado em mais quatro Capítulos, além dessa Introdução. No Capítulo 2 está o referencial teórico relacionado aos temas: Simulação a Eventos Discretos, Simulação e Otimização, Análise Envoltória de Dados, Delineamento de Experimentos, Método de Taguchi e Hipercubo Latino. O Capítulo 3 aborda a descrição e modelagem do problema aqui tratado. Em seguida, no Capítulo 4, descreve-se a aplicação do modelo e os resultados encontrados, e, finalizando, no Capítulo 5 se encontram as conclusões, as verificações dos objetivos e sugestões para estudos futuros, sendo seguidas pelas referências bibliográficas utilizadas para a elaboração desse texto. 26 2 FUNDAMENTAÇÃO TEÓRICA 2.1 SIMULAÇÃO A EVENTOS DISCRETOS A SED é uma técnica de construção de modelos matemáticos baseados em fenômenos ordenados no tempo. Cada um destes fenômenos pode ocorrer em determinado instante e marca uma alteração no estado do sistema simulado (LAMPERTI et al., 2021). Os modelos de SED são, frequentemente, utilizados em pesquisas de auxílio à tomada de decisão, devido à capacidade de simular os impactos das mudanças de processo e operação em situações reais, sem que estas mudanças precisem ter efeito ou que ocorram interferências no processo simulado, permitindo que, apenas a mudança com o melhor resultado (caso exista) seja feita, após todas as execuções do modelo e análises necessárias (GONÇALVES et al., 2019). A construção de um modelo de SED, geralmente, inclui uma ou mais etapas de coleta de dados, que ocorrem previamente à construção do modelo. Durante a elaboração de um modelo, conjuntos de dados de entrada devem ser inseridos no sistema e seus respectivos dados de entrada devem ser coletados e analisados para validar a convergência do modelo proposto em relação ao processo real, bem como a reprodutibilidade dos processos simulados (YU; HAN, 2021). Os métodos de SED podem prover, portanto, auxílios importantes no teste de hipóteses de melhoria em processos reais, porém, para que esta aplicação seja satisfatória, frequentemente é necessário combinar SED com técnicas de otimização. Conforme será explorado na sessão seguinte com mais detalhes, essas técnicas consistem em abordagens mono ou multiobjetivo focadas em maximizar, minimizar ou atingir um determinado valor específico para variáveis de saída do sistema de simulação (ČERVEŇANSKÁ et al., 2021). Desde a década de 1970, diversos softwares vêm sendo desenvolvidos e atualizados em vias de facilitar a experiência do usuário na criação, edição e análise destes modelos de simulação. Um destes software é o ProModel, desenvolvido pela ProModel Corporation. A utilização dessa ferramenta em trabalho de otimização via simulação é frequente em trabalhos envolvendo modelos de atendimento a clientes, processos de manufatura, logística e supply chain (NOVRISAL et al., 2017). De forma geral, os softwares de SED apresentam estruturas, equações e outros recursos matemáticos organizados na forma de uma interface digital que facilita a elaboração de estudos de cenários do tipo ‘e se?’, ou seja, cenários que consistem em avaliar os efeitos da 27 implementação de políticas ou de mudanças de estado em sistemas e fenômenos reais, por meio de modelos de simulação. Por se tratar de um ambiente computacional isolado, a SED garante que as implicações reais destas políticas em estudo não afetarão os processos reais, e, assim, evita-se a tomada de decisões inadequadas para atingimento do melhor desempenho possível destes sistemas (DEMIR et al., 2018). Com estas vantagens computacionais em vista, os campos de pesquisa envolvendo SED crescem anualmente, e novas aplicações nos ramos de segurança em aeroportos, efetividade no atendimento de clientes em filas, tempos de espera em processos fabris, desenhos de páginas para internet, entre outras, vêm sendo investigadas com o auxílio de métodos de simulação, indicando hipóteses de otimização, em vários ramos da ciência (JANER RUBIO; ROSSETTI, 2018). Durante ambas as etapas de validação, tanto do modelo conceitual, quanto do modelo computacional, é essencial que os dados e os pontos de medição do modelo apresentem o máximo de convergência possível, visando, assim, garantir que o modelo conceitual represente com a maior acuracidade o que deverá ser construído no computador e, que o modelo computacional seja capaz de gerar as mesmas respostas que o processo real, dado um determinado conjunto de entradas (MONTEVECHI et al., 2015). Na Figura 5 utilizou-se, novamente, o software VOSViewer para avaliar um conjunto de dados extraído da base Scopus, contemplando os artigos publicados, entre 2018 e 2022, contendo o termo “discrete event simulation’. Nesta Figura 5, foi possível notar uma vasta gama de tópicos associados à simulação a eventos discretos, destacando-se as palavras-chaves métodos discretos, tomada de decisão, otimização, simulação computacional e controladores. 28 Figura 5 – Gráfico do software VOSViewer com os artigos envolvendo a palavra-chave 'simulação a eventos discretos' desde 2018 Fonte: VOSViewer (2022). 2.2 OTIMIZAÇÃO VIA SIMULAÇÃO A combinação das técnicas de simulação com técnicas de otimização propõe um novo campo de estudo, chamado de Otimização via Simulação (OvS), que pode ser definido como o processo de buscar um melhor conjunto de soluções para um dado modelo de simulação, ou seja, seus parâmetros de entrada, de forma a otimizar as saídas deste modelo (ÓLAFSSON; KIM, 2002). A OvS é uma abordagem de estudo vastamente utilizada para modelar sistemas de Supply Chain¸ em particular, aqueles nos quais a resposta esperada consiste na localização ou na organização de um determinado fator do processo avaliado, seja este um nó em uma rede de distribuição, ou um conjunto de parâmetros de entrada em uma operação (HARREL et al., 2002). Nesse tipo de estudo, a otimização foca em determinar a condição ideal para o problema de Supply Chain por diversos algoritmos de varredura de espaço de busca, enquanto a Simulação permite a modelagem de sistemas reais e a delineação das interações entre os diferentes fatores destes sistemas (GOLFARELLI; RIZZI, 2009). 29 Ao condensar essas interações, é possível simular o comportamento geral do sistema, assim, a simulação torna-se uma técnica muito útil para planejamentos logísticos estratégicos e táticos, nos quais o horizonte de tempo do estudo é, relativamente, extenso (BADRI et al., 2013). Além disso, como uma versão artificial de um sistema real, ou um ‘gêmeo digital’, a simulação pode atuar como uma ferramenta experimental para o desenvolvimento de novas estratégias ou políticas que não haviam sido cogitadas ou que não pareciam viáveis em uma primeira análise dos fatores físicos, permitindo, assim, a comparação de diversos cenários, sem implicar interrupções no sistema real (SOPHA et al., 2021). Fu (1994) definiu um problema de OvS, com um único objetivo, como sendo: min𝑓 (𝜃) (1) sujeito a 𝜃 ∈ Θ sendo f(θ) = E[ψ(θ,ω)] o valor esperado do desempenho do sistema estimado, a partir de amostras do modelo de simulação; e ψ(θ,ω) valores de desempenho observados segundo parâmetros de entrada discretos ou contínuos, pertencentes a um conjunto viável Θ. É comum que os problemas de modelagem envolvendo casos reais impliquem em otimizações com mais de um objetivo. Por isso, outros pesquisadores apresentam, também, modelagens de otimização multiobjetivo (MIRANDA et al., 2017). Para Steponaviče; Ruuska; Miettinen, (2014) um problema de otimização multiobjetivo pode ser formulado como representado por (2): 𝑚𝑖𝑛𝑥 𝐸{𝑓(𝜙(𝒙,𝝎))} (2) sujeito a 𝒙 𝜖 𝑆 sendo que E{·} indica o valor esperado, f é o valor do vetor da função objetivo, 𝜙 é o modelo estocástico, x é o vetor decisão, ω é um vetor randômico que representa a estocasticidade no modelo, e S é o conjunto viável. Frequentemente, é necessária também a combinação de softwares e técnicas de análise adicionais aos modelos de OvS. Devido ao elevado volume de dados e à alta complexidade das relações que precisam ser contempladas pelos modelos de simulação que serão submetidos às rotinas de otimização, é comum que outras soluções digitais (como os softwares Microsoft Excel, Microsoft Access, e bases de dados como Google Maps, Bing Maps, OpenStreetMaps entre outros) sejam agregadas aos softwares já mencionados (como o ProModel e o Supply Chain Guru) (PROSSER et al., 2021). Adicionalmente a softwares e tecnologias digitais, métodos matemáticos também podem ser agregados a estudos de OvS. Esses métodos podem contemplar desde técnicas de pré- 30 tratamento de dados de entrada até análises otimizadas dos dados de saída. Em ambos os casos, as combinações de técnicas matemáticas podem implicar em reduções de tempo de pesquisa, seja por parte do pesquisador, seja tempo computacional de processamento dos modelos (AJU et al., 2021). Os estudos de OvS tem como sua principal desvantagem em relação a otimização tradicional justamente os elevados tempos computacionais, devido à complexidade dos algoritmos envolvidos na varredura dos espaços de busca. É comum que modelos de OvS tenham tempos de execução acima de horas, e quanto mais objetivos estas otimizações tiverem, maiores tendem a ser estes tempos (HORNG; LIN, 2017). Nesse âmbito, a combinação de DEA e DOE, conforme proposto por Miranda et al. (2014), Miranda et al. (2017) e Silva et al. (2021), se apresenta como um importante auxílio no campo da OvS, visando trazer soluções de boa qualidade, com potenciais de redução notáveis tanto em espaço de busca, quanto em tempo computacional. A aplicação da sistemática em um problema multiobjetivo não foi explorada nestes três trabalhos e, portanto, é uma abordagem promissora para pesquisa, tendo em vista os tempos computacionais ainda mais elevados deste tipo de problema, quando comparados a modelos mono objetivo (AZIMI; FARHADI, 2018). A Figura 6 mostra um panorama das palavras-chave encontradas em uma pesquisa na base de dados Scopus, considerando artigos publicados, entre 2018 e 2022, contendo o termo ‘optimization via simulation’. Nota-se uma presença mais concentrada de trabalhos envolvendo otimização multiobjetivo, análise de sensibilidade, métodos iterativos, aprendizagem por reforço (uma técnica de machine learning) e algoritmos genéticos. 31 Figura 6 – Gráfico do software VOSViewer com os artigos envolvendo a palavra-chave 'otimização via simulação' desde 2018 Fonte: VOSViewer (2022). 2.3 ANÁLISE ENVOLTÓRIA DE DADOS A DEA é definida como um método não paramétrico de determinação de eficiência para operações com múltiplas entradas e saídas. Dessa forma, o método não requer a delimitação das interações desses parâmetros e não se restringe às medidas únicas entre insumos e produtos, sendo necessários apenas os conjuntos de dados de entrada e saída do sistema estudado para sua aplicação (FERREIRA; GOMES, 2012). Embora os primeiros registros de estudos de DEA tenham surgido na teoria da produção microeconômica, de acordo com Ferreira e Gomes (2012), o trabalho de Farrell (1957) trouxe uma primeira proposta de métodos de análise mais robustos, que objetivavam criar uma métrica de eficiência genérica, que considerasse os insumos e os produtos de qualquer empresa. Os trabalhos de Farrel (1957) culminaram nos estudos dos pesquisadores Charnes, Cooper e Rhodes (1978). Charnes, Cooper e Rhodes (1978) trouxeram a primeira abordagem estruturada do DEA como um método de cálculo, utilizado na ocasião para comparar a eficiência técnica de instituições públicas de ensino, mas sem a necessidade de converter os diversos parâmetros de entrada e saída deste estudo em uma base única nem estabelecer considerações arbitrárias sobre os fatores (CHARNES et al., 1978). Esses autores apresentaram 32 o conceito de DMU como sendo uma entidade responsável pelo processo de transformação das entradas da análise em suas saídas. Estas DMU’s, em aplicações reais, podem se traduzir em lojas, fábricas, tollers, transportadoras, centros de distribuição, entre outros (COOK; SEIFORD, 2009). Para Mariano, Almeida e Rebelatto (2006), uma das formas mais adequadas para avaliar o desempenho de uma DMU é relacionar os insumos e produtos de cada DMU analisada. Cooper, Seiford e Tone (2007) propuseram a relação de insumos e produtos, de acordo com (3): 𝑃𝑟𝑜𝑑𝑢𝑡𝑖𝑣𝑖𝑑𝑎𝑑𝑒 = 𝑝𝑟𝑜𝑑𝑢çã𝑜 (𝑜𝑢𝑡𝑝𝑢𝑡𝑠) 𝑖𝑛𝑠𝑢𝑚𝑜𝑠 (𝑖𝑛𝑝𝑢𝑡𝑠 (3) A eficiência de uma DMU é outro importante conceito, pode ser definida como a divisão entre um indicador de desempenho e o seu correspondente máximo (MARIANO et al., 2006). Com base nisso, a eficiência de uma DMU pode ser calculada por (4): 𝐸𝑓𝑖𝑐𝑖ê𝑛𝑐𝑖𝑎 = 𝑃 𝑃𝑚á𝑥 (4) sendo P a produtividade da DMU atual em análise e Pmáx a produtividade máxima dentre as DMU’s analisadas. O conceito de eficiência é importante para trabalhos em que é necessário propor uma classificação entre as DMU’s. A eficiência é tratada como um número real que estará sempre na faixa de 0 a 1. Caso a eficiência de uma determinada DMU seja 1, esta é considerada eficiente, do contrário é ineficiente (MIRANDA et al., 2017). Esse conceito pode ser exemplificado com a representação da Figura 7, na qual os números de vendedores e vendas de uma determinada loja estão demarcados, nos eixos x e y, respectivamente. O encontro desses dois pontos mostra a razão vendas/vendedor em cada um dos 8 pontos, nomeados de A até H. A inclinação da reta ligando cada ponto à origem corresponde à razão vendas/vendedor, e a maior inclinação é alcançada pela linha da origem até B. Essa linha é chamada de fronteira de eficiência. A fronteira de eficiência sempre tocará um ou mais pontos do conjunto de dados, e assim, todos os demais pontos não-eficientes estarão envoltos por essa linha, originando aí o nome da Análise Envoltória de Dados (COOPER; SEIFORD; TONE, 2007). 33 Figura 7 – Comparação de DMU's e representação do conceito de fronteira de eficiência Fonte: Adaptado de Cooper; Seiford; Tone, (2007). Existem duas formas de uma DMU não eficiente se tornar eficiente. A primeira é denominada de orientação a inputs, nela reduzem-se os recursos, mantendo-se constante os produtos. A segunda forma é denominada de orientação a outputs, na qual se mantêm constantes os recursos, enquanto se aumenta a produção (CHARNES et al., 1978). O modelo DEA - CCR desenvolvido inicialmente pelos pesquisadores Charnes, Cooper e Rhodes (1978) leva o nome dos autores, normalmente abreviado como CCR. Utilizando programação linear, procura-se, para cada DMU, maximizar a razão entre a soma ponderada das saídas e a soma ponderada das entradas, utilizando como variável de decisão os pesos. Supondo que existam n DMUs: DMU1, DMU2, ..., DMUn, que utilizem m entradas e s saídas, as variáveis de entrada e saída para cada uma das j = 1, ..., n DMUs são selecionadas de forma a obedecer aos seguintes critérios: • Há dados numéricos positivos para cada entrada e saída. • As variáveis e a escolha das DMU’s devem refletir o interesse dos gestores ou analistas na avaliação de desempenho. • Devem-se preferir menores quantidades de entradas e maiores quantidades de saídas de modo que o índice de eficiência reflita esse princípio. • As unidades de medidas das diferentes entradas e saídas não precisam ser as mesmas. Inicialmente, o modelo de programação fracionária pode ser orientado aos insumos (inputs) ou aos produtos (outputs). Para cada uma dessas orientações, um conjunto de equações e inequações diferente é aplicado. Existem dois diferentes modelos de DEA CCR, multiplicador e envelope, e para cada um desses modelos, existe uma orientação ao produto e ao insumo do processo estudado (CHARNES et al., 1978). 34 O modelo DEA CCR fracionário multiplicador com orientação ao input é dado por (5) – (8). max𝜃 = ( ∑ 𝑢𝑟𝑦𝑟0 𝑠 𝑟=1 ∑ 𝑣𝑖𝑥𝑖0 𝑚 𝐼=1 ) (5) ∑ 𝑢𝑟𝑦𝑟𝑗 𝑠 𝑟=1 ∑ 𝑣𝑖𝑥𝑖𝑗 𝑚 𝑖=1 ≤ 1, 𝑗 = 1, 2, . . , 𝑛 (6) 𝑢𝑟 ≥ 0, 𝑟 = 1, 2, . . , 𝑠 (7) 𝑣𝑖 ≥ 0, 𝑖 = 1, 2, . . , 𝑚 (8) O modelo DEA CCR fracionário multiplicador com orientação ao output é dado por (9) – (12). min𝜃 = ( ∑ 𝑣𝑖𝑥𝑖0 𝑚 𝐼=1 ∑ 𝑢𝑟𝑦𝑟0 𝑠 𝑟=1 ) (9) ∑ 𝑣𝑖𝑥𝑖𝑗 𝑚 𝑖=1 ∑ 𝑢𝑟𝑦𝑟𝑗 𝑠 𝑟=1 ≥ 1, 𝑗 = 1, 2, . . , 𝑛 (10) 𝑢𝑟 ≥ 0, 𝑟 = 1, 2, . . , 𝑠 (11) 𝑣𝑖 ≥ 0, 𝑖 = 1, 2, . . , 𝑚 (12) sendo que j ∈ (1, ..., n) representa o índice da DMU j, yrj é o valor da r ∈ (1, ..., s) variável de saída para j ∈ (1, ..., n) DMU, xij é o valor do insumo i ∈ (1, ..., m) variável de entrada para a j ∈ (1, ..., n) DMU, ur é o peso dado para a r ∈ (1, ..., s) variável de saída; vi é o peso dado para a i ∈ (1, ..., m) variável de entrada, θ é a eficiência relativa de DMU0, que é a DMU sob análise; yr0 e xi0 são os parâmetros vinculados aos Outputs e Inputs da DMU sob análise. A linearização do modelo representado por (5) – (8) é conhecido como modelo multiplicador com orientação ao input e está contemplado pelas expressões (13) – (17). Esse modelo é conhecido com CCR ou modelo com retornos constantes de escala (Return constant to Scale – CRS), e foi proposto por Charnes et al. (1978): 35 m𝑎𝑥 𝜃 =∑𝑢𝑟𝑦𝑟0 𝑠 𝑟=1 (13) ∑𝑣𝑖𝑥𝑖0 = 1 𝑚 𝑖=1 (14) ∑𝑢𝑟𝑦𝑟𝑗 𝑠 𝑟=1 −∑𝑣𝑖𝑥𝑖𝑗 𝑚 𝑖=1 ≤ 0, 𝑗 = 1,2,… , 𝑛 (15) 𝑢𝑟 ≥ 0, 𝑟 = 1,2,… , 𝑠 (16) 𝑣𝑖 ≥ 0, 𝑖 = 1,2,… ,𝑚 (17) A linearização do modelo representado por (9) – (12) é conhecido como modelo multiplicador com orientação ao output e está contemplado pelas expressões (18) – (22). Esse modelo é conhecido com CCR ou modelo com retornos constantes de escala (Constant Return to Scale – CRS), e foi proposto por Charnes et al. (1978): m𝑖𝑛 𝜃 =∑𝑣𝑖𝑥𝑖0 𝑚 𝑖=1 (18) ∑𝑢𝑟𝑦𝑟0 = 1 𝑠 𝑟=1 (19) ∑𝑣𝑖𝑥𝑖𝑗 𝑚 𝑖=1 −∑𝑢𝑟𝑦𝑟𝑗 𝑠 𝑟=1 ≥ 0, 𝑗 = 1,2,… , 𝑛 (20) 𝑢𝑟 ≥ 0, 𝑟 = 1,2,… , 𝑠 (21) 𝑣𝑖 ≥ 0, 𝑖 = 1,2,… ,𝑚 (22) Além do modelo CCR tradicional, Banker, Charnes e Cooper (1984) propuseram o modelo BCC, o qual parte da suposição de que o retorno constante de escala, utilizado como premissa no modelo CCR, poderia ser reconsiderado para, assim, admitir retornos variáveis de escala, na qual é acrescida a variável livre c0, de modo que c0∈ℝ (FRIED et al., 2008). 36 O modelo DEA-BCC multiplicador com orientação ao input é dado por (23) – (28): max𝜃 =∑𝑢𝑟𝑦𝑟0 + 𝑐0 𝑠 𝑟=1 (23) ∑𝑣𝑖𝑥𝑖0 = 1 𝑚 𝑖=1 (24) ∑𝑢𝑟𝑦𝑟𝑗 𝑠 𝑟=1 −∑𝑣𝑖𝑥𝑖𝑗 𝑚 𝑖=1 + 𝑐0 ≤ 0, 𝑗 = 1,2,… , 𝑛 (25) 𝑢𝑟 ≥ 0, 𝑟 = 1,2,… , 𝑠 (26) 𝑣𝑖 ≥ 0, 𝑖 = 1,2,… ,𝑚 (27) 𝑐0 ∈ ℝ , 𝑐0 → 𝑓𝑎𝑡𝑜𝑟 𝑑𝑒 𝑒𝑠𝑐𝑎𝑙𝑎 (28) O modelo DEA-BCC multiplicador com orientação ao output é dado por (29) – (34): m𝑖𝑛 𝜃 =∑𝑣𝑖𝑥𝑖0 + 𝑐0 𝑚 𝑖=1 (29) ∑𝑢𝑟𝑦𝑟0 = 1 𝑠 𝑟=1 (30) ∑𝑣𝑖𝑥𝑖𝑗 𝑚 𝑖=1 −∑𝑢𝑟𝑦𝑟𝑗 𝑠 𝑟=1 + 𝑐0 ≥ 0, 𝑗 = 1,2,… , 𝑛 (31) 𝑢𝑟 ≥ 0, 𝑟 = 1,2,… , 𝑠 (32) 𝑣𝑖 ≥ 0, 𝑖 = 1,2,… ,𝑚 (33) 𝑐0 ∈ ℝ , 𝑐0 → 𝑓𝑎𝑡𝑜𝑟 𝑑𝑒 𝑒𝑠𝑐𝑎𝑙𝑎 (34) sendo que j ∈ (1, ..., n) é o índice da DMU j; yrj é o valor da r ∈ (1, ..., s) variável de saída para j ∈ (1, ..., n); xij é o valor da DMU i ∈ (1, ..., m) variável de entrada para j ∈ (1, ..., n); ur é o peso dado para a DMU r ∈ (1, ..., s) variável de saída; vi é o peso dado para i ∈ (1, ..., m) variável de entrada, θ é a eficiência relativa da DMU0, que é a DMU sob análise; yr0 e xi0 são os parâmetros vinculados aos Outputs e Inputs da DMU sob análise. 37 Em termos de ranqueamento, ou seja, de classificação ordenada de DMU’s, os modelos convencionais de DEA, CCR e BCC, são normalmente desenvolvidos em um modo de autoavaliação, que permite a análise de eficiência de cada DMU pela aplicação de um conjunto de pesos favoráveis para essa mensuração (HATAMI-MARBINI et al., 2022). Existem muitas abordagens para classificar completamente DMUs eficientes e ineficientes. De acordo com Adler, Friedman e Sinuany-Stern (2002), os métodos de classificação foram divididos em seis grupos: • Avaliação de uma matriz de eficiência cruzada - as unidades são autoavaliadas e avaliadas pelos pares; • Método da supereficiência - classifica pela exclusão da unidade que está sendo pontuada do programa linear duplo e uma análise da mudança na Fronteira de Pareto; • Basear-se em benchmarking - as unidades são altamente classificadas se forem escolhidas como um alvo útil para muitas outras unidades; • Técnicas estatísticas multivariadas - geralmente são aplicadas após a classificação dicotômica DEA; • Classificar as unidades ineficientes por meio de medidas proporcionais de ineficiência; • Requerer a coleta de informações adicionais e preferenciais dos tomadores de decisão e combinar a abordagem DEA e metodologias de decisão de múltiplos critérios. Modelos DEA clássicos consideram DMUs com w0 = 1 como eficientes e DMUs com w0 < 1 como ineficientes. Essa situação ocorre, caso haja a possibilidade de que várias DMUs tenham w0 = 1; ou seja, torna-se complexo diferenciar entre DMUs. Para resolver essa limitação, Andersen e Petersen (1993) propuseram um conceito conhecido como supereficiência, que determina a diferença entre as DMUs que apresentam θ = 1. A supereficiência consiste em retirar do modelo a restrição (∑ 𝑣𝑖𝑥𝑖𝑗 𝑚 𝑖=1 − ∑ 𝑢𝑟𝑦𝑟𝑗 𝑠 𝑟=1 + 𝑐0 ≥ 0, 𝑗 = 1,2, … , 𝑛; 𝑗 ≠ 0) , sendo 𝑗 ≠ 0 diz respeito a DMU0, que é a DMU sob análise. Em seguida, analisar a mudança na fronteira de eficiência, permitindo que as demais DMU’s eficientes atinjam eficiências acima de 1 (ANDERSEN; PETERSEN, 1993). Segundo Miranda et al. (2017), Marins et al. (2020) e Khare et al. (2021) as vantagens da utilização da supereficiência como método de ranqueamento incluem: • o uso do método da supereficiência não aumentar a complexidade matemática envolvida na análise. • a modelagem em VBA - Excel realizada consumir aproximadamente os mesmos tempos computacionais obtidos na resolução dos modelos, com ou sem supereficiência, e, por 38 apresentarem baixa ordem de grandeza, permitirem uma rápida interação de especialistas; • a ocorrência menos frequente de soluções infactíveis (COOPER; SEIFORD; TONE, 2007). Porém, existem outras técnicas de ranqueamento possíveis e com diferentes interesses de aplicação, visto que esse ranqueamento implica em uma capacidade discriminatória limitada, devido à possível existência de mais de uma DMU eficiente e, também, pela subjetividade da atribuição dos pesos sobre cada variável estudada (FU, 2021). A eficiência cruzada é uma possibilidade de ranqueamento que propõe alternativas que permitem: • Gerar um ranking completo das DMU’s (DOYLE; GREEN, 1994). • Evitar ponderações de peso irrealistas no DEA, devido à ausência de restrições de peso propostas por especialistas (ANDERSON; HOLLINGSWORTH, 2002). • Diferenciar desempenhos altos e baixos mesmo dentre as DMU’s eficientes (BOUSSOFIANE et al., 1991). Devido a essas vantagens e as desvantagens já conhecidas das técnicas tradicionais de ordenação de DMU’s, a utilização de eficiência cruzada tem sido, extensivamente estudada, desde a década de 90 (KAO; LIU, 2022). O propósito da eficiência cruzada consiste em determinar o ranqueamento pela comparação da DMU em relação a si mesma e a seus pares. Porém diferentes abordagens de agregação e consideração dos pesos relativos para essas comparações são possíveis, conforme avaliado por Fu et al. (2022). A abordagem de fronteira invertida é outra opção para ranquear DMU’s eficientes, durante a aplicação da DEA. Esse método, proposto por Entani et al. (2002), consiste em utilizar os inputs do DEA no lugar de seus outputs e vice-versa, propondo, assim, uma métrica da ineficiência de cada DMU. Com essa métrica combinada ao resultado de eficiência da aplicação padrão do DEA, o método de fronteira invertida permite calcular a denominada eficiência composta, conforme ilustrado na Figura 8 e expresso por (35), que permite uma melhor discriminação dos resultados da DEA, para algumas aplicações específicas (GOBBO et al., 2021): 𝐸𝑘 ∗ = (𝜃𝑘 𝑆 − 𝜃𝑘 𝐼 + 1) 2 (35) sendo 𝐸𝑘 ∗ a eficiência composta da DMU k, 𝜃𝑘 𝑆 a eficiência padrão (standard) calculada pela DEA para a DMU k e 𝜃𝑘 𝐼 a eficiência invertida para a DMU k. 39 Figura 8 – Análise da Fronteira de Eficiência Invertida Fonte: Moreira; Mello; Meza, (2019). 2.4 FUNÇÃO DESIRABILITY Os estudos de OvS multiobjetivo frequentemente utilizam métodos de aglutinação para as variáveis de saída do processo sob análise. Estes métodos são constituídos, em sua maioria, por equações ponderadas por pesos, que utilizam diferentes artifícios matemáticos para converter as diferentes saídas do sistema e uni-las em um único parâmetro de análise (KALKAN et al., 2022). A função Desirability foi desenvolvida por Derringer e Suich (1980), e por meio dela cada objetivo é transformado em uma variável de grandeza adimensional, denominada Desirability individual di, que depois é agregada a uma única variável resposta, denominada Desirability geral D. Essa função é baseada na ideia de que a qualidade de um produto ou processo se torna completamente inaceitável, caso uma das suas características fique fora do limite desejável (CANDIOTI et al., 2014). De acordo com Montgomery (2019), o objetivo é garantir que todas as respostas fiquem dentro dos critérios almejados e, ao mesmo tempo, obter o melhor valor para uma resposta unificada. Derringer e Suich (1980) afirmam que esse objetivo é garantido ao aglutinar múltiplas respostas em uma única função, que deve, posteriormente, ser otimizada por meio de um algoritmo de otimização não linear (SILVA et al., 2021). Uma vantagem deste método é a que a utilização da média geométrica para cálculo do parâmetro D, que a solução global seja alcançada de maneira balanceada, permitindo desta forma que todas as respostas atinjam os valores esperados e direcionando o algoritmo a se aproximar das especificações impostas (RODRIGUES et al., 2015). Silva et al. (2019 e 2021) apresentaram sistemáticas para calcular funções Desirability 40 para três situações distintas: • Desirability maior, melhor: abordagem utilizada quando o objetivo deve ser maximi- zado, como está em (36): sendo Li e Ui, respectivamente, o menor e o maior valor aceitável para o objetivo, yi o valor da função objetivo obtido e s o peso estipulado pelo analista para determinar o quão importante é yi ficar o mais próximo possível do Ui. É ilustrado, na Figura 9, o comportamento da função Desirability maior, melhor, em função de valores para yi e s. Figura 9 – Comportamento da função Desirability maior, melhor, para diferentes valores de s Fonte: Candioti (2014). • Desirability menor, melhor: abordagem utilizada, quando o objetivo deve ser minimi- zado, como está em (37): 𝑑 = { 0, 𝑠𝑒 𝑦𝑖 < 𝐿𝑖 [ 𝑦𝑖 − 𝐿𝑖 𝑈𝑖 − 𝐿𝑖 ] 𝑠 , 𝑠𝑒 𝐿𝑖 ≤ 𝑦𝑖 ≤ 𝑈𝑖 1, 𝑠𝑒 𝑦𝑖 > 𝑈𝑖 (36) 41 sendo as variáveis Ui, Li e yi análogas ao explicado para Desirability maior, melhor e t o valor estipulado pelo analista para o quão importante é yi ficar o mais próximo possível de Li. É ilustrado, na Figura 10, o comportamento da função Desirability menor, melhor, em função de valores de yi e t. Figura 10 – Comportamento da função Desirability menor, melhor para diferentes valores de t Fonte: Candioti (2014). • Desirability target ou objetivo: abordagem utilizada quando o objetivo é atingir deter- minado valor, como está em (38): sendo Ti o valor alvo a ser atingido pelo objetivo. Nesse caso, Li e Ui os valores mínimo e máximo toleráveis que, quando são extrapolados, a função retorna valor zero. É ilustrado, na Figura 11, o comportamento da função Desirability target em função de valores de yi, s e t. 𝑑 = { 0, 𝑠𝑒 𝑦𝑖 > 𝑈𝑖 [ 𝑦𝑖 − 𝑈𝑖 𝐿𝑖 − 𝑈𝑖 ] 𝑡 , 𝑠𝑒 𝐿𝑖 ≤ 𝑦𝑖 ≤ 𝑈𝑖 1, 𝑠𝑒 𝑦𝑖 < 𝐿𝑖 (37) 𝑑 = { [ 𝑦𝑖 − 𝐿𝑖 𝑇𝑖 − 𝐿𝑖 ] 𝑠 , 𝑠𝑒 𝐿𝑖 ≤ 𝑦𝑖 ≤ 𝑇𝑖 [ 𝑦𝑖 − 𝑈𝑖 𝑇𝑖 − 𝑈𝑖 ] 𝑡 , 𝑠𝑒 𝑇𝑖 ≤ 𝑦𝑖 ≤ 𝑈𝑖 0, 𝑠𝑒 𝑦𝑖 ≤ 𝐿𝑖 𝑜𝑢 𝑦𝑖 ≥ 𝑈𝑖 (38) 42 Figura 11 – Comportamento da função Desirability target para diferentes valores de s e t Fonte: Candioti (2014). Em (39) está a função aglutinadora Desirability geral, com pesos wi para cada objetivo, utilizados como critério de priorização entre os objetivos, esta é uma média geométrica das di funções normalizadas (SILVA et al., 2019): sendo i o número de objetivos formulados pela função Desirability individual, di a função Desirability individual do objetivo i e wi o peso atribuído ao objetivo i. 2.5 DELINEAMENTO DE EXPERIMENTOS O DOE é um conjunto de métodos estatísticos focados em delinear e organizar a execução de experimentos científicos, considerado um elemento crucial para o sucesso da pesquisa acadêmica, ao longo de várias décadas (LEME et al., 2014). Segundo Montgomery (2017), considera-se o DOE como a conjunção de técnicas auxiliares à geração e análise de rotinas experimentais, nas quais é possível que diversos fatores sejam variados, intencionalmente ao mesmo tempo, ao invés de variar apenas um fator de cada vez, fixando os demais. 𝐷 = (∏𝑑𝑖 𝑤𝑖 𝑝 𝑖=1 ) 1 ∑ 𝑤𝑖 𝑝 𝑖=1 (39) 43 As vantagens de construir a matriz de experimentos com auxílio do DOE contemplam: • A redução do número de experimentos necessários para avaliação, quando comparado com o espaço de busca completo das variáveis analisadas (SWISHER et al., 2000). • A possibilidade de avaliar efeitos de interação entre as variáveis com uma precisão elevada (GONÇALVES et al., 2019). • A possibilidade de avaliar efeitos de interação entre os fatores em diferentes níveis (FENG et al., 2020). Ao longo dos anos, os estudos no campo do DOE trouxeram novas possibilidades de aplicação, e técnicas diferentes foram testadas e validadas como novas formas de criar e analisar as matrizes de experimento. Dentre essas técnicas, destacam-se: o Arranjo Ortogonal de Taguchi (Taguchi Orthogonal Array - TOA), o Método de Superfície de Resposta (Response Surface Method - RSM) e, mais recentemente, o HLD. Cada uma dessas técnicas apresenta prós e contras que as tornam mais adequadas para tipos de estudos específicos, e, eventualmente, é comum encontrar trabalhos comparando a eficácia de dois ou mais métodos (CHONG et al., 2021). Assim, desenhos experimentais são considerados o método mais eficiente para identificar e otimizar os fatores significativos para alcançar um resultado satisfatória devido às suas vantagens, como fornecer informações precisas com um número mínimo de execuções experimentais, identificar as interações dos fatores e permitir otimizações de múltiplas respostas (BAIGMOHAMMADI et al., 2020). A Figura 12 mostra uma visão geral de como os métodos de delineamento de experimentos mais comumente encontrados na literatura podem ser classificados, com relação à técnica e à aplicação (NARENDERAN et al., 2019). 44 Figura 12 – Classificação dos métodos de delineamento de experimentos mais comuns Fonte: Adaptado de Narenderan et al. (2019). É importante ressaltar que embora o LHD seja classificado como um delineamento de experimentos, esta técnica não se enquadra em nenhuma das duas classificações, pois trata-se de um design gerado de forma randomizada. A Figura 13 mostra um gráfico das palavras-chave encontradas em uma pesquisa na base de dados Scopus, considerando artigos publicados, entre 2018 e 2022, contendo o termo ‘desing of experiments’, gerado com auxílio do software VOSViewer. Nota-se uma presença de vários tópicos de estudo em diversas áreas de especialização, porém uma relação mais próxima com o tema ‘design of experiments’ é percebida nos trabalhos envolvendo otimização, machine learning, método dos elementos finitos. 45 Figura 13 – Gráfico do software VOSViewer com os artigos envolvendo a palavra-chave 'delineamento de experimentos' desde 2018 Fonte: VOSViewer (2022). Na Figura 14, um novo gráfico foi construído com base nas publicações realizadas desde 2018 envolvendo os termos ‘design of experiments’, ‘optimization’ e ‘simulation’, visando identificar em quais áreas se concentram as pesquisas. Nota-se a maior presença dos termos mecânica dos fluídos, desenho experimental, método dos elementos finitos, algoritmos genéticos e métodos matemáticos. 46 Figura 14 – Gráfico do software VOSViewer com os artigos envolvendo a palavra-chave 'delineamento de experimentos', 'otimização' e 'simulação', combinada, publicados desde 2018 Fonte: VOSViewer (2022). 2.5.1 Método de Taguchi O TOA é uma técnica de DOE modificado que teve suas primeiras contribuições feitas pelo pesquisador japonês Dr. Genichi Taguchi, na década de 1940, cerca de 25 anos após a introdução do DOE original por R.A. Fisher. Taguchi desenvolveu o método em questão focando, primariamente, em produzir materiais de alta qualidade, mantendo um baixo custo de manufatura. O método acabou por ser nomeado em homenagem ao seu criador com a evolução dos estudos dessa técnica (ROY, 2001). Esse método consiste em uma estratégia de minimização de número de experimentos, baseada na aplicação de arranjos ortogonais saturados, ou seja, matrizes de experimentos que não contemplam o espaço de busca completo de todas variáveis e fatores, mas sim, um pequeno número de experimentos, focados em trazer uma precisão e robustez de análise. As matrizes de Taguchi podem ser encontradas na literatura em diversos formatos, construídas de forma padrão, visando facilitar a escolha do pesquisador, tendo em mãos, apenas, 2 informações: o número de parâmetros p e o número de níveis de variação para cada parâmetro l (CHONG et al., 2021). 47 As etapas gerais envolvidas no Método Taguchi são as seguintes (ROY, 1990): 1. Definir o objetivo do processo ou, mais especificamente, um valor alvo para uma medida de desempenho do processo. O alvo de um processo, também, pode ser um mínimo ou máximo. O desvio na característica de desempenho do valor alvo é usado para definir a função de perda para o processo. 2. Determinar os parâmetros de projeto que afetam o processo. Parâmetros são variáveis dentro do processo que afetam a medida de desempenho, e que podem ser, facilmente, controladas. O número de níveis em que os parâmetros devem ser variados deve ser especificado. Aumentar o número de níveis para variar um parâmetro aumenta o número de experimentos a serem conduzidos. 3. Criar matrizes ortogonais para o desenho dos parâmetros, indicando o número e as condições de cada experimento. A seleção das matrizes ortogonais é baseada no número de parâmetros e nos níveis de variação de cada parâmetro. 4. Conduzir os experimentos indicados na matriz completa para coletar dados sobre o efeito na medida de desempenho, preferencialmente em ordem aleatória. 5. Analisar os dados para determinar os efeitos e interações dos diferentes parâmetros na medida de desempenho. Em contraste com os delineamentos estatísticos clássicos, o design de Taguchi propõe um projeto fatorial fracionário geral, com base em um número selecionado de fatores e níveis de variação por fator para identificar o menor número de experimentos a serem realizados (RAZA et al., 2022). Os principais fatores e interações que são propensos a serem significativos, bem como os níveis em que eles são variados devem ser definidos, previamente, por um especialista. Com base nesse conhecimento, as matrizes ortogonais de Taguchi são selecionadas avaliando o benefício entre tempo de execução, utilização de recursos e qualidade dos resultados (MEDAN et al., 2017). Os efeitos de vários parâmetros diferentes na característica final de desempenho em um arranjo saturado de experimentos podem ser examinados usando o arranjo ortogonal proposto por Taguchi. Uma vez determinados os parâmetros que afetam um processo e que podem ser controlados, devem ser determinados os níveis em que esses parâmetros devem ser variados. Determinar quais níveis de uma variável testar, requer uma compreensão profunda do processo, incluindo o valor mínimo, máximo e atual do parâmetro. Além disso, é importante considerar a existência de ruídos no arranjo, ou seja, de parâmetros que afetam o processo, mas 48 que, entretanto, não podem ser controlados. Ao criar um arranjo de Taguchi, o modelador deve se atentar a essas condições, para não escolher uma matriz com poucos experimentos, que acabe por inviabilizar a análise de efeitos (SUN et al., 2018). Após as rodadas experimentais, o efeito de cada variável pode ser estudado com base na relação sinal-ruído razão (S/R) (signal-noise ratio, S/N Ratio ou SNR), isto é, maximizar ou minimizar as razões S/R. A relação sinal-ruído mede os desvios de resposta em relação ao valor alvo sob influência de diferentes condições de ruídos ambientes, alheios ao controle do processo proposto pelo DOE (PANDA; SARKAR, 2022). Existem 3 diferentes equações para cálculo da razão sinal- ruído, exibidos na Tabela 2. Tabela 2 – Modelos de cálculo da razão sinal-ruído Razão Sinal- Ruído Objetivo Equação Maior-melhor Maximização 𝑆/𝑅 = −10 ∗ 𝑙𝑜𝑔 ( ∑ 1 𝑦2 𝑛 ) (40) Nominal-melhor (target) Aproximação de um valor objetivo 𝑆/𝑅 = −10 ∗ 𝑙𝑜𝑔(𝜎2) (41) Menor-melhor Minimização 𝑆/𝑅 = −10 ∗ 𝑙𝑜𝑔 ( ∑𝑦2 𝑛 ) (42) Fonte: Hussein et al., (2022) sendo S/R a razão sinal-ruído, y o resultado do experimento avaliado em cada rodada, n o número de experimentos e 𝜎 o desvio padrão calculado para o espaço amostral avaliado. A Figura 15 mostra um gráfico das palavras-chave encontradas em uma pesquisa na base de dados Scopus, considerando artigos publicados, entre 2018 e 2022, contendo o termo ‘tagu- chi method’, gerado com auxílio do software VOSViewer. Diversos tópicos aparecem associados ao tema, porém os mais próximos contemplam trabalhos envolvendo as palavras-chave otimização multiobjetivo, delineamento de experimen- tos, estudo controlado, eficiência, e alguns termos técnicos de Engenharia, tais como tensão, fricção, microscopia, dureza de superfície, entre outros. 49 Figura 15 – Gráfico do software VOSViewer com os artigos envolvendo a palavra-chave 'método de Taguchi' desde 2018 Fonte: VOSViewer (2022). 2.5.2 Hipercubo Latino Segundo Parnianifard et al. (2020), o LHD é uma técnica de DOE baseada no conceito de space-filling, no qual, para n variáveis de entrada, m pontos amostrais são obtidos aleatoriamente dentro de m intervalos de igual probabilidade. O LHD é o método de DOE mais comum em projetos de metamodelagem, pois, embora o método de Taguchi também possa ser aplicado para esse fim, os conjuntos de dados por Taguchi são pequenos para treinamento de algoritmos e podem gerar efeitos de overfitting. Em contrapartida, o LHD propõe um arranjo ortogonal de tamanho ajustável, com uniformidade em sua distribuição espacial e ortogonalidade satisfatória (KIM et al., 2011). O hipercubo latino tem sua origem na aplicação de uma lógica de subdivisão de espaços amostrais. Esses espaços são divididos em intervalos de mesmo tamanho e, em seguida, é feito um sorteio de posições dentro de cada um desses intervalos, de apenas um ponto por intervalo. Quando essa lógica é aplicada a dois espaços amostrais, organizados como os eixos x e y de um gráfico, tem-se a situação ilustrada, na Figura 16. Os eixos representados por x1 e x2 50 são 2 parâmetros de entrada (n), que foram divididos em 7 intervalos iguais (m). Para cada cruzamento desses intervalos, um ponto foi atribuído, de forma a não permitir overlaps de intervalos, mas cobrindo de forma equiprobabilística o espaço amostral completo. Quando se constrói esse raciocínio com dois eixos, tem-se uma figura popularmente chamada de quadrado latino. Quando 3 ou mais eixos são avaliados, tem-se o chamado hipercubo latino (FENG et al., 2020). Figura 16 – Exemplos de quadrados latinos Fonte: Adaptado de Luo; Ji; Lu, (2019). A Figura 17 mostra um panorama das palavras-chave encontradas em uma pesquisa na base de dados Scopus, considerando artigos publicados, entre 2018 e 2022, contendo o termo ‘latin hypercube’. Nota-se uma presença mais concentrada de trabalhos envolvendo otimização, métodos de Monte Carlo, análises de incerteza, delineamento de experimentos, e, novamente, algoritmos genéticos. 51 Figura 17 – Gráfico do software VOSViewer com os artigos envolvendo a palavra-chave 'hipercubo latino' desde 2018 Fonte: VOSViewer (2022). Uma das formas de modelagem do LHD para geração de matrizes experimentais é por meio de um pacote da linguagem de programação R (HE et al., 2018). A R é uma linguagem de programação livre e código aberto, que permite a criação de pacotes e frameworks que facilitam a execução de métodos matemáticos e rotinas de experimento, como também é o caso do DOE de Taguchi, que possui um pacote de execução desenvolvido de forma independente e publicado na plataforma RPubs (DATE, 2016). 52 3 MODELAGEM DO PROBLEMA LOGÍSTICO DE EXPEDIÇÃO 3.1 DESCRIÇÃO DO PROBLEMA O modelo de simulação aplicado nos estudos foi construído com base em observações operacionais e medições de tempos, em uma operação logística de uma empresa localizada na região do Vale do Paraíba, interior do estado de São Paulo, que não será identificada. A validação do modelo foi feita comparando os dados do ERP da empresa, em diferentes condições operacionais, com os dados de saída do modelo, parametrizado para simular as mesmas condições. A Figura 18 mostra o fluxograma do método aplicado para construção e validação do modelo conceitual, construção e validação do modelo computacional, baseado em dados operacionais, seguida pela realização das simulações e avaliação dos resultados (MONTEVECHI et al., 2007). Figura 18 – Método aplicado para construção do modelo e estudo de simulação Fonte: Adaptado de Montevechi et al. (2007). 53 A operação consiste em um prédio de expedição central, equipado com 9 docas para atracamento de caminhões a serem carregados. Devido à disponibilidade de recursos e pessoas, essas docas não são sempre utilizadas simultaneamente, e o número de docas ativas é uma das variáveis de entrada do modelo. Os recursos envolvidos consistem em pessoas do time operacional, empilhadeiras para movimentação das cargas paletizadas. Estes também serão variáveis de entrada para o sistema simulado. Para que um palete seja movimentado, é necessário que haja uma empilhadeira e um operador de movimentação disponíveis, simultaneamente. Este par de recursos será mantido ocupado até que a movimentação do palete em questão seja finalizada. Os paletes para carregamento serão tratados como uma quantidade irrestrita dentro do modelo, pois na operação real, nenhum caminhão é direcionado para o carregamento sem que sua carga esteja disponível no armazém, portanto, não é necessário simular um evento no qual o carregamento de um caminhão seria interrompido por restrições do recurso palete. Para esses paletes, existem 4 tipos diferentes de consolidação de carga que implicam em tempos diferentes para movimentação pelas empilhadeiras, devido à estabilidade do material paletizado. Esse tipo de carga também é uma das variáveis exploradas pelo modelo. Essa operação funciona em dois turnos, e a distribuição de recursos (operadores e equipamentos) dentre os turnos operacionais também será tratada como uma das variáveis de entrada. Como uma das variáveis de saída, o modelo exibirá, ao fim de cada simulação, o número de paletes carregados dentro do expediente. 3.2 MODELAGEM E RESOLUÇÃO O software ProModelTM fornece dentro de suas funcionalidades uma ferramenta para atrelar os custos operacionais de cada recurso e operação, a ser contabilizado por hora trabalhada ou evento ocorrido, conforme preferência do usuário. Ao fim de cada rodada de simulação, essa ferramenta permite calcular o custo total envolvido na operação, este custo é a segunda variável de saída a ser estudada. A Figura 19 mostra o fluxograma operacional utilizado para construção do modelo, baseado nas informações presentes, na Tabela 3, na qual estão listadas as variáveis, recursos, entidades e locais empregados pelo software para execução da simulação. A Figura 20 mostra uma captura de tela do software ProModel, ilustrando o modelo após sua construção e validação. 54 Tabela 3 – Descrição dos fatores envolvidos na construção do modelo no ProModel Fator Tipo Descrição Portaria Local Ponto de entrada e saída dos caminhões no modelo Doca Local Ponto de atracamento dos caminhões, onde ocorre o carregamento dos paletes Armazém Local Ponto de entrada dos paletes no modelo Área de Separação Local Ponto onde os paletes são acumulados até que ocorra a movimentação para dentro do caminhão Portaria Local Ponto de entrada e saída dos caminhões no modelo Doca Local Ponto de atracamento dos caminhões, onde ocorre o carregamento dos paletes Caminhão Entidade Consiste em cada caminhão que passa pela portaria e se dirige a uma das docas Paletes Entidade Consiste em cada um dos paletes que será movimentado pelos operadores e carregado em um dos caminhões Turnos Variável Número de turnos ativos, utilizado para calcular por quanto tempo o modelo será executado em cada replicação Docas Variável Número de docas em operação Operadores Variável Número de operadores de movimentação de carga disponíveis Empilhadeiras Variável Número de empilhadeiras de carga disponíveis Carga Variável Número de paletes a ser carregado em cada caminhão, sorteado individualmente para cada caminhão, com base em uma distribuição de dados coletada na operação Fonte: Autor (2022). 55 Figura 19 – Fluxograma básico do modelo de simulação Fonte: Autor (2022). 56 Figura 20 – Captura de Tela do Modelo de Simulação elaborado no software ProModelTM Fonte: ProModelTM (2022). A sistemática, conforme demonstrado na Figura 21, consiste na avaliação de um problema de otimização multiobjetivo via simulação, visando a redução do espaço de busca pela combinação das técnicas de DOE e DEA. O procedimento se inicia com a validação do modelo de simulação e, em seguida, a definição de quais serão as variáveis de entrada a serem estudadas, e quais são os parâmetros de saída a serem otimizados, bem como seus objetivos. Em se tratando de uma otimização multiobjetivo, há sempre ao menos 2 parâmetros de saída. No caso do modelo estudado a validação foi feita pela comparação direta dos dados de saída das execuções do modelo com os dados sistêmicos da empresa, tanto para as quantidades operadas, quanto para os custos estimados da operação. Em seguida, os arranjos de DOE para cada método são elaborados, de forma a atender as condições da regra de ouro do DEA, tendo em consideração o número de parâmetros de entrada. Com as matrizes de experimentos geradas, tem-se a definição das DMUs para estudo, e executa-se então o modelo de simulação. Os resultados das simulações conforme os arranjos experimentais de cada técnica de DOE são então tratados pela análise do DEA – BCC, em duas orientações diferentes. Com isto, é possível identificar e ranquear as DMUs eficientes em cada conjunto de dados e, por fim, propor novos espaços de busca menores, que estarão compreendidos dentro da faixa de variação das duas DMUs mais eficientes de cada conjunto de dados. Estes espaços de busca são 57 finalmente utilizados, junto a função Desirability, num algoritmo de otimização. Figura 21 – Método de redução do espaço de busca proposto para o problema de OvS multiobjetivo sob estudo Fonte: Autor (2022). A seguir, passa-se a descrever cada etapa da sistemática proposta para resolver o problema logístico de expedição da empresa objeto do estudo. 58 Etapa 1: Determinação das variáveis de decisão e seus níveis de variação Na Tabela 4 estão as variáveis de decisão e seus respectivos limites de variação. Tabela 4 – Descrição das variáveis de entrada do modelo Entradas Variável Mínimo Máximo x 1 Número de Operadores 2 18 x 2 Número de Docas ativas 1 9 x 3 Número de Empilhadeiras 1 9 x 4 Tipo de Carga 1 4 x 5 Número de turnos 1 2 Fonte: Autor (2022). Etapa 2: Determinação das variáveis de saída a serem otimizadas Na Tabela 5 estão os fatores de saída (produtos) do modelo e seus objetivos, que serão utilizados para a análise do DEA. Tabela 5 – Descrição das variáveis de saída do modelo Saídas Variável Objetivo y 1 Custo médio por caminhão carregado Minimizar y 2 Número de paletes expedidos Maximizar Fonte: Autor (2022). Etapas 3 e 4: Seleção do Arranjo de Taguchi e de Hipercubo Latino, e geração das matrizes de experimentos Com o arranjo dos dados iniciais destas simulações, foram criadas matrizes de experimentos com 32 execuções por dois diferentes métodos de DOE: o método de Taguchi e o método do Hipercubo Latino. Essas matrizes estão na Tabela 6 – Delineamento de Experimentos pelo Método de Taguchi e na Tabela 7 – Delineamento de Experimentos pelo Método do Hipercubo Latino. O número de 32 execuções foi determinado de forma a atender 59 a regra de ouro do DEA, a qual recomenda que o número de variáveis de entrada e saídas não exceda um terço do número de DMU’s. Tabela 6 – Delineamento de Experimentos pelo Método de Taguchi Variável x1 x2 x3 x4 x5 Número de Operadores Número de Docas ativas Número de Empilhadeiras Tipo de carga Número de turnos Experimento 1 5 3 5 3 1 2 1 4 3 2 2 3 5 8 2 0 2 4 9 1 9 0 1 5 4 5 2 3 1 6 8 2 5 0 2 7 9 2 6 3 2 8 4 4 8 1 1 9 7 1 1 3 1 10 1 7 4 3 1 11 2 5 5 1 2 12 4 1 4 2 2 13 2 3 6 2 1 14 5 2 3 1 1 15 7 5 7 2 1 16 6 2 8 2 1 17 8 9 8 3 2 18 2 4 9 3 2 19 1 3 7 0 2 20 8 6 2 2 1 21 9 7 2 1 2 22 3 8 5 2 1 23 1 8 1 1 1 24 5 7 1 2 2 25 7 3 4 1 2 26 4 6 6 0 2 27 3 4 4 0 1 28 3 1 7 1 2 29 2 9 3 0 1 30 6 5 1 0 2 31 3 6 3 3 2 32 6 9 9 1 1 Fonte: Autor (2022). 60 Tabela 7 – Delineamento de Experimentos pelo Método do Hipercubo Latino Variável x1 x2 x3 x4 x5 Número de Operadores Número de Docas ativas Número de Empilhadeiras Tipo de carga Número de turnos Experi- mento 1 8 5 8 2 1 2 4 4 5 1 1 3 6 8 5 1 2 4 6 2 3 2 1 5 7 7 8 2 1 6 1 8 1 2 2 7 2 7 3 4 2 8 9 9 6 4 1 9 4 1 1 3 1 10 1 3 7 1 2 11 2 1 7 3 2 12 5 6 1 1 1 13 3 7 7 1 1 14 2 6 4 1 1 15 3 5 4 1 1 16 9 4 1 1 1 17 8 6 3 3 1 18 1 5 9 3 2 19 7 3 4 2 2 20 6 1 8 1 1 21 3 9 1 1 1 22 4 2 2 1 1 23 3 1 5 2 1 24 6 5 7 4 1 25 2 3 2 3 1 26 8 4 6 2 1 27 7 7 6 3 1 28 8 8 4 4 1 29 5 2 9 2 1 30 1 1 2 3 2 31 6 2 2 3 1 32 5 3 6 1 1 Fonte: Autor (2022). Etapa 5: Execução do modelo de simulação Os dois arranjos experimentais foram carregados no software e os experimentos foram realizados de forma randomizada até que todas as execuções dos dois arranjos de DOE fossem cumpridas. 61 Etapa 6: Determinação do cenário de supereficiência DEA-BCC Com base nos resultados das simulações propostas pelas duas tabelas de DOE, foi possível a aplicação do modelo DEA BCC orientado aos insumos e aos produtos, visando identificar, por meio de métricas de supereficiência, quais seriam as DMU’s mais eficientes em cada orientação. Isso proporcionou quatro conjuntos de dados diferentes, conforme contemplado, na Tabela 8. Tabela 8 – Conjuntos de dados de análise divididos por método de DOE e orientação de DEA Conjunto de Dados Método de DOE Orientação do DEA - BCC 1 Taguchi Insumo 2 Taguchi Produto 3 LHD Insumo 4 LHD Produto Fonte: Autor (2022). A aplicação do DEA – BCC em cada conjunto de dados possibilitou estabelecer um ranqueamento das 32 DMUs, conforme será mostrado no capítulo 4. Quando ordenadas em ordem decrescente, novos espaços de busca puderam ser identificados considerando-se o range entre as duas primeiras posições, conforme exposto na Tabela 9. Tabela 9 – DMUs mais eficientes de cada conjunto de dados, após ranqueamento Conjunto de Dados Método de DOE Orientação do DEA - BCC DMU mais eficiente Segunda DMU mais eficiente 1 Taguchi Insumo 3 9 2 Taguchi Produto 10 29 3 LHD Insumo 6 10 4 LHD Produto 6 16 Fonte: Autor (2022). Etapa 7 e 8: Ranqueamento das DMU’s eficientes e Definição de novos ranges de variação para as variáveis de decisão Conforme explicado, as duas DMU’s mais eficientes de cada conjunto de dados trouxeram novos espaços de busca reduzido propostos, dispostos na Tabela 10. 62 Tabela 10 – Novos espaços de busca reduzidos pela aplicação do DEA sobre os conjuntos de dados Variável x1 x2 x3 x4 x5 Descrição Operadores Docas ativas Empilhadeiras Tipo de carga Turnos Limites Inferior Superior Inferior Superior Inferior Superior Inferior Superior Inferior Superior Espaço de busca completo 1 9 1 9 1 9 1 4 1 2 DEA BCC Insumos - DOE Taguchi 9 9 2 7 2 6 2 4 2 2 DEA BCC Produtos - DOE Taguchi 7 8 1 2 1 5 1 4 1 2 DEA BCC Insumos - DOE LHD 1 7 3 8 1 4 2 2 2 2 DEA BCC Produtos - DOE LHD 1 4 1 8 1 1 2 3 1 2 Fonte: Autor (2022). Etapa 9: Otimização do modelo de simulação Estes novos espaços de busca foram utilizados em conjunto com o otimizador nativo do software ProModel conhecido, comercialmente, como SimRunner. Nessa aplicação, primeiramente foi executada uma rodada de otimização pelo algoritmo nativo do SimRunner colocando como parâmetros de objetivo a minimização da variável de saída y1 (custo médio por veículo carregado) e a maximização da variável de saída y2 (quantidade de paletes expedidos). Cabe informar que a forma pela qual o SimRunner otimiza várias funções é por meio de uma aglutinação, feita pela soma simples dessas funções, ou seja, não levando em consideração as diferentes grandezas escalares e unidades de medida. Contudo o uso da função Desirability dentro do SimRunner contorna esses graves problemas matemáticos. Para trazer mais robustez ao estudo foi proposta uma abordagem diferenciada para esta otimização: ao invés de utilizar o algoritmo otimizador do SimRunner, uma função Desirability ponderada, dada por (41), foi aplicada para converter as duas variáveis de saída em um parâmetro de otimização único, para o qual buscou-se a maximização. Este parâmetro único é obtido pela