RESSALVA Atendendo solicitação do(a) autor(a), o texto completo desta tese será disponibilizado somente a partir de 06/08/2020. PIERRE FERREIRA DO PRADO ESTUDO DE DESCRITORES DE TEXTURAS E CORES PARA A CLASSIFICAÇÃO AUTOMÁTICA DE IMAGENS NO CONTEXTO DAS CIÊNCIAS AMBIENTAIS Sorocaba 2018 PIERRE FERREIRA DO PRADO ESTUDO DE DESCRITORES DE TEXTURAS E CORES PARA A CLASSIFICAÇÃO AUTOMÁTICA DE IMAGENS NO CONTEXTO DAS CIÊNCIAS AMBIENTAIS Tese de doutorado apresentada como requisito para a obtenção do título de Doutor em Ciências Ambientais da Universidade Estadual Paulista “Júlio de Mesquita Filho” na Área de Concentração Diagnóstico, Tratamento e Recuperação Ambiental Orientador: Prof. Dr. Antonio Cesar Germano Martins Sorocaba 2018 Dedicatória Às Ninetes, aos familiares, amigos e parafraseando o escrito anteriormente: “to ours teachersand all those who teach children to question our knowledge, learn through collaboration and the joy of discovery”(Rovelli, Vidotto 2013) AGRADECIMENTOS A minha gratidão a todos aqueles que mantém este essencial sistema de educação em que participei composto por CAPES, UNESP/ICTS, PGCA, UV (Universidade de Valência) , em especial ao Professor Dr. Antonio Cesar Germano Martins e Prof. Dr. Ernesto Lopez-Baeza pelo constante ensinamento. RESUMO Há uma crescente disponibilidade de imagens no contexto das ciências ambientais, sendo que a análise automática destas, pode permitir a identificação de objetos e regiões de interesse de forma mais eficiente, agilizando o estudo de fenômenos e a ocorrência de situações de impactos. No entanto, como em qualquer sistema de classificação automática, os resultados obtidos dependem de quais descritores são utilizados para se representar as imagens. Neste sentido, este trabalho busca discutir e comparar o uso de descritores em níveis de cinza, que estão diretamente ligados a textura, e os referentes aos canais de cores. Para isto, foi realizado um estudo para se avaliar os resultados da seleção automática de descritores para se representar imagens de forma a permitir a classificação de imagens de troncos de árvores e imagens aéreas de uso e ocupação do solo no contexto das Ciências Ambientais. Este estudo utilizou a arquitetura de rede neural artificial Fuzzy ARTMAP como classificador e um algoritmo para seleção sequencial de descritores. Os resultados consolidam a importância dos descritores de textura Haralick, de segunda ordem, a partir de níveis de cinza e a relevância do espaço de cores RGB e Lab. Palavras-Chave: textura, cores, níveis de cinza, Fuzzy ARTMAP, classificação ABSTRACT There is a growing availability of images in the context of the environmental sciences, and the automatic analysis of these can allow the identification of objects and regions of interest in a more efficient way, speeding up the study of phenomena and the occurrence of situations of impacts. However, as in any automatic classification system, the results obtained depend on which parameters are used to represent the images. In this sense, this work seeks to discuss and compare the use of parameters in gray levels, which are directly linked to texture, and those referring to color channels. For this, a study was carried out to evaluate the results of the automatic selection of descriptors to represent images in order to allow the classification of images of tree trunks and aerial images of use and occupation of the soil in the context of Environmental Sciences. This study used the artificial neural network architecture Fuzzy ARTMAP as a classifier and an algorithm for the sequential selection+ of descriptors. The results consolidate the importance of ,second order, Haralicks´s texture descriptors from gray levels and the relevance of the RGB and Lab color space. Keywords: texture, colors, gray levels, Fuzzy ARTMAP, classification LISTA DE FIGURAS Figura 1 – Inter-relações que caracterizam a informática aplicada ao meio ambiente 15 Figura 2 – Exemplos de texturas 20 Figura 3 – Exemplo de textura gerada por composição das texturas 1 e 2 20 Figura 4 – Espaços de cores RGB 21 Figura 5 – Espaços de cores HSV Figura 6- Diagrama de blocos da RNA Fuzzy ARTMAP (Carpenter et al, 1997) 25 Figura 7 - Mosaico com uma imagem de cada categoria do SB 32 Figura 8 - Mosaico com amostra de imagens das 21 categorias ordenadas da 1ª até 21ª Figura 9- Diagrama esquemático de rotina implementada iterativamente em software 34 Figura 10 - Exemplo típico da relação de IBC com o número de descritores selecionados pelo SFS 44 Figura 11 - Números totais de descritores selecionados (Total) para cada subgrupo de descritores (ver Tabela 3) e o número de descritores que aumentam o IBC (Contribuintes) considerando-se todos os experimentos de SB 45 Figura 12 - Número total mínimo de descritores selecionado para se atingir o máximo IBC (Total) e o número de descritores que aumentam o IBC (Contribuintes) para cada experimento de SB 46 Figura 13 – IBC versus nmax relacionados a E=12 experimentos de classificação de imagens 47 Figura 14 - Número de descritores nmax e a razão GNC/GC entre a quantidade de descritores: barras em hachura escura (GNC), e em hachura clara (GC) para cada experimento. A razão é observável na projeção dos marcadores circulares à direita em preto no eixo vertical secundário 47 Figura 15 - Acumulo de incrementos unitários (AIU) indica a dinâmica qualitativa da seleção de descritores GC (IU<0) ou GNC (IU>0) de cada um dos 12 experimentos e respectivas séries de dados 48 Figura 16 - Dinâmica do IBCN da classificação em relação ao DMN para os 12 experimentos 49 Figura 17 - Exemplo típico da relação de IBC com o número de descritores selecionados pelo SFS 51 Figura 18 - Números totais de descritores selecionados (Total) para cada subgrupo de descritores (ver Tabela 3) e o número de descritores que aumentam o IBC (Contribuintes) considerando-se todos os experimentos de UC 52 Figura 19 - Número total mínimo de descritores selecionado para se atingir o máximo IBC (Total) e o número de descritores que aumentam o IBC (Contribuintes) para cada experimento de UC 53 Figura 20 - Dispersão obtida do IBC versus nmax relacionados a E=12 experimentos de classificação de imagens 53 Figura 21 - Número de descritores nmax e a razão GNC/GC entre a quantidade de descritores: barras em hachura escura (GNC) e em hachura clara (GC). A razão é observável na projeção dos marcadores circulares à direita em preto no eixo vertical secundário 54 Figura 22 - O acumulo de incrementos unitários (AIU) indica a dinâmica qualitativa da seleção de descritores GC (IU<0) ou GNC (IU>0) de cada um dos 12 experimentos e respectivas séries de dados 55 Figura 23 - Dinâmica do IBCN da classificação em relação ao DMN para os 12 experimentos e respectivas séries de dados 55 Figura24 - Porcentagem de descritores Contribuintes de cada grupo, considerando- se todos os experimentos, para SB e UC 57 LISTA DE TABELAS Tabela 1 – Quantidades de imagens de casca de arvores e respectivos nomes científicos que constituem o BARKTEX 31 Tabela 2 – Códigos BARKTEX das imagens que compõem o subconjunto usado no estudo de classificação 32 Tabela 3 - Representação do vetor de características com posição, descrição e agrupamentos a partir de canais de cor (GC) ou grupo de descritores a partir de níveis de cinza (GNC) que estão com fundo cinza 38 Tabela 4 – Resultados dos experimentos com SB. A primeira coluna traz o número do experimento em ordem de execução, a segunda e terceira colunas apresentam, respectivamente, a sequência e o número de descritores selecionados para se obter o máximo IBC e a última coluna traz o máximo valor de IBC obtido em cada experimento 43 Tabela 5 – Número total de descritores selecionados (Total) para cada grupo de descritores (ver Tabela 3) e o número de descritores que aumentam o IBC (Contribuintes) considerando-se todos os experimentos de SB 45 Tabela 6 – Resultados dos experimentos com UC. A primeira coluna é o número do experimento em ordem de execução, a segunda e terceira colunas apresentam, respectivamente, a sequência e o número de descritores selecionados para se obter o máximo IBC e a última coluna traz o máximo valor de IBC obtido em cada experimento 50 Tabela 7 – Número total de descritores selecionados (Total) para cada subgrupo de descritores (ver Tabela 3) e o número de descritores que aumentam o IBC (Contribuintes) considerando-se todos os experimentos de UC. 51 LISTA DE ABREVIATURAS E SIGLAS ACM - auto-correlation method AIU - acumulo de incremento unitário ART – adaptative ressonance theory ARTMAP- arquitetura de rede neural baseada na teoria ART BOVW - bag of visual words CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior COMM - co-occurrence matrices method CPU - central processing unit CIE - Comission Internationale de l’Eclairage DNM.- razão entre o quantia de descritores selecionados e quantia necessária para que se obtenha a máxima acurácia de classificação. E - experimento FAPESP - Fundação de Amparo à Pesquisa do Estado de São Paulo GC – grupo de descritores baseados em cores GLCM - gray-level co-occurrence matrix GNC -grupo de descritores baseados em níveis de cinza HM - histogram method HOG - histogram of oriented gradients IBCn,E- acurácia da classificação considerando n descritores no experimento E IBCNn,E – acurácia da classificação normalizada em relação ao máxima acurácia , usando n descritores no experimento E. IFK - Improved Fisher kernel IU-incremento unitário KNN - k-nearest neighbourghood LBP - local binary pattern LPB - Local Binary Pattern MMC - moving median centers n - Quantidade de descritores selecionados pelo SFS na execução E nmax - Quantidade de descritores necessário para obtenção do máximo IBCn,E e usado para fins de normalização RAM-random access memory RLM - gray level run-length method RNA – redes neurais artificiais R – canal vermelho do espaço de cores RGB SB - subconjunto de BARKTEX SFS - Sequecial Forward Selection SIFT- Scale-invariant feature transform SPCK - Spatial Pyramidal Co-occurrence Kernel UAV- unmanned aerial vehicle UC – Conjunto de experimentos executado com imagens da base UCMERCED UCMERCED – Banco de imagens da University of California Merced USGS- United States Geological Survey VANT – veículo aéreo não tripulado 1-NN - 1K-nearest neighborhood SUMÁRIO 1 INTRODUÇÃO E REVISÃO BIBLIOGRÁFICA 15 1.1 Inspeção visual 15 1.2 Texturas e cores em imagens digitais 19 1.2.1 Texturas 19 1.2.2 Cores 19 1.2.3 Associações de descritores de cores e textura 23 1.3 Sistemas classificadores de imagens com redes Neuro-Fuzzy 25 2 JUSTIFICATIVA 2.1. Classificação automática de espécies arbóreas 2.2 Classificação automática de imagens aéreas 3 OBJETIVOS 3.1 Objetivo Geral 30 3.2 Objetivos específicos 30 4 MATERIAL E MÉTODOS 31 4.1 Conjuntos de Imagens 31 4.1.1 Subconjunto Barktex-SB 31 4.1.2 Banco de Imagens de usos e ocupação do solo - UCMERCED 33 4.2 Descritores candidatos 34 4.2.1 Descritores estatísticos de primeira ordem em tons de cinza (PEPOTC) 35 4.2.2 Descritores candidatos de Haralick 36 4.2.3 Descritores espectrais 37 4.3 Vetor de características 37 4.4 Seleção dos descritores mínimos 40 4.5 Classificador 40 4.6 Análise de resultados 41 5 RESULTADOS 43 5. 1 Experimentos com texturas coloridas de cascas de árvores – SB 43 5. 2 Experimentos com a coleção de imagens UC 49 6. DISCUSSÃO 56 6.1. Resultados Gerais 56 6.2 Resultados dos experimentos usando SB e a literatura 57 6. 3 Resultados dos experimentos usando UC e a literatura 59 6. 4 Análise comparativa dos resultados SB e UC 60 7 CONCLUSÕES 62 8 PERSPECTIVAS FUTURAS 64 9 REFERÊNCIAS 65 64 7 CONCLUSÕES Com o desenvolvimento deste trabalho e os resultados obtidos foi possível se avaliar um conjunto de descritores de caracterização de cor e textura em imagens digitais no contexto das Ciências Ambientais, visando a classificação automática através de uma Rede Neural Fuzzy ARTMAP. Trabalhou-se com dois conjuntos de banco de dados relacionados a diagnósticos ambientais com fins de inventário de espécies arbóreas (SB) e de usos e cobertura do solo por inspeção de imagens (UC), tendo-se obtido descritores que permitiram taxas de acerto entre 87 e 100% no primeiro caso e entre 70 e 74% no segundo caso. O IBC considerável em ambos os desafios de classificação aponta para a possível inserção do sistema de classificação proposto em um único software. Este poderia receber entradas de dois tipos de inspeções visuais aéreas, voo baixo coletando imagens de cascas de tronco de árvores e coletando imagens de usos de solo em maior altitude, como parte integrante de uma solução que envolveria também um VANT para aquisição flexível e processamento de dados e treinamento em tempo real. Os resultados de SB foram o mais próximo do estado da arte do que os de UC e, considerando a complexidade da implementação e da metodologia em geral, os IBCs obtidos são relevantes em SB. Os resultados obtidos com experimentos UC comparados com os métodos da literatura foram satisfatórios. Com relação aos descritores selecionados a partir de metodologias de caracterização das imagens de tons de cinza que salientam a informação de textura presente, pode-se destacar aqueles relacionados a análise das matrizes de co-ocorrência e no caso dos descritores obtidos a partir dos modelos de cor estudados, salienta-se o RGB e o Lab em ambas as aplicações consideradas. Com relação ao processo de seleção automática dos descritores de cor e distribuição dos tons de cinza para a representação das imagens, pode-se argumentar que o método de Sequential Forward Selection agregou diversos descritores que não contribuíram para uma melhora do desempenho de classificação e, em alguns casos, até mesmo o diminui. Este comportamento é mais evidente no caso do SB, possivelmente devido a menor complexidade quando comparado ao UC que necessita de mais descritores para se obter o máximo IBC. 65 No que se refere a avaliação de outros descritores computados a partir de níveis de cinza, nota-se que os relacionados à matriz de co-ocorrência (descritores de Haralick) se mostraram superiores aos de estatística de primeira ordem e do domínio de Fourier, corroborando a estratégia utilizada por Porebski et al. (2013). A relevância dos descritores Haralick também é condizente com outros resultados presentes na literatura e relaciona-se com propriedades de estatística de segunda ordem capturadas na matriz de co-ocorrência de níveis de cinza. O uso da RNA Fuzzy ARTMAP se mostrou adequado e bastante apropriado para o desenvolvimento de metodologias aplicadas ao meio ambiente que geram grandes quantidades de dados, uma vez que mostrou-se bastante eficiente tanto no quesito de classificação bem como no curto tempo para a obtenção dos resultados, mesmo não sendo utilizado um equipamento de alto desempenho computacional. Dos resultados obtidos, nota-se a grande contribuição que a informática aplicada ao meio ambiente pode trazer para o processo de suporte aos diagnósticos ambientais que, notadamente nos casos estudados, levam a classificação automação das imagens, permitindo que o especialista ambiental possa utilizar esta informação para analisar possíveis impactos ou estimar riscos de forma mais eficiente. Como já salientado anteriormente, não houve em qualquer dos experimentos realizados a seleção de todos os descritores de um mesmo subgrupo e, embora se possa notar uma predominância dos descritores de níveis de cinza, a utilização de um conjunto formado por descritores de cor e distribuição dos níveis de cinza levam a melhores resultados no processo de classificação. Considerando-se que a seleção de descritores mínimos é altamente relacionada ao conjunto de imagens utilizadas na fase de treinamento, a expansão deste estudo para outros métodos de caracterização de distribuições dos tons de cinza tais como os baseados em dimensões fractais e campos de Markov e a análise das distribuições dos diversos canais de cores utilizando a matriz de co-ocorrência podem levar a um conjunto mínimo de descritores que permitam um processo menos dependente das imagens de treinamento. 67 9 REFERENCIAS ACHA, B., SERRANO, C.; FONDÓN, I.; GÓMEZ-CÌA, T. Burn Depth Analysis Using Multidimensional Scaling Applied to Psychophysical Experiment Data. IEEE Transactions on Medical Imaging, v. 32, n. 6, p. 1111-1120, 2013. BECKER, M. W. et al. Magnetic resonance imaging of dense and light non-aqueous phase liquid in a rock fracture. Geophysical Research Letters, v. 30, n. 12, p. 1646, 2003. BERGAMASCO, A. F. F. et al. Aplicabilidade do Modelo de Balanço de Nitrogênio para Previsão de Resposta da Cana-de-Açúcar ao Fertilizante Nitrogenado. Embrapa. 2002, Campinas, p.1-8. BIANCONI, F. et al. Theoretical and experimental comparison of different approaches for color texture classification. Journal of Electronic Imaging, v.20, n.4, 043006, 2011. CARPENTER, G. A. et al. A neural network architecture for incremental supervised learning of analog multidimensional maps. IEEE Transactions on Neural Networks, v. 3, n. 5, p. 698- 713, 1992. CARPENTER, G. A. et al. ART neural networks for remote sensing: vegetation classification from Landsat TM and terrain data. IEEE Transactions on Geoscience and Remote Sensing, v. 35, n. 2, p. 308-325, 1997. CASTELLUCCIO, M. et al. Land Use Classification in Remote Sensing Images by Convolutional Neural Networks. CoRR abs/1508.00092 (2015) CERNADAS, E. et al. Influence of normalization and color space to color texture classification, Pattern Recognit, v. 61, p. 120-138, 2017. CHARLAMPIDIS, D. et al. A fuzzy ARTMAP based classification technique of natural textures. In: 18th International Conference of the North American Fuzzy Information Processing Society 1999, NAFIPS (Cat. No.99TH8397). CHEN, Z. et al. A texture-based method for classifying cracked concrete surfaces from digital images using neural networks. In: International Joint Conference on Neural Networks, 2011. San Jose, California. Anais do 2011 International Joint Conference on Neural Networks. pag. 2632-2637. 68 CHEN, C. et al. Land-use scene classification using multi-scale completed local binary patterns. Signal, Image and Video Processing, v. 10, n 4, p. 745- 752, 2016 CHENG, G.; HAN, J.; LU, X. Remote Sensing Image Scene Classification: Benchmark and State of the Art. Proceedings of the IEEE, v. 105, n. 10, p. 1865-1883, 2017. CHI Z.; HOUQIANG, L.; CHAO, W. Plant species recognition based on bark patterns using novel gabor filter banks. In: International Conference on Neural Networks and Signal Processing, Nanjing, 2003. Anais International Conference on Neural Networks and Signal Processing. v. 2. p. 1035-1038. CLERY, S.; BLOJ, M.; HARRIS, J. M. Interactions between luminance and color signals: Effects on shape. Journal of Vision, v. 13, p. 16-21, 2013. COLLINS R. T., LIU Y.; LEORDEANU, M. Online selection of discriminative tracking descriptors. IEEE Transactions on Pattern Analysis and Machine Intelligence, v. 27. p. 1631- 1643, 2005. CORBALAN-FUERTES, M. et al. Color pattern recognition with CIELAB coordinates. Optical Engineering, v. 41, n. 1, 2002 não paginado. CUNHA, B. A. Estudo comparativo entre abordagens estatísticas e redes neurais artificiais na classificação de imagens de grãos de cereais. Monografia , São Paulo, FATEC 2012 CUSANO, C.; NAPOLETANO, P.; SCHETTINI, R. Evaluating color texture descriptors under large variations of controlled lighting conditions. J. Opt. Soc. Am. A, v. 33, p. 17-30, 2016. DADAM, J. et al. Morphological Patterns and Their Colour. Perceptual and Motor Skills, v. 114, n. 2, p. 363-377, 2017 DALE, H. et al. Modelling biomechanics of bark patterning in grasstrees. Annals of Botany, v.114, n. 4, p.629–641, 2014 DELL, A. I., et al. Automated image-based tracking and its application in ecology. Trends in Ecology & Evolution, v. 29, n. 7, p. 417-428, 2014. FUKUNAGA, K. Statistical pattern recognition (second edition). 1990, San Diego, CA: Academic Press. 69 EZEQUIEL, C. A. F. et al. UAV aerial imaging applications for post-disaster assessment, environmental management and infrastructure development. In: International Conference on Unmanned Aircraft Systems (ICUAS), 2014, Orlando, EUA, pp. 274-283. FAPESP. FUNDAÇÃO DE AMPARO A PESQUISA DO ESTADO DE SÃO PAULO. 2012. Pesquisadores da USP vencem desafio de identificação de plantas. Disponível em: . Acesso em: 11 de maio de 2015. FIEL, S.; SABLATNIG R. Automated identification of tree species from images of the bark, leaves and needles. In: 16th Computer Vision Winter Workshop, 2011, Mitterberg, Austria, Anais do 16th Computer Vision Winter Workshop. p. 1–6. FONGARO, L.; KVAAL, K. Surface texture characterization of an Italian pasta by means of univariate and multivariate feature extraction from their texture images. Food Research International, v. 51, n. 2, p. 693-705, 2013. FORESTIER, G.; WEMMERT, C.; PUISSANT, A. Coastal image interpretation using background knowledge and semantics. Computers & Geosciences, v. 54, n. 0, p. 88-96, 2013. FREITAS, M. R.; MACEDO, R. L. G.; FERREIRA, E. B.; FREITAS, M. P. Em busca da conservação ambiental: a contribuição da percepção ambiental para a formação e atuação dos profissionais da Química. Quimica Nova, v. 33, n., p. 988-993, 2010. GONZALEZ, R. C.; WOODS, R. E. Digital Image Processing. 3rd edition. Prentice-Hall; 2006. GONZALEZ, R. C; WOODS, R.E.; EDDINS, S. L. Digital Image Processing using Matlab. 2nd edition. Gatesmark Publishing. 2009. HARALICK, K.; ROBERT M.; SHANMUGAM, K.; DINSTEIN, ITS’HAK. Textural Descriptores for Image Classification. IEEE Transactions on Systems. Man and Cybernetics, v. 3:6, p. 610 – 621, 1973. HILTY, L.M. et al. Environmental Informatics as a new discipline of applied computer science. N.M. Avouris and B. Page (eds.), Environmental Informatics (1995), pp. 1-11. Kluwer Academic Publishers. The Netherlands. ISBN 0-7923-3445-0 70 HOANG, V. T. et al. Histogram selection based on sparse representation for color texture classification. International Conference on Computer Vision Theory and Applications (VISAPP'17), 27 February - 1 March, 2017, Porto, Portugal HODGSON. J. C. et al. Precision wildlife monitoring using unmanned aerial vehicles. Scientific Reports 6, Article number: 22574, p.1-6, 2016. HUANG, Z. K. et al. Bark classification based on textural descriptores using artificial neural networks. Advances in Neural Networks. Springer, 2006. HUANG, Z. K. et al. Bark Classification Based on Textural Features Using Artificial Neural Networks. In: Wang J., Yi Z., Zurada J.M., Lu BL., Yin H. (eds) Advances in Neural Networks - ISNN 2006. ISNN 2006. Lecture Notes in Computer Science, vol 3972. Springer, Berlin, Heidelberg. IZQUIERDO, J. M. C. et al. Learning from noisy information in FasArt and FasBack neuro- fuzzy systems. Neural Netw, v. 14, n. 4-5, p. 407-425, 2001. JORGENSEN, S. E.; VOLLENWEIDER, R. A. Eds. Princípios para o gerenciamento de lagos. Diretrizes para o gerenciamento de lagos. São Carlos: ILEC; IIE; UNEP, 2000, v.I, p.202-208. KADIR, A. et al. Leaf Classification Using Shape, Color, and Texture Descriptores. International Journal of Computer Trends and Technology, p. 225-230, 2011. KARRABI, M. et al. Investigation of hydrodynamic/biomass growth coupling in a pilot scale granular bioreactor at low pore Reynolds number. Chemical Engineering Science, v. 66, n. 8, p. 1765-1782, 2011. KHALIL, M. S.; KHAN, M. K.; RAZZAK, M.I. Co-occurrence matrix descriptores for fingerprint verification. In: IEEE International Conference on Anti-Counterfeiting, Security and Identification (ASID). 2011. Anais IEEE International Conference on Anti-Counterfeiting, Security and Identification (ASID). p. 43-46. KHAN. F.S. et al. Compact color–texture description for texture classification. Pattern Recog. Lett. v. 51, p. 16-22, 2015. 71 KUTSCHERA, F. et al. Induction and the Empiricist Model of Knowledge. In: (Ed.). Studies in Logic and the Foundations of Mathematics, Elsevier, 1973, v. 74, p.345-356. LAKMANN, R. Barktex benchmark database of color textured images, 1998. Disponível em: . Acessado em 15 de dezembro de 2016. LAMIT, L. J. et al. Genotype variation in bark texture drives lichen community assembly across multiple environments. Ecology, v. 96, n. 4, p. 960-971. 2015 LAOFOR, C.; PEANSUPAP, V. Defect detection and quantification system to support subjective visual quality inspection via a digital image processing: A tiling work case study. Automation in Construction, v. 24, p. 160-174, 2012. LIN, T.J.; CHEN, P.C. Studies on hydrodynamics of an internal-loop airlift reactor in gas entrainment regime by particle image analyzer. Chemical Engineering Journal, v. 108, n. 1-2, p. 69-79, 2005. MACHADO, B. B.; CASANOVA, D.; GONÇALVES, W. N.; BRUNO, O. M. Partial differential equations and fractal analysis to plant leaf identification. Journal of Physics: Conference Series. IOP Publishing, p. 012-066, 2013 MADDEN, M. et al. The future of Unmanned Aerial System (UAS) for monitoring natural and cultural resources. Pag 369- 385 Dieter Fritsch (Ed). Photogrammetric Week. (2015) MÄENPÄÄ, T.; PIETIKÄINEN, M. Classification with color and texture: jointly or separately? Pattern Recognition, v. 37, n. 8, p. 1629-1640, 2004. MARTINEZ, A.; RICHARD, N.; FERNANDEZ-MALOIGNE, C. Colour Contrast Occurrence matrix: a vector and perceptual texture feature. IS&T. Color imaging Conference, Oct 2015, Darmstadt, Germany. IS&T, Color and imaging Conference (23) MARTINS, A. C. G.; SIMÕES, A.S.; PRADO, G. I. Classificação de texturas usando redes neurais artificiais e o modelo de Spot Noise. In: VI ENIA - Encontro Nacional de Inteligência Artificial, Rio de Janeiro, 2007. Anais do VI ENIA - Encontro Nacional de Inteligência Artificial. CD-ROM. 72 MCCRORY, C.; COOPER, C. Overlap between visual inspection time tasks and general intelligence. Learning and Individual Differences, v. 17, n. 2, p. 187-192, 2007. MIDDLETON, E.M. et al. Optical properties of canopy elements in black spruce, Jack Pine and Aspen Stands in Saskatchewan, Canada. Canadian Journal of Remote Sensing, v. 24. n 2, p. 169-186, 1998. MOHD SAAD, N. et al. Brain lesion segmentation of Diffusion-weighted MRI using gray level co-occurrence matrix. In: IEEE International Conference on Imaging Systems and Techniques (IST). 2011. Anais IEEE International Conference on Imaging Systems and Techniques. p. 284–289. MOVAHED, Z. et al. Formation evaluation in Dezful embayment of Iran using oil-based-mud imaging techniques. Journal of Petroleum Science and Engineering [S.I.], v. 121, n. Supplement C, p. 23-37, 2014. NEVALAINEN, O. et al. Individual Tree Detection and Classification with UAV-Based Photogrammetric Point Clouds and Hyperspectral Imaging. Remote Sens. V. 9, p. 185, 2017. ÇALISKAN, N. Virtual field trips in education of earth and environmental sciences. Procedia Social and Behavioral Sciences, v.15, p. 3239-3243, 2011. OJALA, T. et al. Outex new framework for empirical evaluation of texture analysis algorithms. In: 16th International Conference on Pattern Recognition, Quebec, Canada, 2002, Anais 16th International Conference on Pattern Recognition. v. 1. p. 701–706. OLIVA, A.; ITTI, L.; REES, G.; TSOTSOS, J. K. Chapter 41 - Gist of the Scene. In: (Ed.). Neurobiology of Attention. Burlington, Academic Press, p.251-256. 2005 OLIVA, A.; TORRALBA, A. The role of context in object recognition. Trends in Cognitive Sciences, v. 11, n. 12, p. 520-527, 2007. OSMON, D. C.; JACKSON, R. Inspection time and IQ: Fluid or perceptual aspects of intelligence? Intelligence, v. 30, n. 2, p. 119-127, 2002. PICARD, R. et al. Vision texture database. Media Laboratory, Massachusetts Institute of Technology (MIT), Cambridge. Disponível em: http://vismod.média.mit.edu/vismod/imagery/VisionTexture/ distribution.html.>. Acessado em: 11 de maio de 2015. 73 PICKUP L. C. et al. Seeing the Arrow of Time, 2014 IEEE Conference on Computer Vision and Pattern Recognition, Columbus, OH, 2014, pp. 2043-2050. POREBSKI, A.; VANDENBROUCKE, N.; MACAIRE, L. Comparison of feature selection schemes for color texture classification. 2nd International Conference on Image Processing Theory, Tools and Applications, 2010. Paris, pp. 32-37. POREBSKI, A.; VANDENBROUCKE, N.; MACAIRE, L. Iterative Feature Selection for Color Texture Classification. IEEE International Conference on Image Processing, San Antonio, TX, 2007, pp. III - 509-III - 512. POREBSKI, A.; VANDENBROUCKE, N.; MACAIRE, L. Supervised texture classification: color space or texture feature selection? Pattern Analysis and Applications, v. 16, n. 1, p. 1-18, 2013. POREBSKI, A.; VANDENBROUCKE, N.; MACAIRE, L.; HAMAD, D. A new benchmark image test suite for evaluating colour texture classification schemes. Multimedia Tools and Applications, v. 70, n. 1, p. 543-556, 2014. PRABHU, P.; DRURY, C. G. A framework for the design of the aircraft inspection information environment. In: Proceedings of the 7th FAA Meeting on Human Factors Issues in Aircraft Maintenance and Inspection (pp. 54-60), 1992. PRASEITIO; K., M. et al. Comparative Study of Feature Extraction Methods for Wood Texture Classification. In: Sixth International Conference on Signal-Image Technology and Internet- Based Systems (SITIS). 2010. Kuala Lumpur, Malaysia. p. 15-18. Anais Sixth International Conference on Signal-Image Technology and Internet-Based Systems (SITIS). p. 23–29. PUDIL, P; NOVOVICOVA, J; KITTLER, J. Floating search methods in feature selection. Pattern Recognition Letters, v. 15, p. 1119-1125, 1994. PUGH, A, M.; FAY, W. D. Assessment of Multi-Sensor Neural Image Fusion and Fused Data Mining for Land Cover Classification. In: 9th International Conference on Information Fusion, 2006, p. 1-8. RANGAYAN, R.M.; ACHA, B.; SERRANO, C. Color image processing with biomedical applications. Bellingham: SPIE Press. 2011 74 RAO, A.; RAVISHANKAR, A. A taxonomy for texture description and identification. Springer series in perception engineering. 1990, Springer –Verlag, New York RAO, A. R.; LOHSE, G. Towards a texture naming system: Identifying relevant dimensions of texture. Visualization, 1993. Visualization Proceedings., IEEE Conference on, San Jose, CA, 1993, pp. 220-227. RAO, D.S.; PRASAD, A.V.V.; NAIR, T. Application of Texture Characteristics for Urban Feature Extraction from Optical Satellite Images, IJIGSP, v.7, n.1, pp.16-24, 2015. RIJNKS, R. H.; STRIJKER, D. Spatial effects on the image and identity of a rural area. Journal of Environmental Psychology, v. 36, n., p. 103-111, 2013. RITCHIE, S. J.; TUCKER-DROB, E. M.; DEARY, I. J. A strong link between speed of visual discrimination and cognitive ageing. Current Biology, v. 24, n. 15, p. R681-R683, 2014. ROSSATO, D. R. et al. Fractal analysis of leaf-texture properties as a tool for taxonomic and identification purposes: a case study with species from Neotropical Melastomataceae (Miconieae tribe). Plant Systematics and Evolution, v. 291, n. 1-2, p. 103-116, 2011. SADASIVAN, S.; GRAMOPADHYE, A. K. Technology to support inspection training in the general aviation industry: Specification and design. International Journal of Industrial Ergonomics, v. 39, n. 4, p. 608-620, 2009. SÁEZ, A. et al. Quantifiable diagnosis of muscular dystrophies and neurogenic atrophies through network analysis. BMC medicine, v. 11, n. 1, p. 77, 2013. SAMANTA, S. et al. Wooden Surface Classification based on Haralick and The Neural Networks. Fourth International Conference on Information Science and Industrial Applications (ISI), 2015, Busan, pp. 33-39. SCHULERUD, H.; ALBREGTSEN, F. Many are called, but few are chosen. Feature selection and error estimation in high dimensional spaces. In: Computer Methods and Programs in Biomedicine, 2004, v.73, n.2, p. 91-99. ISSN 0169-2607. SEE, J. E. Visual Inspection: A Review of the Literature. U.S. Department of Energy. New Mexico. 2012 SANDIA REPORT SAND2012-8590 Unlimited Release Printed October 2012 75 SMITH, A. M. S. et al. Texture based feature extraction: application to burn scar detection in Earth observation satellite sensor imagery. International Journal of Remote Sensing, v. 23, n.8, 1733-1739, 2002. SNYDER, G. M. et al. Effectiveness of visual inspection compared with non-microbiologic methods to determine the thoroughness of post-discharge cleaning. Antimicrobial Resistance and Infection Control, v.2, p. 1-8, 2013. SONG, J. et al. Bark classification by combining grayscale and binary texture descriptores. In: International Symposium on Intelligent Multimedia, Video and Speech, 2004, Hong Kong. Anais International Symposium on Intelligent Multimedia, Video and Speech. p. 450-453. SULC, M.; MATAS, J. Kernel-mapped histograms of multi-scale LBPs for tree bark recognition. In: International Conference of Image and Vision Computing New Zealand (IVCNZ), 2013. Anais International Conference of Image and Vision Computing New Zealand. p. 82-87. TARTAVEL, G. Variational Texture Synthesis with Sparsity and Spectrum Constraints. Journal of Mathematical Imaging and Vision. Math Imaging Vis. v. 52, p.124. 2014. TOK, S. Y.; KAPLAN, I.; TANELI, Y. Photography in architectural education: A tool for assessing social aspects of the built environment. Procedia - Social and Behavioral Sciences, v. 2, n. 2, p. 2583-2588, 2010. TORRALBA, A.; OLIVA, A. Statistics of natural image categories, Network: Computation in Neural Systems, v.14, n.3, p; 391-412, 2003. VAN DER STEEN, A. J.; DIRKSEN, J.; CLEMENS, F. H. L. R. Visual sewer inspection: detail of coding system versus data quality? Structure and Infrastructure Engineering, v. 10, n. 11, p. 1385-1393, 2014. WAN, Y.Y. et al. Bark texture feature extraction based on statistical texture analysis. In: International Symposium on Intelligent Multimedia, Video and Speech, 2004, Hong Kong Anais da 2004 International Symposium on Intelligent Multimedia, Video and Speech. p. 482- 485 XIA G. S. et al. AID: A Benchmark Data Set for Performance Evaluation of Aerial Scene Classification. In IEEE Transactions on Geoscience and Remote Sensing, 2017, p.1-17. 76 YANG, Y.; NEWSAM, S. Bag-Of-Visual-Words and Spatial Extensions for Land-Use Classification. In: ACM SIGSPATIAL International Conference on Advances in Geographic Information Systems (ACM GIS), 2010, San Jose, USA. ZHANG, J.; HUANG, W.; ZHOU, Q. Reflectance Variation within the In-Chlorophyll Centre Waveband for Robust Retrieval of Leaf Chlorophyll Content. PLoS ONE, v. 11, p. 1-13, 2014. ZOU, J. et al. Scene classification using local and global features with collaborative representation fusion. Information Sciences, v. 348, p. 209-226, 2016.