• Nenhum resultado encontrado

Uma comparação de modelos substitutos de aprendizado de máquina para a previsão do valor presente líquido a partir de dados de alta dimensão de arranjo de poços

N/A
N/A
Protected

Academic year: 2021

Share "Uma comparação de modelos substitutos de aprendizado de máquina para a previsão do valor presente líquido a partir de dados de alta dimensão de arranjo de poços"

Copied!
67
0
0

Texto

(1)

UNIVERSIDADE ESTADUAL DE CAMPINAS

Faculdade de Tecnologia

Mei Abe Funcia

Uma comparação de modelos substitutos de aprendizado

de máquina para a previsão do valor presente líquido

apartir de dados de alta dimensão de arranjo de poços

Limeira

2020

(2)

Mei Abe Funcia

Uma comparação de modelos substitutos de aprendizado de máquina

para a previsão do valor presente líquido apartir de dados de alta

dimensão de arranjo de poços

Dissertação apresentada à Faculdade de Tecnologia da Universidade Estadual de Campinas como parte dos requisitos para a obtenção do título de Mestra em Tecnologia, na área de Sistemas de Informação e Comunicação.

Orientador: Prof. Dr. João Roberto Bertini Junior

Este exemplar corresponde à versão final da Dissertação defendida por Mei Abe Funcia e orientada pelo Prof. Dr. João Roberto Bertini Junior.

Limeira

2020

(3)

Ficha catalográfica

Universidade Estadual de Campinas Biblioteca da Faculdade de Tecnologia

Felipe de Souza Bueno - CRB 8/8577

Funcia, Mei Abe,

F962c FunUma comparação de modelos substitutos de aprendizado de máquina para a previsão do valor presente líquido a partir de dados de alta dimensão de arranjo de poços / Mei Abe Funcia. – Limeira, SP : [s.n.], 2020.

FunOrientador: João Roberto Bertini Júnior.

FunDissertação (mestrado) – Universidade Estadual de Campinas, Faculdade de Tecnologia.

Fun1. Métodos de simulação. 2. Campos petrolíferos - Métodos de produção. 3. Análise de regressão. 4. Engenharia de reservatório de óleo. I. Bertini Júnior, João Roberto, 1981-. II. Universidade Estadual de Campinas. Faculdade de Tecnologia. III. Título.

Informações para Biblioteca Digital

Título em outro idioma: A comparison of machine learning surrogate models for net

present value forecasting from high-dimensional well placement data

Palavras-chave em inglês:

Simulations methods

Oil fields - Production methods Regression analysis

Oil reservoir engineering

Área de concentração: Sistemas de Informação e Comunicação Titulação: Mestra em Tecnologia

Banca examinadora:

João Roberto Bertini Júnior [Orientador] Luis Augusto Angelotti Meira

Denis José Schiozer

Data de defesa: 29-07-2020

Programa de Pós-Graduação: Tecnologia

Identificação e informações acadêmicas do(a) aluno(a)

- ORCID do autor: https://orcid.org/0000-0002-1453-5634 - Currículo Lattes do autor: http://lattes.cnpq.br/6627087729895530

(4)

FOLHA DE APROVAÇÃO

Abaixo se apresentam os membros da comissão julgadora da sessão pública de defesa de disser-tação para o Título de Mestra em Tecnologia na área de concentração Sistemas de Informação e Comunicação, a que se submeteu a aluna Mei Abe Funcia, em 29 de julho de 2020 na Faculdade de Tecnologia – FT/UNICAMP, em Limeira/SP.

Prof. Dr. João Roberto Bertini Junior Presidente da Comissão Julgadora

Prof. Dr. Luis Augusto Angelotti Meira FT/UNICAMP

Prof. Dr. Denis José Schiozer FEM/UNICAMP

Ata da defesa, assinada pelos membros da Comissão Examinadora, consta no SIGA/Sistema de Fluxo de Dissertação/Tese e na Secretaria de Pós Graduação da FT.

(5)

“Learning is the only thing the mind never exhausts, never fears, and never regrets.”

(6)

Agradecimentos

Agradeço ao professor Dr. João Bertini pela orientação, ao Alberto Santos, Dr. Guilherme Avansi, Luis Otávio Mendes e Sérgio Ferreira Batista Filho pela atenção durante o período de pesquisa. Agradeço também, ao apoio e incentivo de minha mãe e à FAEPEX pelo auxilio financeiro.

O presente trabalho foi realizado com apoio da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior – Brasil (CAPES) – Código de Financiamento 001.

(7)

Resumo

O Valor Presente Líquido (VPL) é uma medida utilizada para estimar a lucratividade de um investimento em um determinado período de tempo. Na exploração de um campo de petróleo, esse valor não só é importante para a determinação da decisão de exploração do campo, mas também auxilia na escolha da melhor estratégia de produção. A projeção do VPL é realizada por meio de simulações que consideram informações da geologia do reservatório e dos possíveis arranjos entre os poços. No entanto, o simulador exige alto custo computacional para realizar o processamento de cada estratégia de produção. Dessa forma, é possível pesquisar apenas uma pequena parte do espaço de solução, diminuindo a chance de encontrar uma estratégia sub-ótima. Para acelerar o processo de busca, um modelo substituto muito mais rápido, mas mais propenso a erros, é usado para aproximar a saída do simulador. O desempenho do modelo substituto baseado em dados depende do método e dos dados históricos usados para construí-lo. No entanto, nesse tipo de modelagem quando a dimensão dos dados aumenta, o desempenho do modelo tende a deteriorar, tornando inviável a avaliação de estratégias com vários possíveis poços. Este trabalho aborda o problema de estimar o VPL a partir de dados de alta dimensionalidade de posicionamentos de poços. Especificamente, considera-se a avaliação de pares de algoritmos: redução da dimensionalidade - método de regressão. Trinta e seis combinações, de seis métodos de regressão de aprendizado de máquina e seis algoritmos de redução de dimensionalidade foram comparadas. Simulações conduzidas usando dois modelos de reservatório baseados em campos brasileiros reais mostraram que, uma vez fornecidos dados suficientes, alguns pares de algoritmos podem ser usados para aproximar o VPL obtido pelo simulador.

Palavras Chave: Modelo substituto, estimativa de VPL, simulação de reservatório de petróleo, estratégia de produção de petróleo, regressão.

(8)

Abstract

Net Present Value (NPV) is a measure used to estimate the profitability of an investment in a given period of time. In the exploration of an oil field, this value is not only important for the determination of the decision to exploit the field, but also helps in the choice of the best production strategy. The projection of the NPV is carried out through simulations that consider information about the geology of the reservoir and the possible arrangements between the wells. However, the simulator requires high computational cost to perform the processing of each production strategy. In this way, it is possible to search only a small part of the solution space, decreasing the chance of finding a sub-optimal strategy. To speed up the search process, a much faster, but more error-prone, replacement model is used to approximate the simulator’s output. The performance of the data-based surrogate model depends on the method and historical data used to build it. However, in this type of modeling when the size of the data increases, the performance of the model tends to deteriorate, making it impossible to evaluate strategies with several possible wells. This work addresses the problem of estimating NPV from high dimensional data on well positioning. Specifically, the evaluation of pairs of algorithms is considered: reduction of dimensionality - regression method. Thirty-six combinations of six machine learning regression methods and six dimensionality reduction algorithms were compared. Simulations conducted using two reservoir models based on real Brazilian fields showed that, once enough data were provided, some pairs of algorithms can be used to approximate the NPV obtained by the simulator. Keywords: Surrogate model, NPV estimation, oil reservoir simulation, oil production strategy, regression.

(9)

Lista de Figuras

3.1 Processo KDD. . . 32

4.1 Fáceis cobertura – UNISIM-I-R. . . 45

4.2 Fáceis fundo – UNISIM-I-R. . . 45

4.3 Célula modelo UNISIM-I-R. . . 46

4.4 Características do modelo UNISIM-I-D. . . 47

4.5 Célula modelo UNISIM-I-D. . . 47

4.6 Mapa UNISIM-I-D. . . 48

4.7 Falha UNISIM-I-D. . . 48

4.8 Distribuição de Falhas. . . 49

4.9 Estrutura de Grade. . . 50

5.1 RMSE para os modelos de regressão e pares de redução de dimensionalidade em comparação nos dados UNISIM-I-D. . . 53

5.2 RMSE para os modelos de regressão e pares de redução de dimensionalidade em comparação nos dados UNISIM-II-D. . . 55

5.3 Predições de modelo substitutas em relação à saída do simulador para estimativa de VPL para o conjunto de dados UNISIM-I. Melhores e piores resultados para dados brutos e pré-processados. . . 56

5.4 Predições de modelo substitutas em relação à saída do simulador para estimativa de NPV para o conjunto de dados UNISIM-II-D. Melhores e piores resultados para dados brutos e pré-processados. . . 57

(10)

Lista de Tabelas

5.1 Tempo médio do simulador para avaliar uma única estratégia . . . 59 5.2 Comparação de tempo para os modelos de regressão ao considerar o conjunto

de dados brutos . . . 59 5.3 Comparação de tempo para as combinações de modelos auxiliares e algoritmos

de redução de dimensionalidade para o conjunto de dados UNISIM-I . . . 60 5.4 Comparação de tempo para as combinações de modelos auxiliares e algoritmos

(11)

Lista de Abreviaturas e Siglas

ANP Agência Nacional do Petróleo CEPETRO Centro de Estudos do Petróleo

ENET Elastic Net

GTB Gradient Tree Boosting

KDD Knowledge-Discovery in Databases

KNN K-Nearest Neighbor

KPCA Kernel Principal Component Analysis KRR Kernel Ridge Regression

LLE Locally Linear Embedding MLP Multi-layer Perceptrons

NMF Non-negative Matrix Factorization SVR Support Vector Regression

TSVD Truncated Singular Value Decomposition VPL Valor Presente Líquido

(12)

Sumário

1 Introdução 13

1.1 Motivação para o trabalho . . . 15

1.2 Objetivo . . . 15

1.3 Estrutura do trabalho . . . 16

2 Conceitos e trabalhos relacionados 17 2.1 Principais Conceitos . . . 17

2.1.1 Petróleo e Campo de Produção . . . 17

2.1.2 Simulação de reservatórios . . . 19

2.1.3 Funções Proxy ou Modelos Auxiliares . . . 19

2.1.4 Valor Presente Líquido . . . 20

2.2 Trabalhos Relacionados . . . 21

3 Mineração de dados e redução de dimensão 31 3.1 Mineração de Dados . . . 31

3.2 Algoritmos de Regressão para Comparação . . . 33

3.3 Algoritmos de Redução de Dimensionalidade . . . 37

4 Metologia 44 4.1 Caracterização dos Dados Utilizados . . . 44

4.1.1 UNISIM-I-D . . . 44

4.1.2 UNISIM-II-D . . . 48

4.2 Estratégias de Produção . . . 49

4.3 Seleção e Avaliação de Modelos . . . 51

5 Resultados Experimentais 52 5.1 Comparações de desempenho . . . 52

5.2 Comparações de tempos . . . 58

6 Conclusões 64

(13)

13

Capítulo 1

Introdução

O petróleo é um recurso mineral não renovável, resultado da decomposição de compostos orgânicos em rochas sedimentares (KIMURA, 2005). Além de ser considerado a principal fonte de energia consumida no mundo também é componente de fertilizantes, tintas e plásticos; é matéria-prima para seus derivados, que possuem grande valor agregado e relevância financeira global (ROCHA, 2006). Assim, nota-se a importância econômica, política e estratégica do petróleo no cenário mundial. Considera-se ainda, que esse recurso, não se encontra distribuído de maneira homogênea por todo o planeta. Além disso, a exploração do petróleo é uma atividade que necessita grandes investimentos financeiros e profissionais capacitados de diversas áreas, os quais são responsáveis por realizar estudos geológicos do campo de petróleo para determinar a viabilidade de extração e obtenção de lucros sobre o processo (KIMURA, 2005).

Devido à formação geológica do reservatório, existem áreas em que a extração do petróleo pode ser realizada com mais facilidade, enquanto em outras, essa operação é mais difícil de ser executada. Chen e colaboradores afirmam em seu trabalho que o gerenciamento de um sistema de reservatório de petróleo é complexo devido à geologia desconhecida. Assim, é compreensível que a escolha da disposição dos poços deve ser realizada de maneira estratégica, devendo ser considerada também a interação entre poços, uma vez que esses aspectos influenciam o volume extraído de petróleo. Considerando todos esses fatores, objetiva-se maximizar os lucros obtidos com a exploração. Dessa forma, é de extrema importância que se faça uma avaliação geológica e econômica de um campo de petróleo para determinar o quanto vantajosa é a sua exploração.

(14)

Capítulo 1. Introdução 14

As funções objetivo são utilizadas para avaliar e comparar as diversas estratégias de produção de um reservatório de petróleo. Uma das principais funções objetivo a ser analisada na exploração de um campo de petróleo é o Valor Presente Líquido (VPL) (AFFONSO; ANDRADE; REVOREDO, 2011). Uma vez que compreende a análise de todas as despesas e receitas de produção, retornando um valor presente de investimentos futuros. A predição do VPL é realizada por simuladores computacionais que são baseados na resolução de equações dinâmicas não lineares que representam o modelo geológico do reservatório (ZANBOURI; SALAHSHOOR, 2018).

Para a obtenção de dados para a aplicação da função objetivo, utiliza-se a modelagem de reservatório, cuja finalidade é prever o desempenho do reservatório e proporcionar a otimização e lucratividade da produção. O modelo de reservatório é aplicado continuamente durante o tempo de vida útil do campo e é uma das ferramentas mais importantes no desenvolvimento e gerenciamento de reservatórios de petróleo (ALENEZI; MOHAGHEGH, 2016). Em um campo recém descoberto, a modelagem do reservatório inicia-se com a utilização de dados geológicos do campo. Conforme o reservatório é explorado e ocorre a extração de produtos, o modelo deve ser constantemente atualizado, uma vez que esta produção acarreta mudanças no campo, como por exemplo pressão do fluido. Com esta permanente atualização, é possível obter previsões de produção mais precisas. Esta atualização gera histórico do reservatório, que por sua vez gera incertezas às quais impactam diretamente o modelo de reservatório, pois estes herdam incertezas devido ao comportamento complexos dos reservatórios de petróleo. Além das dificuldades resultante da geração de incertezas, deve-se considerar que a avaliação da função objetivo por um simulador é computacionalmente cara, sendo assim, mais uma dificuldade para aplicação dos modelos de reservatório (MEMBER; WILKINSON, 2009) (GOLZARI; SEFAT; JAMSHIDI, 2015). Ademais, quanto maior o reservatório, mais complexo se torna o seu controle. Diante da necessidade de informações mais fiéis e frequentes a respeito do reservatório de petróleo pode-se utilizar modelos auxiliares, uma vez que estes podem ser executados em tempo real, além de reduzir tempo e execuções computacionais (ZANBOURI; SALAHSHOOR, 2018).

A principal aplicação dos modelos auxiliares é substituir um modelo mais complexo, gerando saídas em um espaço de tempo reduzido e com erros pequenos que justifiquem sua utilização, podendo assim, ser uma alternativa mais vantajosa financeiramente e/ou que gere economia de tempo para a determinação da função objetivo desejada (ALENEZI;

(15)

Capítulo 1. Introdução 15

MOHAGHEGH, 2016). Além disso, os modelos auxiliares reduzem cálculos, otimizam o processo e podem ser executados em tempo real, diferentemente dos modelos de reservatório tradicionais (BARTZ-BELELSTEIN et al., 2016). Para a implementação de um modelo auxiliar de qualidade é importante atentar-se ao algoritmo utilizado, bem como aos dados utilizados, uma vez que essas duas variáveis serão as maiores responsáveis pelo modelo final. Além disso, deve-se discutir previamente o problema a ser modelado para que fiquem claros os objetivos de aplicação do modelo (BARTZ-BELELSTEIN et al., 2016).

1.1

Motivação para o trabalho

A definição da estratégia envolve simulações numéricas complexas que podem levar dias para serem avaliadas. Como são necessárias várias simulações para tomar uma decisão a respeito da estratégia, é importante ter meios alternativos para acelerar essa tarefa. A utilização de modelos auxiliares é indicada para estimar valores em aplicações em que a medida de interese é custosa de se obter. Desta maneira, a aplicação desses modelos tem como principal objetivo minimizar gastos diversos, sejam eles tempo ou recursos financeiros. Os modelos auxiliares fornecem um valor aproximado, o qual substituirá a medida de interesse; livrando a aplicação do ônus de obter a medida real, em favor da eficiência.

Modelos auxiliares baseados em dados estão sujeitos à maldição da dimensionalidade, o que significa que o aumento da dimensão do problema acarreta em dificuldade no seu processamento por parte do algoritmo de aprendizado (GORBAN; TYUKIN, 2018). No contexto desse trabalho, a dimensão dos dados está relacionada ao número de poços possíveis em uma determinada estratégia de produção. Portanto, para garantir a análise de dados representando estratégias com centenas de possíveis poços, esse trabalho considera o uso de algoritmos de redução de dimensionalidade como o pré-processamento dos dados para os algoritmos de regressão.

1.2

Objetivo

Os objetivos deste trabalho são:

1. verificar a viabilidade de previsão do VPL utilizando modelos de aprendizado de máquina e informações de posicionamento de poços;

(16)

Capítulo 1. Introdução 16

2. estudar o uso de algoritmos de redução de dimensionalidade como pré-processamento para os modelos de predição. Para isso propõe-se utilizar algoritmos de regressão para estimar o VPL a partir de dados de arranjo de poços e avaliar pares de algoritmos: redução de dimensionalidade/ modelos preditores neste mesmo cenário. Os modelos auxiliares utilizados neste trabalho são baseados em métodos de aprendizado de máquina, uma vez que esses apresentam a possibilidade de aprender com dados históricos (BHOSEKAR; IERAPETRITOU, 2018).

1.3

Estrutura do trabalho

O presente trabalho está dividido em 6 capítulos. A organização do trabalho consta resumidamente nesta sessão:

⋄ O Capítulo 2 contém a revisão dos fundamentos teóricos e trabalhos relacionados; ⋄ O Capítulo 3 descreve conceitos de mineração de dados e apresenta os algoritmos

testados;

⋄ O Capítulo 4 corresponde à metodologia adotada para a solução do problema; ⋄ O Capítulo 5 apresenta os resultados obtidos;

(17)

17

Capítulo 2

Conceitos Fundamentais e Trabalhos

Relacionados

Neste capítulo são apresentados os principais conceitos teóricos abordados nesse trabalho, bem como uma revisão bibliográfica de trabalhos relacionados recentes.

2.1

Principais Conceitos

2.1.1

Petróleo e Campo de Produção

O petróleo é formado pela sedimentação de compostos orgânicos em rochas sedimentares, que resultam na produção de hidrocarbonetos, os quais dão origem ao petróleo e gás. Devido a complexa geologia do globo terrestre, reservatórios de petróleo encontram-se distribuídos de maneira desigual por toda a superfície. Estima-se que 60% das reservas mundiais estejam localizadas no Oriente Médio, 15% no Canadá, 3% na Ásia e 1% na Europa (BJØRLYKKE, 2010), os 21% restantes se distribuem pelas demais regiões do globo.

De acordo com Zanbouri, um reservatório de petróleo é caracterizado pelo acúmulo de hidrocarbonetos em rochas porosas ou fraturadas. A exploração desses reservatórios para extração do petróleo é um processo complexo que envolve um grande número de variáveis, como por exemplo características da rocha e dos fluidos, posicionamentos e número de poços, sistema de injeção, entre outros. Dessa forma, é necessário que sejam realizados estudos prévio para verificar a probabilidade de sucesso e retorno financeiro para a tomada de decisão assertiva, a qual envolve a determinação da estratégia mais lucrativa (BJØRLYKKE, 2010).

(18)

Capítulo 2. Conceitos e trabalhos relacionados 18

Ainda que o objetivo de um poço de petróleo seja produzir petróleo, em um campo podem existir poços com funções diferentes. Os primeiros poços de exploração, por exemplo, são realizados a fim de caracterizar a área e o produto que será explorado, esses são denominados poços históricos. E mesmo quando não são encontrados hidrocarbonetos, o poço seco tem valor, uma vez que os dados podem ser vendidos para empresas que fazem mapas ou estudos geológicos. Além disso, existem os poços injetores, nos quais devem ser injetados água, gás ou compostos químicos, para impulsionar a obtenção do produto desejado através dos poços produtores (BJØRLYKKE, 2010).

Em um campo produtor de petróleo existem poços históricos, produtores e injetores, como citado anteriormente. Os poços históricos podem ser poços perfurados anteriormente a exploração da área ou com o intuito de saber mais informações da região. Os poços produtores são poços responsáveis por produzir óleo e gás, de acordo com as características do campo e os produtos desejados no projeto. Os injetores, por sua vez, podem receber líquidos, polímeros ou vapores para regular e/ou manter a pressão necessária para a produção, pois esta diminui com a extração do óleo.

Uma vez que o objetivo de exploração de um campo de petróleo é a obtenção de lucros, a determinação da estratégia de produção é de grande importância, afinal esta é capaz de determinar o fator de recuperação de óleo e, consequentemente, estimar o lucro que poderá ser obtido. A estratégia é construída a partir da determinação da quantidade de poços produtores e injetores, bem como a localização de cada um deles, visando a interação mais lucrativa. Além disso, é de extrema importância que se determine o fluido que será utilizado para injeção, uma vez que esse será o responsável pela regulação da pressão dos poços produtores, para que continuem produzindo mesmo após a estabilização da pressão. Com essas informações é possível utilizar simulações matemáticas para realizar estudos comparativos para determinar a combinação de poços (produtores e injetores) mais rentável.

Com o advento da computação e seu desenvolvimento, torna-se cada vez mais viável e fundamental a utilização de simuladores para estudar os campos de petróleo e realizar simulações de reservatórios. Empregando-se simulação numérica é possível realizar a criação de modelos que aproximem as características físicas e geológicas do campo, por meio da estimativa de seu comportamento e avaliação da pressão e vazão dos fluidos. Para a aplicação dos simuladores, o campo é mapeado e dividido em blocos, que passam a compor um sistema

(19)

Capítulo 2. Conceitos e trabalhos relacionados 19

de coordenadas, responsável por designar cada poço, de acordo com a sua localização, por um trio ordenado (𝑖, 𝑗, 𝑘), para realizar a descrição do reservatório (AVANSI; SCHIOZER, 2015).

2.1.2

Simulação de reservatórios

A simulação de reservatórios inicia-se com a caracterização do campo de petróleo, na qual devem ser avaliadas as propriedades dos fluidos e das rochas, como por exemplo, permeabilidade, porosidade e compressibilidade de formação (ASHLEY; PANJA; DEO, 2017) e, a geometria do reservatório para que seja possível realizar a criação do modelo. O modelo de simulação deve conter número de blocos e camadas bem definidos. Após a caracterização é determinado o modelo de simulação que deverá ser utilizado. Na sequência são realizados os ajustes históricos de produção com o objetivo de alinhar os resultados obtidos pela simulação aos obtidos pela produção do campo. Finalmente, são realizados os ajustes que podem dar base a uma melhor exploração do campo.

2.1.3

Funções Proxy ou Modelos Auxiliares

De acordo com Ashleyy modelos auxiliares são funções matemáticas para resultados importantes; são utilizados quando a medida de interesse é de difícil obtenção. O emprego dos modelos auxiliares ocorre com o objetivo de reduzir custos, sejam eles financeiros e/ou computacionais.

Bhosekar classificam os problemas que exigem aplicação de modelos auxiliares em três classes. A primeira consiste em previsão e modelagem. A segunda é conhecida como otimização sem derivativos, na qual a função a ser otimizada não possui informação a respeito da derivada. A terceira classe consiste na análise de viabilidade, em que o objetivo é satisfazer as restrições do projeto.

Bartz-Belelstein sugerem seis etapas para a realização do ciclo de otimização, ou aplicação do modelo substituto baseado em dados:

1. Seleção de amostra de dados a ser avaliado; 2. Seleção do modelo substituto;

3. Construção do modelo substituto com a utilização da amostra; 4. Utilização do modelo para prever outros dados;

5. Avaliação do modelo obtido e

(20)

Capítulo 2. Conceitos e trabalhos relacionados 20

A etapa 1, ou seleção da amostra de dados, constitui-se um procedimento muito particular e exclusivo ao problema que está sendo estudado. De acordo com Bhosekar há necessidade de se ter uma quantidade sufiente de dados para utilizar a abordagem de modelos auxiliares, uma vez que esses são construidos com apenas uma parte dos dados disponíveis, pois a parte restante dos dados é utilizada para testar a precisão. Para solucionar o problema, os autores sugerem a utilização de estratégias de amostragem, como validação cruzada e bootstrapping. Para a etapa 2, pode-se optar pelo uso de modelos lineares, modelo polinomial, árvore e floresta de decisões, redes neurais artificiais, entre outros. Na etapa 3, utiliza-se parte dos dados para realizar a criação do modelo, o qual deverá ser testado na etapa 4. A etapa 5 constitui-se da análise dos resultados obtidos. Caso haja necessidade de atualizar o modelo, deve-se executar a etapa 6.

2.1.4

Valor Presente Líquido

O parâmetro indicador econômico pode ser visto como uma função objetivo, a qual deve ser observada durante todo o processo de produção para embasar as decisões que deverão ser tomadas. As funções objetivo podem ser classificadas em: técnicas, econômicas e considerando incertezas (DA SILVA, 2008). No presente trabalho, a função objetivo econômica analisada é o Valor Presente Líquido (VPL).

O VPL considera todas as despesas e receitas de produção, custos fixos, impostos e depreciação dos bens utilizados no projeto e na produção, sendo por isso considerado uma das principais funções objetivo econômica na produção de petróleo (DA SILVA, 2008) e, fator responsável pela decisão de investimento em determinado campo de petróleo (AFFONSO; ANDRADE; REVOREDO, 2011). O VPL pode ser calculado utilizando-se a equação 2.1 (DA SILVA, 2008): 𝑉 𝑃 𝐿 = 𝑛 ∑ 𝑗=1 𝐹 𝐶𝑗 (1 + 𝑖)𝑗 (2.1) na qual:

• 𝐹𝐶𝑗: fluxo de caixa do projeto no período 𝑗 considerado;

• 𝑖: taxa de desconto: Taxa de Mínima Atratividade (TMA), ou seja, é o mínimo que a empresa espera receber como retorno de seu investimento (AFFONSO; ANDRADE; REVOREDO, 2011);

(21)

Capítulo 2. Conceitos e trabalhos relacionados 21

• 𝑗: período considerado e,

• 𝑛: período final (número total de períodos).

O fluxo de caixa, por sua vez, é calculado considerando-se o retorno líquido a cada ano, durante a vida do campo (AFFONSO; ANDRADE; REVOREDO, 2011). Deve-se considerar ainda a incidência de impostos, tributos e contribuições: Impostos sobre o lucro: imposto de renda (IR) e contribuição social (CS); Impostos incidentes sobre a produção: royalties, programa de integração social (PIS) e contribuição para o financiamento da seguridade social (COFINS). Considera-se também a Participação Especial (PE), conforme Art. 21 do Decreto nº 2.705 (1998) da ANP: “constitui compensação financeira extraordinária devida pelos concessionários de exploração e produção de petróleo ou gás natural, nos casos de grande volume de produção ou de grande rentabilidade”. Considera-se ainda a Taxa Mínima de Atratividade (TMA), na qual deve ser considerado o perfil da carteira de projetos e a origem do capital a ser investido (DA SILVA, 2008).

Uma vez entendido a representação do VPL para um projeto de produção de petróleo, verifica-se que o objetivo central é a maximização do VPL por meio da minimização de custos e maximização dos ganhos.

2.2

Trabalhos Relacionados

Ashleyy avaliaram o desempenho de reservatórios heterogêneos (reservatórios com variações das propriedades das rochas) de baixa permeabilidade utilizando modelos substitutos robustos, que compreendem funções matemáticas para a razão de recuperação de gás-óleo. Para realizar o estudo, foi criado um reservatório heterogêneo genérico, o qual seguia uma distribuição normal especificada. Utilizando várias simulações para diferentes distribuições de permeabilidade, através da variação da média e desvio padrão, os autores construíram os modelos substitutos. Os resultados foram discretizados no tempo e as funções matemáticas foram obtidas. Ashleyy verificaram que equações logarítmicas para a recuperação de óleo e a equação da lei de potência para a razão gás-óleo foram as funções substitutas que mais se adaptaram. Os autores utilizaram ainda simulações de Monte Carlo para preverem a produção de qualquer distribuição de permeabilidade de entrada. As conclusões obtidas nesse estudo foram que em permeabilidade muito baixas, como 75nD, a comparação entre simulação heterogênea e modelos substitutos, há pouca diferença na

(22)

Capítulo 2. Conceitos e trabalhos relacionados 22

recuperação de óleo e razão gás-óleo, sendo essa diferença mais visível na faixa de 300nD. Assim, os pesquisadores concluíram que o modelo substituto heterogêneo é mais preciso para a faixa de permeabilidade que varia de 200 a 1000nD. Concluíram também que os reservatórios homogêneos tiveram um desempenho maior que os reservatórios heterogêneos, os quais apresentam 30% menos de recuperação de petróleo. Os modelos desenvolvidos no trabalho do Ashleyy trabalham muito bem em uma faixa intermediária de permeabilidade (200.000nD) para prever a recuperação de óleo e a razão gás-óleo cumulativo para qualquer distribuição de entrada. Além disso, os modelos podem ser utilizados para estudar a previsão de produção e realizar estudos de sensibilidade, mesmo em reservatórios heterogêneos, além de comparar dois campos com a mesma permeabilidade média, mas viabilidades diferentes.

Panja treinaram três diferentes modelos de inteligência artificial, com o objetivo de compará-los, para realizar a previsão da produção de hidrocarbonetos a partir de poços hidraulicamente fraturados. Os modelos utilizados foram: Least squares support vector machines (LSSVM) e Redes Neurais Artificiais (RNA), comparados ao ajuste de curva de Modelo de Superfície de Resposta (MSR); para realizar a comparação entre os modelos foram utilizadas equações polinomiais de segunda ordem para a determinação da produção de xistos. Todos os parâmetros desconhecidos nos modelos substitutos (MSR, LSSVM e RNA) foram obtidos por meio da Otimização por Enxame de Partículas (PSO). A mesma rotina de otimização foi usada para todos os modelos substitutos para eliminar qualquer viés de desempenho, como valores físicos inaceitáveis, como, por exemplo, fatores negativos de recuperação de óleo ou razão de gas-óleo, que foram obtidos usando modelos substitutos. Para evitar esta situação, os logaritmos dos resultados (fatores de recuperação e razão de gas-óleo) foram empregados para construir os modelos. Esta pesquisa possuiu oito parâmetros de entrada para a construção do modelo, sendo eles: "permeabilidade do reservatório, razão inicial de gás dissolvido, compressibilidade da rocha, permeabilidade seletiva do gás, relação de inclinação do gasóleo, pressão inicial do reservatório, pressão do furo inferior e espaçamento da fratura hidráulica". As saídas do experimento foram o fator de recuperação de óleo e a razão gás-óleo produzida, sendo geradas a partir de um modelo genérico de reservatório com ruptura hidráulica utilizando simulador comercial. Foi utilizado o método Box-Behnken para manter o número de simulações no mínimo, assim, foram

(23)

Capítulo 2. Conceitos e trabalhos relacionados 23

utilizadas 114 (80% de 144) simulações os oito parâmetros de entrada citados em três níveis (mínimo, médio e máximo), de um total de 144 dados. Foram considerados cinco modelos baseados no tempo (para períodos de produção de 90 dias, 1 ano, 5 anos, 10 anos e 15 anos) e um modelo baseado em taxa (quando a taxa do petróleo cai para 5 bbl/dia/fratura), além disso utilizou-se rotina de otimização de enxame de partículas nos três modelos substitutos para obter os parâmetros do modelo associado. Panja treinou todos os modelos utilizando 80% dos dados para treinamento e 20% para teste. Todos os modelos foram avaliados medindo-se a adequação do ajuste através do coeficiente de determinação (R2) e do Erro Quadrático Médio

da Raiz Normalizada (NRMSE). Após todos os modelos terem sido treinados com os mesmos dados, foram utilizados para prever a produção de diferentes cenários. A conclusão dos pesquisadores foi que o RSM e o LSSVM têm melhores capacidades preditivas para a recuperação de petróleo do que a RNA. Além disso, o LSSVM exibe a mais alta precisão em relação à previsão da relação gás-óleo. Modelagem em escala de campo e simulação de reservatórios de ultrabaixa permeabilidade fracionados hidraulicamente levam a custos computacionais muito caros em simuladores comerciais. Os modelos de reservatório substitutos, por outro lado, são úteis para a previsão e avaliação rápida da produção de petróleo. Além disso, esses modelos podem ser usados para análise de risco e incerteza. Em geral, aplicações de inteligência artificial como o LSSVM têm aplicações promissoras em vários aspectos da produção e engenharia de reservatórios. Por fim, concluíram que todos os modelos substitutos são mostrados para servir como modelos confiáveis de reservatórios proxy úteis para previsões rápidas de recuperação de fluidos e análises de sensibilidade.

jordanou propuseram uma estrutura eficiente baseada em dados para o Modelo de Controle Preditivo (MCP), utilizando as Redes de Estado de Echo (REE) como o modelo de previsão. Em seu trabalho, jordanou linearizou parcialmente o modelo de REE para MCP, ou seja, a resposta livre do sistema foi mantida totalmente não-linear e a resposta forçada foi linearizada (Preditical Nonlinear Model Predictive Controller - PNMPC). jordanou propuseram um método denominado Controlador Preditivo Nãolinear de Modelo Prático -PNMPC-REE, usado para controlar um modelo simplificado de um poço de petróleo e gás. O método foi capaz de controlar com sucesso a planta, seguindo as restrições estabelecidas e mantendo o rastreamento do ponto de ajuste. Os autores obtiveram duas vantagens com a estrutura PNMPC-REE, que compreendem a capacidade de dados do ESN para identificação

(24)

Capítulo 2. Conceitos e trabalhos relacionados 24

eficiente, mesmo sem conhecimento prévio, e o PNMPC garante uma resposta mais precisa além de não requerer algoritmos de inferência. Com isso, eles descobriram que o uso de REEs para sistemas de produção de petróleo e gás é apropriado.

Com o objetivo de construir modelos substitutos adaptativos para problemas de otimização de petróleo, golzari utilizaram redes neurais atificiais (RNAs) como função de aproximação e realizaram treinamento usando um algoritmo de amostragem adaptativo. Para realizar seu trabalho, golzari treinaram as RNAs com a utilização de um pequeno conjunto de dados gerado por um projeto sequencial de preenchimento de espaço. Após isso, pontos de treinamento foram adicionados pelo algoritmo de amostragem adaptativa com o objetivo de aumentar a precisão de previsão do modelo substituto. golzari utilizaram os métodos Jackknifing e validação cruzada durante as etapas de treinamento recursivo e avaliação da rede. Os estudos realizados objetivavam otimizar a produção do modelo de reservatório PUNQ-S3 de bancada. O desempenho do processo de otimização de produção ocorre com a comparação da avaliação da função objetivo quando utilizado o modelo real ou o modelo substituto. Com esse estudo, concluiu-se que o modelo substituto supera a abordagem convencional e obtém maior precisão e previsão, além de reduzir o custo computacional.

No trabalho de Innocente, os autores desenvolveram uma técnica eficaz a partir da combinação de um algoritmo PSO com manipulação de restrição adaptativa e um modelo de Kriging estático (ou seja, previsão de processo Gaussiano) para obter automaticamente o melhor gerenciamento de injeção de água em um campo de petróleo para aumentar o VPL. Como o PSO não lida bem com as restrições sozinhas, uma técnica de manipulação de restrições foi integrada ao otimizador, cujo objetivo é procurar o melhor modelo substituto. Outra característica do algoritmo PSO é o fato de que um alto número de avaliações da função objetivo é necessário. Para resolver esse problema, os autores usaram um modelo substituto de Kriging, que é treinado por meio de avaliações de simuladores de alta fidelidade. Os autores aplicaram o método proposto a nove problemas decorrentes do manejo da água em dois reservatórios de óleo com diferentes condições de operação e ciclos de controle. Os resultados deste experimento demonstraram que o otimizador convergiu para as melhores aproximações. Além disso, os autores concluíram que a combinação de um algoritmo PSO com manipulação adaptativa de contenção e um modelo de Kriging poderia ter resultados

(25)

Capítulo 2. Conceitos e trabalhos relacionados 25

quase ideais, com a vantagem de não ter que realizar testes numéricos extensivos.

Para realizar a previsão do desempenho econômico de um reservatório de petróleo incerto sob processo de irrigação, Zanbouri desenvolveram uma robusta metodologia de modelagem com o objetivo de identificar um conjunto de modelos substitutos com incertezas não estruturadas. O reservatório de óleo foi tratado como um sistema de múltiplas entradas (injeção) e múltiplas saídas (produção) (MIMO), sendo identificado em uma estrutura robusta de modelagem substituta através da utilização de uma abordagem baseada em frequência. Este modelo substituto MIMO é integrado com uma função de valor presente líquido (VPL) para sintetizar um novo modelo substituto robusto, o MISO - múltiplas entradas e uma saída (multi-input, single-output), o que permite o cálculo direto da previsão de desempenho econômico para o reservatório de óleo desejado. Zanbouri repetiu estas etapas em dez cenários diferentes de permeabilidade para realizar um conjunto de modelos incertos, os quais são processados em vários estágios para determinar um conjunto de modelos de incerteza. Após as modelagens, o método foi avaliado como um reservatório sintético tridimensional com 8 poços de injeção (água) e 4 poços de produção em “Egg Model”. Zanbouri obtiveram como resultado que o desempenho robusto do modelo de incertezas apresentou resultados satisfatórios para a previsão do modelo econômico. Além disso, mesmo nos piores cenários, a incerteza é limitada e, observa-se também, a modelagem proposta é útil para compensar os impactos das incertezas sobre o desempenho econômico total do reservatório de petróleo.

Utilizando Rede Neural Artificial (RNA), memon apresentaram em seu trabalho uma aplicação para o modelo de reservatório substituto (SRM - Surrogate Reservoir Model) para realizar a predição da pressão de vazão do fundo do poço (BHFP) em um reservatório inicialmente sub-saturado considerando diferentes intervalos de tempo. A produção de petróleo, taxa de gás, pressão média do reservatório e BHFP compõem a saída da simulação. O modelo substituto proposto adotou a Rede Neural de Base Radial (RNBR) para prever o BHFP com base nos dados extraídos da Ferramenta de Simulação Aplicada do Óleo Preto (BOAST). Como conclusão, eles perceberam que seu modelo é capaz de suportar análises rápidas, otimização de decisão e gerenciar os resultados em menos tempo quando

(26)

Capítulo 2. Conceitos e trabalhos relacionados 26

comparados aos modelos convencionais de reservatórios.

Em sua pesquisa, Guodong propuseram o método SADE-Sammon, uma nova estrutura baseada no algoritmo evolutivo assistido por substitutos. O método SADE-Sammon é não linear e é aplicado para mapear variáveis de alta dimensão para dimensões inferiores. O método Sammon é um algoritmo de redução de dimensionalidade, que neste experimento, foi comparado à outros algoritmos de redução de dimensionalidade - Principal Component Analysis (PCA), Isomap e Locally Linear Embedding (LLE), quando cada um deles era associado ao SADE. O método objetivava maximizar o Valor Presente Líquido (VPL). Para realizar o experimento os pesquisadores utilizaram dois modelos de reservatórios e, concluíram que os dois reservatórios apresentaram ótimo desempenho do método, quando comparado com algoritmo clássico e associado à métodos populares de redução de dimensionalidade. O método SADE-Sammn foi testado por comparação aos métodos DE (Differential Evolution (DE), que é um algoritmo heurístico aplicado para solução de problemas de otimização); SADE; SADE-Isomap; SADE-LLE e SADE-PCA. Neste processo de otimização o número total de variáveis a serem otimizadas era igual ao número de poços de injeção multiplicado pelo número de etapas de tempo. Assim, quanto maior o número de etapas de tempo, mais graus de liberdade em etapas de tempo e mais eficaz é a otimização, podendo-se, assim, obter um VPL melhor. Porém, quanto maior o número de variáveis de controle, maior o número de iterações. Desta forma, são necessários mais recursos computacionais para convergir o algoritmo de otimização. Para minimizar essa contradição foi utilizado o método de controle de interpolação (ICM). Esse método otimiza os pontos de interpolação para representar as trajetórias de controle de poço ao longo do tempo e as variáveis de decisão são valores de controle em pontos equidistantes selecionados no tempo. O reservatório estudado possuía vida útil de 3600 dias, sendo o tempo para cada etapa de 90 dias. O número total de variáveis de decisão que precisavam ser otimizadas era de 8 × 40 = 320, sendo 8 o número de poços e 40 o número de interpolações. A otimização foi executada com 10 pontos de interpolação para cada poço, assim o número total de variáveis diminuiu para 80 (8 × 10). Os experimentos foram conduzidos em dois modelos de reservatório. O primeiro modelo possuía 4 poços injetores e 9 poços produtores, dispostos em padrões de cinco pontos. Para este experimento, ao compararem os métodos de redução de dimensionalidade (PCA, Isomap e LLE) ao método SADE-Sammom, verificaram que este

(27)

Capítulo 2. Conceitos e trabalhos relacionados 27

último superou os outros métodos, provando ser o método de redução de dimensionalidade mais eficaz incorporado ao método de otimização SADE. O segundo modelo estudado foi um Egg Model, que possuía 8 poços injetores de água e 4 produtores. Neste experimento, os pesquisadores aplicaram o método de controle de interpolações (ICM), uma vez se depararam com o problema da maldição. Para comparar a performance dos diferentes métodos, o Egg Modelfoi otimizado com DE, DE + ICM, SADE + ICM e SADE + ICM com diferentes métodos de redução de dimensionalidade. A partir dessas comparações, os pesquisadores puderam notar que o desempenho do método SADE é inferior ao método DE, devido ao problema da maldição. O método SADE-Sammon, por sua vez, apresentou melhor desempenho quando comparado ao DE e ao SADE. Além disso, o método SADE-Sammon mostrou melhor desempenho em comparação aos métodos de redução de dimensionalidade (Isomap, LLE e PCA). A conclusão obtida pelos pesquisadores foi o ótimo desempenho do método SADE-Sammonem comparação com o DE e com o SADE associado aos métodos de redução de dimensionalidade (PCA, Isomap e LLE). Além disso, os pesquisadores concluíram que o método SADE-Sammon, com o auxílio do método de controle de interpolação (ICM), pode resolver problemas de otimização de produção de alta dimensionalidade com bastante eficiência.

Em seu trabalho Chuanbo investigaram técnicas de pré-processamento de dados, como redução de dimensionalidade e análise de wavelet (WA). Os pesquisadores propuseram um método de tratamento de dados em grupo (Group Method of Data Handling (GMDH)), que é uma rede neural metaheurística auto-organizada. Utilizaram como estudo de caso a Bacia Sul do Mar Amarelo do Sul (localizado entre a China e a Coréia). O estudo objetivava melhorar a precisão da classificação litológica a partir do emprego do GMDH e a utilização dos métodos de redução de dimensionalidade Análise de Componente Principais (PCA) e Análise Discriminante Linear (LDA). O método GMDH é baseado no algoritmo de busca que classifica a representação ótima de uma função de suporte polinomial. Os conjuntos de log de poço de cinco parâmetros foram reduzidos a dois componentes principais e três fatores discriminantes por PCA e LDA, respectivamente, mantendo a maior parte da variação total dos dados de log de poço. A transformada de wavelet discreta decompôs cada sinal de registro de poço em sinais de aproximação e wavelet detalhados. Os pesquisadores concluíram que os métodos de redução de dimensionalidade constituído por PCA e LDA

(28)

Capítulo 2. Conceitos e trabalhos relacionados 28

conseguiram minimizar a complexidade do classificador e reduzir o número de conjuntos de registros de poços aos componentes e fatores relevantes; sendo o PCA o único método de pré-processamento que aumentou significativamente a taxa de precisão da classificação deste estudo. O WA decompôs os sinais do registro do poço em wavelets de frequências de tempo para o algoritmo GMDH. O classificador PCA-GMDH aumentou a precisão e conseguiu distinguir entre todas as classes de litofáceis da Bacia Sul do Mar Amarelo do Sul.

Artun propuseram em sua pesquisa modelos auxiliares baseados em redes neurais para a triagem do processo de pulsação cíclica. Os pesquisadores aplicaram os modelos baseados em características do Big Andy Field (Kentucky - Estados Unidos), o qual é um reservatório esgotado e naturalmente fraturado. Ao analisarem os resultados, os pesquisadores verificaram que os modelos estudados foram capazes de prever com precisão os indicadores de desempenho. A pesquisa foi realizada considerando dois projetos. O Projeto-1 foi implementado considerando 5 ciclos, nos quais, cada ciclo foi projetado com diferentes características de injeção: taxa de injeção, duração do período de imersão e o período de produção. Diferentemente do Projeto-1, o Projeto-2 permitiu um número diferente de ciclos. Nesse caso o limite da taxa de produção econômica do processo e a duração do processo foram especificados na concepção do processo. Assim, a produção foi interrompida em cada ciclo quando a produção de petróleo atingiu o limite de produção. Ao final de cada ciclo, iniciou-se outro até que fosse atingido a duração do projeto.

Artun concluíram com os experimentos que as redes neurais obtiveram melhor performance quando as taxas de fluxo não mudam acentuadamente de uma etapa para outra. Além disso, concluíram que modelos de proxy baseados em redes neurais podem ser usados para a triagem inicial do processo de pulsação por pressão cíclica, a fim de reduzir o número de execuções de simulações necessárias para determinar as condições operacionais ideais.

Zhang propuseram uma nova correspondência histórica (history matching (HM)) com base no algoritmo evolutivo denominado Algoritmo Evolutivo Multiobjetivo Baseado em Decomposição – Multi-objective Evolutionary Algorithm Based on Decomposition (MOEA/D), que realiza a otimização simultânea dos parâmetros em relação aos dados de vários poços de petróleo e, com o qual foi utilizado redução de dimensionalidade (Auto-Encoder (AE)), método não-linear, que pode ser visto como uma Rede Neural Artificial (RNA); PCA e KPCA. A

(29)

Capítulo 2. Conceitos e trabalhos relacionados 29

correspondência histórica de reservatório de petróleo é relevante na estimativa dos parâmetros dos modelos de reservatório de óleo, para fazer previsões de produção e estabelecer planos ideais para o desenvolvimento de reservatórios de óleo. A HM é utilizada com o objetivo de encontrar um modelo de reservatório com parâmetros ótimos que possam reproduzir os dados observados e também serem capazes de fazer previsões precisas para a futura produção do reservatório. A HM é considerada um problema inverso; uma vez que dados estatísticos (exemplo: registro do poço) e dados dinâmicos de produção (exemplo: taxas do poço e pressão) são utilizados para estimar parâmetros desconhecidos do modelo, como por exemplo, porosidade e permeabilidade; cujo objetivo é determinar um parâmetro que minimize a diferença entre as observações e os resultados da simulação. Os pesquisadores empregaram a combinação da HM com redução de dimensionalidade ao modelo de reservatório PUNQ-S3, o qual é um modelo sintético de tamanho médio, baseado em um campo real operado pela Elf Exploration and Production Company. Neste experimento foram utilizados dados dos 2000 primeiros dias de produção para treinamento e dados dos 1000 próximos dias como dados de teste e verificação da otimização do modelo. Ao analisarem os resultados dos experimentos, os pesquisadores verificaram que os valores da Raiz do Erro Médio Quadrado (Root Mean Square Error (RMSE)) da HM com AE foram normalmente menores do que HM com o MOEA/D, HM com PCA/KPCA e HM com SPSA. A razão mais provável para o HM com AE superar o HM com MOEA/D é que a HM proposto com redução de dimensionalidade é melhor do que a abordagem baseada em MOEA/D. Da comparação HM com AE e HM com PCA/KPCA, os pesquisadores concluíram que a primeira combinação apresenta melhores resultados pois AE não linear pode lidar com a estrutura complexa da HM melhor que PCA e KPCA. Quanto ao tempo de execução, comparando a combinação dos métodos, HM com AE apresentou o melhor resultado.

Claudia estudaram procedimentos para realizar o reaproveitamento de poços produtores; os quais são fechados antes do tempo de concessão do reservatório, pois passaram a não ser mais economicamente viáveis. O reaproveitamento consiste na reabertura desses poços produtores, que passam a ser utilizados como poços injetores de água. O reaproveitamento de poços tem a finalidade de maximizar o Valor Presente Líquido (VPL), utilizado como função objetivo, a partir das melhores taxas de injeção de água para o novo poço injetor e para os poços produtores e injetores que já estavam presentes. O procedimento de troca

(30)

Capítulo 2. Conceitos e trabalhos relacionados 30

entre os poços (produtor/injetor) é automático e acontece através do uso de técnicas da simulação de produção de reservatórios. Para este estudo, os pesquisadores utilizaram a análise de corte de água (90%), a qual representa a porcentagem de produção de água do poço em relação à produção total de óleo e água, para determinar a conversão dos poços produtores em injetores. Com a finalidade de reduzir os custos computacionais, os pesquisadores empregaram modelos substitutos aplicando a estratégia de otimização sequencial aproximada (SAO). Essa metodologia baseia-se na decomposição do problema original de otimização em sequencias de subproblemas de otimização. Neste experimento os pesquisadores estudaram dois casos, nos quais foi utilizado o modelo de reservatório de Brush Canyon Outcrop, que contém 12 poços: 7 produtores e 5 injetores; no qual foi reaproveitado 1 poço produtor, desta forma totalizaram-se 6 poços produtores e 6 injetores. No Caso 1 a otimização constituiu-se de 2 ciclos de controle, totalizando 25 variáveis de projeto e foi finalizada com 1 ciclo de controle pela otimização. No Caso 2 a otimização constituiu-se de 3 ciclos de controle, totalizando 36 variáveis de projeto e, assim como no Caso 1, foi finalizado com 1 ciclo de controle pela otimização. Após os estudos dos Casos e comparação com resultados obtidos por processos de otimização sem reaproveitamento dos poços produtores, os pesquisadores verificaram ganho de 2 a 3% no VPL, apesar de, também, ter acontecido aumento do custo computacional.

(31)

31

Capítulo 3

Mineração de Dados e Algoritmos de

Redução de Dimensionalidade

Neste capítulo serão apresentados alguns conceitos de mineração de dados, bem como os algoritmos de regressão e redução de dimensionalidade utilizados na metodologia desse trabalho.

3.1

Mineração de Dados

A cada dia é crescente o volume de dados provenientes de diversos campos, os quais precisam ser coletados, analisados e processados para que gerem informações úteis. Essas informações podem ser obtidas a partir da mineração de dados, que é parte de um processo de descoberta de conhecimento a partir de banco de dados (em inglês knowledge discovery in databases ou KDD) (FAYYAD; PIATETSKY-SHAPIRO; SMYTH, 1996). O principal objetivo da mineração de dados é descobrir padrões em extensos bancos de dados, transformando essas informações em conhecimento útil (HAN; KAMBER; PEI, 2012) (FAYYAD; PIATETSKY-SHAPIRO; SMYTH, 1996).

O processo de mineração de dados pode ser dividido em três grandes etapas, sendo elas o pré-processamento de dados, ou seja, a preparação dos dados para a mineração, que consiste em limpeza, integração dos dados, transformação e seleção; a mineração dos dados e o pós-processamento, que por sua vez abrange a avaliação e apresentação dos padrões obtidos, como pode ser observado na Figura 3.1 (HAN; KAMBER; PEI, 2012) (FAYYAD; PIATETSKY-SHAPIRO; SMYTH, 1996).

(32)

Capítulo 3. Mineração de dados e redução de dimensão 32

Figura 3.1: Processo KDD.

Fonte: (FAYYAD; PIATETSKY-SHAPIRO; SMYTH, 1996)

A subetapa de limpeza dos dados consiste em eliminação de ruídos e dados inconsistentes e/ou irrelevantes; realiza-se limpeza com o objetivo de preencher valores faltantes, realizar detecção de outliers para a redução do ruído e corrigir inconsistências nos dados. Quando esses dados provêm de fontes diferentes deve ser realizada a integração destes para que fiquem na mesma base, eliminando assim, por exemplo, dados duplicados e codificações diferentes para a mesma informação. Por sua vez, a transformação dos dados compreende em modificar os dados ao formato apropriado a ser utilizado para mineração. Esse procedimento abrange a suavização para eliminação de ruído, agregação dos dados, generalização para melhor compreensão e normalização dos dados para evitar que algum dado se destaque dos demais devido a escala empregada. Seleção ou redução dos dados consiste em selecionar os dados relevantes para a mineração, por exemplo, excluindo os atributos irrelevantes ou pouco relevantes, bem como os redundantes e a discretização dos atributos por meio da generalização. Já a etapa de mineração de dados é a aplicação do método selecionado para a obtenção do conhecimento. Por fim, deve ser realizada a etapa de pós-processamento, executando-se a avaliação dos padrões, ou seja, é a indentificação de padrões interessantes, em seguida deve ser realizada a apresentação visual do conhecimento extraído (HAN; KAMBER; PEI, 2012).

De modo geral, as tarefas de mineração de dados podem ser classificadas em descritivas e preditivas. As tarefas descritivas têm como objetivo descrever ou caracterizar os dados, já a tarefa preditiva, realiza previsões (HAN; KAMBER; PEI, 2012).

(33)

Capítulo 3. Mineração de dados e redução de dimensão 33

3.2

Algoritmos de Regressão para Comparação

Antes de introduzir os algoritmos de regressão, vale ressaltar que o conjunto de dados é representado como {𝐱𝑖}𝑁𝑖=1, onde cada 𝐱𝐢 = (𝑥𝑖,1, 𝑥𝑖,2, … , 𝑥𝑖,𝑝) está associado à saída desejada

𝑦𝑖 ∈ [0, 1]e 𝑓 (𝐱𝑖)é a estimativa do modelo para 𝑦𝑖.

Os algoritmos de regressão de aprendizado de máquina considerados para a comparação seguem nas subseções: Elastic Net, K-Nearest Neighbor, Multi-layer Perceptrons, Kernek Ridge Regression, Support Vector Regression e Gradient Tree Boosting.

Elastic Net (ENET)

É um modelo de regressão linear que emprega a regularização das normas 𝑙1 e 𝑙2 dos

coeficientes (ZOU; HASTIE, 2005). O modelo ENET é obtido minimizando a Equação (3.1)

min 𝐰 1 2𝑁||𝐱𝐰 − 𝑦|| 2 2+ 𝜆𝛼||𝐰||1+ 𝛼(1 − 𝜆) 2 ||𝐰|| 2 2 (3.1)

Na Equação (3.1), 𝐰 é o vetor de peso, 𝛼 pondera entra as penalidades 𝑙1e 𝑙2.

‖ ‖ ‖ ‖. ‖ ‖ ‖ ‖1 e‖‖ ‖ ‖. ‖ ‖ ‖ ‖2 são a norma de 𝑙1e 𝑙2, respectivamente. Os parâmetros 𝛼 e 𝜆 são definidos por validação cruzada e

variam nos conjuntos 𝛼 ∈ {0; 0,25; ...; 1} e 𝜆 ∈ {0,1; 0,3; ...; 0,9}. Na prática, 𝐰 pode ser definido através do algoritmo de coordenadas descendentes.

K-Nearest Neighbor (KNN)

Para um dado exemplo de dados não rotulados, o KNN atribui a média dos rótulos de seus K vizinhos mais próximos (HASTIE; TIBSHIRANI; FRIEDMAN, 2008). Basicamente, a importância ou pesos dos vizinhos podem ser considerados uniformemente, isto é, cada exemplo na vizinhança local contribui uniformemente para a estimativa de etiquetas de um exemplo de consulta; ou, alternativamente, esses pesos podem ser usados para favorecer exemplos próximos para estimar a resposta para o exemplo de consulta como na Equação (3.2).

𝑓 (𝐱) = 𝑤(1)𝑦(1)+ ⋯ + 𝑤(𝑘)𝑦(𝐾 ) ∑𝐾𝑗=1𝑤𝑗

(34)

Capítulo 3. Mineração de dados e redução de dimensão 34

Na equação, 𝑤(1) é o peso associado ao vizinho mais próximo do exemplo de consulta 𝐱

e 𝑦(1) é o rótulo do vizinho mais próximo de 𝐱. Neste trabalho, o peso entre o exemplo da

consulta e seu j-ésimo vizinho mais próximo foi definido como 𝑤𝑗 = 1/𝑑𝑖𝑠𝑡(𝐱, 𝐱(𝑗)).

Para a seleção do modelo, K foi selecionado no intervalo 𝐾 ∈ {1, 2, … , 11}. Ao considerar os dados originais, a distância de Hamming foi usada. Enquanto a distância euclidiana foi utilizada para os dados reduzidos pelo PCA.

Multi-layer Perceptrons (MLP)

É uma rede neural de feed-forward composta de neurônios Perceptron, que são unidades que realizam uma soma ponderada das entradas e saídas de acordo com uma determinada função de ativação (GOODFELLOW; BENGIO; COURVILLE, 2016). Neurônios em um MLP são organizados em camadas; geralmente, cada camada recebe entradas apenas da anterior. A camada de entrada recebe as conexões de entrada, a camada de saída fornece a resposta da rede e toda a camada interna, chamada de camadas ocultas, transporta possíveis números diferentes de neurônios de processamento. Geralmente, as estruturas de rede neural MLP são treinadas com o algoritmo de propagação reversa, que atualiza os pesos da rede de forma iterativa, propagando o erro da saída para a entrada. Freqüentemente, um algoritmo para controlar de forma adaptativa a taxa de aprendizado é usado junto com a propagação reversa para melhorar o desempenho. Neste trabalho, empregamos o algoritmo Adam (GOODFELLOW; BENGIO; COURVILLE, 2016).

Os seguintes parâmetros foram ajustados durante a seleção do modelo:

⋄ a taxa de aprendizado inicial variou no conjunto {0; 0, 01; 0, 01; 0, 1} e

⋄ as estruturas de camadas ocultas foram {(25), (50), (100), (150), (50, 50), (100, 50), (100, 100), (150, 100)} em que (25) significa uma camada oculta com 25 neurônios. Além disso, três funções de ativação foram consideradas: logistic: 𝑔(𝑥) = 1/(1 + 𝑒𝑥𝑝(−𝑥)), a tangente hiperbólica: 𝑔(𝑥) = (𝑒𝑥𝑝(𝑥) − 𝑒𝑥𝑝(−𝑥))/(𝑒𝑥𝑝(𝑥) + 𝑒𝑥𝑝(−𝑥)) e a função de unidade linear retificada, 𝑔(𝑥) = 𝑚𝑎𝑥(0, 𝑥). Por fim, o parâmetro de penalidade L2 variou no conjunto {0, 0001; 0, 001}.

(35)

Capítulo 3. Mineração de dados e redução de dimensão 35

Kernel Ridge Regression (KRR)

Associa uma função kernel a regressão de ridge, que permite uma aproximação de função mais robusta (MURPHY, 2012). A regressão da crista depende de encontrar 𝐰 e 𝜆 que minimiza a Equação 3.3: 𝐽 (𝐰, 𝜆) = 𝑁 ∑ 𝑖=1 𝐿(𝑦𝑖, 𝑓 (𝐱𝑖)) + 𝜆||𝐰||2 (3.3)

em que 𝑓 (𝐱𝑖) = 𝐰⊤𝐱𝑖+𝐰0e 𝐿 é a função de perda quadrática. Pode ser mostrado que 𝐰 minimiza

a Eq. (3.3) tem o formato: 𝐰 = 𝑋⊤(𝑋 𝑋+ 𝜆𝐼

𝑁)−1𝑦. A versão do kernel é então obtida definindo

as variáveis duplas, como na Equação (3.4), onde 𝐾 é a matriz Gram.

𝛼 = (𝐾 + 𝜆𝐼𝑁)−1𝑦 (3.4)

Portanto, 𝐰 pode ser reescrito como 𝐰 = ∑𝑁

𝑖=1𝛼𝑖𝐱𝑖 e as predições requerem a soma de todo

o conjunto de dados, conforme indicado na Equação (3.5).

𝑓 (𝐱) =

𝑁

𝑖=1

𝛼𝑖𝐱⊤𝑖𝐱 (3.5)

Para seleção de modelos, 𝜆 ∈ {1, 10−1, 10−2, 10−3} e dois kernels foram considerados, o

kernel polinomial 𝐾(𝐱𝑖, 𝐱𝑗) = (𝐱⊤𝑖 𝐱𝑗 + 𝑐)𝑑, com 𝑐 = 1 e grau 𝑑 ∈ {2, 3, 4} e o kernel RBF

𝐾 (𝐱𝑖, 𝐱𝑗) = exp(−𝛾 ||𝐱𝑖− 𝐱𝑗||2)with 𝛾 ∈ {10−4, 10−3, 10−2}.

Support Vector Regression (SVR)

Conforme comentado anteriormente, o KRR é um procedimento baseado em kernel, mas não é esparso, o que significa que para cada nova previsão é necessária uma soma sobre todo o conjunto de dados. A formulação SVR substitui a perda quadrática, 𝐿, por uma função de perda que garante que a solução é esparsa, portanto, as previsões dependem apenas de um subconjunto dos dados de treinamento, conhecidos como vetores de suporte (SMOLA, A. J.; SCHÖLKOPF, 2004).

A função de perda usada pelo SVR não penaliza os residuais, |𝑦𝑖 − 𝑓 (𝐱𝑖)|, que são menores

(36)

Capítulo 3. Mineração de dados e redução de dimensão 36 𝐿𝜖(𝑦𝑖, 𝑓 (𝐱𝑖)) = ⎧ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎩ 0, se |𝑦𝑖 − 𝑓 (𝐱𝑖)| ≤ 𝜖 |𝑦𝑖− 𝑓 (𝐱𝑖)| − 𝜖, caso contrário (3.6)

Para o SVR, uma função de custo um pouco diferente é considerada, como mostra a Equação (3.7), em que 𝐶 é um parâmetro de penalidade do termo de erro.

𝐽 (𝑤) = 𝐶 𝑁 ∑ 𝑖=1 𝐿𝜖(𝑦𝑖, 𝑓 (𝐱𝑖)) + 1 2||𝐰|| 2 (3.7)

Os resultados da SVR foram obtidos considerando bases radiais e núcleos polinomiais. Para a base radial, o parâmetro do kernel variou no intervalo 𝛾 ∈ {10−4, 10−3, 10−2}; o grau da função

do núcleo polinomial foi considerado no conjunto 𝑑 ∈ {2, 3, 4} e o parâmetro de custo 𝐶 ∈ {1, 10, 100, 1000}.

Gradient Tree Boosting (GTB)

É um conjunto de modelos de previsão de base fraca, também denominado árvores de regressão. É um conjunto de aprendizes de base com uma única saída, que é uma combinação da saída de base dos aprendizes (HASTIE; TIBSHIRANI; FRIEDMAN, 2008).

Como um algoritmo de reforço, o GTB constrói o conjunto sequencialmente, com o objetivo de corrigir os erros do aprendiz anterior. Assim, a próxima árvore a ser adicionada no conjunto é treinada com os resíduos do último. O GTB permite a otimização considerando a função de perda arbitrária diferenciável, 𝐿. O residual da 𝑚-ésima árvore para o exemplo 𝐱𝑖, 𝑟𝑖𝑚 é

calculado como na Equação (3.8).

𝑟𝑖𝑚 = −[

𝜕𝐿(𝑦𝑖, 𝑓𝑚−1(𝐱𝑖))

𝜕𝑓𝑚−1(𝐱𝑖) ] for i = 1,. . . ,n

(3.8) Uma nova árvore de regressão é ajustada aos alvos 𝑟𝑖𝑚; suas folhas então produzem as

regiões de terminal 𝑅𝑗𝑚; 𝑗 = 1, 2, … , 𝐽 𝑚. Para cada região, a saída da árvore é definida como na

Eq. (3.9). 𝛾𝑗𝑚 = argmin 𝛾 ∑ 𝐱𝑖∈𝑅𝑗𝑚 𝐿(𝑦𝑖, 𝑓𝑚−1(𝐱𝑖) + 𝛾 ) (3.9)

Então, a saída do modelo é atualizada de acordo com a Equação (3.10), em que 𝐼 é a função do indicador, ou seja, 𝐼(𝐱 ∈ 𝑅𝑗𝑚)= 1, se 𝐱 ∈ 𝑅𝑗𝑚, e 𝐼(𝐱 ∈ 𝑅𝑗𝑚)= 0 se 𝐱 ∉ 𝑅𝑗𝑚.

(37)

Capítulo 3. Mineração de dados e redução de dimensão 37 𝑓𝑚(𝐱) = 𝑓𝑚−1(𝐱) + 𝐽 𝑚 ∑ 𝑗=1 𝛾𝑗𝑚𝐼 (𝐱 ∈ 𝑅𝑗𝑚) (3.10)

Para a seleção do modelo, os seguintes hiper-parâmetros foram ajustados. A porcentagem mínima de exemplos a considerar para dividir ainda mais um nó 𝑚𝑖𝑛_𝑠𝑝𝑙𝑖𝑡 ∈ {0, 05; 0, 1; 0, 2; 0, 3}. O número de estimadores a serem adicionados durante o reforço de 𝑀 ∈ {50, 100, 150} e a função loss, que foram: a regressão de mínimos quadrados, o menor desvio absoluto e Huber.

3.3

Algoritmos de Redução de Dimensionalidade

Algoritmos de redução de dimensionalidade são utilizados quando se tem um conjunto de dados com grande número de atributos/dimensões e deseja-se reduzir o custo (financeiro, de tempo e/ou memória) de processamento desses dados, minimizando a perda de informação relevante. A ideia é representar um conjunto de dados de determinada dimensão em um outro espaço de menor dimensão. Ademais ao custo, a redução de dimensionalidade pode, também, aumentar a acurácia de um modelo, pois menor dimensionalidade pode resultar em menores taxas de erro (MIYASHIRO; BARIONI, 2009).

Principal Component Analysis

Análise de Componentes Principais (PCA) é um do métodos mais populares de algoritmo de redução de dimensionalidade no reconhecimento de padrões. O objetivo dessa técnica é reduzir a dimensionalidade de um conjunto de dados, ao mesmo tempo que aumenta a interpretabilidade dos dados e minimiza a perda de informações (JOLLIFFE; CADIMA, 2016). Ou seja, preserva ao máximo a variabilidade dos dados o quanto possível. Esse método utiliza ortogonalização de vetores para converter um conjunto de dados quantitativos, cujos atributos podem ser correlacionados, em um conjunto menor de atributos linearmente não correlacionados denominados componentes principais. Nesse novo conjunto, a maior variância ocupa a primeira coordenada ou componente, a segunda maior variância ocupa a segunda coordenada e assim sucessivamente (BISHOP, 2006). A seguir, segue o passo a passo para aplicação do método PCA a um determinado conjunto de dados com p variáveis numéricas para cada um dos n registros.

(38)

Capítulo 3. Mineração de dados e redução de dimensão 38

Passo a Passo para aplicação do méodo PCA (SMITH, 2002): 1. Determinação do conjunto de dados originais

Considere um conjunto de dados com p variáveis numéricas para cada um dos n registros, conforme representado na matriz X (Equação (3.11)):

𝑋 = ⎡ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ 𝑥1,1 𝑥1,2 … 𝑥1,𝑝 𝑥2,1 𝑥2,2 … 𝑥2,𝑝 ⋮ ⋮ ⋮ ⋮ 𝑥𝑛,1 𝑥𝑛,2 … 𝑥𝑛,𝑝 ⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ (3.11)

2. Determinação e subtração da média

Para cada um dos dados originais, deve-se subtrair a média dos valores originais Sendo ̄𝑋 a matriz média, composta pelos valores de ̄𝐱s:

𝐵 = 𝑋 − ̄𝑋 (3.12)

3. Cálculo da matriz de covariância

Seja 𝐶 a matriz de covariância de 𝐵, representada na Equação (3.13):

𝐶 = 𝐵𝑇𝐵 (3.13)

4. Cálculo dos autovalores e autovetores da matriz de covariância

Autovetores indicam a direção dos dados e autovalores indicam a a magnitude da propagação desses dados.

5. Escolha dos componentes

Autovalores indicam a importância de determinados dados. A seleção de alguns autovalores pode representar muito bem os dados orginais. Escolha e multiplique os autovetores e autovalores resultantes do passo anterior, conforme Equação (3.14)

(39)

Capítulo 3. Mineração de dados e redução de dimensão 39

Na Equação (3.14), 𝐯 é um autovetor da matriz de covariância.

Assim, tem-se a Equação (3.15), em que V são os autovetores, D São os autovalores e 𝐶 é a matriz de covariância:

𝐶𝑣 = 𝑉 𝐷 (3.15)

A determinação dos componentes principais (T), se dá pela Equação (3.16):

𝑇 = 𝐵𝑉 (3.16)

Na Equação (3.16) V são os autovalores com maiores reultados.

Kernel Principal Component Analysis

Kernel Principal Component Analysis(KPCA) é uma extensão do método Principal Component Analysis (PCA) com a utilização de métodos kernel e sendo uma forma não linear deste. A ideia do KPCA é basicamente a mesma do PCA, ou seja, projetar um conjunto de dados em um subespaço de baixa dimensão. A diferença dos métodos está no fato de o PCA utilizar projeção linear dos dados e o KPCA utilizar função não linear para anexar os dados em um espaço de maior dimensão, utilizando uma função kernel (SCHÖLKOPF; SMOLA, A.; MÜLLER, 1997), conforme demonstrado na Equação (3.17).

Na Equação (3.17), K representa uma função kernel e 𝐱𝐢 e 𝐱𝐣 representam os dados:

𝐾 (𝐱𝐢, 𝐱𝐣) = 𝐱𝐢𝐱𝐣 = 𝐱𝐢𝑇𝐱𝐣 (3.17)

Para utilização do KPCA as etapas deve-se seguir as etapas: redução de dimensionalidade, classificação dos dados, regressão do componente principal do kernel, eliminação de ruído e detecção de novidades (SCHÖLKOPF; SMOLA, A.; MÜLLER, 1997).

Isomap

O objetivo deste método é resolver o problema do escalonamento clássico, que visa manter as distâncias euclidianas emparelhadas e não considera a distribuição dos pontos de dados vizinhos. Isomap tenta preservar as distâncias geodésicas entre os pontos de dados, resolvendo assim, o problema da distância euclidiana, em outras palavras, tem por objetivo a redução de

(40)

Capítulo 3. Mineração de dados e redução de dimensão 40

dimensionalidade não linear por meio do mapeamento isométrico (TENENBAUM; DE SILVA; LANGFORD, 2000).

As distâncias geodésicas entre os pontos de dados 𝐱𝑖, (𝑖 = 1, 2, ..., 𝑛) são calculadas

construindo um grafo de vizinhança 𝐺, em que cada ponto de dados 𝐱 está conectado com seus vizinhos 𝑘 mais próximos no conjunto de dados 𝑋. O caminho mais curto entre dois pontos no gráfico forma um estimativa da distância geodésica entre estes dois pontos. As distâncias geodésicas entre todos os pontos de dados em 𝑋 são calculadas, formando assim uma matriz de distância geodésica pareada. As representações de baixa dimensão 𝐳𝑖 dos

pontos de dados 𝐱𝑖 no espaço de baixa dimensão 𝑍 são calculadas aplicando o escalonamento

clássico na matriz de distância geodésica pareada resultante.

O Isomap pode apresentar alguns problemas como (MAATEN; POSTMA; HERIK, 2009): • Isomap pode construir conexões errôneas no gráfico de vizinhança 𝐺, algumas soluções

para esse problema podem ser obtidas removendo dados com grandes fluxos totais no algoritmo de caminho mais curto ou removendo os vizinhos mais próximos que violem a linearidade local do gráfico de vizinhança;

• outro problema é que o isomap pode sofrer de com eventuais descontinuidade na distribuição dos dados.

Locally Linear Embedding

Locally Linear Embedding(LLE) é um método não-linear e não supervisionado de redução de dimensionalidade, baseado em preservação de distâncias das vizinhanças locais. A implementação do algoritmo LLE é bastante direta e pode ser comparado a uma análise de componentes principais locais, que utiliza apenas um sistema global de coordenadas de menor dimensão, e, tem por objetivo encontrar a melhor incorporação não-linear (ROWEIS; SAUL, 2000). Diferentemente de outro métodos de redução de dimensionalidade, como por exemplo PCA e KPCA, que não são bem-sucedidos no espaço não linear, o LLE aproveita a geometria local e preserva a geometria global em um espaço dimensional inferior.

Passo a passo para aplicação do método LLE (ROWEIS; SAUL, 2000): 1. Calcule os K vizinhos mais próximos

• K é o único parâmetro escolhido. Se K for muito pequeno ou muito grande, não irá ilustrar muito bem a geometria global.

Referências

Documentos relacionados

Por sua vez, a complementação da geração utilizando madeira, apesar de requerer pequenas adaptações do sistema, baseia-se em um combustível cujas origens são mais diversifi

Ficou com a impressão de estar na presença de um compositor ( Clique aqui para introduzir texto. ), de um guitarrista ( Clique aqui para introduzir texto. ), de um director

Este estudo tem como objetivos identificar os níveis de trauma manifestados e de estratégias de coping utilizadas pelos TEPH; caracterizar os incidentes mais

Afinal de contas, tanto uma quanto a outra são ferramentas essenciais para a compreensão da realidade, além de ser o principal motivo da re- pulsa pela matemática, uma vez que é

Dessa maneira, os resultados desta tese são uma síntese que propõe o uso de índices não convencionais de conforto térmico, utilizando o Índice de Temperatura de Globo Negro e

Apesar da longa distância dos grandes centros urbanos do país, Bonito destaca- se, regionalmente, como uma área promissora dentro do Estado de Mato Grosso do Sul. Bonito,

forficata recém-colhidas foram tratadas com escarificação mecânica, imersão em ácido sulfúrico concentrado durante 5 e 10 minutos, sementes armazenadas na geladeira (3 ± 1

Mineração de conhecimento interativa em níveis diferentes de abstração: Como é  difícil  prever  o  que  exatamente  pode  ser  descoberto  de  um  banco