• Nenhum resultado encontrado

Resultados e Discussões

8.2 Conclusões Dados Sísmicos

Os dados sísmicos mostram-se muito eficientes para a classificação das rochas quanto suas características de Reservatório. Mais eficientes que os dados de poço, e isso provêm da estrutura dos dados. Os Dados sísmicos são gerados a partir de cálculos não-lineares, ou seja, tem menor correlação entre si, comparados aos dados de perfil. Essa menor correlação colabora para distanciar os padrões entre as amostras, deixando os padrões mais robustos e diferenciados, permitindo ao método da Análise de Componentes Independentes iterações mais coerentes, chegando a um resultado mais correto para o Método K-NN gerar a classificação dos dados.

Com essa propriedade de acerto elevada, uma tentativa interessante de testes, é dificultar o tipo de classificação, como por exemplo, a classificação completa de fácies ou de características mais difíceis de serem calculadas, como Porosidade.

O comportamento dos dados, como levantado na Análise de Componentes Independentes em cima de dados de poço, não é largamente debatido aqui, pois a taxa de acerto entre os vizinhos tem uma diferença mínima, mostrando que os dados estão postados de forma que para poucos vizinhos, já se atinge uma porcentagem de acerto satisfatória.

81

Bibliografia

ANDERSON, J.A. An Introduction To Neural Networks- Bradford Book, 1995 ASCENSO, J. Reconhecimento de Padrões. Notas de Aula, 2003

BALLANDA, K. P.; MACGILLIVRAY, H. L. Kurtosis: A Critical Review. The American Statistician (American Statistical Association) 42 (2): 111–119, 1988

BARZOZA, E.G. Análise Estratigráfica do Campo de Namorado com base na interpretação Sísmica Tridimensional, Tese de Doutorado – UFRGS, 2005

BELL A.J.; SEJNOWSKI T.J. An information maximization approach to blind separation and blind deconvolution, Neural Computation, 7, 6, 1129-1159, 1995

BISHOP, C. M. Neural Networks for Pattern Recognition. Oxford University Press, 1995

BLACK, PAUL E. Manhattan distance, ed., U.S. National Institute of Standards and Technology.,2006

BOX, G.E.P.; HUNTER, J.S.; HUNTER, W.G. Statistics for Experimenters: An Introduction to Design, Data Analysis, and Model Building. 1978

CARDOSO, J.-F. and Souloumiac, A., Blind beamforming for non Gaussian signals. IEE Proc. F. v140 i6. 362-370, 2002

CASEY.M.A. Method for extracting features from a mixture of signals, United States, Mitsubish Electric Research Laboratories, INC (Cambridge, MA), 2001

CHEN, X.; WANG, L.; XU,Y. A Symmetric Orthogonal FastICA Algorithm and Applications in EEG, vol. 2, pp.504-508, 2009 Fifth International Conference on Natural Computation, 2009 COMON.P. Independent Component Analysis: a new concept?, Signal Processing, Elsevier, 36(3):287—314,1994

COVER, T.M.; HART P.E. Nearest neighbor pattern classification. IEEE Transactions on Information Theory 13 (1): 21–27, 1967

COVER, T.M.; THOMAS, J.A. Elements of Information Theory. Wiley, 1991.

DANTAS, C. A. B. Probabilidade: Um curso introdutório – 2. ed.1 – São Paulo: Editora da Universidade de São Paulo, 2004

82

DE MAESSCHALCK, R.; JOUAN-RIMBAUD, D.; MASSART.D.L. The Mahalanobis distance. Chemometrics and Intelligent Laboratory Systems 50:1–18. 2008

DIAMANTARAS, K.I.; KUNG, S.Y. Principal Component Neural Networks: Theory and Applications. Willey, 1996

DUBRULE, O.; THIBAU, M.; LAMY, P.; HAAS,A. Geostatistical reservoir characterization constrained by 3D seismic data,1997

FAREBROTHER, R. W. Algorithm AS 79: Gram-Schmidt Regression. Journal of the Royal Statistical Society. Series C (Applied Statistics) Vol. 23, No. 3 pp. 470-476, 1974

FRANCIS, A. Limitations of Deterministic and Advantages of Stochastic Seismic Inversion, 2005

FULLER, R.B. ET AL. Synergetics: Explorations in the Geometry of Thinking, published by Macmillan , Vol. 1, 1975

GAUCH, H. G. , JR. Multivariate Analysis in Community Structure. Cambridge University Press, Cambridge, 1992

GIL, A.C. Como elaborar projetos de pesquisa. São Paulo: Atlas, 1991.

GOKHALE, D.V.; AHMED, N.A.; RES, B.C.; PISCATAWAY, N.D. Entropy Expressions and Their Estimators for Multivariate Distributions. Information Theory, IEEE Transactions on 35 (3): 688–692, 1989

GOOD, I. J. Some statistical applications of Poisson's work. Statistical Science 1 (2): 157–180, 1986

HILL, T.; LEWICKI, P. Statistics Methods and Applications. StatSoft, Tulsa, OK, 2007

HOWSON, C.; URBACH, P. Scientific Reasoning: the Bayesian Approach (3rd ed.). Open Court Publishing Company,2005

HYVÄRINEN, A.; OJA, E. A fast fixed-point algorithm for independent component analysis. Neural Computation, 9(7):1483-1492, 1997

HYVÄRINEN, A. Fast and Robust Fixed-Point Algorithms for Independent Component Analysis. IEEE Transactions on Neural Networks, 1999

HYVÄRINEN, A. New approximations of differential entropy for independent component analysis and projection pursuit. In Advances in Neural Information Processing Systems, volume 10, pages 273-279. MIT Press, 1998.

HYVÄRINEN, A.; KARHUNEN, J.; OJA,E. Independent Component Analysis, New York: Wiley, 2001

83

JOANES, D.N.; GILL, C.A. Comparing measures of sample skewness and kurtosis. Journal of the Royal Statistical Society (Series D): The Statistician 47 (1), 1998

JOLLIFFE, I.T. Principal Component Analysis, Series: Springer Series in Statistics, 2nd ed., Springer, NY, 2002, XXIX, 487 p. 28 illus.2002

JUTTEN, C.; HERAULT, J. Blind separation of sources, part I: An adaptive algorithm based on neuromimetic architecture. Signal Processing, 24:1-10, 1991.

KOHONEN, T. Self-Organizing Maps, Springer Series in Information Science no. 30. Springer, Berlin Heidelberg,

KOUTROUMBAS, K.; THEODORIDIS, S. Pattern Recognition (4th ed.). Boston: Academic Press, 2008

KULIKOWSKI, C. A.; WEISS, S. M. Computer Systems That Learn: Classification and Prediction Methods from Statistics, Neural Nets, Machine Learning, and Expert Systems, 1991 KUSHNER, H.J.; CLARK. D.S. Stochastic approximation methods for constrained and unconstrained systems. Springer – Verlag, 1978.

LE CAM, L. Maximum likelihood — an introduction. ISI Review 58 (2): 153–171, 1990

LEITE, L. Análise de Componentes Independentes Aplicada à Identificação de Regiões Lesionadas Em Mamogramas. COPPE/UFRJ,M.Sc.,Engenharia Elétrica, 2005

LI, Z.; AN, J.; SUN, L.; YANG, M. A Blind Source Separation Algorithm Based on Whitening and Non-linear Decorrelation. vol. 1, pp.443-447, 2010 Second International Conference on Computer Modeling and Simulation, 2010

LIMA, E. L. Espaços Métricos. Projeto Euclides, Rio de Janeiro, 1993.

LINSKER, R. Self-organization in a perceptual network. Computer 21: 105-117, 1988

MARCHINI,J.L.; HEATON, C.; RIPLEY B. D. FastICA Algorithms to perform ICA and Projection Pursuit. R package version 1.1-11, 2009

MARSAGLIA, G. Evaluating the normal distribution. Journal of Statistical Software 11 (4), 2004 MICHIE, D.; SPIEGELHALTER, D.J.; TAYLOR, C.C. ML, neural and statistical classification, New York. cap.1,2,11, 1994

MURATA, M.; IKEDA, S.; ZIEHE A. An approach to blind source separation based on temporal structure of speech signals, in IEEE Trans. Signal Processing, 2001..

84

OJA, E. Subspace Methods of Pattern Recognition. Research Studies Press, England, and Wiley, USA, 1983

OJA, E.; KARHUNEN, J. Stochastic approximation of the eigenvectors and eigenvalues of the expectation of a random matrix. Journal of Math. Analysis and Applications, 106:69-84, 1985 OJA , E.; OGAWA, H.; WANGVIWATTANA, J. Learning in nonlinear constrained Hebbian networks. In Proc. Int. Conf. on Artificial Neural Networks (ICANN‘91), páginas 385-390, Espoo, Finlândia, 1991

PAPOULIS, A. Probability Random Variables, and Stochastic processes. McGraw – Hill, 3rd Edition, 1991

PARZEN, E. On estimation of a probability and mode. Ann. Math. States, 33:1065-1076, 1962 ROSA, H., ET AL. Caracterização de eletrofácies por meio de ferramentas estatísticas multivariadas. Rem: Rev. Esc. Minas, Ouro Preto, v. 61, n. 4, Dec. 2008 .

RUSSEL, B. H. The application of multivariate statistics and neural networks to the prediction of reservoir parameters using seismic attributes, Tese de Doutorado defendida na Faculdade de Calgary, Alberta, 2004.

SACCO, T. SUSLICK, S.B. VIDAL, A.C. Modelagem Geológica 3D do Campo de Namorado Utilizando Dados de Perfilagem de Poços Verticais, 2007

SACEVERO, S.S, REMACRE A.Z , VIDAL, A.C , PORTUGAL R.S. Aplicação de técnicas de estatística multivariada na definição da litologia a partir de perfis geofísicos de poços, RBGf 38(1) 61-74,2008, 2008

SAN MARTIN, L. Álgebras de Lie, Editora UNICAMP, 1999

SANCEVERO, S., REMACRE, A., VIDAL, A., PORTUGAL, R.. Aplicação de técnicas de estatística multivariada na definição da litologia a partir de perfis geofísicos de poços. Revista Brasileira de Geociências, América do Norte, 38, dez. 2008

SCHUERMAN, J. Pattern Classification: A Unified View of Statistical and Neural Approaches. Wiley&Sons, 1996

STEWART, J. Calculus .Pioneira Thomson Learning, 2ª ed, 2005

STONE, J. V. A Brief Introduction to Independent Component Analysis in Encyclopedia of Statistics in Behavioral Science, Volume 2, pp. 907–912, Ed. Brian S. Everitt & David C. Howell, John Wiley & Sons, Ltd, Chichester, 2005

85

TOUSSAINT, G.T. Geometric proximity graphs for improving nearest neighbor methods in instance-based learning and data mining. International Journal of Computational Geometry and Applications 15 (2): 101–150, 2005

VIDAL, A.C, SANCEVERO, S.S. REMACRE A.Z, COSTANZO, C.P., Modelagem Geoestatística 3d Da Impedância Acústica Para a Caracterização Do Campo De Namorado, RBGf 25(3): 295-305, 2007

WASSERMAN, P. Neural Computing Theory and Practice. Van Nostrand Rheinhold, New York, 1989.

WEIBULL, W. A statistical distribution function of wide applicability, J. Appl. Mech.-Trans. ASME 18 (3): 293–297, 1951

87

Apêndice A – Termos Estatísticos

- Centralizar um vetor em torno de Zero

Centralizar um dado em torno de zero, consiste subtrair do vetor x sua esperança estatística:

A esperança de uma determinada função, distribuição ou amostra é dada por

Em alguns casos, é comum dividir o vetor aleatório x centralizado pelo seu desvio padrão , branqueando os seus dados.

O desvio padrão é dado por x), e

Um dado branqueado é quando a sua matriz de covariância é igual à identidade.

- Dependência

Seja T um subconjunto de um espaço S, e são os elementos de T. Diz-se que T é linearmente dependente se existem escalares , não todos nulos, tais que

- Independência

A definição de uma base de vetores independentes é que não existe combinação possível entre quaisquer vetores que sejam iguais a um vetor dessa base. Estatisticamente, a independência é descrita quando a ocorrência de um evento não interfere na ocorrência de outro evento, e estes são chamados de independentes entre si. Algebricamente, para que dois eventos, X1 e Y1, sejam

não-correlacionados, basta que

Se dois eventos e são independentes então a densidade de probabilidade conjunta é igual o produto das densidades marginais

88

- Curtose

A curtose é uma medida de dispersão que se caracteriza por ser um cumulante de quarta ordem de uma variável aleatória (Ballanda, 1988). curtose é a tradução do inglês ‗Kurtosis‘, e por isso é denotada de kurt ( ). Seu modelo clássico tem relação com o quarto momento padronizado de uma distribuição ( (Joanes, 1998), entretanto, para os cálculos envolvidos na análise de componentes independentes, é comum utilizar-se da notação com esperança estatística, isto é,

onde é a esperança. Como é assumida como normalizada, sua variância é igual a um logo e a função da curtose pode ser simplificada para

Para variáveis gaussianas a curtose é zero, enquanto para a maioria das distribuições não- gaussianas ela é não nula (Joanes, 1998), sugerindo que pode servir como medida de não- gaussianidade de uma variável aleatória.

A curtose ainda atende a propriedades de linearidade, isto é, dadas e variáveis aleatórias independentes, são válidas as seguintes relações

onde é uma constante.

89

A negentropia, também conhecida como entropia negativa ou sintropia, é baseada no diferencial de entropia sobre uma quantidade de informação. Para uma definição mais quantitativa da negentropia é necessária, porém, uma definição mais precisa da entropia. A entropia é uma grandeza associada à imprevisibilidade de uma variável. Quanto mais imprevisível for o resultado de uma ação , maior será a entropia associada à . Matematicamente, a entropia de um vetor aleatório com densidade pode ser definida como

Uma variável gaussiana maximiza um conjunto de variáveis aleatórias de mesma variância (Gokhale, 1989), pois sua distribuição é a mais aleatória possível. A entropia tem valores menores para distribuições que se encontram concentradas em certos valores, portanto, pode ser usada como medida de não-gaussianidade, uma vez que nesse caso a entropia é máxima.

Uma maneira de se obter esse resultado é utilizar-se de alguma medida que tenha limite igual a zero quando uma distribuição tenha uma distribuição que se distancia da distribuição normal. A forma mais utilizada (Hyvärinen, 1998) é uma versão normalizada (diferencial de entropia), conhecida por negentropia e definida como

onde é uma variável aleatória gaussiana com mesma correlação e covariância de . Dessa forma, a negentropia , será sempre não-negativa, pois tem o maior

valor possível entre as variáveis randômicas de mesma variância de , isto é Por outro lado, a negentropia só será zero quando é uma distribuição correlata da distribuição normal, logo, é uma medida de não gaussianidade.

90

Se é um vetor tal que a matriz de covariância de é denotada por e é calculada através de

91

Apêndice B – Métrica

Métrica é um conceito que generaliza a idéia geométrica de distância. Um conjunto em que

há uma métrica definida recebe o nome de espaço métrico (Lima, 1993).

Se é um conjunto que admite uma métrica , então a função distância ,

associa dois elementos de um conjunto a um número real e deve obedecer aos seguintes axiomas: 1)Ser sempre positiva

2)Ser simétrica

3)Obedecer a desigualdade triangular

4)Ter resposta nula apenas para pontos coincidentes

O conceito empregado anteriormente para a definição de ponto mais próximo pode pairar sobre vários tipos de distância, tais como a distância euclidiana, distância de Manhattam, e a distância de Mahalanobis, descritos a seguir A distância usual entre dois pontos, que pode ser definida pela aplicação repetida do teorema de Pitágoras. É o conceito de distância mais comumente utilizado. Mais especificamente, se são pontos em algum espaço de dimenões, então a distância euclidiana entre estes pontos é definida como

A distância de Manhattan, considerada por Hermann Minkowski no século XIX, é uma forma de geometria em que a usual distância é substituída por uma nova métrica, onde esta é dada pela soma das diferenças absolutas das coordenadas de dois pontos (Black, 2006). Tal distância também é conhecida como Geometria do táxi, ou distância . Tal métrica faz alusão à distância percorrida por táxis nas ruas de Manhattan, que são dispostas em formato quadriculado.

Se são pontos em algum espaço de dimensões, então a distância de Manhattan entre estes pontos é definida como

92

A título de curiosidade, é interessante notar que uma circunferênciai·, na métrica de Manhattan, geometricamente é dada por um quadrado cujos lados compõem ângulos de com os eixos coordenados.

A distância de Mahalanobis é baseada nas correlações entre variáveis com as quais distintos padrões podem ser identificados e analisados (Maesschalck, 2000). Essa métrica foi introduzida na década de 1930 pelo matemático indiano Prasanta Chandra Mahalanobis. É uma estatística útil para determinar a similaridade entre uma amostra desconhecida e uma conhecida. Distingue-se da distância euclidiana já que leva em conta as correlações do conjunto de dados e é invariante à escala, ou seja, não depende da escala das medições.

Se é um ponto em algum espaço de dimensões, , a média de e a matriz de covariância de , então a distância de Mahalanobis desse ponto é definida como

Se são pontos de mesma distribuição em algum espaço de dimensões e é a matriz de covariância entre esses pontos, então a distância de Mahalanobis é definida como

Em particular, se a matriz de covariância é a matriz de identidade, a distância de Mahalanobis é reduzida a distância euclidiana. Se a matriz de covariância é diagonal, a distância de Mahalanobis é definida como uma distância euclidiana normalizada

onde é o desvio padrão entre .

i

Por definição, circunferência é o conjunto de pontos com distância fixa, chamada raio, até algum ponto chamado de centro

Documentos relacionados