• Nenhum resultado encontrado

Algoritmo 31 – Heurística HTf4Et6

6.2 Trabalhos Futuros

Como trabalhos futuros, as seguintes pesquisas podem ser realizadas:

• Implementar outras estimativas de número de condição que também forneçam boa precisão como as já utilizadas, mas que seu cálculo seja feito em menor tempo computacional, para que sua utilização em matrizes de grandes dimensões se torne mais viável, permitindo melhorar ainda mais a eficiência do algoritmo híbrido de precondicionamento.

• Explorar outras funções e parâmetros que permitam desenvolver e implementar novas formas de atualização automatizada do parâmetro η utilizado na Fatoração Controlada de Cholesky, e consequentemente, melhorar a robustez e eficiência do método preditor-corretor.

• Combinar e testar as melhores heurísticas propostas neste trabalho com as melhores propostas na literatura em relação à correção de falhas na diagonal e melhorias no precondicionador Separador.

Referências

ADLER, I.; KARMARKAR, N.; RESENDE, M. G. C.; VEIGA, G. Data Structures and Programming Techniques for the Implementation of Karmarkar’s Algorithm. ORSA Journal on Computing, v. 1, p. 84–106, 1989.

ADLER, I.; RESENDE, M. G. C.; VEIGA, G.; KARMARKAR, N. An Implementation of Karmarkar’s Algorithm for Linear Programming. Mathematical Programming, v. 44, p. 297–335, 1989.

BARTMEYER, P. M. Valores de Ritz aplicados à troca de fase do precondicionador para métodos de pontos interiores. Tese (Doutorado) — Dissertação de Mestrado, IMECC – UNICAMP, Agosto 2016. Http://acervus.unicamp.br/index.asp?codigo_sophia=975564. BENZI, M. Preconditioning techniques for large linear systems: A survey. Journal of Computational Physics, v. 182(2), p. 418–477, 2002.

BERGAMASCHI, L.; GONDZIO, J.; ZILLI, G. Preconditioning Indefinite Systems in Interior Point Methods for Optimization. Computational Optimization and Applications, v. 28, p. 149–171, 2004.

BOCANEGRA, S. Algoritmos de Newton-Krylov precondicionados para métodos de pontos interiores. Tese (Doutorado) — Instituto de Ciências Exatas- Universidade Federal de Minas Gerais, 2005. Http://hdl.handle.net/1843/RVMR-6JTN72.

BOCANEGRA, S. Algoritmos de Newton-Krylov Precondicionados para Métodos de Pontos Interiores. Tese (Doutorado) — DCC – UFMG, Belo Horizonte MG, 2005. BOCANEGRA, S.; CAMPOS, F. F.; OLIVEIRA, A. R. L. Using a Hybrid Preconditioner for Solving Large-Scale Linear Systems arising from Interior Point Methods. International Conference on Preconditioning Techniques for Large Sparse Matrix Problems in Scientific and Industrial Applications - SIAM, p. 2–4, 2005.

BRANDTS, J.; VORST, H. van der. The convergence of krylov methods and ritz values. In: . Conjugate Gradient Algorithms and Finite Element Methods. Berlin, Heidelberg: Springer Berlin Heidelberg, 2004. p. 47–68. ISBN 978-3-642-18560-1. Disponível em:

<https://doi.org/10.1007/978-3-642-18560-1_4>.

BUNCH, J. R.; PARLETT, B. N. Direct Methods for Solving Symmetric Indefinite Systems of Linear Equations. SIAM Journal Numerical Analysis, v. 8, p. 639–655, 1971. BURDEN, R. L.; FAIRES, J. D. Análise numérica /. 2. ed.,. ed. São Paulo :: Cengage Learning„ 2015. Tradução de: Numerical analysis, 8a edição norte-americana.

C. S.KENNEY, A. J. L.; REESE, M. S. Statistical condition estimation for linear systems. SIAM J. Sci. Statist. Comput., v. 19(2), p. 566–583, 1998.

CAMPOS, F. F. Analysis of Conjugate Gradients - type methods for solving linear equations. Tese (Doutorado) — Oxford University Computing Laboratory, Oxford, 1995.

CAMPOS, F. F.; BIRKETT, N. R. C. An efficient solver for multi-right hand side linear systems based on the CCCG(η) method with applications to implicit time-dependent partial differential equations. SIAM J. Sci. Comput., v. 19, n. 1, p. 126–138, 1998. CHENG, G. Note on some upper bounds for the condition number. Journal of Mathematical Inequalities, v. 2, p. 369–374, 2014.

CLINE, A. K.; MOLER, C. B.; STEWART, G. W.; WILKINSON, J. H. An estimate for the condition number of a matrix. SIAM Journal on Numerical Analysis, v. 16, n. 2, p. 368–375, 1979. Disponível em:<https://doi.org/10.1137/0716029>.

DOLAN, E. D.; MORÉ, J. J. Benchmarking optimization software with performance profiles. Mathematical Programming, v. 91, n. 2, p. 201–213, 2002.

DUFF, I. S.; MEURANT, G. A. The effect of ordering on preconditioned conjugate gradients. BIT, v. 29, n. 4, p. 635–657, 1989.

DURAZZI, C.; RUGGIERO, V. Indefinitely Preconditioned Conjugate Gradient Method for Large Sparse Equality and Inequality Constrained Quadratic Problems. Numerical Linear Algebra with Applications, v. 10, p. 673–688, 2003.

G. M. BAZARAA, J. J.; SHERALI, H. Linear Programming and Network Flows. Hoboken NJ: John Wiley & Sons, 2010.

G. PIAZZA, T. P. An upper bound for the condition number of a matrix in spectral norm. Journal of Computational and Applied Mathematics, v. 143, p. 141–144, 2002.

GÁCS, P.; LOVÁSZ, L. Khachiyan’s algorithm for linear programming. In: . Mathematical Programming at Oberwolfach. Berlin, Heidelberg: Springer Berlin Heidelberg, 1981. p. 61–68. ISBN 978-3-642-00806-1. Disponível em:

<https://doi.org/10.1007/BFb0120921>.

GEORGE, A.; LIU, J. W.-H. Computer solution of large sparse definite systems. Computational Mathematics, 1981.

GHIDINI, C. T. L. S.; OLIVEIRA, A. R. L.; SORENSEN, D. C. Computing a hybrid preconditioner approach to solve the linear systems arising from interior point methods for linear programming using the conjugate gradient method. Annals of Management Science, v. 3, n. 1, p. 43–64, maio 2014. ISSN 2161-5012.

GOLUB, G. H.; VAN LOAN, C. F. Matrix Computations 2nd Edition. Baltimore, Maryland: The Johns Hopkins University Press, 1989.

GOLUB, G. H.; Van Loan, C. F. Matrix Computations Third Edition. Baltimore, Maryland: The Johns Hopkins University Press, 1996.

GONDZIO, J. Implementing Cholesky factorization for interior point methods of linear programming. Optimization Methods and Software, v. 27, p. 121–149, 1993.

. Interior Point Methods 25 Years Later. European Journal of Operational Research, v. 218, p. 587–601, 2012.

GORARD, S. Revisiting a 90-year-old debate: the advantages of the mean deviation. British Journal of Educational Studies, Taylor & Francis, v. 53, n. 4, p. 417–430, 2005.

HAGER, W. W. Condition estimates. SIAM Journal on scientific and statistical computing, SIAM, v. 5, n. 2, p. 311–316, 1984.

JONES, M. T.; PLASSMANN, P. E. An improved incomplete Cholesky factorization. ACM Trans. Math. Software, v. 21, p. 5–17, 1995.

KARMARKAR, N. A New Polynomial-time Algorithm for Linear Programming. In: Proceedings of the Sixteenth Annual ACM Symposium on Theory of Computing. New York, NY, USA: ACM, 1984. (STOC ’84), p. 302–311. ISBN 0-89791-133-4. Disponível em:

<http://doi.acm.org/10.1145/800057.808695>.

. A New Polynomial-Time Algorithm for Linear Programming. Combinatorica, v. 4, n. 4, p. 373–395, 1984.

KELLEY, C. Iterative Methods for Linear and Nonlinear Equations. Society for Industrial and Applied Mathematics, 1995. (Frontiers in Applied Mathematics). ISBN 9780898713527. Disponível em: <https://books.google.com.br/books?id=7IdYz-jOsO0C>.

KENNEY, C. S.; LAUB, A. J. Small-sample statistical condition estimates for general matrix functions. SIAM J. Scientific Computing, v. 15, n. 1, p. 36–61, 1994. Disponível

em: <https://doi.org/10.1137/0915003>.

KOJIMA, M.; MIZUNO, S.; YOSHISE, A. A Primal-dual Interior-Point Method for Linear Programming. In: . Progress in Mathematical Programming, Interior-Point and Related Methods. New York: Springer Verlag, 1989. p. 29–47.

LIMA, P. Métodos Numéricos da Álgebra. [S.l.: s.n.], 2008. Disponivel em :

https://www.math.tecnico.ulisboa.pt/ jvideman/FolhasPL.pdf. Acesso em: 16 janeiro 2017.

LUENBERGER, D. G. Linear and Nonlinear Programming. New York: Addison-Wesley, 1973.

. Linear and Nonlinear Programming. Reading: Addison-Wesley, 1984.

LUSTIG, I. J.; MARSTEN, R. E.; SHANNO, D. F. Computational Experience with a Primal-Dual Interior-Point Method for Linear Programming. Linear Algebra Appl., v. 152, p. 191–222, 1991.

. On Implementing Mehrotra’s Predictor-Corrector Interior Point Method for Linear Programming. SIAM Journal on Optimization, v. 2, p. 435–449, 1992.

MEHROTRA, S. Implementations of Affine Scaling Methods: Approximate Solutions of Systems of Linear Equations Using Preconditioned Conjugate Gradient Methods. ORSA Journal on Computing, v. 4, p. 103–118, 1992.

. On the Implementation of a Primal-Dual Interior Point Method. SIAM Journal on Optimization, v. 2, n. 4, p. 575–601, 1992.

OLIVEIRA, A. R. L. A New Class of Preconditioners for Large-Scale Linear Systems from Interior Point Methods for Linear Programming. Houston TX, 1997.

ORELLANA, C. Estudo do número de condição para aprimorar o cál- culo da base do precondicionador separador no método de pontos interio- res . Tese (Doutorado) — Tese de Doutorado, IMECC – UNICAMP, 2017. Http://www.repositorio.unicamp.br/handle/REPOSIP/322428.

PAIGE, C. C.; SAUNDERS, M. A. Solution of Sparse Indefinite Systems of Linear Equations. SIAM Journal Numerical Analysis, v. 12, p. 617–629, 1975.

PULINO, P. Álgebra Linear e suas aplicações. [S.l.]: Pulinus, 2012. Disponivel em : http://www.ime.unicamp.br/ pulino. Acesso em: 9 janeiro 2017.

RESENDE, M. G. C.; VEIGA, G. An Efficient Implementation of a Network Interior Point Method. DIMACS Series in Discrete Mathematics and Theoretical Computer Science, v. 12, p. 299–348, 1993.

RODRIGUEZ, M. Novos parâmetros para aprimorar a eficiência do precon- dicionador fatoração controlada de Cholesky aplicado ao método de pontos interiores . Tese (Doutorado) — Tese de Doutorado, IMECC – UNICAMP, 2017. Http://www.repositorio.unicamp.br/handle/REPOSIP/322429.

RUGGIERO, M.; LOPES, V. da R. Cálculo numérico: aspectos teóricos e computacionais. [S.l.]: Makron Books do Brasil, 1996.

SAAD, Y.; VORST, H. A. van der. Iterative solution of linear systems in the 20th century. J. Comput. Appl. Math., v. 123, p. 1–33, 2000.

STRANG, G. Álgebra Linear e suas aplicações. [S.l.]: Cengage Learning, 2010. SUÑAGUA, P.; OLIVEIRA, A. R. L. A new approach for finding a basis for the splitting preconditioner for linear systems from interior point methods. Computational Optimization and Applications, p. 1–17, 2016. ISSN 1573-2894. Disponível em:

<http://dx.doi.org/10.1007/s10589-016-9887-0>.

TAPIA, R. A.; ZHANG, Y. Superlinear and Quadratic Convergence of Primal-Dual Interior Point Methods for Linear Programming Revisited. Journal of Optimization Theory and Applications, v. 73, p. 229–242, 1992.

TREFETHEN, L.; BAU, D. Numerical Linear Algebra. [S.l.]: Society for Industrial and Applied Mathematics, 1997.

VANDERBEI, R. J. Symmetric Quasi-definite Matrices. SIAM J. Optimization, v. 5, n. 1, p. 100–113, 1995.

. Linear Programming – Foundations and Extensions. Boston, USA: Kluwer Academics Publishers, 1996.

VELAZCO, M. I.; OLIVEIRA, A. R. L.; CAMPOS, F. F. A note on hybrid preconditions for large scale normal equations arising from interior-point methods. Optimization Methods and Software, v. 25, n. 2, p. 321–332, 2010.

. Heuristics for Implementation of a Hybrid Preconditioner for Interior-Point Methods. Pesquisa Operacional, v. 34, n. 9, p. 2553–2561, 2011.

WANG, W.; O’LEARY, D. P. Adaptive use of iterative methods in predictor-corrector interior point methods for linear programming. Numerical Algorithms, v. 25, n. 1–4, p. 387–406, 2000.

WILKINSON, J. H. (Ed.). The Algebraic Eigenvalue Problem. New York, NY, USA: Oxford University Press, Inc., 1988. ISBN 0-198-53418-3.

WRIGHT, S. J. Primal–Dual Interior–Point Methods. Philadelphia, PA, USA: SIAM Publications, SIAM, 1996.

APÊNDICE A – Decomposição em valores

singulares

Teorema A.1. Teorema(Decomposição em valores singulares:SVD) Seja A P Rmˆn, então existem matrizes ortogonais

U “ ru1, ..., ums P Rmˆm e V “ rv1, ..., vns P Rnˆn

tais que,

A “ U ΣVT

onde Σ “ diagpσ1, ..., σpq P Rmˆn, p “ minpm, nq e σ1, ..., σp ě 0. Os σi são chamados os

valores singulares não nulos de A. Além disso, a matriz A pode ser escrita da seguinte forma:

A “ σ1u1v1T ` σ2u2v2T, ..., σpupvTp.

APÊNDICE B – Medidas de dispersão

Em Estatística, dispersão (também chamada de variabilidade ou espalhamento) mostra o quão esticada ou exprimida uma distribuição (teórica ou que defina uma amostra) está. Exemplos comuns de medidas de dispersão estatística são a variância, o desvio padrão e a amplitude interquartil.

Uma medida de dispersão estatística é um número real não negativo que é zero se todos os dados são os mesmos.

O desvio padrão é uma medida importante de dispersão em torno da média populacional de uma variável aleatória. Um baixo desvio padrão indica que os pontos dos dados tendem a estar próximos da média ou do valor esperado. Um alto desvio padrão indica que os pontos dos dados estão por uma ampla gama de valores.

Há outras medidas de desvio como o desvio médio absoluto, que fornece propriedades propriedades matemáticas diferentes a partir do desvio padrão (GORARD,

2005). Além de expressar a variabilidade da população, o desvio padrão comumente é usado para medir a confiança em cálculos estatísticos e geralmente permite sintetizar os resultados de uma experiência repetida varias vezes.

Para um conjunto de números tx1, ..., xnu, com média x “

Σn i“1xi

n , o desvio padrão absoluto, está definido como

dma “ Σ

n

i“1|xi´ x|

Documentos relacionados