• Nenhum resultado encontrado

Para avaliar o desempenho do Filtro proposto para o caso de modelos não-lineares, adota-se o modelo cinemático simplificado de um robô móvel ilustrado na Figura 15. Este

Capítulo 4. Experimentos Numéricos 64

modelo é baseado em Corke (2011, p. 101) e é dado por

˜ 𝑥𝑘+1 = ⎡ ⎢ ⎢ ⎢ ⎣ 𝑥𝑘+1 𝑦𝑘+1 𝜃𝑘+1 ⎤ ⎥ ⎥ ⎥ ⎦ = ⎡ ⎢ ⎢ ⎢ ⎣ 𝑥𝑘+ 𝑣𝑘cos(𝜃𝑘)Δ𝑡 𝑦𝑘+ 𝑣𝑘sin(𝜃𝑘)Δ𝑡 𝜃𝑘+ 𝛼𝑘Δ𝑡 ⎤ ⎥ ⎥ ⎥ ⎦ ⏟ ⏞ 𝑓 (˜𝑥𝑘) +0.01𝑤𝑘

no qual Δ𝑡 é o tempo de amostragem, 𝑤𝑘 é o ruído Gaussiano de processo, 𝑣𝑘 e 𝛼𝑘 são

velocidades linear e angular, respectivamente. Para esse exemplo, considera-se o tempo de amostragem Δ𝑡 = 0, 1s e um horizonte de 500 amostras (𝑁 = 500). Em relação às velocidades, adota-se 𝑣𝑘, 𝛼𝑘 da forma 𝑣𝑘 = 1 m/s ∀ 𝑘 ∈ [0, 500], 𝛼𝑘 = ⎧ ⎨ ⎩ −0, 2 rad/s se 𝑘 < 250 +0, 2 rad/s se 𝑘 ≥ 250.

Figura 15 – Ilustração do modelo cinemático.

Admitindo que existe um medidor de distância conforme indicado na Figura15, define- se equação de medição por

˜ 𝑦𝑘 = ⎡ ⎣ 𝑟𝑘 𝜑𝑘 ⎤ ⎦= ⎡ ⎣ √︁ 𝑥2 𝑘+ 𝑦𝑘2 tan−1(︁𝑦𝑘 𝑥𝑘 )︁ ⎤ ⎦ ⏟ ⏞ ℎ(˜𝑥𝑘) +0, 1𝜀𝑘,

em que 𝜀𝑘 é o ruído Gaussiano de medição. As matrizes Jacobianas desse sistema são dadas

por 𝐴𝑘 = ⎡ ⎢ ⎢ ⎢ ⎣ 1 0 −𝑣𝑘sin(𝜃𝑘)Δ𝑡 0 1 𝑣𝑘cos(𝜃𝑘)Δ𝑡 0 0 1 ⎤ ⎥ ⎥ ⎥ ⎦ 𝜃𝑘=^𝜃𝑘|𝑘 , 𝐻𝑘 = ⎡ ⎢ ⎣ 𝑥𝑘𝑥2 𝑘+𝑦𝑘2 𝑦𝑘𝑥2 𝑘+𝑦2𝑘 0 −𝑦𝑘 𝑥2 𝑘+𝑦 2 𝑘 𝑥𝑘 𝑥2 𝑘+𝑦 2 𝑘 0 ⎤ ⎥ ⎦ 𝑥𝑘=^𝑥𝑘|𝑘−1,𝑦𝑘=^𝑦𝑘|𝑘−1 .

Capítulo 4. Experimentos Numéricos 65

São realizadas 500 simulações Monte-Carlo com 500 amostras cada. A inicialização é dada por 𝑥0 = [50 50 0]|, ^𝑥0|0 = [45 45 0], 𝑚0 = [0 0 0]|, 𝑃0|0 = 𝐼, 𝑄 = 0, 0001𝐼 e 𝑅 = 0, 01𝐼 para todas as realizações.

Por simplicidade, para o modelo dinâmico, assume-se 𝜎𝑥 = ¯𝜎𝑥 = 0 e 𝜎𝑦 = ¯𝜎𝑦 = 0. Por

outro lado, na etapa de atualização, após a experimentação com diferentes combinações de parâmetros, verificou-se que um desempenho satisfatório é obtido com a escolha

𝜎𝑣 = ¯𝜎𝑣 = ⎡ ⎣ 0, 1 0, 01 0, 1 0 0 0 ⎤ ⎦.

O desempenho em termos de MSE tanto para o FKE e Filtro EVIU Não-linear são apre- sentados na Figura 16. Dos resultados obtidos na Figura 16, observa-se que, em termos de MSE, o Filtro EVIU apresenta desempenho expressivamente melhor do que o FKE, ou seja, em média, a trajetória estimada pelo Filtro EVIU é mais próxima da real.

Figura 16 – Curvas do MSE relativas ao FKE e ao Filtro EVIU. As sombras indicam o intervalo de confiança de 95%.

Além do mais, analisando as trajetória estimadas por ambos os filtros para uma reali- zação do sistema, observa-se que, mesmo em situações no qual o FKE apresenta instabilidade, o Filtro EVIU é capaz de gerar estimativas mais precisas, conforme indica a Figura 17. Note que, no início da trajetória, o FKE (azul) apresenta considerável instabilidade, no entanto, o Filtro EVIU (vermelho) na mesma realização apresentou estimativas próximas da trajetória real.

Capítulo 4. Experimentos Numéricos 66 35 40 45 50 55 40 42 44 46 48 50 52 Real FKE EVIU Trajetória Real

Filtro de Kalman Estendido Filtro EVIU Não-linear

Figura 17 – Trajetórias estimadas pelo FKE e Filtro EVIU para uma realização do sistema com ^𝑥0|0 = [45 45 0]|. A tracejada em preto indica a trajetória real.

É importante apontar que a matriz 𝐴𝑘 associada ao modelo linearizado do sistema

adotado não é assintoticamente estável. Porém, isso não é um limitador para a adoção da estratégia de filtragem proposta, uma vez que a condição de estabilidade assintótica da di- nâmica do sistema a ser filtrado não é requerida.

67

5 Conclusões

Esse trabalho apresenta uma nova abordagem para o problema de estimação de sis- temas cuja dinâmica é pouco conhecida, na qual os erros de modelagem são tratados como ruídos dependentes do valor absoluto da variação da estimativa. Dessa forma, uma estratégia inédita para estimação robusta é desenvolvida, no qual conjectura-se que a própria Variação da Estimativa pode Atuar como Fonte de Incerteza.

Tal abordagem é formulada por meio de um Problema Mínimos Quadrados Regu- larizado Modificado, na qual a solução ótima é obtida empregando ferramentas de Análise Não-suave, como o subdiferencial, devido à presença da função módulo que é não-diferenciável na origem. Uma característica da solução ótima é o surgimento de uma região no espaço de resíduos (ou inovação) na qual a não-variação da estimativa é ótima. Dessa forma, a meto- dologia aqui proposta se caracteriza como uma estratégia de estimação cautelosa, no sentido de que, diante de imprecisões de modelagem, pode ser mais adequado manter a estimativa atual inalterada para condições em que o resíduo é suficientemente pequeno. Essa região em que a não-variação da estimativa é ótimo é chamada de Região de Inação.

Tal comportamento cauteloso já vem sendo explorado no contexto de Controle Es- tocástico, chamado de Controle CVIU, portanto, o método aqui apresentado pode ser in- terpretado como uma versão “dual” do Controle CVIU. Outra característica importante é a geometria convexa do problema de otimização, possibilitando o tratamento da não- diferenciabilidade da função custo adotada. Assim, por meio da análise do comportamento do subgradiente, é possível determinar as regiões em que a solução ótima possui sinal positivo, negativo ou nulo.

Baseado nessa nova estratégia de estimação, desenvolve-se um algoritmo de Filtragem Tipo-Kalman que incorpora a noção de que a Variação da Estimativa pode Aumentar a Incerteza para tratar sistemas lineares subdeterminados ou não-lineares operando próximos a um ponto de equilíbrio. Juntamente, deriva-se uma variação do Filtro de Kalman Estendido seguindo a mesma filosofia. Para ambos os casos, é possível obter um conjunto de equações para média e covariância que podem ser implementadas para aplicações em tempo real. Verifica-se também que o algoritmo de filtragem disponibilizado coincide com o Filtro de Kalman Tradicional quando os erros de modelagem são desconsiderados.

É importante ressaltar que a estratégia apresentada adota um ponto de vista esto- cástico para as incertezas de modelagem por meio da incorporação de ruídos dependentes do valor absoluto da variação da estimativa. Além do mais, o método proposto é baseado

Capítulo 5. Conclusões 68

na otimização de um custo esperado, ao invés do custo de pior caso. Assim, esse trabalho se torna uma alternativa aos métodos existentes na literatura de Filtragem Robusta.

Por fim, por meio de um conjunto de experimentos numéricos, constatou-se que a me- todologia proposta é aplicável e pode fornecer resultados melhores que estratégias existentes na literatura. Em um primeiro momento, foi realizado um estudo comparativo de desempe- nho entre o filtro proposto e um filtro robusto existente na literatura, chamado de Filtro BDU, para um sistema linear com incertezas limitadas. Verificou-se que com uma sintonia adequada dos parâmetros do filtro EVIU é possível obter um desempenho, em termos do MSE, superior ao filtro robusto comparado.

Avaliou-se também o desempenho do Filtro EVIU não-linear por meio de um exemplo envolvendo robótica móvel. Utilizando o MSE como critério de desempenho, verificou-se que é possível obter resultados superiores ao FKE convencional. Dessa forma, a estratégia de filtragem aqui proposta se apresenta como uma alternativa viável para aplicações em que o modelo preciso da dinâmica do sistema não esteja disponível.

Apesar dos resultados alcançados, ainda existem desafios a serem vencidos. Um tópico futuro de pesquisa é a análise de convergência do estimador proposto, assim como condições de estabilidade quando aplicado ao problema de filtragem e também formas eficientes de determinar o sinal da solução. Também é importante estabelecer uma metodologia adequada para sintonia dos parâmetros de modelo, tais como 𝜎𝑥, ¯𝜎𝑥, 𝜎𝑦, ¯𝜎𝑦, 𝜎𝑣 e ¯𝜎𝑣.

Este trabalho pode ainda ser aplicado em contextos diversos, além do problema de Filtragem de Kalman. Alguns exemplos de possíveis extensões dessa metodologia são: algo- ritmos de reconstrução de sinais, identificação de sistemas, treinamento de redes neurais e estimação via rede.

Além do mais, por se tratar de uma abordagem com características “duais” ao Con- trole CVIU, uma outra frente de pesquisa futura é a formulação do problema de controle ótimo em termos de Mínimos Quadrados Regularizados e, assim, investigar a aplicabilidade da solução aqui desenvolvida também para o projeto de controladores cautelosos.

69

Referências

ABOLHASANI, M.; RAHMANI, M. Robust Deterministic Least-Squares Filtering for Uncertain time-varying Nonlinear Systems with Unknown Inputs. System & Control Letters, Elsevier, v. 122, 2018. Citado na página 15.

ANDERSON, B.; MOORE, J. B. Optimal Filtering. Englewood Cliffs, v. 21, p. 22–95, 1979. Citado 4 vezes nas páginas 18, 24, 29e 54.

BAR-SHALOM, Y.; LI, X. R.; KIRUBARAJAN, T. Estimation with Applications to

Tracking and Navigation: Theory Algorithms and Software. [S.l.]: John Wiley & Sons, 2004.

Citado 2 vezes nas páginas 14 e24.

BOYD, S.; VANDENBERGHE, L. Convex Optimization. [S.l.: s.n.], 2010. v. 25. Citado na página 38.

BRYSON, A. E. Applied Optimal Control: Optimization, Estimation and Control. [S.l.]: CRC Press, 1975. Citado 2 vezes nas páginas 25e 28.

CLARKE, F. H.; LEDYAEV, Y. S.; STERN, R. J.; WOLENSKI, P. R. Nonsmooth Analysis

and Control Theory. [S.l.]: Springer Science & Business Media, 2008. v. 178. Citado 2 vezes

nas páginas 36 e39.

CORKE, P. Robotics, Vision and Control Fundamental Algorithms in Matlab. [S.l.: s.n.], 2011. Citado na página 64.

D’APPOLITO, J.; HUTCHINSON, C. Low Sensitivity Filters for State Estimation in the Presence of Large Parameter Uncertainties. IEEE Transactions on Automatic Control, IEEE, n. 3, p. 310–312, Jun 1969. Citado na página 15.

do Val, J. B. R.; SOUTO, R. F. Modeling and Control of Stochastic Systems With Poorly Known Dynamics. IEEE Transactions on Automatic Control, IEEE, v. 62, n. 9, p. 4467–4482, Sept 2017. Citado 4 vezes nas páginas 15, 19,36 e45.

FU, M.; SOUZA, C. E. de; XIE, L. ℋ∞ estimation for uncertain systems. International

Journal of Robust and Nonlinear Control, v. 2, n. 2, p. 87–105, 1992. Citado na página 15.

GEROMEL, J. Optimal Linear Filtering under parameter Uncertainty. IEEE Transactions

on Signal Processing, v. 47, n. 1, p. 168–175, 1999. Citado na página 15.

GIBBS, B. P. Advanced Kalman Filtering, Least-Squares and Modeling. [S.l.]: John Wiley & Sons, Inc, 2011. ISBN 978-0-470-89004-2. Citado 5 vezes nas páginas 14, 16, 18,30 e31.

GREWAL, M. S.; ANDREWS, A. P. Applications of Kalman Filtering in Aerospace 1960 to the Present [Historical Perspectives]. IEEE Control Systems Magazine, v. 30, n. 3, p. 69–78, June 2010. ISSN 1066-033X. Citado 2 vezes nas páginas 14 e18.

Referências 70

HAYKIN, S. Adaptive Filter Theory. 5. ed. [S.l.]: Pearson, 2014. v. 1. Citado 4 vezes nas páginas 14, 16, 17e 18.

HORN, R. A.; JOHNSON, C. R. Matrix Analysis. Second. [S.l.]: Cambridge University Press, 2013. ISSN 00401706. ISBN 9780521548236. Citado na página 37.

ISHIHARA, J. Y.; TERRA, M. H.; CERRI, J. P. Optimal Robust Filtering for systems subject to uncertainties. Automatica, Elsevier, v. 52, p. 111–117, 2015. Citado na página15.

JULIUS, A. A.; HALASZ, A.; SAKAR, M. S.; RUBIN, H.; KUMAR, V.; PAPPAS, G. J. Stochastic Modeling and Control of Biological Systems: The Lactose Regulation System of Escherichia Coli. IEEE Transactions on Automatic Control, v. 53, n. Special Issue, p. 51–65, Jan 2008. Citado 2 vezes nas páginas 14 e 15.

KAILATH, T.; SAYED, A. H.; HASSIBI, B. Linear Estimation. [S.l.]: Prentice Hall, 2000. Citado 4 vezes nas páginas 18, 25, 26e 28.

KALMAN, R. E. A New Approach to Linear Filtering and Prediction Problems. Journal of

Basic Engineering, v. 82, n. 1, p. 35, 1960. Citado 2 vezes nas páginas 14e 17.

KALMAN, R. E.; BUCY, R. S. New results in Linear Filtering and Prediction Theory.

Journal of basic engineering, American Society of Mechanical Engineers, v. 83, n. 1, p.

95–108, 1961. Citado na página 17.

KARVONEN, T. Stability of linear and non-linear Kalman filters. 99 p. Dissertação (Mestrado) — University of Helsinki, 2014. Citado na página 28.

KITANO, H. System Biology: A Brief Overview. Science, v. 295, mar 2002. Citado na página 15.

LACERDA, M. J.; OLIVEIRA, R. C. L. F.; PERES, P. L. D. Robust ℋ2 and ℋ∞ Filter Design for Uncertain Linear Systems via LMIs and Polynomial Matrices. Signal Processing, v. 91, n. 5, p. 1115–1122, 2011. Citado na página 15.

LI, H.; FU, M. A Linear Matrix Inequality Approach to Robust ℋ∞ Filtering. IEEE

Transactions on Signal Processing, v. 45, n. 9, p. 2338–2350, 1997. Citado na página 15.

MCGEE, L. A.; SCHMIDT, S. F. Discovery of the Kalman Filter as a Practical Tool for Aerospace and Industry. NASA Technical Memorandum 86847, 1985. Citado na página 18.

MEYER, C. D. Matrix Analysis and Applied Linear Algebra. [S.l.]: SIAM, 2000. Citado na página 28.

NEREU, J. C. Métodos de aproximação do controle ótimo para sistemas CVIU a tempo

discreto. Dissertação (Mestrado) — Faculdade de Engenharia Elétrica e de Computação -

UNICAMP, 2018. Citado na página 16.

PEDROSA, F. C.; NEREU, J. C.; do Val, J. B. R. Stochastic optimal control of systems for which control variation increases uncertainty: A contribution to the discrete time case. In: 2017 IEEE International Conference on Systems, Man, and Cybernetics (SMC). [S.l.]: IEEE, 2017. p. 2279–2284. Citado na página 15.

Referências 71

PETERSEN, I. R.; SAVKIN, A. V. Robust Kalman Filtering for Signals and Systems

with Large Uncertainties. [S.l.]: Springer Science Business Media, LLC, 1999. ISBN

978-1-4612-7209-0. Citado 2 vezes nas páginas 17 e 18.

RISTIC, B.; ARULAMPALAM, S.; GORDON, N. Beyond the Kalman Filter: Particle

Filters for Tracking Applications. [S.l.]: Artech house, 2003. Citado 2 vezes nas páginas 14

e 29.

ROCKAFELLAR, R. T. Convex Analysis. [S.l.]: Princeton University Press, 1970. Citado 3 vezes nas páginas 36, 39 e76.

SÄRKKÄ, S. Bayesian Filtering and Smoothing. [S.l.]: Cambridge University Press, 2013. v. 3. Citado na página 27.

SAYED, A. H. A Framework for State-Space Estimation with Uncertain Models. IEEE

Transactions on Automatic Control, IEEE, v. 46, p. 998–1013, 2001. Citado 3 vezes nas

páginas 15, 55 e56.

SAYED, A. H.; NASCIMENTO, V. H.; CIPPARRONE, F. A. A Regularized Robust Design Criterion for Uncertain Data. Journal on Matrix Analysis and Applications, SIAM, v. 23, n. 4, p. 1120–1142, 2002. Citado na página 35.

SHAKED, U.; SOUZA, C. E. de. Robust Minimum Variance Filtering. IEEE Transactions

on Signal Processing, v. 43, n. 11, p. 2474–2483, 1995. Citado na página 15.

SHAKED, U.; XIE, L.; SOH, Y. C. New approaches to Robust Minimum Variance Filter Design. IEEE Transactions on Signal Processing, v. 49, n. 11, p. 2620–2629, 2001. Citado na página 15.

SILVA, V. L.; do Val, J. B. R.; SOUTO, R. F. A Stochastic Approach for Robustness: A ℋ2-norm comparison. In: 2017 IEEE 56th Annual Conference on Decision and Control

(CDC). [S.l.]: IEEE, 2017. p. 1094–1099. Citado na página 34.

SUN, K.; PACKARD, A. Robust ℋ2 and ℋ∞ filters for uncertain LFT systems. IEEE

Transactions on Automatic Control, IEEE, v. 50, p. 715–720, 2005. Citado na página 15.

THEODOR, Y.; SHAKED, U. Robust Discrete-Time Minimum-Variance Filtering. IEEE

TRANSACTIONS ON SIGNAL PROCESSING, v. 44, n. 2, p. 181–189, 1996. Citado na

página 15.

TSAGRIS, M.; BENEKI, C.; HASSANI, H. On the Folded Normal Distribution.

Mathematics, v. 2, p. 12–28, 2014. Citado 3 vezes nas páginas 46, 52e 75.

WELLS, C. The Kalman Filter in Finance. [S.l.]: Springer Science & Business Media, 1996. Citado 2 vezes nas páginas 14 e15.

ZAMES, G. The Legacy of George Zames. IEEE Transactions on Automatic Control, v. 43, n. 5, p. 591, 1998. Citado na página 18.

ZANETTI, R.; BISHOP., R. H. Kalman Filters with uncompensated biases. Journal of Guidance, Control, and Dynamics, v. 35, p. 327–335, 2012. Citado na página 49.

72

APÊNDICE A – Noções de Probabilidade

Considere um experimento em que os resultados são sempre aleatórios. O conjunto de todos os possíveis resultados é chamado de espaço amostral e é denotado por Ω. Qualquer subconjunto 𝐴 ⊆ Ω é um evento do experimento. Uma medida de probabilidade 𝒫(·) é um mapeamento dos eventos no R satisfazendo os seguintes axiomas

(i) 𝒫(𝐴) ≥ 0,

(ii) 𝒫(Ω) = 1,

(iii) 𝒫(∪∞𝑖=1𝐴𝑖) =∑︀∞𝑖=1𝒫(𝐴𝑖) se 𝐴𝑡∩ 𝐴𝑗 = ∅ para todo 𝑡, 𝑗.

Definição A.0.1 (Probabilidade Conjunta). Suponha dois eventos 𝐴, 𝐵 ⊆ Ω. A probabili-

dade conjunta de 𝐴 e 𝐵 indica a probabilidade dos dois eventos ocorrerem simultaneamente e é denotada por

𝒫(𝐴, 𝐵) = 𝒫(𝐴 ∩ 𝐵).

Definição A.0.2 (Probabilidade Condicional). Para dois eventos 𝐴, 𝐵 ⊆ Ω, a probabilidade

condicional de 𝐴 dado 𝐵 indica a probabilidade de ocorrer 𝐴 visto que ocorreu 𝐵. Denota-se por

𝒫(𝐴|𝐵) = 𝒫(𝐴 ∩ 𝐵)

𝒫(𝐵) , assumindo 𝒫(𝐵) ̸= 0.

Definição A.0.3 (Regra de Bayes). Para dois eventos 𝐴, 𝐵 ⊆ Ω. A probabilidade condicional

de 𝐴 dado 𝐵 pode ser obtida por

𝒫(𝐴|𝐵) = 𝒫(𝐵|𝐴)𝒫(𝐴) 𝒫(𝐵) .

Definição A.0.4 (Independência). Os eventos 𝐴1, 𝐴2, . . . , 𝐴𝑚 são ditos mutuamente inde-

pendentes se 𝒫(∩𝑚 𝑖=1𝐴𝑖) = 𝑚 ∏︁ 𝑖=1 𝒫(𝐴𝑖).

Definição A.0.5 (Variável Aleatória). Uma variável aleatória (v.a.) é o valor numérico re-

sultante de algum experimento que não pode ser previsto antecipadamente de forma exata. Mais precisamente, uma v.a. é uma função que mapeia todos os resultados 𝜔 de um expe- rimento no R. O valor numérico de uma v.a. quando ocorre o resultado 𝜔 é denotado por

APÊNDICE A. Noções de Probabilidade 73

(i) 𝒫(𝑋 = +∞) = 𝒫(𝑋 = −∞) = 0.

(ii) Para todo 𝑎 ∈ R, o conjunto {𝜔 : 𝑋(𝜔) ≤ 𝑎} é um evento de forma que 𝒫({𝜔 : 𝑋(𝜔) ≤ 𝑎}) = 𝒫(𝑋 ≤ 𝑎)

é definida.

Definição A.0.6 (Função de Distribuição). Dado uma v.a. 𝑋, a função de distribuição 𝐹𝑋

é o mapeamento do R no intervalo [0, 1] denotado por

𝐹𝑋(𝑥) = 𝒫(𝑋 ≤ 𝑥).

No caso de duas ou mais v.a. 𝑋1, 𝑋2, . . . , 𝑋𝑛, define-se a função de distribuição conjunta

𝐹𝑋1,𝑋2,...,𝑋𝑛 por

𝐹𝑋1,𝑋2,...,𝑋𝑛(𝑥1, 𝑥2, . . . , 𝑥𝑛) = 𝒫(𝑋1 ≤ 𝑥1) ∩ 𝒫(𝑋2 ≤ 𝑥2) ∩ · · · ∩ 𝒫(𝑋𝑛≤ 𝑥𝑛).

Definição A.0.7 (Função de Densidade). Assumindo 𝐹𝑋(𝑥) diferenciável, então a função

de densidade 𝑝𝑋 associada à v.a. 𝑋 é definida por

𝑝𝑋(𝑥) =

𝑑

𝑑𝑥𝐹𝑋(𝑥).

Da mesma forma, define-se a função de densidade conjunta de 𝑋1, 𝑋2, . . . , 𝑋𝑛 por

𝑝𝑋1,𝑋2,...,𝑋𝑛(𝑥1, 𝑥2, . . . , 𝑥𝑛) =

𝜕(𝑛)

𝜕𝑥1𝜕𝑥2. . . 𝜕𝑥𝑛

𝐹𝑋1,𝑋2,...,𝑋𝑛(𝑥1, 𝑥2, . . . , 𝑥𝑛).

Definição A.0.8 (Função de Densidade Condicional). Para as v.a. 𝑋 e 𝑌 , define-se a função

de densidade condicional por

𝑝𝑋|𝑌(𝑥|𝑦) = 𝑝𝑋,𝑌(𝑥, 𝑦) 𝑝𝑌(𝑦) = 𝑝𝑌 |𝑋(𝑦|𝑥)𝑝𝑋(𝑥) 𝑝𝑌(𝑦) .

Definição A.0.9 (Variáveis Aleatórias Independentes). Duas variáveis aleatórias 𝑋 e 𝑌 são

ditas independentes se

(i) 𝐹𝑋,𝑌 = 𝐹𝑋(𝑥)𝐹𝑌(𝑦).

(ii) 𝑝𝑋,𝑌(𝑥, 𝑦) = 𝑝𝑋(𝑥)𝑝𝑌(𝑦).

(iii) 𝑝𝑋|𝑌(𝑥|𝑦) = 𝑝𝑋(𝑥).

APÊNDICE A. Noções de Probabilidade 74

Definição A.0.10 (Independente e Identicamente Distribuído). Um conjunto de variáveis

aleatórias 𝑋1, 𝑋2, . . . , 𝑋𝑛são ditas independentes e identicamente distribuídas (i.i.d) se a pro-

babilidade conjunta for igual ao produto das distribuições marginais e ainda se as marginais forem todas iguais

𝑝(𝑋1, 𝑋2, . . . , 𝑋𝑛) = 𝑛 ∏︁

𝑖=1

75

APÊNDICE B – Folded Distribution

Considere a variável aleatória 𝑥 ∼ 𝒩 (𝜇, 𝜎2). Definindo a variável aleatória 𝑦 = |𝑥|, tem-se 𝑝(𝑦) = ⎧ ⎪ ⎨ ⎪ ⎩ 1 √ 2𝜋𝜎2 [︂ 𝑒(𝑦−𝜇)22𝜎2 + 𝑒(𝑦+𝜇)2 2𝜎2 ]︂ , se 𝑦 ≥ 0 0, caso contrário, , (B.1)

em que é cunhado o termo Folded Distribution (TSAGRIS et al., 2014). A Figura 18 ilustra esta distribuição de probabilidade.

-3 -2 -1 0 1 2 3 y 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Folded Distribution Normal Folded

Figura 18 – Comparação entre Folded Distribution e Distribuição Normal com 𝜇 = 0, 𝜎2 = 1.

Para essa distribuição de probabilidade, a esperança matemática é dada por

E{𝑦} = E{|𝑥|} = √︃ 𝜎22 𝜋exp (︃ − 𝜇 2 2𝜎2 )︃ + 𝜇 [︂ 1 − 2 Ξ (︂ −𝜇 𝜎 )︂]︂ , (B.2) em que Ξ(𝑎) = ∫︀𝑎

−∞𝒩 (0, 1) é a Distribuição Acumulada da distribuição Normal Padrão. É interessante notar que se E{𝑥} = 0, então E{|𝑥|} =√︁𝜎2 2

76

APÊNDICE C – Análise de Funções

Não-suaves

Definição C.0.1 (Subgradiente (ROCKAFELLAR, 1970)). Considere uma função convexa

𝑓 : R𝑛→ R, e ¯𝑥 ∈ 𝑑𝑜𝑚(𝑓 ) no qual 𝑓 (¯𝑥) assume valor finito. Um elemento 𝑥* ∈ R𝑛 é dito ser um subgradiente de 𝑓 em ¯𝑥 se

⟨𝑥*, 𝑥 − ¯𝑥⟩ ≤ 𝑓 (𝑥) − 𝑓 (¯𝑥),

∀𝑥 ∈ R𝑛.

Esta inequação é chamada de Inequação do subgradiente.

Definição C.0.2 (Subdiferencial (ROCKAFELLAR,1970)). Considere uma função convexa

𝑓 : R𝑛 → R, e ¯𝑥 ∈ 𝑑𝑜𝑚(𝑓 ) no qual 𝑓 (¯𝑥) assume valor finito. A coleção de subgradientes 𝑥* ∈ R𝑛 de 𝑓 em ¯𝑥 é dito ser o subdiferencial de 𝑓 e é denotado por 𝜕𝑓 (¯𝑥).

Corolário C.1 (Condição de Mínimo (ROCKAFELLAR, 1970)). Considere uma função

𝑓 : R𝑛→ R da forma

𝑓 = 𝜆1𝑓1 + 𝜆2𝑓2+ . . . + 𝜆𝑚𝑓𝑚,

em que 𝑓1, 𝑓2, . . . , 𝑓𝑚 são funções convexas e 𝜆1, 𝜆2, . . . , 𝜆𝑚 são constantes não negativas. A

condição necessária e suficiente para que o elemento ¯𝑥 ∈ R𝑛 alcance o mínimo em 𝑓 é

0 ∈ [𝜆1𝜕𝑓1(¯𝑥) + 𝜆2𝜕𝑓2(¯𝑥) + . . . + 𝜆𝑚𝜕𝑓𝑚𝑥)].

Em resumo, o subgradiente indica um hiperplano suporte no qual pode ser represen- tado pela função afim 𝑚(𝑥) = 𝑓 (¯𝑥) + ⟨𝑥*, 𝑥 − ¯𝑥⟩. Como ilustração, considere a função módulo 𝑓 : R → R definido por 𝑓 (𝑥) = |𝑥|. Nesse caso, tomando ¯𝑥 = 0, a Inequação do Subgradiente

resulta em

𝑥*(𝑥 − 0) ≤ |𝑥| − |0|, ∀𝑥 ∈ R. (C.1) O conjunto de todos os 𝑥* ∈ R que satisfazem a desigualdade (C.1) forma o subdiferencial de 𝑓 (0). Note que escolhendo 𝑥 = 1 e 𝑥 = −1 em (C.1), tem-se

𝑥* ≤ 1, 𝑥* ≥ −1. (C.2)

Portanto, conclui-se que −1 ≤ 𝑥* ≤ 1, ou seja, o subdiferencial 𝜕𝑓 (0) = [−1, 1]. Por outro lado, escolhendo ¯𝑥 = 1, tem-se

APÊNDICE C. Análise de Funções Não-suaves 77

De forma similar ao caso anterior, tomando os pontos 𝑥 = 0 e 𝑥 = 2, resulta em

𝑥* ≤ 1, 𝑥* ≥ 1.

Logo, 𝑥* = 1. Assim, o subdiferencial 𝜕𝑓 (1) = 1. Da mesma forma, tomando ¯𝑥 = −1, resulta

em 𝜕𝑓 (−1) = −1. Portanto, pode-se concluir que o subdiferencial da função módulo é dado por 𝜕|𝑥| = ⎧ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎩ +1, se 𝑥 > 0 −1, se 𝑥 < 0 [−1, +1], se 𝑥 = 0. (C.3)

Documentos relacionados