• Nenhum resultado encontrado

DICIONÁRIO DE ÁLGEBRA LINEAR

N/A
N/A
Protected

Academic year: 2021

Share "DICIONÁRIO DE ÁLGEBRA LINEAR"

Copied!
8
0
0

Texto

(1)

1

GLOSSÁRIO: UM DICIONÁRIO PARA

ÁLGEBRA LINEAR

Matriz de adjacência de um grafo. Matriz quadrada com aij = 1 quando existe uma arestado nodo

i para o nodo j; caso contrário aij = 0. A = AT para um grafo não direcionado.

Transformação Afim T(v) = Av + vo = transformação linear mais desvio.

Lei Associativa (AB)C = A(BC). Os parênteses podem ser removidos para ler ABC.

Matriz aumentada [ A b ]. Ax = b é passível de solução quando b está no espaço de coluna de A; então [ A b ] tem o mesmo posto de A. A eliminação em [ A b ] mantém as equações corretas. Retrosubstituição. Sistemas triangulares superiores são resolvidos em ordem reversa de xn até x1.

Base para V. Vetores independentes v1, ..., vd cujas combinações lineares geram qualquer v em V.

Um espaço de vetor tem muitas bases!

Grande fórmula para determinantes n por n. Det(A) é a soma de n! termos, um termo para cada permutação P das colunas. Cada termo é o produto abaixo da diagonal da matriz reordenada vezes det(P) = ± 1.

Matriz de bloco. Uma matriz de blocos pode ser dividida em blocos matriciais por cortes entre as linhas e/ou entre as colunas. A multiplicação de bloco de AB é permitida se as formas dos blocos assim o permitirem (as colunas de A e as linhas de B devem constituir blocos coincidentes).

Teorema de Cayley-Hamilton. matriz zero.

Matriz M de Mudança de base. Os antigos vetores de base vj são combinações dos

novos vetores de base. As coordenadas de estão

relacionadas por d = M c. (Para ).

Equação Característica . As n raízes são os autovalores de A.

Fatoração de Cholesky para A positivo definida.

Matriz circulante C. Diagonais constantes se envolvem como em um desvio S cíclico. Cada circulante é . Cx = convolução c ∗ x. Autovetores em F.

Co-fator Cij. Remover a linha i e a coluna j; multiplicar o determinante por .

Foto coluna de Ax = b. O vetor b se torna uma combinação das colunas de A. O sistema é passível de resolução somente quando b estiver no espaço coluna C(A).

Espaço coluna C (A) = espaço de todas as combinações das colunas de A.

Matrizes que comutam AB = BA. Se diagonalizáveis, elas compartilham n autovetores.

Matriz companheira. Coloque c1, ..., cn na linha n e coloque n – 1 1´s ao longo da diagonal 1. A

seguir .

Solução completa x = xp + xn para Ax = b. (xp particular) + (xn no espaço nulo).

(2)

Número de condição . Em Ax = b, a mudança relativa é menor que cond (A) vezes a mudança relativa . Os números de condição medem a sensibilidade do resultado para alterações na entrada.

Método de Gradiente Conjugado. A seqüência de passos (final do Capítulo 9) para resolver

Ax = b positivo definida minimizando-se sobre subespaços crescentes de

Krylov.

Matriz de Covariância Σ. Quando variáveis aleatórias xi possuem mediana = valor médio = 0, suas

covariâncias Σi j são as médias de xi xj. Com médias a matriz Σ = média de

é positiva (semi)definida; ela será diagonal se xi forem independentes.

Regra de Cramer para Ax = b. Bj tem b substituindo a coluna j de A e xj =Bj/A.

Produto vetorial u x v em R3. O vetor perpendicular a u e v , extensão = área do paralelogramo, computada como o “determinante” de [i j k; u1 u2 u3; v1 v2 v3 ].

Desvio cíclico S. Permutação com s21 = 1, s32 = 1, ..., finalmente = 1. Seus autovalores são

raízes n-ésimas de 1; autovetores são colunas da matriz F de Fourier.

Determinante A = det(A). Definida por det I = 1, sinal contrário para troca de linha e linearidade em cada linha. Então A = 0 quando A for singular. Também AB =AB  e . A grande fórmula para det (A) tem uma soma de n! termos, a fórmula do co-fator usa determinantes de tamanho n – 1, volume da caixa = det(A).

Matriz diagonal D. d i j = 0 se i ≠ j. Diagonal de bloco: zero fora de blocos quadrados Di i .

Matriz diagonalizável A. Deve ter n autovetores independentes (nas colunas de S; automático com n. autovalores diferentes). Então matriz de autovalor.

Diagonalização matriz de autovalor e S – matriz de autovetor. A deve ter n autovetores independentes para tornar S não inversível. Para todo inteiro k, temos Ak = SΛk S-1. Dimensão do espaço vetorial dim (V) = número de vetores em qualquer base de V.

Lei Distributiva A(B + C) = AB + AC. Adicionar e multiplicar, ou multiplicar e adicionar.

Produto escalar . O produto escalar complexo é . Vetores

perpendiculares possuem produto escalar zero. (AB)ij = (linha i de A) (coluna j de B).

Matriz escalonada U. A primeira entrada diferente de zero (o pivô) em cada linha vem depois do pivô na linha anterior. Todas as linhas zero vêm por último.

Autovalor ? e autovetor x. Ax = ?x com x ≠ 0 de modo que det(A - ?I) = 0. Eighshow. Autovalores gráficos 2 por 2 e valores únicos (MATLAB ou Java).

Eliminação. Uma seqüência de operações de linha que reduz A a uma triangular superior U ou a uma forma R reduzida = rref (A). Então A = LU com multiplicadores em L, ou PA = LU com trocas de linha em P, ou EA = R com um E inversível.

Matriz de eliminação = Matriz elementar Ei j . A matriz de identidade com um na entrada i, j

(i ≠ j). Então Ei j A subtrai vezes a linha j de A da linha i .

Elipse (ou elipsóide) xTAx = 1. A deve ser positivo definida; os eixos da elipse são autovetores de

A, de comprimento . (Para  x  = 1 os vetores y = Ax ficam na elipse exibidas pelo eigshow; comprimentos de eixo ).

(3)

Fatoração A = LU. Se a eliminação levar A até U sem troca de linhas, então a triangular inferior L com multiplicadores (e ) trará U de volta para A.

Transformação Rápida de Fourier (FFT). A fatoração da matriz Fn de Fourier em

matrizes Si vezes uma permutação. Cada Si precisa somente n/2 multiplicações, de modo que

e podem ser calculadas com multiplicações. Revolucionária.

Números de Fibonacci 0, 1, 1, 2, 3, 5, ... satisfazem .

Taxa de crescimento é o maior autovalor da matriz de Fibonacci . Quatro Subespaços fundamentais de A = C (A), N (A), C (AT), N (AT).

Matriz de Fourier F. As entradas dão colunas ortogonais . Então y = Fc é a Transformada Discreta de Fourier (inversa) .

Colunas livres de A. Colunas sem pivôs; combinações de colunas precedentes.

Variável livre xi. A coluna i não tem pivô na eliminação. Podemos dar quaisquer valores àsn - r

variáveis livres, então Ax = b determina as r variáveis pivô (se solúvel!).

Posto coluna completo r = n. Colunas independentes, N (A) = {0}, sem variáveis livres.

Posto linha completo r = m. Linhas independentes, pelo menos uma solução para

Ax = b, espaço coluna é todo de Rm. Posto completo significa posto coluna completo ou posto linha completo.

Teorema Fundamental. O espaço nulo N (A) e o espaço de linha C (AT) são complementos ortogonais (subespaços perpendiculares de Rm com dimensões r e n – r) a partir de Ax = 0. Aplicado a AT, o espaço coluna C(A) é o complemento ortogonal de N (AT).

Método de Gauss-Jordan. Inverter A por operações de linha em [A I] para atingir [I A-1].

Ortogonalização de Gram-Schmidt A = QR. Colunas independentes em A, colunas ortonormais em Q. Cada coluna qj de Q é uma combinação das primeiras colunas j de A (e reciprocamente, R é triangular superior). Convenção: diag (R) > 0.

Grafo G. Conjunto de n nodos (ou vértices) conectados aos pares por m arestas. Um grafo completo tem todas as n(n-1)/2 arestas entre os nodos. Uma árvore tem somente n – 1 arestas e não tem ciclos. Um grafo dirigido tem a seta de direção especificada em cada aresta.

Matriz de Hankel H. Constante ao longo de cada diagonal; hi j depende de i + j .

Matriz de Hermit . Complexo análogo de uma matriz simétrica: . Matriz de Hessenberg H. Matriz triangular com uma diagonal extra adjacente diferente de zero.

Matriz de Hilbert hilb (n). Entradas . Positivo Definida ,

mas extremamente pequena ?min e número de condição grande.

Matriz de Hipercubos . A linha n + 1 conta cantos, bordas, faces, ... de um cubo em Rn. Matriz identidade I (ou In). Entradas diagonais = 1, entradas fora de diagonais = 0.

Matriz de incidência de um grafo dirigido. A matriz m por n de incidência aresta-vértice tem uma linha para cada aresta (nodo i até nodo j), com entradas –1 e 1 nas colunas i e j.

Matriz indefinida. Matriz simétrica com autovalores de ambos os sinais (+ e -).

Vetores independentes v1, ...vk. Sem combinação c1 v1 + ... + ckvk = vetor zero a menos que todos

(4)

Matriz inversa A-1. Matriz quadrada com A-1A = I e AA-1= I. Sem inversão se det A = 0 e posto (A) < n e AX = 0 para um vetor x diferente de zero. Os inversos de AB e AT são B-1 A-1 e (A-1)T. Fórmula de co-fator (A-1)i j = Cj i / det A.

Método iterativo. Uma seqüência de passos visando aproximar a solução desejada.

Forma de Jordan J = M-1AM. Se A tem s autovetores independentes, sua matriz de autovetores “generalizados” M dá J = diag(J1,..., Js). O bloco Jk é ?kIk + Nk onde Nk tem 1 na diagonal 1.

Cada bloco tem um autovalor ?k e um autovetor (1, 0, ..., 0).

Leis de Kirchhoff. Lei da Corrente: a corrente líquida (o que entra menos o que sai) é zero em cada nodo. Lei da Voltagem: As diferenças de potencial (quedas de voltagem) somam a zero ao redor de cada ciclo.

Produto de Kronecker (produto tensorial) A B. Blocos ai i B, autovalores ?p(A)?q(B).

Subespaço de Krylov Kj(A,b). O subespaço gerado por b, Ab, ...,Aj-1b. Métodos numéricos

aproximam A-1b por xj com resíduo b – Axj l nesse subespaço. Uma boa base para Kj exige somente multiplicação por A em cada passo.

Solução com mínimos quadrados . O vetor que minimiza o erro resolve . Então é ortogonal a todas as colunas de A.

Inversa esquerda A+.. Se A tem uma posto completo coluna, então A+ = (ATA)-1 AT tem A+A = In.

Espaço Nulo à esquerda N (AT). O espaço nulo de AT = “espaço nulo à esquerda” de A porque yT A = 0T.

comprimento . Raiz quadrada de xTx (Pitágoras em n dimensões).

Combinação linear . Adição de vetor e multiplicação escalar.

Transformação linear T. Cada vetor v no espaço domínio transforma-se em T(v) no espaço imagem, e a linearidade exige . Exemplos: Multiplicação de matriz Av, diferenciação em espaços de função.

v1,...vn linearmente dependentes. Combinação linear com nem todos ci=0 que resulta em

.

Números de Lucas Ln = 2,1,3,4, ... satisfazem com autovalores

da matriz de Fibonacci . Compare L0 = 2 com Fibonacci.

Matriz de Markov M. Todas as e cada soma de coluna é 1. O maior autovalor . Se , as colunas de Mk aproximan o autovetor em estado estacionário M s = s > 0.

Multiplicação de Matriz AB. A entrada i, j de AB é (linha i de A) (coluna j de B) = . Por colunas: Coluna j de AB = A vezes coluna j de B. Por linhas: linha i de A multiplica B. Colunas vezes linhas: AB = soma de (coluna k) (linha k). Todas essas definições equivalentes resultam da regra de que AB vezes x é igual a A vezes Bx.

Polinômio mínimo de A. O polinômio de grau mais baixo com m(A) = matriz zero. As raízes de m são autovalores, e m(?) divide det (A – ?I).

Multiplicação Ax = x1 (coluna 1) + ... + xn (coluna n) = combinação de colunas.

Multiplicidades AM e GM. A multiplicidade algébrica AM de um autovalor ? é o número de vezes em que ? aparece como raiz de det (A – ?I) = 0. A multiplicidade geométrica GM é o número de autovetores independentes (= dimensão do autoespaço para ?).

(5)

Multiplicador . A linha pivô j é multiplicada por e subtraída da linha i para eliminar a entrada i,j,: = (entrada a eliminar) / (pivô j).

Rede. Um gráfico dirigido com constantes c1, ..., cm associadas com as arestas.

Matriz Nilpotente N. Alguma potência de N é a matriz zero, Nk = 0. O único autovalor é ? = 0 (repetido n vezes). Exemplos: matrizes triangulares com diagonal zero.

Norma de uma matriz. A é a proporção máxima . Então

e e . Norma de Frobenius

; normas e são as maiores somas de colunas e linhas de .

Equação normal . Fornece a solução de mínimos quadrados para Ax = b se A possuir posto completo n. A equação diz que (colunas de A)⋅ = 0.

Matriz normal N. NNT = NTN, leva a autovetores ortonormais (complexos).

Espaço nulo N (A) = Soluções de Ax = 0. Dimensão n – r = (n.° de colunas) – posto.

Matriz de espaço nulo N. (As colunas de N são as n – r soluções especiais para As = 0. Matriz ortogonal Q. Matriz quadrada com colunas ortonormais, de modo que QTQ = I implica QT =

Q-1. Preserva extensão e ângulos, . Todos os , com

autovetores ortogonais. Exemplos: Rotação, reflexão, permutação. Subespaços ortogonais. Cada v em V é ortogonal a cada w em W.

Vetores ortonormais q1, ...qn. Produtos escalares são se e . A matriz Q com essas colunas ortonormais tem QTQ = I. Se m = n então QT = Q-1 e q1, ..., qn é uma base

ortonormal para Rn: cada .

Produto vetorial uvT = coluna vezes linha = matriz de posto um.

Pivotamento parcial Na eliminação, o j-ésimopivô é escolhido como a maior entrada disponível (em valor absoluto) na coluna j. Então, todos os multiplicadores possuem . O erro de arredondamento é controlado (dependendo do número de condição de A).

Solução particular xp. Qualquer solução para Ax=b; freqüentemente xp tem variáveis livres = 0.

Matriz de Pascal PS = pascal(n). Matriz simétrica com entradas binomiais (formula). Todos os PS

= PLPU contêm o triângulo de Pascal com det = 1 (veja índice para mais propriedades).

Matriz de permutação P. Existem n! ordens de 1,...,n; os n! P têm as linhas de I nessas ordens. PA coloca as linhas de A nessa mesma ordem. P é produto de trocas Pi j de linha; P é par ou ímpar

(detP = 1 ou –1) com base no número de trocas.

Colunas pivô de A. Colunas que contêm pivôs depois da redução por linhas; não são combinações de colunas anteriores. As colunas de pivôs são a base para o espaço coluna.

Pivô d. A entrada da diagonal (primeira diferente de zero) quando uma linha é usada na eliminação. Plano (ou hiperplano) em Rn. Soluções para aTx = 0 dão o plano (dimensão n – 1) perpendicular a

a ≠ 0.

Decomposição polar A = QH. Q ortogonal, positiva (semi)definida H.

Matriz A positivo definida. Matriz simétrica com autovalores positivos e pivôs positivos. Definição: xTAx > 0 a menos que x = 0.

(6)

Projeção p = a(aTb / aTa) na linha através de a. P = aaT / aTa tem posto 1.

Matriz de projeção P sobre o subespaço S. Projeção p = Pb é o ponto mais próximo a b em S, erro e = b – Pb é perpendicular a S. P2 = P = PT, autovalores são 1 ou 0, autovetores estão em

S ou S. Se as colunas de A = base para S então P = A (ATA)-1AT.

Pseudoinversa A+ (Inversa de Moore -Penrose). A matriz n por m que “inverte” A de espaço coluna de volta para espaço linha, com N (A+) = N (AT). A+ A e AA+ são as matrizes de projeção no espaço linha e no espaço coluna. Posto (A+) = Posto (A).

Matriz aleatória rand (n) ou randn (n). O Programa MATLAB cria uma matriz com entradas aleatórias, uniformemente distribuídas em [0 1] para rand e com distribuição padronizada normal para randn.

Matriz de posto um A = uvT ≠ 0. Espaços linha e coluna = linhas cu e cv.

Posto r (A) = número de pivôs = dimensão do espaço coluna = dimensão do espaço linha.

Quociente de Rayleigh q(x) = xT Ax/xTx para A simétrico: . Esses extremos são atingidos nos autovetores x para .

Forma escalonada reduzida por linha R = rref(a). Pivôs = 1; zeros acima e abaixo dos pivôs; r linhas diferentes de zero de R fornecem uma base para o espaço linha de A.

Matriz de reflexão Q = I - 2uuT. O vetor unitário v é refletido para Qu = -u. Todos os vetores x no espelho plano xTx = 0 permanecem inalterados porque Qx = x. A “Matriz de Householder” tem

QT = Q-1=Q.

Inversa direita A+. Se A tem posto completo m de linha, então A+ = AT (AAT)-1 tem AAT = Im.

Matriz de rotação R = gira o plano por e R-1 = RT gira de volta por . Matriz ortogonal, autovalores e , autovetores (1, ±i).

Aparência linha de Ax = b. Cada equação fornece um plano em Rn; os planos se intersectam em x. Espaço linha C (AT) = todas as combinações de linhas de A. Vetores coluna por convenção.

Ponto de sela de f (x1, ..., xn). Um ponto no qual as primeiras derivadas de f são zero e a segunda

matriz derivada ( = matriz Hessiana) é indefinida.

Complemento de Schur S = D = CA-1B. Aparece em eliminação de bloco em (formula).

Desigualdade de Schwarz . Então se A = CTC.

Matriz semidefinida A. Semidefinida (positiva) significa simétrica com para todos os vetores x. Então, todos os autovalores ; não há pivôs negativos.

Matrizes similares A e B. Toda B = M-1AM tem os mesmos autovalores de A.

Método simplex de programação linear. O vetor de custo mínimo x* é encontrado movendo-se do canto para o canto de custo menor ao longo das arestas do conjunto viável (onde as restrições Ax= b e x ≥ 0 são satisfeitas). Custo mínimo no canto!

Matriz singular A. Uma matriz quadrada que não tem inversa: det(A) = 0.

Decomposição de Valor Único (SVD) (U ortogonal) vezes (Σ diagonal) vezes (VT ortogonal). Primeiras r colunas de U e de V são bases ortonormais de C(A) e de C(AT) com

e valor único . As últimas colunas de u e de V são bases ortonormais dos espaços nulos de AT e de A.

(7)

Matriz skew simétrica K. A transposta é –K, uma vez que Ki j = -Kj.i. Autovalores são imaginário

puro, autovetores são ortogonais, é uma matriz ortogonal. Sistema solúvel Ax = b. O lado direito b está no espaço de coluna de A.

Conjunto gerador v1, ...,vm para V. Todos os vetores em V são uma combinação de v1,...,vm.

Soluções especiais para As = 0. Uma variável livre é si = 1, outras variáveis livres = 0.

Teorema espectral A = Q? QT. A simétrico real tem ?i real e qi ortonormal com . Em

mecânica, o qi fornece os eixos principais.

Espectro de A = o conjunto de autovalores {?1,...,?n}. Raio espectral = . Base padrão para Rn. Colunas da matriz identidade n por n (escrito i, j, k em R3).

Matriz de rigidez K. Se x fornecer os movimentos dos nodos em uma estrutura discreta, Kx fornecerá as forças internas. Com freqüência K = ATCA onde C contém constantes de mola da Lei de Hooke e Ax = deslocamentos (tensões) dos movimentos x.

Subespaço S de V. Qualquer espaço vetorial dentro de V, incluindo V e Z = {vetor zero}.

Soma V + W de subespaços. Espaço de todos (v em V) + (w em W). Soma direta: dim (V + W) = dim V + dim W quando V e W compartilham somente o vetor zero.

Fatorações simétricas A = LDLT e A = Q? QT.. O número de pivôs positivos em D e os autovalores positivos em ? é o mesmo.

Matriz simétrica A. A transposta é AT = A, e ai j = ai j . A-1 também é simétrica. Todas as matrizes

da formação RT R e LDLT e Q?QT são simétricas. Matrizes simétricas possuem autovalores reais em ? e autovetores ortonormais em Q.

Matriz de Toeplitz T. Matriz com diagonal constante, de modo que ti j depende somente de j – i.

Matrizes de Toeplitz representam filtros lineares invariantes no tempo em processamento de sinais.

Traço de A = soma das entradas da diagonal = soma de autovalores de A. Tr AB = Tr BA.

Matriz transposta AT. Entradas (formula). AT é n por m, ATA é quadrada, simétrica, positivo semidefinida. As transpostas de AB e A-1 são BT AT e (AT)-1.

Desigualdade triangular . Para normas matriciais:

.

Matriz tridiagonal T: ti j = 0 se i - j > 1. T-1 tem posto 1 acima e abaixo diagonal. Matriz unitária . Colunas ortonormais (análogo complexo de Q).

Matriz de Vandermonde V. Vc = b fornece o polinômio com

em n pontos. e det V = produto de .

Vetor v em Rn . Seqüência de n números reais v = (v1 , ..., vn) = ponto em Rn.

Adição de vetor. v + w = (v1 + w1 , ..., vn + wn) = diagonal do paralelogramo.

Espaço vetorial V. Conjunto de vetores tal que todas as combinações cv + dw permanecem em V. As oito regras exigidas são fornecidas na Seção 3.1 para cv + dw.

Volume da caixa. As linhas (ou colunas) de A geram uma caixa com volume det(A).

Ondaletas (Ondas pequenas: wavelets) wj k (t) ou vetores wj k . Estendem e desviam o eixo de

tempo para criar . Vetores de w00 = (1, 1, -1, -1) seriam (1, -1, 0,0) e

(8)

Referências

Documentos relacionados

Obter polpa de guavira desidratada pelo processo de liofilização com adição de maltodextrina e avaliar o conteúdo de vitamina C no produto em pó.. Material

No contexto em que a Arte é trabalhada como recurso didático-pedagógico na Educação Matemática (ZALESKI FILHO, 2013), pode-se conceber Performance matemática (PM) como

O software abrirá uma área de trabalho, para a montagem do sistema a ser simulado, cuja plataforma está baseada em um sistema de coordenadas cartesianas sistema a ser simulado,

O MINISTRO DE ESTADO DA EDUCAÇÃO, no uso de suas atribuições, CONSIDERANDO a necessidade de estimular a formação de mestres profissionais habilitados para desenvolver atividades

Foram desenvolvidas duas formulações, uma utilizando um adoçante natural (stévia) e outra utilizando um adoçante artificial (sucralose) e foram realizadas análises

libras ou pedagogia com especialização e proficiência em libras 40h 3 Imediato 0821FLET03 FLET Curso de Letras - Língua e Literatura Portuguesa. Estudos literários

Ninguém quer essa vida assim não Zambi.. Eu não quero as crianças

No capítulo 4 são abordados os principais resultados obtidos diante das restrições impostas à coleta de dados, bem como a avaliação dos dados obtidos caracterizando os períodos