• Nenhum resultado encontrado

Comportamento limite da Trajetória Central em Programação Linear

N/A
N/A
Protected

Academic year: 2021

Share "Comportamento limite da Trajetória Central em Programação Linear"

Copied!
79
0
0

Texto

(1)
(2)

Comportamento limite da

Trajetória Central em

Programação Linear

Dissertação apresentada ao Programa de Pós– Graduação do Instituto de Informática da Universi-dade Federal de Goiás, como requisito parcial para obtenção do título de Mestre em Ciência da Com-putação.

Área de concentração: Otimização

Orientador: Prof. Dr. Orizon Pereira Ferreira

(3)

Comportamento limite da

Trajetória Central em

Programação Linear

Dissertação defendida no Programa de Pós–Graduação do Ins-tituto de Informática da Universidade Federal de Goiás como requisito parcial para obtenção do título de Mestre em Ciência da Computação, aprovada em 06 de Fevereiro de 2007, pela Banca Examinadora constituída pelos professores:

Prof. Dr. Orizon Pereira Ferreira

Instituto de Informática – UFG Presidente da Banca

Prof. Dra. Márcia Helena Costa Fampa

COPPE – UFRJ

Prof. Dr. Luis Román Lucambio Pérez

(4)

Erika Morais Martins

(5)
(6)

À Deus, pelo dom da vida.

Ao professor Orizon, meu orientador, pelos ensinamentos, pela paciên-cia e pelo tempo dedicado à minha orientação.

Ao meu esposo Hebert, pela amizade, companheirismo e pelas con-tantes ajudas, principalmente durante a preparação para a defesa da disser-tação.

Ao professor Humberto, pelas diversas dúvidas esclarecidas em re-lação ao pacote classe-inf.

À todos os professores, funcionários e amigos do Instituto de Infor-mática da UFG.

À Capes, pela ajuda financeira durante boa parte do curso.

(7)

Martins, Erika Morais. Comportamento limite da Trajetória Central em Programação Linear. Goiânia, 2007. Dissertação de Mestrado. Instituto de Informática, Universidade Federal de Goiás.

A Trajetória Central tem importância fundamental no estudo de vários algo-ritmos para resolução do Problema de Programação Linear (PPL), visto que, os algoritmos que em algum sentido seguem a Trajetória tem comportamento polinomial no pior caso. Como a trajetória converge e é analítica no interior do conjunto viável do PPL, nosso principal objetivo neste trabalho é reescrever a prova, feita em [10], de que a Trajetória Central é analítica no seu ponto limite.

Palavras–chave

(8)

Martins, Erika Morais. Behavior limits of the Central Path in Linear Programming. Goiânia, 2007. MSc. Dissertation. Instituto de Informática, Universidade Federal de Goiás.

The Central Path has fundamental importance in the study of many algo-rithms for resolution of the Problem of Linear Programming (PPL), because, the algorithms that follow the Path in some sense have behavior polinomial in the worst case. As the path converges and it is analytical in the interior of the feasible set of PPL, our main objective in this work is rewrite the proof, that has been done in [10], that the Central Path is analytical in its limit point.

Keywords

(9)

Notações 9

Introdução 11

1 Resultados Básicos 13

1.1 Noções de Topologia doRn 13

1.2 Noções de Cálculo 14

1.3 Noções de Análise Convexa 17

1.3.1 Projeção em Conjuntos Convexos 26

1.3.2 Funções convexas 29

1.4 Resultados Básicos de Álgebra Linear 36 2 Condições de Otimalidade para o Problema de Programação

Linear 40

2.1 Os problemas de Programação Linear Primal e Dual 40

2.2 Condições de Otimalidade 42

2.3 Resultados com viabilidade estrita 49

2.4 Teorema da Complementaridade Estrita 50

3 A Trajetória Central em Programação Linear 54

3.1 As equações que definem a Trajetória Central 54

3.2 A Trajetória Central é uma curva analítica 58

3.3 Convergência da Trajetória Central 59

4 Comportamento limite da Trajetória Central 67

4.1 Mudança de Variáveis 68

4.2 Analiticidade no ponto limite 72

Considerações Finais 75

(10)

Seguem aqui uma lista de notações utilizadas durante o texto. 1. N é o conjunto dos números naturais.

2. R é o conjunto dos números reais.

3. R++é o conjunto dos números reais positivos. 4. Rné o conjunto dos vetores reais da forma

x =       x1 x2 .. . xn       . 5. Rn ++é o ortante positivo doRn. 6. xT = (x 1, x2, . . . , xn) é o transposto do vetor x. 7. xj é a j-ésima coordenada do vetor x.

8. ||x|| é a norma euclidiana de x ∈Rn.

9. hx, yi é o produto interno euclidiano entre x ∈Rne y ∈Rn. 10. Mm×n(R) é o conjunto das matrizes reais de dimensão m × n. 11. AT é a transposta da matriz A ∈ M

m×n(R). 12. A−1 é a inversa da matriz A ∈ M

n×n(R), quando existir.

13. e = (1, . . . , 1)T, isto é, o vetor com todas as coordenadas iguais a um, com dimensão de acordo com o contexto.

(11)

16. I é a matriz identidade com ordem de acordo com o contexto.

(12)

O Problema de Programação Linear (PPL) é o problema de otimizar uma função linear sujeito à restrições também lineares. Neste trabalho estaremos trabalhando com o PPL no formato padrão, isto é, minimizar uma função linear sujeito a restrições lineares de igualdade e restrições de não negatividade .

Existem vários métodos para a resolução do Problema de Progra-mação Linear. O método simplex, publicado por Dantzig [5] em 1951, foi o primeiro algoritmo efetivo para resolução do PPL. O algoritmo simplex con-siste em caminhar pela fronteira do conjunto viável, através de pontos ex-tremos adjacentes, minimizando o valor da função objetivo com relação aos pontos extremos anteriores até atingir uma solução ótima, se existir.

Em 1972, o exemplo de Klee e Minty [17] verificou que, para um certo critério de escolha para entrada na base, o algoritmo simplex tinha compor-tamento exponencial. Apesar de se comportar bem na prática, o algoritmo simplex tem um comportamento exponencial no pior caso.

A partir de então, começou-se um busca por algoritmos para Progra-mação Linear que tivessem comportamento polinomial. Assim, o primeiro al-goritmo polinomial para resolver o PPL foi o alal-goritmo dos elipsóides, publi-cado por Khachiyan em 1979 [15] e [16]. Porém este algoritmo não tinha um comportamento eficaz na prática.

Em 1984, Karmarkar [14] publicou um algoritmo de pontos interiores de complexidade polinomial, menor do que os algoritmos dos elipsóides, porém tinha um bom comportamento na prática.

Passou-se então ao estudo dos algoritmos denominados "Algoritmos de Pontos Interiores", na tentativa de baixar a sua complexidade. Algumas classes de algoritmos de pontos interiores geram uma seqüência de pontos no interior do conjunto viável, que convergem para uma solução do PPL, seguindo em algum sentido uma trajetória central, veja em Gonzaga [7]. Os algoritmos de pontos interiores têm comportamento polinomial no pior caso.

(13)

estudo de vários algoritmos para resolução do PPL. Estudando seu compor-tamento estaremos estimando o melhor comporcompor-tamento que um algoritmo de ponto interior, que segue a trajetória central, pode obter.

É bem conhecido que a Trajetória Central converge para o centro analítico do conjunto de soluções ótimas do PPL, veja [8], e que a Trajetória Central é analítica no interior do conjunto viável do PPL, veja [27]. Recente-mente, em [9] e [10] foi provado que a Trajetória Central é analítica no seu ponto limite.

Desta forma, nosso primeiro objetivo neste trabalho é estudar o com-portamento da Trajetória Central, verificando a propriedade analítica no seu ponto limite. E reescrever uma das demonstrações em [10] de uma maneira mais didática.

Nosso segundo objetivo é criar um texto auto-contido, de forma que o leitor não precise de material auxiliar para um bom estudo da Trajetória Central em Programação Linear. Para isso, dividiremos este trabalho em 4 capítulos.

No capítulo 1, revisaremos alguns tópicos de topologia no Rn, estu-daremos conceitos básicos de cálculo e de análise convexa de conjuntos e funções, definindo a projeção sobre conjuntos convexos e finalmente enunciar alguns conceitos de algebra linear. Acreditamos obtermos um bom embasa-mento teórico para a compreensão dos demais capítulos.

No capítulo 2, definiremos o par de PPLs no formato padrão, demons-traremos resultados importantes de dualidade em Programação Linear, ob-tendo as equações que definem as condições de otimalidade para os pares de PPls.

No capítulo 3, faremos um bom estudo da Trajetória Central. Obte-remos as equações que a definem, mostrando que a Trajetória Central é uma curva analítica no interior do conjunto viável do PPL e mostraremos que a Trajetória Central converge para o centro analítico do conjunto de soluções ótimas do PPL.

(14)

Resultados Básicos

Nosso objetivo neste capítulo é revisar alguns tópicos de Topologia do Rn e Análise Convexa, incluindo resultados de projeção sobre conjuntos con-vexos e funções convexas. Revisaremos algumas definições de análise no Rn e também alguns tópicos de Álgebra Linear. Estes assuntos serão necessários ao desenvolvimento dos capítulos seguintes, dando um embasamento teórico para uma boa compreensão do texto.

1.1

Noções de Topologia do

R

n

Nesta seção estaremos interessados em definir alguns conjuntos importantes do espaço euclidiano Rn e definir continuidade de funções, enunciando o Teorema de Weiertrass sobre funções contínuas. Iniciaremos definindo bolas aberta e fechada.

Sejam dados o ponto a ∈ Rn e o número real r > 0. A bola aberta de centro a e raio r é o conjunto

B(a, r) = {x ∈Rn : ||x − a|| < r},

isto é, o conjunto dos pontos x ∈Rn cuja distância ao ponto a é menor do que r. Análogamente a bola fechada de centro a e raio r é o conjunto

B[a, r] = {x ∈Rn : ||x − a|| ≤ r}.

Um conjuntoT ⊂ Rn é aberto se para todo a ∈ T existir r > 0 tal que B(a, r) ⊂ T .

Um conjunto T é limitado se existir r > 0 tal que kxk ≤ r para todo x ∈ T , isto é, T é limitado se estiver contido em uma bola fechada B[0, r].

(15)

limitada, se existir c > 0 tal que kxkk ≤ c para todo k ∈ N. Diz-se que um ponto a ∈ Rn é o limite de uma sequência {xk} quando, para todo  > 0 dado arbitrariamente, é possível obter k0 ∈ N tal que k > k0 ⇒ kxk − ak < . Escreve-se então

lim k→∞x

k

= a, (1-1)

e dizemos que a sequência converge para a. Se o limite acima existir, dizemos que a sequêcia será convergente, caso contrário a sequência será divergente.

Um ponto a ∈ Rn é dito aderente ao conjunto T ⊂ Rn se existir uma sequência de pontos {xk} ⊂ T que converge para a. O fecho de um conjunto T ⊂Rné o conjunto ¯T de todos os pontos aderentes à T . Assim, um conjunto é dito fechado quandoT = ¯T .

Um conjuntoT ⊂ Rn é compacto quandoT for fechado e limitado. SejaT ⊂ Rn, uma função f : T →Rné contínua em a ∈ T se

lim k→∞x

k = a ⇒ lim k→∞f (x

k) = f (a).

Se f for contínua em todo ponto a ∈ T , então f é uma aplicação contínua. Uma função contínua em um conjunto compacto tem uma característica muito importante para nossos estudos. O próximo resultado é o Corolário 1, página 44 de [20].

Teorema 1.1.1 (Weiertrass) Seja T ⊂Rn um conjunto compacto e não vazio . Se f : T →Rn é uma função contínua, então o problema

min{f (x) : x ∈ T }, tem solução.

1.2

Noções de Cálculo

Nesta seção definiremos o conceito de derivada e de diferenciabilidade. Discutiremos a cerca de funções analíticas finalizando com o Teorema da Função Implícita. Inicialmente, definiremos a derivada de f : R → R em x ∈R, como sendo o limite

f0(x) = lim h→0

f (x + h) − f (x)

h .

(16)

Uma característica importante de funções de uma variável derivável é que toda função derivável em um ponto é contínua nesse ponto.

Um resultado bem conhecido, sobre funções deriváveis, é o Teorema do Valor Médio, cuja demosntração pode ser encontrada na página 220 em [2]. Teorema 1.2.1 Seja uma função f definida e contínua num intervalo fechado [a, b] e derivável nos pontos interiores, então, existe pelo menos um ponto c, compreendido entre a e b tal que

f (b) − f (a) = f0(c)(b − a).

Agora estaremos interessados nas funções de várias variáveis. Seja Ω ⊂Rnum conjunto aberto. A i-ésima derivada parcial de f : Ω → R no ponto p ∈ Ω, é definida como sendo o limite

∂f ∂xi (p) = lim t→0 f (p + tei) − f (p) t ,

quando esse limite existe. Definimos o vetor gradiente de f no ponto p por ∇f (p) = ∂f ∂x1(p), . . . , ∂f ∂xn(p) T .

Uma função f : Ω →R, definida num intervalo aberto Ω ⊂ Rn, diz-se de classe C1(Ω) quando existem, em cada ponto x ∈ Ω, as derivadas parciais

∂f ∂x1

(x), . . . , ∂f ∂xn

(x), e são contínuas as n funções assim definidas,

∂f ∂xi

: Ω →R, i = 1, . . . , n.

Mais geralmente, diremos que uma função f : Ω →R é de classe Ck(Ω) quando ela possuir as derivadas parciais em todos os pontos de Ω e as funções

∂f ∂x1

: Ω → R, . . . , ∂f ∂xn

: Ω →R,

forem de classe Ck−1(Ω). Ainda, diremos que uma função f : Ω →R é de classe C0(Ω) quando ela for contínua e diremos que f é de classe C(Ω), quando f ∈ Ck(Ω) para todo k ≥ 0.

(17)

e h ∈Rncom p + h ∈ Ω, existe  > 0 tal que a série ∞ X n=0 1 n!d nf (p)hn,

converge para f (p + h) desde que |h| < , onde para h = (h1, . . . , hn) escrevemos a diferencial de ordem zero e de primeira ordem como

d0f (p)h0 = f (p), df (p)h = n X i ∂f ∂xi (p)hi,

e as demais diferenciais, de maneira análoga, como se seguem,

d2f (p)h2 = n X i,j ∂2f ∂xj∂xi (p)hihj, d3f (p)h3 = n X i,j,k ∂3f ∂xj∂xi∂xk (p)hihjhk, . . . .

Seja f : Ω → Rm dada por f (x) = (f

1(x), ..., fm(x)), onde Ω ⊂ Rn. Dizemos que f é analítica se suas funções coordenadas, fi : Ω → R para i = 1, . . . , m, são funções analíticas.

Definição 1.2.2 Uma curva w : (0, +∞) → Rn é dita analítica em 0, se existe  > 0 e uma curva analítica ψ : (−, ) → Rn tal que, w(t) = ψ(t) para todo t ∈ [0, ).

Um resultado de fundamental importância para nosso trabalho é o Teorema de Função Implícita. Este resultado, o Teorema 10.2.1 na página 265 em [6], determina sob quais condições uma relação como F (x, y) = c define y em função de x, carregando a mesma classe de diferenciabilidade da F . Estaremos utilizando a versão analítica deste teorema.

Teorema 1.2.3 (Teorema da Função Implícita) Sejam I × ¯I ⊂ R × Rp um conjunto aberto e (w0, z0) ∈ I × ¯I, onde I ⊂ R e ¯I ⊂ Rp são conjuntos abertos com w0 ∈ I e z0 ∈ ¯I. Suponhamos que F : I × ¯I → Rp dada por F (w, z) = (f1(w, z), ..., fm(w, z)) seja analítica, que F (w0, z0) = c ∈ Rp e que a matriz ∇wF (w0, z0) =     ∂f1 ∂z1(w0, z0) ... ∂f1 ∂zm(w0, z0) .. . ... ∂fm ∂z1(w0, z0) ... ∂fm ∂zm(w0, z0)     ∈ Mm×m(R),

(18)

1.3

Noções de Análise Convexa

Nesta seção, estaremos interessados em estudar conjuntos convexos, cones e funções convexas. Iremos verificar que as funções estritamente con-vexas possuem uma característica muito importante para problemas de mini-mização. Iniciaremos com um resultado sobre partição de matrizes, que pode ser encontrado na página 1 da aula 6 em [26].

Teorema 1.3.1 Seja A ∈ Mm×n(R) com posto (A) = m > 0. Se o conjunto Q = {x ∈Rn: Ax = b, x ≥ 0} ,

é não vázio, então existe uma partição da matriz A na forma A = [AB : AN], com AB ∈ Mm×m(R) inversível, tal que A−1B b ≥ 0. Como consequência,

x = ((A−1B b)T, 0T)T ∈ Q.

Demonstração: ComoQ é não vazio, tome x ∈ Q. Temos duas posibilidades: a) x = 0;

b) x 6= 0,

Primeiro vamos analizar o item a. Suponhamos que x seja o vetor nulo. Como posto(A) = m > 0, selecionamos quaisquer m colunas da matriz A de modo que a submatriz AB ∈ Mm×m(R) de A formada por estas m colunas seja inversível. Portanto a partição A = [AB : AN] satisfaz A−1B b = 0.

Agora vamos analisar o item b. Suponhamos que x seja diferente do vetor nulo. Como posto(A) = m > 0, segue-se que b é não nulo. Sem perda de generalidade, x pode ser escrito na forma x = ((xB˜)T, 0T)T, onde xB˜ > 0. Considere a submatriz AB˜ de A correspondente às coordenadas não nulas do vetor x. Deste modo

AB˜xB˜ = b. (1-2)

Seja {a1, ..., ap} o conjunto formado pelas colunas da matriz AB˜. Temos duas possibilidades:

i) O conjunto{a1, ..., ap} é linearmente independente; ii) o conjunto{a1, ..., ap} é linearmente dependente.

(19)

linearmente independente. Seja AB ∈ Mm×m uma submatriz de A cuja as co-lunas sejam os vetores {a1, ..., ap, ap+1, ..., am}. Desde que {a1, ..., ap, ap+1, ..., am} é um conjunto linearmente independente então AB é inversível. Considere o vetor ¯xB = (x1, ..., xp, 0, ..., 0)T = ((xB˜)T, 0T)T ∈ IRm e note que (1-2) é equivalente à ABx¯B = b, ou seja, ¯xB = AB−1b. Desde que x = ((¯xB)T, 0T)T ∈ Q temos que A−1B b = ¯xB ≥ 0.

Analisemos o caso ii. Como o conjunto {a1, ..., ap} é linearmente dependente, então existe um vetor não nulo y ∈ IRp, tal que A

˜

By = 0. Multiplicando esta última igualdade por ε e subtraindo em (1-2) temos que AB˜(xB˜ − εy) = b. Tomando ε = min{xi/yi : xi > 0, yi > 0}, teremos xB˜ − εy ≥ 0 e pelo menos uma de suas coordenadas igual a zero. Seja ABˆ uma submatriz de AB˜, que por sua vez também é submatriz de A, correspondente às coordenadas não nulas do vetor xB˜ − εy. Assim

ABˆxBˆ = b,

onde xBˆ > 0 é o vetor formado pelas coordenadas não nulas do vetor xB˜ − εy. Se as colunas de ABˆ são linearmente independente recaimos no caso i. Caso contrário, observando que b é não nulo e consequentemente ABˆ também não é nula, podemos repetir este proceso não mais que p − 1 vezes para então recair no caso i.

Portanto, em ambos os casos i e ii, existe uma partição da matriz A na forma A = [AB : AN], com AB ∈ Mm×m(R) inversível, tal que A−1B b ≥ 0. Isto conclui a primeira parte.

A prova da segunda parte é imediata pois, A¯x = [AB : AN]((A−1B b)

T, 0T)T = b e x = ((A¯ −1 B b)

T, 0T)T ≥ 0.

 A demonstração do próximo resultado pode ser encontrada na página 5 da aula 7 em [26].

Proposição 1.3.2 Seja A ∈ Mm×n(R) com posto (A) = m > 0. O conjunto C = {z ∈Rm : z = Ax, x ≥ 0}

é fechado.

Demonstração: Seja uma sequência {zk} ⊂ C tal que lim

(20)

Axk = zke xk ≥ 0 para todo k. Desta forma, para cada k o conjunto Qk =x ∈ Rn : Ax = zk, x ≥ 0 ,

é não vazio. Então pelo Teorema 1.3.1, existe uma partição da matriz A na forma A = [AB : AN] com AB ∈ Mm×m(R) inversível tal que A−1B zk ≥ 0. Agora, defina ˜xk = (A−1

B zk)T, 0T T

. Note que ˜xk ≥ 0 converge para o ponto ¯

x = (A−1B z)¯ T, 0TT

≥ 0. Além disso A¯x = ¯z, de fato,

A¯x = [AB : AN] ¯ xB 0 ! = [AB : AN] A−1B z¯ 0 ! = ¯z.

Como ¯x ≥ 0 a última igualdade implica que ¯z ∈ C. Portanto C é fechado.  Um subconjunto C de um espaço vetorial euclidiano é dito cone se para todo x ∈ C e α ≥ 0 tem-se

αx ∈ C.

Um conjunto C ⊂ Rn é dito convexo se, dados dois pontos x

1, x2 ∈ C, tivermos

x1+ (1 − λ)x2 ∈ C, ∀ λ ∈ [0, 1].

Geometricamente significa que, um conjunto é convexo se dados dois pontos quaisquer do conjunto, então o segmento de reta que une os dois pontos pertence ao conjunto.

Proposição 1.3.3 Seja A ∈ Mm×n(R) com posto (A) = m > 0. Então o conjunto C = {z ∈Rm : z = Ax, x ≥ 0} ,

é um cone não vazio, convexo e fechado.

Demonstração: Da definição de C segue imediatamente que 0 ∈ C. Agora vamos mostrar que C é um cone. Seja α > 0. Tome z ∈ C, e sejam x ≥ 0 tal que Ax = z. Deste modo, como A é linear temos,

αz = αAx = A(αx).

(21)

Ax2 = z2. Novamente usando a linearidade de A temos,

λz1+ (1 − λ)z2 = λAx1+ (1 − λ)Ax2 = A(λx1 + (1 − λ)x2).

Desde que λ ∈ [0, 1] e x1, x2 ≥ 0 temos que λx1 + (1 − λ)x2 ≥ 0, assim a igualdade acima implica que a combinação convexa λz1+ (1 − λ)z2 ∈ C. Logo C é convexo. Finalmente para verificarmos que C é fechado basta utilizarmos a Proposição 1.3.2. Portanto C é um cone não vazio, convexo e fechado.  Um ponto x ∈ Q = {x ∈ Rn : Ax = b, x ≥ 0} é dito ponto extremo ou vértice, se x não puder ser escrito como combinação linear convexa de dois outros pontos distintos de Q. Note que a cada equação ou restrição que define o conjuntoQ podemos associar um hiperplano deRn. Geometricamente podemos dizer que estes hiperplanos definem o conjunto Q. Existem várias maneiras equivalentes de definir pontos extremos. Na próxima proposição daremos uma caracterização geométrica para pontos extremos de Q, cuja demonstração pode ser encontrada na página 63 em [3].

Proposição 1.3.4 Sejam A ∈ Mm×n(R) com posto (A) = m > 0 e Q = {x ∈ Rn : Ax = b, x ≥ 0} 6= ∅.

Um ponto ¯x ∈ Q é ponto extremo de Q se , e somente se, ¯x se encontrar em n hiperplanos linearmente independentes que definemQ.

Demonstração: Suponha que o número máximo de hiperplanos linearmente independentes que contém ¯x ∈ Q seja r < n. Considere G ∈ Mr×n(R) a matriz formada pelos r vetores que definem estes hiperplanos e seja g = G¯x. Como r < n existe d 6= 0 tal que, Gd = 0. Então para todo λ temos que G(¯x + λd) = g. Desta forma, tome  > 0 de modo que

x0 = ¯x + d ∈ Q, x00= ¯x − d ∈ Q. Consequentemente ¯x pode ser escrito como

¯ x = 1 2x 0 +1 2x 00 ,

(22)

Agora mostraremos a recíproca. Suponha que ¯x ∈ Q se encontra em n hiperplanos linearmente independentes que definem Q. Note que o conjunto Q pode ser escrito da seguinte maneira equivalente,

Q =nx ∈Rn: ˜Ax ≥ ˜b, Ax ≤ bo, A =˜ A I ! , ˜b = b 0 ! .

Agora seja G ∈ Mn×n(R) a submatriz inversível de ˜A correspondente aos n hiperplanos linearmente independentes que contém ¯x e seja g o subvetor de ˜b definido por g := G¯x. Agora suponha que ¯x pode ser escrito como

¯

x = λ˜x + (1 − λ)¯x,¯

onde λ ∈ (0, 1) e ˜x, ¯x ∈ Q. Note que, como ˜¯ x, ¯x ∈ Q, pela definição de G temos¯

G˜x ≥ g, G¯x ≥ g.¯ (1-3)

Da definição de g e da combinação linear acima obtemos com simples manipu-lações algébricas que

0 = G¯x − g = λ(G˜x − g) + (1 − λ)(G¯x − g).¯

Como λ > 0 e 1 − λ > 0 obtemos de (1-3) e da última igualdade que G˜x = g, G¯x = g.¯

Como a matriz G é inversível, as igualdades acima implicam que ˜x = ¯x.¯ Portanto ¯x é ponto extremo de Q. Finalizando assim a prova do teorema.  Agora, estamos interessados em verificar que o número de pontos extremos do conjuntoQ é finito. Veja Teorema 2.1 na página 69 em [3].

Proposição 1.3.5 Sejam A ∈ Mm×n(R) com posto (A) = m > 0 e Q = {x ∈ Rn : Ax = b, x ≥ 0} 6= ∅.

Então o conjunto de pontos extremos de Q é não vazio e finito.

(23)

então a primeira parte do resultado está concluída. Senão, considere o sistema Gx = g,

onde G é a matriz formada pelos vetores que definem os hiperplanos que contém ¯x. Seja r o posto da matriz G. Como estamos assumindo que ¯x não é ponto extremo, pela Proposição 1.3.4, temos 0 ≤ r < n. Desde que Posto(G) = r < n, existe d 6= 0 tal que

Gd = 0.

Agora, movendo a partir de ¯x ao longo de d e −d, temos que estas duas direções permitem passos de tamanhos positivos mas, ambas não permitem tamanhos de passos infinitos pois, Q ⊆ {x ∈ Rn : x ≥ 0}. Desta forma, sem perda de generalidade, podemos assumir que

y1 = ¯x − ¯γd ∈ Q, 0 < ¯γ = max{γ : ¯x − γd ∈ Q} < ∞.

Note que, como Gd = 0 temos que Gy1 = g e, como 0 < ¯γ < ∞ segue-se que y1 está contido em um hiperplano que não contém ¯x. Seja v o vetor que define este novo hiperplano que contém y1 e note que

hv, di 6= 0,

pois caso contrário, ¯x se encontraria neste novo hiperplano. Assim

Posto " G vT #! = r + 1,

pois senão, existiria u ∈ Rn tal que v = GTu e assim obteríamos a seguinte contradição,

0 6= hv, di =GTu, d = uTGd = 0.

Se r + 1 = n, então y1 é um ponto extremo. Caso contrário, podemos repetir este processo até obter n hiperplanos linearmente independentes e assim o conjunto de pontos extremos de Q é não vazio. Agora para verificar que o conjunto de pontos extremos de Q é finito, basta notar que o número de maneiras de se escolher n hiperplanos linearmente independentes dentre

(24)

Gostaríamos de observar que uma prova analítica da Proposição 1.3.5 pode ser feita usando o Teorema 1.3.1 acima.

Podemos definir direções em conjuntos convexos. Sejam A ∈ Mm×n(R) com posto (A) = m > 0 e

Q = {x ∈ Rn : Ax = b, x ≥ 0} 6= ∅. O conjunto das direções de recessão de Q é o conjunto

D =d ∈Rn : Ad = 0, eTd = 1, d ≥ 0 .

Agora, estamos aptos à demonstrar que qualquer ponto no conjuntoQ pode ser escrito como combinação convexa de pontos extremos e direções de recessão emQ. Veja Teorema 2.1 na página 69 em [3].

Teorema 1.3.6 Sejam A ∈ Mm×n(R) com posto (A) = m > 0 e Q = {x ∈ Rn : Ax = b, x ≥ 0} 6= ∅. Todo ponto ¯x ∈ Q pode ser escrito como

¯ x = k X j=1 λjxj+ l X j=1 ujdj, k X j=1 λj = 1, (1-4)

onde x1, . . . , xk são pontos extremos de Q, d1, . . . , dl são as direções de recessão emQ, λj ≥ 0 para j = 1, · · · , k e uj ≥ 0 para j = 1, . . . , l.

Demonstração: Considere ¯x ∈ Q. Defina o conjunto ¯

Q = Q ∩ {x : eTx ≤ M },

onde M é grande o suficiente para que eTxj ≤ M para j = 1, . . . , k e eTx ≤ M .¯ Note que ¯Q é limitado e que os pontos extremos de Q estão contidos no conjunto ¯Q. Seja ¯V = {x1, . . . , xk, . . . , xk+`} o conjunto dos pontos extremos de ¯Q, onde 0 ≤ ` < ∞. Em príncipio, iremos mostrar que ¯x pode ser escrito como combinação convexa dos pontos em ¯V . Se ¯x ∈ ¯V então este pode ser escrito como combinação convexa dos pontos de ¯V . Senão, considere o sistema Gx = g, que representa o sistema constituído pelos hiperplanos onde ¯x se encontra e note que, Posto(G) ≤ (n − 1). Como Posto(G) ≤ (n − 1) encontre uma solução d 6= 0 para o sistema Gd = 0 e calcule

¯

(25)

onde 0 < ¯γ1 < ∞ pois o conjunto ¯Q é limitado. Denote y1 = ¯x + ¯γ1d ∈ ¯Q. Note que, como Gd = 0 temos que Gy1 = g e, como 0 < ¯γ < ∞ segue-se que y1 está contido em um hiperplano que não contém ¯x. Seja v o vetor que define este novo hiperplano que contém y1 e note que

hv, di 6= 0,

pois caso contrário, ¯x se encontraria neste novo hiperplano. Assim

Posto " G vT #! = r + 1,

pois senão, existiria u ∈ Rn tal que v = GTu e assim obteríamos a seguinte contradição,

0 6= hv, di =GTu, d = uTGd = 0.

Se r + 1 = n então, pela Proposição 1.3.4, ¯x é ponto extremo. Caso contrário, podemos repetir este processo não mais que (n − Posto(G)), obtendo um ponto extremo ¯x1 ∈ ¯Q que satisfaz G¯x1 = g. Agora defina

¯

γ2 = max{γ : ¯x + γ(¯x − ¯x1) ∈ ¯Q}, e denote

y2 = ¯x + ¯γ2(¯x − ¯x1) ∈ ¯Q.

Como ¯Q é limitado, temos ¯γ2 < ∞. Agora, desde que G[¯x + γ(¯x − y1)] = g obtemos que y2 está contido em alguns hiperplanos que não contém ¯x, e assim temos também que ¯γ2 > 0. Em particular, Gy2 = g e novamente um hiperplano linearmente independente adicional contém y2. Além disso, ¯x é uma combinação convexa de ¯x1 e y2,

¯

x = δ ¯x1+ (1 − δ)y2,

(26)

de ¯x dada por ¯ x = k+` X j=1 δjxj, onde k+` X j=1 δj = 1, e δ ≥ 0. (1-5)

Se δj = 0, para j > k, então a equação acima esta na forma (1-4). Senão considere algum xr com r > k e δ

r > 0. Note que xr é um ponto extremo gerado pela restrição eTx ≤ M , isto é, eTx = M é um dos hiperplanos linearmente independentes que contém xr ∈ ¯Q. Os outros (n − 1) hiperplanos linearmente independentes estão associados à algumas equações que definem Q. Seja xi(r) ∈ Q, com 1 ≤ i(r) ≤ k, um ponto extremo contido nestes n − 1 hiperplanos linearmente independentes. Note que xi(r) se encontra nos mesmos hiperplanos de xrmais um hiperplano, que define o conjuntoQ. Desta forma, como xi(r) se encontra em um hiperplano a mais que xr, este tem uma coordenada nula a mais do que o ponto xr. Assim (xr − xi(r)) ≥ 0 define uma direção de recessão emQ da seguinte forma

¯ d = (x

r− xi(r)) θr

,

onde θr = eT(xr− xi(r)) > 0. Os (n − 1) hiperplanos linearmente independentes do sistema Ad = 0, d ≥ 0 que correspondem aos (n − 1) hiperplanos line-armente independentes de Q contendo xr, também contém ¯d. Também, estes (n−1) hiperplanos linearmente independentes contendo xr, mais o hiperplano etd = 1, produzem n hiperplanos linearmente independentes de D que contém

¯

d. Assim, ¯d deve ser um ponto extremo dj(r) de D. Consequentemente, temos que

xr = xi(r)+ θvdj(r).

Substituindo a equação acima na equação (1-5) para cada v e colocando i(r) = j(r) = 1 se δr= 0, obtemos que

¯ x = k X j=1 δjxj + k+` X v=k+1 δvxi(r)+ k+` X v=k+1 δvθvdj(r),

(27)

1.3.1

Projeção em Conjuntos Convexos

Nesta seção, estaremos interessados em propriedades da projeção sobre conjuntos convexos. Para isso começamos definindo distância de um ponto x à um conjunto convexo. A demonstração do próximo resultado pode ser encontrada na página 116 em [12].

Proposição 1.3.7 Seja C um conjunto convexo, fechado e não vazio de Rn. Para x ∈ Rn fixado, o problema

inf||y − x||2 : y ∈ C , (1-6)

tem solução.

Demonstração: Seja c ∈ C. Considere o conjunto de subnível S := {y ∈ Rn : ||y − x|| ≤ ||c − x||}. Então o problema (1-6) é equivalente a

inf{||y − x|| : y ∈ C ∩ S}.

Agora como a aplicação y 7→ ||y − x|| é contínua, segue-se que o conjunto S é compacto e consequentemente o conjunto C ∩ S também é compacto. Portanto, pelo Teorema de Weiertrass 1.1.1 o último problema tem solução o que implica

que o problema (1-6) tem solução. 

Pelo resultado acima, deduzimos a existência de um ponto em C que minimiza a distância a x e desta forma o problema (1-6) é de fato um mínimo. Veremos que este mínimo é único. Veja Teorema 3.1.1 na página 117 em [12]. Teorema 1.3.8 Seja x ∈Rn. Se para algum y

x ∈ C tem-se ||yx− x|| ≤ ||y − x||, para todo y ∈ C, então

(x − yx)T(y − yx) ≤ 0, (1-7)

(28)

Demonstração: Tome y ∈ C arbitrário de forma que yx + α(y − yx) ∈ C para qualquer α ∈ (0, 1). Então podemos escrever

||yx− x||2 ≤ ||yx+ α(y − yx) − x||2 = ||(yx− x) + α(y − yx)||2

= ||yx− x||2+ 2α(yx− x)T(y − yx) + α2||y − yx||2. Desenvolvendo esta última equação obtemos

0 ≤ α(yx− x)T(y − yx) + 1 2α

2||y − y x||2.

Dividindo ambos os lados por α > 0 e fazendo α tender a zero concluimos que (x − yx)T(y − yx) ≤ 0, ∀ y ∈ C.

 Para o próximo resultado veja página 116 em [12].

Teorema 1.3.9 Seja x ∈Rn. Existe um único ponto y

x ∈ C tal que

||yx− x|| ≤ ||y − yx||, ∀ y ∈ C.

Demonstração: Primeiramente iremos mostrar a existência do ponto yx. Para isso, suponha que yx ∈ C satisfaça (x − yx)T(y − yx) ≤ 0, para todo y ∈ C. Se x ∈ C, então o resultado vale. Senão

0 ≥ (x − yx)T(y − yx)

= (x − yx)T(y − x + x − yx) ≥ ||x − yx||2− ||yx− x||||y − x||,

onde a desigualdade de Cauchy-Schwarz foi utilizada. Dividindo por||yx−x|| > 0, obtemos ||yx − x|| ≤ ||y − x||. Agora, para mostrar unicidade suponha que existam yx ∈ C e y

0

x ∈ C tais que

||yx− x|| ≤ ||y − x|| e ||y

0

x− x|| ≤ ||y − x||,

(29)

e somando as desigualdades obtemos que (yx0 − yx)T(y

0

x− yx) ≤ 0.

Logo, yx0 = yx. Portanto yx é único. 

Seja o conjunto C ⊂Rn, defina a função distância à C como sendo d(., C) :Rn→R

x 7→ d(x, C) = inf{||y − x|| : y ∈ C}.

A projeção ortogonal sobre C é a função PC : Rn → C definida como sendo o único ponto PC(x) ∈ C, que existe Pelo Teorema 1.3.9, tal que

d(x, C) = ||PC(x) − x||.

Teorema 1.3.10 Seja C ⊂ Rn um conjunto não vazio, convexo e fechado. Então para todo x /∈ C a projeção ortogonal PC(x) de x sobre C está bem definida e satisfaz a seguinte desigualdade

(x − PC(x))T(y − PC(x)) ≤ 0, ∀ y ∈ C. (1-8) Demonstração: Segue imediatamente do Teorema 1.3.9 que a projeção está bem definida. E o Teorema 1.3.9 implica a desigualdade (1-8).  Toda nossa discussão sobre projeção em conjuntos convexos, nos possi-bilitou obter ferramentas para demonstração do Teorema da Separação, cuja demonstração pode ser encontrada no Teorema 2.4.4 na página 45 em [4]. Teorema 1.3.11 (Teorema da Separação) Seja C um conjunto convexo, fechado e não vazio em Rn e considere b /∈ C. Então existe um vetor a ∈ Rn, a 6= 0, e um escalar δ ∈R tais que, para todo x ∈ C

aTx ≥ δ > aTb. Como consequência, aTb < inf{aTx : x ∈ C}.

Demonstração: Sejam C um conjunto convexo, fechado e não vazio e b /∈ C. Pelo Teorema 1.3.10 a projeção PC(b) ∈ C está bem definida e satisfaz

(30)

para cada x ∈ C. Defina

a := −(b − PC(b)) 6= 0, δ := aTPC(b).

A definição de a juntamente com (1-9) resulta que −aT(x − P

C(b)) ≤ 0 ou equivalentemente, aTx ≥ aTP

C(b). Esta última equação juntamente com a definição de δ implica em aTx ≥ δ, que é a primeira desigualdade desejada. Para verificar a segunda desigualdade note que pelas definições de a e δ temos que

aTb − δ = (−b + PC(b))Tb + aTPC(b) = −||b − PC(b)||2 < 0,

onde a desigualdade estrita segue do fato que b /∈ C. Assim, aTb < δ o que

conclui a primeira parte. A segunda parte é imediata. 

O Teorema da Separação afirma que, o ponto b /∈ C está separado de C pelo hiperplano aTx = δ.

1.3.2

Funções convexas

Nesta seção vamos tratar de alguns conceitos básicos a respeito de funções convexas. Nosso objetivo principal é obter as seguintes propriedades importantes:

• o conjunto dos subníveis de uma função convexa é um conjunto convexo; • funções estritamente convexas possuem no máximo um ponto de

míni-mo.

Iniciaremos esta seção, tratando de funções convexas de uma variável.

Seja I ⊂R um intervalo. Uma função f : I → R é dita convexa quando, para todo x, y ∈ I e todo λ ∈ [0, 1]

f (λx + (1 − λ)y) ≤ λf (x) + (1 − λ)f (y), (1-10) e é estritamente convexa se (1-10) é estrita para todo x, y ∈ I com x 6= y e todo λ ∈ (0, 1).

O próximo resultado fornece uma caracterização de funções convexas, cuja demonstração pode ser encontrada no Teorema 4 e Corolário 2, respecti-vamente nas páginas 106 e 108 em [18].

(31)

i) A função f é convexa se, e somente se,

f0(x)(y − x) + f (x) ≤ f (y), ∀ x, y ∈ I. (1-11) Se (1-11) é estrita para todo x, y ∈ I, então f é estritamente convexa. ii) A função f é convexa se, e somente se,

f0(x) − f0(y)(x − y) ≥ 0, ∀ x, y ∈ I. (1-12) Se (1-12) é estrita para todo x, y ∈ I, então f é estritamente convexa. iii) A função f é convexa se, e somente se

f00(x) ≥ 0, ∀ x ∈ I. (1-13)

Se (1-13) é estrita para todo x ∈ I, então f é estritamente convexa. Demonstração: Dados x, y ∈ I, temos por hipótese que

f λy + (1 − λ)x ≤ λf (y) + (1 − λ)f (x). Após algumas manipulações algébricas segue-se que

f x + λ(y − x) + f (x)

λ ≤ f (y) − f (x),

para todo λ ∈ [0, 1]. Fazendo λ → 0 na última desigualdade temos f0(x)(y − x) + f (x) ≤ f (y),

que é o resultado desejado. Reciprocamente, dados x, y ∈ I e λ ∈ [0, 1] tome z = λx + (1 − λ)y. Então da equação (1-11) segue-se que

f0 λx + (1 − λ)y(1 − λ)(x − y) + f λx + (1 − λ)y ≤ f (x) (1-14) e

f0 λx + (1 − λ)yt(y − x) + f λx + (1 − λ)y ≤ f (y). (1-15) Multiplicando (1-14) por λ e (1-15) por (1 − λ) e adicionando o resultado obtemos f λx + (1 − λ)y

(32)

Para provar o item ii, tome x, y ∈ I, como f é convexa em I temos pela Proposição 1.3.12 item i que

f0(x)(y − x) + f (x) ≤ f (y) e f0(y)(x − y) + f (y) ≤ f (x), (1-16) para todo x, y em I. Então, segue-se de (1-16) que

f (x) + f0(x)(y − x) ≤ f (y) ≤ f (x) + f0(y)(y − x),

isto implica que f0(x) − f0(y)(x − y) ≥ 0, para todo x, y em I. Isto prova a primeira parte. Reciprocamente, é claro que o resultado é válido para x = y. Agora, dados x, y ∈ I com x 6= y e λ ∈ [0, 1], temos pelo Teorema do Valor Médio Teorema 1.2.1 que, para todo a ∈ (x, y), existem c0 e c00 com c0 ∈ (x, a) e c00∈ (a, y) tais que

f (a) − f (x) = f0(c0)(a − x) e f (y) − f (a) = f0(c00)(y − a).

Multiplicando a primeira igualdade por −λ, a segunda por 1 − λ, tomando a = λx + (1 − λ)y e adicionando o resultado obtemos a seguinte igualdade λf (x) + (1 − λ)f (y) − f λx + (1 − λ)y = f0

(c00)(1 − λ)λ(y − x) − f0(c0)λ(1 − λ)(y − x). (1-17) Note que existe k > 0 tal que c00− c0 = k(y − x) ou seja, y − x = (c00− c0)/k. Assim a igualdade anterior se reduz a

λf (x) + (1 − λ)f (y) − f λx + (1 − λ)y = (1 − λ)λ

k f

0

(c00) − f0(c0)(c00− c0). (1-18) Como k > 0 e λ ∈ [0, 1] segue da igualdade anterior e desigualdade (1-12) que

f λx + (1 − λ)y ≤ λf (x) + (1 − λ)f (y),

e portanto f é convexa. Agora, se (1-12) é estrita para todo x, y ∈ I e como k > 0 e λ ∈ (0, 1) na equação (1-17), então (1-18) vale para desigualdade estrita e f é estritamente convexa. Isto prova o item ii.

Prova do item iii. Se f é convexa, segue-se do item ii que f0(x + h) − f0(x)h

h2 ≥ 0, (1-19)

(33)

o resultado é válido para x = y. Agora, dados x, y ∈ I com x 6= y temos, pelo Teorema do Valor Médio 1.2.1, que existe a entre x e y tal que

f0(y) − f0(x) = f00(a)(y − x). (1-20) Como f00(a) ≥ 0, segue-se desta igualdade que

f0(y) − f0(x)(y − x) ≥ 0,

para todo x, y ∈ I. Portanto, pelo item ii, temos que f é convexa. Agora, se (1-13) é estrita para todo x, y ∈ I, então (1-14) vale para desigualdade estrita

e pelo item ii segue que f é estritamente convexa. 

Agora iremos tratar sobre funções convexas definidas em subconjun-tos convexos deRn. Seja C um conjunto não vazio convexo emRn. Uma função f : C →R é dita convexa quando, para todo x, y ∈ C e todo λ ∈ [0, 1] vale

f (λx + (1 − λ)y) ≤ λf (x) + (1 − λ)f (y), (1-21) e é estritamente convexa se a desigualdade (1-21) é estrita para todo x, y ∈ C com x 6= y e todo λ ∈ (0, 1).

A próxima proposição afirma que os conjuntos dos subníveis de uma função convexa são convexos. Veja Teorema 3.4.1 página 133 em [13].

Proposição 1.3.13 Sejam C ⊂ Rn um conjunto convexo e f : C → R uma função convexa. Então para todo r ∈R o conjunto subnível

{x ∈ C : f (x) ≤ r}, é um conjunto convexo.

Demonstração: Tome r ∈R arbitrário. Se o conjunto L = {x ∈ C : f(x) ≤ r} for vazio, o resultado segue. Caso contrário tomemos x ∈ L e y ∈ L. Assim, temos que

f (x) ≤ c e f (y) ≤ c. (1-22)

(34)

Da desigualdade acima e de (1-22) obtemos que f (x + (1 − α)y) ≤ c. Portanto

x + (1 − α)y ∈ L, concluindo a demonstração. 

Agora, estaremos interessados em verificar que uma função convexa sobre um conjunto convexo tem no máximo um ponto de mínimo. Para isso precisamos definir ponto de mínimo local e global. Sejam Ω um subconjunto de Rn e uma função f : Ω → R. Um ponto x∈ Ω é um mínimo local de f se existir r > 0 tal que

f (x∗) ≤ f (x), ∀ x ∈ B(x∗, r) ∩ Ω, e um mínimo global de f se f (x∗) ≤ f (x), para todo x ∈ Ω.

É fácil ver que a bola aberta é convexa e que a interseção de dois conjuntos convexos é convexo. Vamos usar este fato no seguinte lema, cuja demonstração pode ser encontrada no Teorema 3.1.5 na página 69 em [13]. Lema 1.3.14 Sejam C um subconjunto convexo deRne f : C → R uma função convexa. As seguintes alternativas valem:

i) Se x∗ é um mínimo local de f em C. Então x∗ é mínimo global de f . ii) Se f : C →R é estritamente convexa, então f possui no máximo um ponto

de mínimo.

Demonstração: Suponhamos que f admita um mínimo local x∗ que não seja um mínimo global. Sendo x∗ um mínimo local, existe B(x, r) tal que f (x) ≤ f (x) para todo x ∈ B(x∗, r) ∩ C. Como x∗ não é mínimo global, existe z ∈ Rn tal que f (z) < f (x∗). Sendo B(x, r) ∩ C um conjunto convexo, λx+ (1 − λ)z ∈ B(x∗, r) ∩ C, para todo λ ∈ [0, 1]. Agora escolhendo λ suficientemente próximo da unidade, pela convexidade de f , temos

f (λx∗+ (1 − λ)z) ≤ λf (x∗) + (1 − λ)f (z) < f (x∗), (1-23) pois f (z) < f (x∗). Mas pela construção, λx+ (1 − λ)z está em B(x, r) ∩ C, assim f (x∗) ≤ f (λx∗+ (1 − λ)z), chegando assim a uma contradição com (1-23). Portanto, x∗ é um mínimo global de f emRn. Isto prova o item i.

Prova do item ii. Suponhamos que x, y ∈ C sejam mínimos de f . Suponhamos por absurdo que x 6= y. Desde que f é estritamente convexa temos

(35)

Pelo item i temos que x e y são mínimos globais, assim f (x) = f (y). Deste modo a equação anterior se reduz a

f (λx + (1 − λ)y) < f (x) = f (y), ∀ λ ∈ (0, 1).

Isto é um absurdo, pois x e y são mínimos globais. 

A demonstração do próximo resultado pode ser encontrada no Teo-rema 8 na página 76 em [19].

Proposição 1.3.15 Sejam C ⊂ Rn um conjunto convexo e uma função f : C → R. A função f é convexa se, e somente se, a restrição de f a todo segmento de reta, que esta contido em C, é uma função convexa. Mais precisa-mente, a função f é convexa se, e somente se, para todo x ∈ C e v ∈Rna função h : I →R definida por

h(t) = f (x + tv), (1-24)

é convexa, onde I = {t ∈R : x + tv ∈ C}.

Demonstração: Fixe x ∈ C e v ∈ Rn e suponha que f seja convexa. Dados t1, t2 ∈ I e λ ∈ [0, 1], pela definição de h e convexidade de f temos

h λt1+ (1 − λ)t2 = f λ(x + t1v) + (1 − λ)(x + t2v) 

≤ λf (x + t1v) + (1 − λ)f (x + t2v) = λh(t1) + (1 − λ)h(t2).

e isto implica que h é convexa em I. Reciprocamente, dados x, y ∈ C e λ ∈ [0, 1]. Seja I = {t ∈ R : x + t(y − x) ∈ C}. Note que, sendo C convexo, x + λ(y − x) = λy + (1 − λ)x ∈ C para λ ∈ [0, 1] e assim λ ∈ I. Defina h : I →R por h(t) = f (x + t(y − x)). Como, por hipótese, h é convexa segue-se que

f (λy + (1 − λ)x) = f (x + t(y − x)) = h(λ) = h(λ1 + (1 − λ)0) ≤ λh(1) + (1 − λ)h(0) = λf (y) + (1 − λ)f (x),

e isto implica que f é convexa. 

(36)

Veja no Teorema 3.4.7 na página 146 em [13] que, se uma função f é duas vezes diferenciável ela pode ser caracterizada da seguinte forma.

Proposição 1.3.16 Sejam C um subconjunto aberto e convexo de Rn e f : C → R uma função duas vezes diferenciável. A função f é convexa se, e somente se, para todo x ∈ C , v ∈Rn

hf00(x)v, vi ≥ 0. (1-25)

Se a desigualdade (1-25) é estrita , então f é estritamente convexa.

Demonstração: Dados x ∈ C e v ∈Rn, defina h como na Proposição 1.3.15. Note que I é aberto, pois C é aberto e que 0 ∈ I. Sabendo-se que f é convexa, pela Proposição 1.3.15, segue-se que h é convexa. Então, pela Proposição 1.3.12, temos que

h00(0) ≥ 0. (1-26)

Pela definição de h, e regra da cadeia, temos que h00(t) = hf00(x + tv)v, vi, assim (1-26) é equivalente a

D

f00(x)v, v E

≥ 0,

o que prova a primeira parte. Reciprocamente, dados x ∈ C e v ∈Rn. Defina h como na Proposição 1.3.15. Note que o intervalo I é aberto e que

h00(t) = hf00(x + tv)v, vi.

Então pela definição de h e equação (1-25), temos que para todo t ∈ I h00(t) = hf00(x + tv)v, vi ≥ 0.

Portanto, pela Proposição 1.3.12 segue-se que h é convexa e isto implica, pela Proposição 1.3.15, que f é convexa e a proposição está demonstrada. 

Exemplo 1.3.17 Dados c ∈Rne µ > 0, a função ϕ :Rn

++ →R definida por ϕ(x) = cTx − µ n X i=1 log xi,

é estritamente convexa. Como consequência, dado r ∈R, o conjunto

(37)

é convexo.

De fato, a derivada segunda de ϕ é dada por ϕ00(x) = µX−2.

Utilizando propriedades do produto interno e definição de norma de vetores temos que,

hϕ00(x)v, vi =µX−2v, v = µ X−1v, X−1v = µ||X−1v||. Como x ∈ Rn

++ temos que para todo v 6= 0, vale ||X

−1v|| > 0. Este fato juntamente com µ > 0 e a equação acima implica que

hϕ00(x)v, vi > 0, ∀ v 6= 0. Portanto, pela Proposição 1.3.16, ϕ é estritamente convexa.

Agora, da Proposição 1.3.13 podemos concluir que o conjunto subnível

S = ( x ∈Rn++ : cTx − µ n X i=1 log xi ≤ r ) ,

é convexo. Por outro lado, o conjunto L = {x ∈ Rn : Ax = b} é convexo. Como interseção de conjuntos convexos é convexo e Ω = S ∩L segue-se que Ω é convexo.

1.4

Resultados Básicos de Álgebra Linear

Matrizes têm fundamental importância no estudo de álgebra linear. Uma matriz quadrada A é dita não-singular se a única solução do sistema Ax = 0 é x = 0.

Lema 1.4.1 Sejam u ∈Rn

++, v ∈ Rn++ e W ∈ Mm×n(R) com Posto(W ) = m < n. Se U = diag(u) e V = diag(v), então a matriz

M =    W 0m×m 0m×n 0n×n WT I V 0n×m U   ,

é não-singular, onde I é a matriz identidade n × n.

(38)

0 ∈R2n+m. A igualdade M z = 0 é equivalente ao seguinte sistema:

W z1 = 0, (1-27)

WTz2+ z3 = 0, (1-28)

V z1+ U z3 = 0. (1-29)

Isolando o vetor z3 na expressão (1-29) e substituindo na expressão (1-28) temos que

WTz2− U−1V z1 = 0 ⇒ WTz2 = U−1V z1 ⇒ z1 = V−1

U WTz2.

Substituindo o vetor z1, obtido na última implicação, na expressão (1-27) obtemos que

W V−1U WTz2 = 0. (1-30)

Agora note que V−1 = V−1/2V−1/2 e U = U1/2U1/2 desta forma, a expressão (1-30) pode ser reescrita como

W V−1/2V−1/2U1/2U1/2WTz2 = 0. (1-31) Com algumas manipulações algébricas, e observando que V e U são matrizes diagonais, a expressão (1-31) pode ser reformulada da seguinte forma

W V−1/2U1/2V−1/2U1/2WTz2 = 0 ⇒ W U1/2V−1/2V−1/2U1/2WTz2 = 0. (1-32) Denotando B = W U1/2V−1/2, a expressão (1-32) é reescrita da seguinte forma BBTz2 = 0. Como Posto(W ) = m < n, segue das definições de B, U , V e última igualdade que z2 = 0.

Com z2 = 0 temos que na expressão (1-28), z3 = 0 e como V é inversível temos que na expressão (1-29) V z1 = 0 implica que z1 = 0. Desta forma a única solução do sistema M z = 0 é o vetor nulo. Portanto a matriz M é não-singular. 

Uma matriz A pode representar diversas estruturas em Álgebra Li-near. Associados à matriz A ∈ Mm×n(R) podemos destacar dois subespaços do Rn, a saber, o espaço nulo de A definido por

(39)

e o espaço imagem de AT (ou espaço linha de A), definido por Im(AT) = x ∈Rn: x = ATz, z ∈Rm .

A seguir vamos obter uma relação entre estes subespaços. A demonstração da próxima proposição pode ser encontrada em [25].

Proposição 1.4.2 Considere o Rn. O subespaço nulo de A é ortogonal ao subespaço linha de A.

Demonstração: Considere o espaço Rn. Suponha que x ∈ Null(A) então por definição temos que

Ax = 0. (1-33)

E suponha também que v ∈ Im(AT) então por definição

v = ATz, para algum z ∈Rm. (1-34)

Agora usando (1-33) e (1-34) e realizando algumas manipulações matriciais obtemos que

vTx = (ATz)x = zTAx = 0.

E por definição, o resultado segue. 

Matrizes também estão associadas à sistemas de equações lineares. Existem diversos métodos de resolução de sistemas de equações lineares. Seja a matriz A ∈ Mm×n(R) e considere o sistema Ax = b. O método de Eliminação de Gauss utiliza sistemas equivalentes para resolver sistemas de equações lineares. O método de Gauss transforma um sistema de equações lineares Ax = b, através de operações elementares, em um sistema equivalente QAx = Qb, onde a matriz QA fica em uma forma triangular superior, porém os pivôs nem sempre estarão na diagonal principal e Q é a matriz das operações elementares. O importante neste processo, é que a matriz QA possui o mesmo posto da matriz A. Veja Teorema 2D em [25].

(40)

onde ˜Al×B ∈ Ml×B(R) e ˜Am−l×N ∈ Mm−l×N(R). Além disso, vale a igualdade Posto( ˜Al×B) + Posto( ˜A(m−l)×N) = m = Posto(A).

(41)

Problema de Programação Linear

Nosso objetivo neste capítulo é definir os problemas de programação linear primal e dual no formato padrão, mostrar algumas relações entre o par de problemas através dos resultados de dualidade e, como consequência, obter as equações que definem as condições de otimalidade para o Problema de Programação Linear.

2.1

Os problemas de Programação Linear

Pri-mal e Dual

O Problema de Programação Linear (PPL) primal no formato padrão é o seguinte problema de Otimização:

(P) minimizar cTx sujeito a : Ax = b

x ≥ 0,

onde A ∈ Mm×n(R), com m ≤ n, b ∈ R e c ∈ Rn, são os dados do problema, e os pontos x ∈Rn são as variáveis primais.

A seguir faremos algumas notações associadas ao problema (P ). O conjunto

F (P ) = {x ∈Rn: Ax = b, x ≥ 0},

é chamado conjunto viável e um ponto x ∈ F (P ) é denominado ponto viável. O conjunto

(42)

é chamado conjunto de pontos interiores viáveis e um ponto deste conjunto é denominado ponto interior viável. O conjunto

P∗ = {x∗ ∈ F (P) : cTx≤ cTx, para todo x ∈ F (P )},

é chamado conjunto de soluções ótimas e um ponto x∗ ∈ Pé denominado solução ótima.

Resolver o problema (P) consiste em encontrar um ponto x∗ ∈ Pou mostrar que F (P ) é vazio, isto é que o problema (P) é inviável, ou ainda, mostrar que a função objetivo é ilimitada no conjunto viável ou seja, (P) é um problema ilimitado.

O problema dual correspondente ao problema primal (P), é o seguinte problema de Otimização:

(D) maximizar bTy sujeito a : ATy + s = c

s ≥ 0, onde y ∈Rm e s ∈Rnsão as variáveis duais.

A seguir, faremos algumas definições associadas ao problema (D). O conjunto

F (D) = {(y, s) ∈Rm×Rn : ATy + s = c, s ≥ 0},

é chamado conjunto viável para o problema dual e um par (y, s) ∈ F (D) é denominado ponto viável para o problema dual. O conjunto

F0(D) = {(y, s) ∈Rm×Rn : ATy + s = c, s > 0},

é chamado conjunto de pontos interiores viáveis duais e um par neste conjunto é denominado ponto interior viável dual. O conjunto

D∗ = {(y∗, s∗) ∈ F (D) : bTy∗ ≥ bTy, para todo (y, s) ∈ F (D)},

é chamado conjunto de soluções ótimas para o problema dual e um par (y∗, s∗) ∈ D∗ é denominado solução ótima para o problema dual.

De agora em diante assumiremos a seguinte hipótese: (H1) Posto(A) = m.

(43)

2.2

Condições de Otimalidade

Nesta seção estaremos interessados em apresentar as relações entre o par de problemas Primal e Dual, obtendo as equações que definem as condições de otimalidade para estes problemas. Iniciaremos com o teorema de Dualidade Fraco cuja a demonstração pode ser encontrada no Teorema 3.2.1 na página 70 em [24].

Teorema 2.2.1 (Dualidade Fraco) Dados x ∈ F (P ) e (y, s) ∈ F (D). Então vale a igualdade

xTs = cTx − bTy. Como consequência cTx ≥ bTy.

Demonstração: Por hipótese Ax = b e ATy + s = c, assim

cTx − bTy = (ATy + s)Tx − (Ax)Ty = (ATy)Tx + xTs − (Ax)Ty = xTs. Desde que x ≥ 0 e s ≥ 0 a última igualdade implica que cTx ≥ bTy. 

O problema (P) chama-se ilimitado, quando existe uma sequência {xk} ⊂ F (P ) tal que cTxk → −∞, quando k → ∞. Caso contrário, o problema (P) é limitado. De maneira análoga dizemos que o problema (D) é ilimitado, quando existe uma sequência{yk} ⊂ F (D) tal que bTyk → ∞, quando k → ∞. Caso contrário, o problema (D) é limitado.

O próximo resultado pode ser encontrado no Corolário 3.2.2 na página 71 em [24].

Corolário 2.2.2 As seguintes afirmações valem:

i) Se o problema (P) é ilimitado, então o problema (D) é um problema inviável;

ii) se o problema (D) é ilimitado, então o problema (P) é um problema inviável.

Demonstração: Suponha que (P) seja ilimitado, então existe uma sequência {xk} em F (P ) tal que lim

k→∞cTxk = −∞. Então pelo Teorema 2.2.1 segue imediatamente queF (D) = ∅, isto prova o item i. A prova do item ii é feita de

modo análogo. 

(44)

demonstração pode ser encontrada no Teorema de Dualidade na página 89 em [21].

Teorema 2.2.3 Uma, e somente uma, das seguintes afirmações acontece: a) O problema (P) tem uma solução ótima se, e somente se, o problema (D)

também tem solução ótima. Além disso, os valores das funções objetivo de ambos são iguais.

b) Se (P) é um problema ilimitado, então (D) é um problema inviável. c) Se (D) é um problema ilimitado, então (P) é um problema inviável. Demonstração: Para o item a, iremos mostrar que se o problema (P) tem uma solução ótima, então o problema (D) também tem uma solução ótima e os valores das funções objetivos de ambos são iguais. Assim suponha que o problema (P) tem uma solução ótima com valor ótimo p∗. Defina o conjunto

C = (wT, r)T ∈Rm×R; B(xT, t)T = (wT, r)T; x ≥ 0, t ≥ 0 , onde B = " −A b −cT p∗ # ∈ M(m+1)×(n+1)(R).

Agora verifiquemos que (0, 1) /∈ C, onde 0 ∈ Rm. Suponhamos que (0, 1) ∈ C, então existem ¯x ≥ 0 e ¯t ≥ tais que

¯

tb − A¯x = 0, (2-1)

¯

tp∗− cTx = 1.¯ (2-2)

Temos duas possibilidades ¯t > 0 e ¯t = 0. Se ¯t > 0, como ¯x ≥ 0 temos de (2-1) que ¯x/¯t é viável para (P). Já que ¯x/¯t é viável para (P) e p∗é o valor ótimo de (P) temos p∗ ≤ cTx/¯t). Como estamos assumindo que ¯t > 0 a última desigualdade é equivalente à ¯tp∗ − cTx ≤ 0, o que contradiz (2-2). Agora vamos supor que¯ ¯

t = 0. Então o sistema acima reduz-se à A¯x = 0, cTx = −1.¯

(45)

que

p∗ ≤ cT(x + α¯x) = cTx − α.

Como a igualdade acima vale para todo α ≥ 0 temos um absurdo, visto que podemos fazer α tender para mais infinito, o que resulta no lado direito desta igualdade tender a menos infinito. Assim concluímos a prova que (0, 1) /∈ C.

Agora, da Proposição 1.3.3, temos que C é convexo, fechado e não vazio. Desde que (0, 1) /∈ C temos, pelo Teorema da Separação 1.3.11, que existe um hiperplano que separa (0, 1) de C, isto é, existe um vetor não zero (vT, λ)T Rm×R e uma constante ` tal que

λ < ` := inf {λr + vTw : (w, r) ∈ C}. (2-3) Temos duas possibilidades ` < 0 e ` ≥ 0. Se ` < 0, então existe ( ¯w, ¯r) ∈ C tal que λ¯r + vTw < 0, pois ` é o ínfimo de C. Como C é cone α(¯¯ r, ¯w) pertence a C para todo α > 0, logo

` ≤ λ(α¯r) + vT(α ¯w) = α(λ¯r + vTw).¯

Fazendo α tender ao infinito na última desigualdade temos um absurdo, pois λ¯r + vTw < 0. Portanto ` ≥ 0, mas como (0, 0) ∈ C segue-se que ` = 0.¯ Como consequência da equação (2-3) temos que λ < 0 e λr + vTw ≥ 0, para todo (wT, r) ∈ C, ou equivalentemente −r + −vT/λ w ≥ 0. Agora, denotando −v/λ = y a última equação é equivalente à

−r + yTw ≥ 0, ∀ (r, w) ∈ C. (2-4)

Definindo s = −ATy + c resta mostrar que (y, s) é solução ótima de (D). Primeiro mostremos que (y, s) é viável para (D). Pela definição de s resta mostrar que s ≥ 0. Segue da definição de C que (wT, r)T = B(xT, t)T ou equivalentemente w = −Ax + tb e r = −cTx + tp, para x ≥ 0 e t ≥ 0. Substituindo estas igualdades em (2-4) temos

0 ≤ cTx − tp∗+ yT(−Ax + tb) = (cT − yTA)x − tp

(46)

tem solução ótima implica que (P) tem solução ótima é análoga.

Para os itens b e c use o Corolário 2.2.2. 

Note que a volta do item b do teorema acima nem sempre é válida. O que ocorre de fato, é que se um dos problemas (P) ou (D) é inviável o seu dual pode ser ilimitado ou inviável. Para verificarmos isto analisemos o seguinte exemplo.

Exemplo 2.2.4 Considere os seguintes pares de problemas primal e dual no formato padrão. (P) minimizar − x1 − x2 sujeito a : x1− x2− x3 = 2 −x1+ x2− x4 = 2 x1, x2, x3, x4 ≥ 0 (D) maximizar 2y1+ 2y2 sujeito a : y1 − y2+ s1 = −1 −y1+ y2+ s2 = −1 −y1+ s3 = 0 −y2+ s4 = 0 s1, s2, s3, s4 ≥ 0

Iremos verificar que F (P ) = F (D) = ∅. Realizando operações ele-mentares na matriz aumentada [A | b] do problema (P) acima, obtemos o seguinte sistema equivalente

x1− x2− x3 = 2 −x3− x4 = 4.

Da segunda equação do sistema acima obtemos que x3 = −4 − x4. Como as variáveis do problema (P) são todas não negativas, a última equação implica F (P ) = ∅. Agora, analisemos o problema (D). Das duas últimas equações do sistema, temos que y1 = s3 e y2 = s4. Substituindo estas igualdades nas primeiras equações do sistema temos

s3− s4+ s1 = −1 −s3+ s4+ s2 = −1.

(47)

Portanto a volta do item b do Teorema 2.2.3 nem sempre é verdadeira pois, exibimos um problema primal inviável cujo seu dual é também inviável.

Para o próximo resultado, veja página 82 em [21].

Proposição 2.2.5 Se o problema (P) é viável e limitado então (P) tem solução ótima, isto é P∗ 6= ∅.

Demonstração: Temos duas possibilidades para o conjunto viável, F (P ) limi-tado ou ilimilimi-tado. Primeiro suponhamos queF (P ) seja limitado. Como F (P ) é fechado temos que ele é compacto. Então, pelo teorema de Weierstrass e pela continuidade da função objetivo, segue-se que (P) tem solução ótima. Agora suponhamosF (P ) ilimitado, pelo Teorema 1.3.6 podemos escrever

F (P ) = {v + d : v ∈ V, d ∈ K}, (2-5)

onde V é o conjunto de todas as combinações convexas dos vértices de F (P ) e K é o conjunto de todas as combinações convexas das direções de recessão de F (P ). Como F (P ) é convexo segue-se que V ⊂ F (P ). Assim, pela definição de K temos que v+αd ∈ F (P ), para todo α ≥ 0. Como por hipótese, o problema (P) é limitado existe `∗ tal que `≤ cT(v + αd) = cTv + αcTd, ou equivalentemente, `∗/α ≤ cTv/α + cTd. Já que a última equação vale para todo α > 0, fazendo α tender ao infinito obtemos que cTd ≥ 0. Deste modo,

cT(v + d) ≥ cTv, ∀ v ∈ V, ∀ d ∈ K.

Portanto da última equação e de (2-5), segue-se que o problema (P) é equiva-lente à

minimizar cTv sujeito a : v ∈ V

Pela Proposição 1.3.5 o número de vértices emF (P ) é finito. Assim, dado v ∈ V temos que v = ` X i=1 λivi, ondeP` i=1λi = 1, λi ≥ 0 e v

1, ..., v` são vértice deF (P ). Portanto,

(48)

Deste modo concluímos que o problema acima admite ponto de mínimo em um vértice de F (P ). Portanto em ambos os casos, quando F (P ) é limitado ou ilimitado, obtemos que o problema (P) tem solução ótima. 

Proposição 2.2.6 Se o problema (D) é viável e limitado então (D) tem solução ótima, isto é D∗ 6= ∅.

Demonstração: Com demonstração análoga ao Teorema 1.3.6 podemos escre-ver

F (D) = {v + d : v ∈ V, d ∈ K},

onde V é o conjunto de todas as combinações convexas dos vértices de F (D) e K é o conjunto de todas as combinações convexas das direções de recessão de F (D). Então com argumento análogo utilizado na Proposição 2.2.5 podemos

verificar o resultado. 

O Teorema de Dualidade Forte apresenta uma relação entre as soluções ótimas dos problemas (P) e (D), veja Teorema 3.2.3 na página 71 em [24].

Teorema 2.2.7 (Teorema de Dualidade Forte) SeF (P ) 6= ∅ e F (D) 6= ∅ então: a) Pé não vazio;

b) Dé não vazio;

c) Para todo x∗ ∈ P∗ e (y, s) ∈ Dtem-se cTx= bTy.

Demonstração: Verifiquemos o item a. Seja (y, s) ∈ F (D) então para todo x ∈ F (P ) temos, pelo Teorema de Dualidade Fraco , que cTx ≥ bTy que implica que o problema (P) é viável e limitado. Então pela Proposição 2.2.5 o conjunto P∗ é não vazio. Para verificar os itens b e c basta utilizar a hipótese do item a, isto é, P∗ é não vazio. Então pelo Teorema de Dualidade 2.2.3 item a o problema (D) tem solução ótima e os valores das funções objetivo de ambos são iguais, ou seja, D∗ é não vazio e para todo x∈ Pe (y, s) ∈ Dtem-se cTx= bTy.

(49)

Teorema 2.2.8 (Condições de Otimalidade) Considere os problemas (P) e (D) e o sistema de equações

Ax = b, x ≥ 0 (2-6)

ATy + s = c, s ≥ 0 (2-7)

xTs = 0. (2-8)

Então as seguintes afirmações valem:

i) Um ponto xRné uma solução ótima de (P) se, e somente se, existe um par (y∗, s) ∈Rm×Rnsolução ótima de (D), tal que (x, y, s) seja solução do sistema (2-6)-(2-8).

ii) Um ponto (y, s) ∈Rm×Rnsolução ótima de (D) se, e somente se, existe x∗ ∈ Rn uma solução ótima de (P), tal que (x, y, s) seja solução do sistema (2-6)-(2-8).

Demonstração: Prova do item i. Seja x∗ solução ótima de (P), então xsatisfaz (2-6). Além disso, pelo item a do Teorema 2.2.3 existe (y∗, s) solução de (D), e em particular, este ponto satisfaz a equação (2-7). Desde que x∗ é viável para (P) e (y∗, s) é viável para (D) temos pelo Teorema 2.2.1 que

cTx∗− bTy

= x∗Ts∗.

Ainda pelo item a do Teorema 2.2.3 temos que cTx= bTy, que juntamente com a última igualdade implica que x∗ e ssatisfaz (2-8). Portanto (x, y, s) é solução de (2-6)-(2-8).

Agora, suponhamos que (x∗, y, s) satisfaça o sistema (2-6) - (2-8). Pela equação (2-6) temos que x∗ é um ponto viável para (P) e pela equação (2-7) temos que (y∗, s∗) é um par viável para (D). Pelo Teorema 2.2.1 temos que cTx− bTy= x∗Ts, o que juntamente com a equação (2-8) implica cTx= bTy. Esta igualdade juntamente com o Teorema 2.2.1 implica que para todo x viável para (P) vale

cTx∗ = bTy∗ ≤ cTx. Portanto x∗ é solução de (P).

(50)

2.3

Resultados com viabilidade estrita

Na prova do Teorema da Dualidade Forte supomos apenas que os conjuntos viáveis primal e dual são não vazios, isto é, F (P ) 6= ∅ e F (D) 6= ∅. Nesta seção, veremos que exigindo um pouco mais, isto é,F0(D) 6= ∅, a prova deste resultado pode ser bastante simplificada.

Proposição 2.3.1 Seja ¯x ∈ F (P ). Suponha que F0(D) 6= ∅ então o conjunto L = {x ∈ F (P ) : cTx ≤ cTx},¯

é compacto.

Demonstração: Primeiro mostremos que L é fechado. Seja a sequência {xk} ⊂ L tal que lim

k→∞xk = ˜x ≥ 0. Desde que Axk = b e xk ≥ 0 segue imedi-atamente que ˜x ∈ F (P ). Como cTxk ≤ cTx, para todo k, segue-se que¯

lim k→∞c

Txk = cT lim k→∞x

k = cTx ≤ c˜ Tx.¯

Isto implica que ˜x ∈ L, assim L é fechado.

Agora verifiquemos que L é limitado. Por hipotése F0(D) 6= ∅. Sejam (¯y, ¯s) ∈ F0(D) e x ∈ L. Como x ∈ L ⊂ F (P ), temos pelo Teorema de Dualidade Fraco que

n X

i=1

xis¯i = xTs = c¯ Tx − bTy ≤ c¯ Tx − b¯ Ty = ¯¯ xTs.¯ Como x ≥ 0 e ¯s > 0 concluimos da última equação que

xi ≤ 1 ¯ si ¯ xT¯s ≤  max i=1,··· ,n  1 ¯ si  ¯ xTs,¯ i = 1, · · · , n.

Como tomamos x ∈ L arbitrário na última equação concluímos

imediata-mente queL é limitado. Portanto L é compacto. 

Proposição 2.3.2 Se F (P ) 6= ∅ e F0(D) 6= ∅ então o problema primal (P) tem conjunto solução P∗ não vazio e compacto.

Demonstração: Sejam ˜x ∈ F (P ) e (˜y, ˜s) ∈ F0(D). Defina o seguinte problema: (GP) minimizar cTx

sujeito a : cTx ≤ cTx¯ Ax = b

Referências

Documentos relacionados

(atual MEO) no período anterior à designação por concurso e o respetivo direito de aquela empresa ser ressarcida pelos CLSU incorridos nesse período, a

Eles argumentam que áreas desmatadas sob domínio público na Amazônia oferecem uma oportunidade única para o Brasil implementar o refl orestamento em larga escala recorrendo

Deve conhecer perfeitamente este Manual de Procedimentos ou “Bússola”, e o papel de cada ministério da Equipe de Serviço; assim como o Esquema do Curso

6- Preencha as lacunas de acordo com as informações da pessoa ficticia gerada (Guarde as informações usadas para preencher pois irá usa-la na ativação da conta!!). 7- Chegando

Comparando a taxa de variação homóloga de julho de 2012 com a média das taxas de variação homólogas dos três meses anteriores, é de realçar o comportamento da classe da

Pretendeu-se com este trabalho, investigar o que é necessário para se desenvolver um ensino em Educação Física que considere os valores morais como fundamentais para a

Após os a realiazação dos cálculos teóricos viu-se que o 2º andar do pipeline é mais lento do que o primeiro.Nos cálculos para estes tempos consideramos o Worst Case Scenario em

E, por outro lado, os distribuidores de seguros devem ainda obter a informação necessária (o nível de informação a recolher deverá ser adequado ao tipo de produto ou