• Nenhum resultado encontrado

Optimização Linear

N/A
N/A
Protected

Academic year: 2021

Share "Optimização Linear"

Copied!
155
0
0

Texto

(1)

Optimização Linear

Domingos Moreira Cardoso

Universidade de Aveiro

Departamento de Matemática

(2)
(3)

Conteúdo

Introdução 1

1 Noções Elementares de Análise Convexa 3

1.1 Algumas propriedades topológicas de conjuntos convexos . . . 8

1.2 Cones e poliedros convexos . . . 12

1.3 Teoremas de separação e lema de Farkas . . . 15

1.4 Exercícios . . . 19

2 Pontos Extremos e Direcções Extremas 23 2.1 Relações entre pontos extremos e soluções básicas . . . 25

2.2 Direcções extremas e representação de poliedros convexos . . . . 32

2.3 Exercícios . . . 36

3 Modelos de Programação Linear 39 3.1 Exemplos de programas lineares . . . 40

3.2 Formas padrão e canónica de programas lineares . . . 42

3.3 Resolução gráfica de programas lineares com duas variáveis . . . 45

3.4 Exercícios . . . 48

4 Estudo e Fundamentação do Método Simplex 51 4.1 Método simplex . . . 58

4.1.1 Actualização dos quadros simplex . . . 58

4.1.2 Algoritmo para o método simplex . . . 61

4.1.3 Determinação da inversa da base corrente . . . 64

4.1.4 Método simplex revisto . . . 65

4.2 Determinação de uma solução básica admissível inicial . . . 68

4.2.1 Método das duas fases . . . 69

4.2.2 Método do "big”-M . . . 71

4.3 Exercícios . . . 73

5 Estudo da Convergência do Método Simplex 75 5.1 Regra lexicográfica . . . 77

5.2 Regra de Bland . . . 82

5.3 Método das perturbações . . . 86

(4)

iv CONTEÚDO

6 Algumas Variantes do Método Simplex 91

6.1 Método simplex para variáveis limitadas . . . 91

6.2 Método de decomposição de Dantzig-Wolfe . . . 99

6.2.1 Determinação de um minorante para o problema principal 102 6.2.2 Descrição algorítmica . . . 103

6.3 Exercícios . . . 108

7 Dualidade 111 7.1 Método dual simplex . . . 117

7.2 Método Primal-Dual . . . 125

7.3 Exercícios . . . 130

8 Análise Pós-Optimal e Cortes de Gomory 133 8.1 Modificação dos coeficientes da função objectivo . . . 134

8.2 Modificação dos termos independentes . . . 136

8.3 Modificação das entradas da matriz de decisão . . . 137

8.4 Adição de uma nova actividade . . . 139

8.5 Adição de uma nova restrição . . . 140

8.6 Cortes de Gomory em programação inteira . . . 142

8.7 Exercícios . . . 145

Bibliografia 147

(5)

Introdução

Muitas das situações da vida real, ou representações dela, motivaram (e conti-nuam a motivar) a criação de conceitos particulares, a caracterização de novas relações e o reconhecimento de várias propriedades. A formalização destes con-ceitos e relações, a sua manipulação analítica e a inferência das propriedades, com recurso às ferramentas matemáticas usuais, como sejam, a intuição, a a-bstracção e a dedução, constitui o que se designa, habitualmente, por Matemá-tica Aplicada.

Em Matemática (Fundamental ou Aplicada) é essencial que a linguagem seja objectiva e que os argumentos utilizados sejam fundamentados nos pressupos-tos previamente definidos. Consequentemente, as fugas ao rigor, mesmo com o objectivo de simplificar, quando isso implica a banalização e o empobrecimento dos conceitos e relações em estudo, não são recomendáveis.

Cada ciência tem os seus mecanismos mentais que, não sendo despertados nem treinados, não se desenvolvem, tornando impossível o acesso a um conhe-cimento com características abrangentes. Sem a utilização desses mecanismos, todo o processo formativo se transforma numa fastidiosa e penosa aquisição de um aglomerado de casos particulares com relacionamentos difíceis de detectar. É atribuida a Euler a afirmação de que “No mundo só tem lugar aquilo que, em algum sentido, significa um máximo ou um mínimo” e na verdade, são inú-meras as situações práticas cujo modelo matemático corresponde a um problema de optimização. Com a disciplina de Optimização Linear, prentendem-se intro-duzir tanto os fundamentos como as técnicas para a resolução de diferentes tipos de problemas de optimização, provenientes das mais variadas áreas de estudo, como sejam, a Investigação Operacional, as Ciências Naturais, as Engenharias, etc.

O problema da determinação de x∗ ∈ X tal que f (x) = inf{f (x) : x ∈ S}, com S ⊆ X, usualmente denotado por

(P ) infs.a. x ∈ S,f (x)

designa-se por programa matemático (ou problema de programação matemá-tica). Por sua vez, o conjunto S designa-se por conjunto de pontos admissíveis e, em geral, é representado pelo conjunto de restrições, S = {x ∈ X : gi(x)≥ 0, i = 1, . . . , m}, onde gi com i ∈ {1, . . . , m}, denota uma função real cujo

(6)

2 Introdução domínio é X (i.e., gi : X → R). Se o conjunto de pontos admissíveis é defi-nido por um conjunto de restrições lineares e a função objectivo é linear (ou afim), então o problema designa-se por programa linear (problema de progra-mação linear ou ainda problema de optimização linear). No caso de qualquer das funções, f (x) ou gi(x), com i ∈ {1, . . . , m}, ser não linear, (P ) designa-se por programa não linear (problema de programação não linear ou problema de optimização não linear ). Se S 6= ∅, então (P ) diz-se consistente, caso contrário diz-se inconsistente.

Ao longo deste texto supõem-se conhecidas as noções básicas de Álgebra Linear, como sejam a de espaço vectorial euclidiano, de dependência e inde-pendência linear, e todas as noções associadas ao estudo de equações lineares (espaço nulo, característica da matriz dos coeficientes e completa do sistema, etc). Supõem-se também conhecidas as noções de norma, distância, espaço mé-trico, bem como as de interior, fronteira e aderência e, naturalmente, as noções de conjunto aberto, conjunto fechado e conjunto compacto e ainda a noção de continuidade.

A disciplina de Optimização Linear tem por objectivo o estudo das técni-cas e fundamentos de Programação Linear cujas múltiplas aplicações, enquanto modelo matemático de muitas das situações da vida real, riqueza das técnicas e metodologias e suas consequências em várias outras disciplinas, justificam que se lhe dedique a maior atenção.

Entre os tópicos a abordar constam algumas noções elementares de Análise Convexa (essenciais para o estudo da Optimização Linear), as propriedades das direcções e dos pontos extremos de conjuntos convexos, a análise de vários mode-los de Programação Linear, o estudo detalhado do método simplex (recorrendo, quer ao quadro reduzido, quer à sua versão revista), as implicações da degeneres-cência (como seja a susceptibilidade de entrada em ciclo) bem como as técnicas mais utilizadas (regra lexicográfica e de Bland) para garantir a convergência finita, o estudo de duas variantes do método simplex (especialmente desenhadas para problemas com determinada estrutura, como sejam o método simplex para variáveis limitadas e método de decomposição de Dantzig-Wolfe), a teoria da dualidade em Programação Linear (a partir da qual se introduzem os métodos dual simplex e primal-dual) e a análise pós-optimal (ou de sensibilidade).

Todas as técnicas são alvo de fundamentação, quer no que se refere à sua estratégia de pesquisa, quer quanto à sua convergência.

(7)

Capítulo 1

Noções Elementares de

Análise Convexa

Em termos gerais, podemos afirmar que os problemas de optimização linear se caracterizam pela determinação do melhor (ou um dos melhores) ponto(s) de um poliedro convexo para uma certa funcional linear (função objectivo). Este facto justifica que se estudem, com algum detalhe, os conjuntos convexos e se analisem algumas das suas propriedades. Antes porém, vamos começar por considerar duas operações sobre conjuntos, especialmente úteis no presente contexto. Definição 1.1. Dados dois subconjuntos de Rn, A e B, e dado um escalar, λ∈ R,

A + B ={x + y : x ∈ A e y ∈ B} e λB = {λx : x ∈ B}.

Se A é um conjunto singular, i.e., se A ={x}, então (por simplicidade) escreve-se x+B em vez de A+B ou{x}+B. Neste caso, x+B designa-se por translação de B. Por sua vez, para λ6= 0, a aplicação ψ : Rn→ Rn, tal que ψ(y) = x + λy, designa-se por homotetia de centro em x e razão λ, e ψ(B) = x + λB designa-se por homotético de B.

Da definição de A + B decorre facilmente que A + B = [

x∈A

(x + B) = [ y∈B

(A + y).

Teorema 1.1. O homotético de um conjunto aberto é um conjunto aberto.

Demonstração. ∀x ∈ Rn e ∀λ 6= 0, a aplicação ψ(y) = x + λy é contínua (porquê?)

e bijectiva. Adicionalmente, a sua inversa ψ−1(z) = −1

λ x + 1 λ(z)

é também contínua, logo ψ(y) é uma aplicação aberta, ou seja, transforma abertos em abertos.

(8)

4 Noções Elementares de Análise Convexa x y B A A + B

Figura 1.1: Exemplo em R2 da soma de dois conjuntos (A + B). Como corolário do teorema anterior pode concluir-se que o homotético de um conjunto fechado é também um conjunto fechado. Com efeito, para λ 6= 0, a função ψ(y) = x + λy é bijectiva e, consequentemente,

∀A ⊆ Rn ψ(Rn\ A) = Rn\ ψ(A).

Logo, sendo A um subconjunto fechado de Rn, Rn\ A é um subconjunto aberto. Aplicando o Teorema 1.1, conclui-se que ψ(Rn \ A) é aberto, donde ψ(A) é fechado. Note-se porém que, embora a soma de dois conjuntos abertos seja um aberto, a soma de dois conjuntos fechados nem sempre é um fechado (ver Exercício 1.2)1

.

Definição 1.2. Dado um conjunto de pontos de Rn,{x1, . . . , xp}, e um conjunto de escalares,{λ1, . . . , λp}, sePpi=1λi= 1, entãoPpi=1λixidesigna-se por com-binação afim dos pontos x1, . . . , xp. Adicionalmente, se λ

i≥ 0 ∀i ∈ {1, . . . , p}, entãoPpi=1λixi diz-se uma combinação linear convexa dos pontos x1, . . . , xp. Um conjunto S⊆ Rn diz-se convexo se

∀x, y ∈ S ∀λ ∈ [0, 1], λx + (1 − λ)y ∈ S

(i.e., se toda a combinação linear convexa de quaisquer dois pontos de S está em S).

Dados dois pontos de um conjunto convexo S, x e y, o conjunto de combi-nações lineares convexas de x e y, {z = λx + (1 − λ)y : 0 ≤ λ ≤ 1}, designa-se por segmento que une x e y e denota-se por xy.

Da Definição 1.2 decorre a seguinte definição alternativa de conjunto convexo: um conjunto S é convexo sse, para p ≥ 2,

∀x1, . . . , xp∈ S ∀λ 1, . . . , λp≥ 0 : p X i=1 λi= 1, p X i=1 λixi∈ S.

Uma vez que é imediato verificar que a condição é suficiente, apenas vamos provar que se trata de uma condição necessária. Assim, sendo S um conjunto

1

Com efeito, embora a união de uma família de abertos seja sempre um aberto, o mesmo não acontece relativamente aos fechados.

(9)

Noções Elementares de Análise Convexa 5 convexo, para p = 2, a condição é imediatamente satisfeita (por aplicação da Definição 1.2). Suponha-se que a condição é verdadeira para p ≤ n e sejam x1, . . . , xn+1 pontos de S e λ

1, . . . , λn+1 escalares não negativos tais que Pn+1

i=1 λi = 1. Se λn+1∈ {0, 1}, é claro quePn+1i=1 λixi∈ S. Assim, vamos supor que 0 < λn+1 < 1. Em tais condições, Pni=1λi > 0 e, tendo em conta que

λi Pn i=1λi ≥ 0 ∀i ∈ {1, . . . , n} e Pn i=1 Pnλi i=1λi = 1, fazendo n+1 X i=1 λixi= n X i=1 λixi+ λn+1xn+1= ( n X i=1 λi) n X i=1 λi (Pni=1λi) xi+ λ n+1xn+1,

da hipótese decorre que x = Pni=1Pnλi

i=1λix

i ∈ S. Logo, tendo em conta que Pn

i=1λi ≥ 0, λn+1≥ 0 ePni=1λi+ λn+1= 1, obtém-se n+1 X i=1 λixi= n X i=1 λixi+ λn+1xn+1∈ S, o que completa a prova pretendida.

Igualmente se prova que a intersecção de uma família de conjuntos convexos é um conjunto convexo (ver Exercício 1.3).

Definição 1.3. Um conjunto de pontos {x1, . . . , xp} diz-se dependente afim se existem escalares λ1, . . . , λp, não todos nulos, tais quePpi=1λi = 0 ePpi=1λixi= 0. Caso contrário o conjunto{x1, . . . , xp} diz-e independente afim .

De acordo com esta definição, se um dado ponto x é combinação linear con-vexa de um conjunto de pontos {x1, . . . , xp}, então o conjunto {x}∪{x1, . . . , xp} é dependente afim. Com efeito, se ∃λ1, . . . , λp ≥ 0 tais quePpi=1λi = 1 e x = Pp

i=1λixi, então x−λ1x1−. . .−λpxp= 0 e, além disso, 1−λ1−λ2−. . .−λp= 0. Podemos ainda afirmar que um conjunto de p + 1 pontos {x0, . . . , xp} é inde-pendente afim sse o conjunto de p vectores {x1− x0, . . . , xp− x0} é linearmente independente (como exercício, faça a prova desta afirmação).

Teorema 1.2. Seja S = {x0, . . . , xk} um conjunto de pontos independentes afim. Então cada ponto x do conjunto das combinações afim de pontos de S tem uma representação única como combinação afim dos pontos x0, . . . , xk.

Demonstração. Seja x = Pk

i=1λixi, com Pki=1λi = 1, e suponha-se que

tam-bém se verifica a equação x = Pk

i=1αixi. Então x − x = Pki=1(λi− αi)xi = 0 e

Pk

i=1λi− αi = 0. Logo, uma vez que os pontos x

0, . . . , xk são independentes afim,

conclui-se que λi= αi, para i = 0, . . . , k.

De um modo análogo se prova que sendo S = {x0, . . . , xk} um conjunto de pontos independentes afim, então cada ponto x do conjunto das combinações lineares convexas de pontos de S tem uma representação única como combinação linear convexa dos pontos x0, . . . , xk.

(10)

6 Noções Elementares de Análise Convexa Definição 1.4. Designa-se por variedade linear (ou subespaço afim ), toda a translação de um subespaço vectorial, i.e., dado um subespaço vectorial de Rn, E, e um ponto x ∈ Rn, x + E designa-se por variedade linear (ou subespaço afim). A dimensão da variedade linear U = x + E denota-se por dim(U ) e cor-responde à dimensão de E. Dado um conjunto de pontos S ⊆ Rn, designa-se por dimensão de S e denota-se por dim(S), a dimensão da variedade linear de menor dimensão que contém S.

Como consequência desta definição conclui-se que um ponto é uma variedade linear de dimensão 0.

Definição 1.5. Dado um conjunto de pontos S, designa-se por invólucro con-vexo de S e denota-se por H(S) a intersecção de todos os conjuntos concon-vexos que contêm S e designa-se por invólucro afim de S e denota-se por Af f (S) a intersecção de todas as variedades lineares (subespaços afim) que contêm S.

Como consequência desta definição vem que um conjunto S é convexo sse S = H(S).

1. Seja S um conjunto convexo. Pela definição de H(S), (i) H(S) ⊇ S. Por outro lado, qualquer que seja o conjunto convexo C que contenha S, C ⊇ H(S). Logo, uma vez que S é convexo e S ⊇ S, conclui-se que (ii) S ⊇ H(S). Tendo em conta (i) e (ii) vem que S = H(S).

2. Suponha-se que S não é convexo. Uma vez que H(S) é a intersecção de conjuntos convexos, pode concluir-se que H(S) é convexo. Logo S 6= H(S). De um modo idêntico ao anterior se conclui que S é uma variedade linear sse S = Af f (S).

Se S é um conjunto arbitrário de pontos no qual existe um conjunto maxi-mal de k + 1 pontos independentes afim {x0, x1, . . . , xk} (maximal no sentido de que ∀x ∈ S {x0, x1, . . . , xk} ∪ {x} é um conjunto dependente afim), sendo E o subespaço vectorial gerado pelo conjunto de vectores {x1− x0, . . . , xk− x0}, então pode concluir-se que x0+ E é a variedade linear de menor dimensão que contém S, ou seja, x0+ E = Af f (S). Note-se que a variedade linear de menor dimensão que contém S corresponde à intersecção de todas as variedades linea-res que contêm S.

Teorema 1.3. Qualquer que seja o conjunto S, H(S) coincide com o conjunto de todas as combinações lineares convexas de pontos de S e Af f (S) coincide com o conjunto de todas as combinações afim de pontos de S.

Demonstração. Seja T o conjunto de todas as combinações lineares convexas de pontos de S. Dado que H(S) é convexo2

e S ⊆ H(S), então podemos concluir que as combinações lineares convexas de pontos de S estão em H(S), ou seja, que

H(S) ⊇ T. (1.1)

2

(11)

Noções Elementares de Análise Convexa 7

Por outro lado, ∀x, y ∈ T, ∃x1, . . . , xp

∈ S, ∃y1, . . . , yq

∈ S, ∃λ1, . . . , λp ≥ 0, com

Pp

j=1λj = 1, e ∃β1, . . . , βq ≥ 0, com Pqi=1βi = 1, tais que x = Ppj=1λjxj e y =

Pq

i=1βiyi. Logo, ∀α ∈ [0, 1] αx + (1 − α)y =Ppj=1αλjxj+Pqi=1(1 − α)βiyi, com

αλj≥ 0 ∀j ∈ {1, . . . , p}, (1 − α)βi≥ 0 ∀i ∈ {1, . . . , q} e p X j=1 αλj+ q X i=1 (1 − α)βi= α p X j=1 λj+ (1 − α) q X i=1 βi= 1.

Consequentemente, conclui-se que T é um conjunto convexo que contém S, donde

H(S) ⊆ T. (1.2)

De (1.1) e (1.2) vem finalmente que H(S) = T . A prova de que Aff(S) coincide com o conjunto de todas as combinações afim de pontos de S é idêntica à anterior.

O teorema que se segue, conhecido por Teorema de Caratheodory, constitui um dos resultados mais relevantes em Análise Convexa.

Teorema 1.4 (de Caratheodory ). Se S é um subconjunto não vazio de Rn, então∀x ∈ H(S), ∃x1, . . . , xp∈ S, com p ≤ n + 1, tais que x ∈ H({x1, . . . , xp}) (ou seja, x pode exprimir-se como combinação linear convexa de não mais do que n + 1 pontos de S).

Demonstração. Seja x ∈ H(S), então o Teorema 1.3 garante que x pertence ao conjunto das combinações lineares convexas de pontos de S, i.e., ∃x1, . . . , xp

∈ S e ∃λ1, . . . , λp ≥ 0, com Ppi=1λi = 1, tais que x = Ppi=1λixi. Resta provar que é

possível escolher os pontos de modo que p seja não superior a n + 1. Se p > n + 1, então os pontos x1, . . . , xpsão dependentes afim. Logo, existem escalares α

1, . . . , αp,

não todos nulos, tais quePp

i=1αi= 0 ePpi=1αixi= 0. Consequentemente, tendo em

conta que {αi > 0 : 1 ≤ i ≤ p} 6= ∅ 3

, fazendo θ = min{λi

αi : αi > 0, 1 ≤ i ≤ p},

βi= λi− θαi, para i = 1, . . . , p, e supondo θ = αλss, obtém-se p X i=1 βixi= p X i=1 (λi− θαi)xi= p X i=1 λixi− θ p X i=1 αixi= x, com βi≥ 0 ∀i ∈ {1, . . . , p} 4 , βs= λs−λαs sαs= 0 e p X i=1 βi= p X i=1 (λi− θαi) = p X i=1 λi− θ p X i=1 αi= 1.

Deste modo, exprime-se x como combinação linear convexa de p − 1 pontos de S. Se p − 1 ≤ n + 1, então obtém-se o que se pretendia, caso contrário este processo repete-se até que tal aconteça.

3

Observe-se que uma vez que os escalares α1, . . . , αp, não são todos nulos, da equação

Pp

i=1αi= 0 retira-se que existem pelo menos dois escalares de sinal contrário. 4

Com efeito, dado que θ > 0, ∀i ∈ {1, . . . , p} se αi≤ 0 então λi− θαi ≥ 0 e se αi > 0

então θ ≤ λi

(12)

8 Noções Elementares de Análise Convexa

1.1

Algumas propriedades topológicas de

conjun-tos convexos

Tendo em vista o estudo de algumas propriedades topológicas de conjuntos convexos, vamos começar por introduzir o conceito de interior relativo.

Definição 1.6. Dado um subconjunto de pontos de Rn, S, sendo U a variedade linear de menor dimensão que contém S (i.e., a intersecção de todas as varieda-des lineares que contêm S), varieda-designa-se por interior relativo de S e denota-se por IntRel(S) o conjunto IntRel(S) ={x ∈ S : ∃ǫ > 0 para o qual B(x, ǫ) ∩ U ⊆ S}.

Nesta definição, B(x, ǫ) denota a bola aberta de centro em x e raio ǫ, ou seja, o conjunto B(x, ǫ) = {y ∈ Rn : d(x, y) < ǫ}, onde d(x, y) (d : Rn× Rn → R+

0) corresponde à métrica induzida pela norma euclidiana.

Da Definição 1.6 decorrem imediatamente as seguintes conclusões: 1. Se S é um conjunto singular, i.e., S = {x}, então IntRel(S) = {x}; 2. Se S é um segmento xy = {λx + (1 − λ)y : λ ∈ [0, 1]}, então IntRel(xy) =

xy\ {x, y}, i.e., IntRel(xy) = {λx + (1 − λ)y : λ ∈]0, 1[}.

Ao longo deste texto, dado o subconjunto S ⊆ Rn, o interior de S, a aderência de S e a fronteira de S, serão denotados, respectivamente, por Int(S), Ad(S) e f r(S).

Definição 1.7. O invólucro convexo de um conjunto finito de pontos designa-se por politopo . Se S ={x0, . . . , xk} é um conjunto independente afim, então H(S) designa-se por simplex de dimensão k (ou k-dimensional) e os pontos x0, . . . , xk, designam-se por vértices .

Na figura a seguir representam-se dois conjuntos simpliciais de R2.

x0 x1 Simplex de dimensão 1 @ @ @ @ @ x0 x2 x1 Simplex de dimensão 2

Figura 1.2: Conjuntos simpliciais de R2.

Teorema 1.5. Se S = H({x0, . . . , xk}) é um simplex k-dimensional, então IntRel(S)6= ∅.

(13)

1.1 Algumas propriedades topológicas de conjuntos convexos 9

Demonstração. Uma vez que os pontos x0, . . . , xk são independentes afim, cada

ponto de Aff(S) tem uma representação única como combinação afim dos pontos x0, . . . , xk. Logo, considerando a aplicação f : Aff(S) → Rk+1 , tal que f(x) =

(α0, . . . , αk), onde as componentes α0, . . . , αk, identificam os escalares que determinam

x como combinação afim de x0, . . . , xk (i.e., x =Pk

i=1αixiePki=1αi= 1), obtém-se

uma aplicação contínua. Consequentemente, dado

x′= 1 k + 1x 0+ . . . + 1 k + 1x k ∈ S, vem que f (x′) = ( 1 k + 1, . . . , 1 k + 1).

Logo, pela continuidade de f, ∃B(x′, δ) tal que ∀x ∈ B(x, δ) ∩ Af f (S), f (x) tem

componentes positivas, ou seja,

B(x′, δ) ∩ Af f (S) ⊆ S, pelo que

IntRel(S) 6= ∅.

Como corolário imediato deste teorema decorre que se S é um subconjunto convexo k-dimensional, então o seu interior relativo é não vazio. Com efeito, uma vez que S tem dimensão k, existem k + 1 pontos x0, . . . , xk ∈ S inde-pendentes afim, logo H({x0, . . . , xk}) é um simplex de dimensão k e, pelo Te-orema 1.5, vem que IntRel(H({x0, . . . , xk})) 6= ∅. Finalmente, uma vez que S⊇ H({x0, . . . , xk}) conclui-se que IntRel(S) 6= ∅.

Teorema 1.6. Se S é um conjunto convexo, então a aderência de S, Ad(S), é um conjunto convexo.

Demonstração. Sejam x e y dois pontos da aderência de S, i.e., x, y ∈ Ad(S), seja u = λx+(1−λ)y, com λ ∈ [0, 1], e considere-se uma bola aberta centrada em u e de raio arbitrário δ, B(u, δ). Uma vez que x, y ∈ Ad(S) ∃x0∈ B(x, δ) ∩ S e ∃y0∈ B(y, δ) ∩ S,

logo u0 = λx0+ (1 − λ)y0∈ S. Adicionalmente, verifica-se que

d(u, u0) = d(λx + (1 − λ)y, λx0+ (1 − λ)y0)

≤ d(λx + (1 − λ)y, λx0+ (1 − λ)y) + d(λx0+ (1 − λ)y, λx0+ (1 − λ)y0) = λd(x, x0) + (1 − λ)d(y, y0)

< λδ + (1 − λ)δ = δ.

Consequentemente, vem que ∀u ∈ xy e ∀δ > 0, B(u, δ) ∩ S 6= ∅. Logo, u ∈ Ad(S), ou seja , a aderência de S é um conjunto convexo.

O resultado a seguir é conhecido por Lema da acessibilidade.

Lema 1.7 (da acessibilidade ). Seja S um conjunto convexo. Se x ∈ Ad(S) e y∈ Int(S), então Int(S) ⊇ IntRel(xy).

(14)

10 Noções Elementares de Análise Convexa &% '$ &% '$ &% '$ xx u y 0 u0 y0

Figura 1.3: Ilustração em R2 da demonstração do Teorema 1.6.

Demonstração. Sem perda de generalidade, suponha-se que x coincide com a origem do referencial adoptado, i.e., x = 0. Uma vez que y ∈ Int(S), ∃ǫ > 0 tal que B(y, ǫ) ⊆ S.

Por outro lado, uma vez que S é convexo, pelo Teorema 1.6 Ad(S) é também um conjunto convexo, pelo que

∀λ ∈ [0, 1] ∀z ∈ B(y, ǫ) λz + (1 − λ)x ∈ Ad(S) ⇔ λz ∈ Ad(S).

Consequentemente, ∀λ ∈ [0, 1] Ad(S) ⊇ λB(y, ǫ) = B(λy, λǫ). Logo, uma vez que ∀u ∈ IntRel(xy), ∃λ ∈]0, 1[ tal que u = λy, fazendo δ = λǫ vem que B(u, δ) ⊆ Ad(S), ou seja, u ∈ Int(Ad(S)) = Int(S)5

, donde IntRel(xy) ⊆ Int(S).

(((((((( ((((( hhhhhh hhhhhhh   &% '$ x = 0 u B(u, λǫ) y B(y, ǫ)

Figura 1.4: Ilustração em R2da demonstração do lema da acessibilidade. Como corolário do Teorema 1.7 segue-se que, se S é um conjunto convexo, então Int(S) é também um conjunto convexo. Com efeito, se x, y ∈ Int(S) então pelo Teorema 1.7 Int(S) ⊇ IntRel(xy) e uma vez que xy = IntRel(xy)∪{x, y}, logo Int(S) ⊇ xy.

Teorema 1.8. Se S é um conjunto aberto, então H(S) é também um conjunto aberto.

Demonstração. Uma vez que S ⊆ H(S) e S é aberto, então S ∩ fr(H(S)) = ∅ e, como consequência,

S ⊆ Int(H(S)). (1.3)

5

Uma vez que S é convexo, f r(S) = f r(Ad(S)), donde vem que Int(Ad(S)) = Ad(S) \ f r(Ad(S)) = Ad(S) \ f r(S) = Int(S). Note-se porém que, no caso de S não ser convexo, pode obter-se f r(S) 6= f r(Ad(S)). Por exemplo em R, sendo S =]1, 2[∪]2, 3[, vem que f r(S) = {1, 2, 3} e f r(Ad(S)) = {1, 3} (uma vez que Ad(S) = [1, 3]).

(15)

1.1 Algumas propriedades topológicas de conjuntos convexos 11

Dado que H(S) é convexo, podemos concluir que Int(H(S)) é um conjunto convexo que, de acordo com (1.3), contém S. Adicionalmente, tendo em conta a definição de H(S)6

, conclui-se ainda que Int(H(S)) ⊇ H(S) (i). Logo, uma vez que Int(H(S) ⊆ H(S) (ii), de (i) e (ii) decorre que H(S) = Int(H(S)), ou seja, que H(S) é aberto.

Deve observar-se que embora o invólucro convexo de um conjunto aberto seja um conjunto aberto, o invólucro convexo de um conjunto fechado não é, necessariamente, um conjunto fechado. Por exemplo, S = {(x, y) ∈ R2: x2y2= 1 e y > 0} é um conjunto fechado e, no entanto, H(S) = {(x, y) ∈ R2: y > 0} não é fechado (ver Figura 1.5).

X Y

Figura 1.5: Representação de S = {(x, y) ∈ R2: x2y2= 1 e y > 0}. Outro exemplo de conjunto fechado, cujo invólucro convexo não é fechado, é o conjunto S = {(x, y) ∈ R2: y = x2 ∧ x ≥ 0} representado na Figura 1.6. Conforme se pode observar, qualquer que seja (x, y) ∈ S, o segmento que une a origem (0, 0) a (x, y) pertence a H(S), no entanto, o semi-eixo positivo dos yy está incluído na fronteira de H(S) e não pertence a H(S).

X Y

Figura 1.6: Representação de S = {(x, y) ∈ R2: y = x2 ∧ x ≥ 0} e H(S). Apesar do que foi afirmado, no caso de S ser fechado e limitado em Rn(logo compacto) H(S) é também um conjunto fechado e limitado7

.

6

H(S) é a intersecção de todos os convexos que contêm S.

7

Note-se que esta afirmação não é valida em espaços de dimensão infinita. Com efeito, considerando o conjunto fechado limitado {en}n∈N, onde

e1= [1, 0, 0, . . . , 0, . . .]T, e2= [0, 1, 0, . . . , 0, . . .]T, . . . , en= [0, 0, . . . , 1, . . .]T, . . .

e considerando ainda a sucessão do invólucro convexo de {en}n∈N,

{up= p X j=1 1 pej}p∈N,

vem que a sucessão u1 = e1, u2 = [12,12, 0, . . . , 0, . . .]T, . . . , un = [n1,n1,n1, . . . ,n1, . . .]T, . . .

converge para [0, 0, 0, . . . , 0, . . .]T 6∈ H({e

n}n∈N) (observe-se ainda que ||uk|| =√1

k, pelo que

(16)

12 Noções Elementares de Análise Convexa Teorema 1.9. Se S é um subconjunto de Rncompacto, então H(S) é compacto.

Demonstração. Considere-se o subconjunto compacto de Rn+1

C = {(λ1, . . . , λn+1) : n+1 X i=1 λi= 1 e λi≥ 0, para 1 ≤ i ≤ n + 1}, e considere-se a função f : Rn+1× Rn× . . . × Rn | {z } n+1 7→ Rn (λ1, . . . , λn+1, x11, . . . , x1n, . . . , xn+11 , . . . , xn+1n ) n+1 X i=1 λixi, onde xi= [xi 1. . . xin]T, para i = 1, . . . , n + 1.

Uma vez que C e S são compactos, então o subconjunto C × S × . . . × S = C × Sn+1⊆ R{n+1}2

é compacto e, pela continuidade de f, conclui-se que f(C × Sn+1) é

também compacto (dado que a imagem de um compacto por uma função contínua é um compacto). Uma vez que, pelo teorema de Caratheodory, ∀x ∈ H(S) ∃x1, . . . , xn+1

S tais que x ∈ H({x1, . . . , xn+1}), pode concluir-se que f (C × Sn+1) = H(S) e,

consequentemente, que H(S) é compacto.

1.2

Cones e poliedros convexos

Os cones e os poliedros convexos desempenham um papel relevante em optimi-zação linear.

Definição 1.8. Uma aplicação, f : Rn 7→ Rm, diz-se linear se é aditiva e homogénea , ou seja, se

∀u, v ∈ Rn∀λ ∈ R f (u + v) = f (u) + f (v) ∧ f (λu) = λf (u). Uma aplicação linear de Rn em R diz-se uma funcional linear de Rn.

Esta definição dá origem ao conceito de hiperplano e de meio espaço (ou semi-espaço ). Sendo f uma funcional linear de Rn não identicamente nula, i.e, para qual ∃u ∈ Rn tal que f (u) 6= 0, H

α={x ∈ Rn : f (x) = a} determina um hiperplano (variedade linear de dimensão n − 1) que divide Rn nos dois meios espaços:

Hα+={x ∈ Rn : f (x)≥ α} e Hα−={x ∈ Rn: f (x)≤ α}, no sentido em que Rn = H+

α ∪ Hα− e Hα= Hα+∩ Hα−.

Qualquer equação do tipo aTx = α, com a∈ Rn\ {0} e α ∈ R (equação linear), pode ser representada pelo sistema equivalente de inequações lineares:



aTx≤ α, aTx≥ α, o qual define a intersecção de dois meios espaços.

(17)

1.2 Cones e poliedros convexos 13 Definição 1.9. Designa-se por poliedro convexo a intersecção de um número finito de meios espaços.

De acordo com esta definição, um conjunto vazio é um poliedro convexo. Por outro lado, podemos ainda concluir que um poliedro fica definido por um número finito de equações e ou inequações lineares. Assim, sendo A uma matriz com m linhas e n colunas (A ∈ Rm×n) e b um vector de Rm (b ∈ Rm), tem-se que o sistema de equações

Ax = b⇔  A −A  x≤  b −b  . define um poliedro.

Definição 1.10. Um subconjunto não vazio de Rn, K, diz-se um cone se ∀λ > 0 ∀x ∈ K, λx∈ K.

Se, adicionalmente, K é convexo, o cone diz-se convexo .

@ @ @ @@ O K∗ K cone convexo A A A A A H H H H H H H H    

cone não convexo

Figura 1.7: Exemplos de cones (convexo e não convexo).

Dado um conjunto, K, é fácil concluir que o conjunto K∗ = {y ∈ Rn : yTx≤ 0 ∀x ∈ K} é um cone convexo fechado. Com efeito, se y ∈ Kentão λy ∈ K∗ ∀λ > 0 (logo é um cone) e dados dois pontos u, v ∈ K(ou seja, tais que uTx≤ 0 e vTx≤ 0 ∀x ∈ K) então ∀α ∈ [0, 1] vem que (αu + (1 − α)v)Tx = α(uTx) + (1− α)(vTx)≤ 0 ∀x ∈ K, donde αu + (1 − α)v ∈ K(logo é convexo). Para se obter a prova que K∗ é fechado, considerando uma sucessão de K, (uk)

k∈N, tal que uk → u, basta provar que uTx ≤ 0 ∀x ∈ K (ou seja, que u ∈ K∗). Com efeito, suponha-se, por absurdo, que existe x∈ K tal que uTx= ǫ > 0 e considere-se a aplicação contínua xde Rn em R, definida por

(18)

14 Noções Elementares de Análise Convexa y→ x′(y) = yTx. Pela continuidade de xem u, ∃n ∈ N tal que ∀k ≥ n

|x′(uk)− x′(u)| < ǫ 2 ⇔ − ǫ 2 < x ′(uk) − ǫ < ǫ 2 ⇔ ǫ 2 < x ′(uk) <3ǫ 2 ⇔ ǫ 2 < (u k)Tx< 3ǫ 2, o que é absurdo (tendo em conta que ∀k ∈ N, (uk)Tx≤ 0 ∀x ∈ K). Usualmente, K∗ designa-se por cone polar 8

negativo de K.

Teorema 1.10. Se A = [a1, . . . , an]∈ Rm×n, então K ={Ax : x ≥ 0} é um cone convexo fechado.

Demonstração. Uma vez que a prova que K é um cone convexo é imediata, apenas provaremos que K é fechado.

Se A é a matriz nula, então K = {0} e o resultado é trivialmente verdadeiro. Supondo A 6= 0 e considerando uma sucessão, {yk

}k∈N, de K (logo yk = Axk, com

xk

≥ 0) convergente para y′, vamos provar que y∈ K.

1. Se as colunas de A, a1, . . . , ansão linearmente independentes, então para cada

yk existe um único xk tal que Axk = yk e, pela continuidade da aplicação

y → x = (ATA)−1ATy a sucessão (xk)

k∈N converge para x′tal que Ax′= y′.

Como consequência, dado que Rn

+= {x ∈ Rn: x ≥ 0} é fechado e {xk}k∈N ⊆

Rn+, podemos concluir que x′∈ Rn+, i.e, x′≥ 0.

2. Seja v ∈ K e suponha-se que v = Au (onde u é tal que as suas componentes são os escalares não negativos β1, β2, . . . , βn) e que, para Iu= {j : βj> 0}, as colunas

de A associadas a este conjunto de índices são linearmente dependentes. Então existem |Iu| escalares, não todos nulos (αjcom j ∈ Iu), tais quePj∈Iuαjaj= 0,

onde, pelo menos um dos escalares αj é positivo (caso contrário multiplica-se a

equação anterior por −1). Determinando-se βp

αp = min{ βj αj : j ∈ Iu, αj > 0} vem que v = X j∈Iu βjaj− βp αp X j∈Iu αjaj = X j∈Iu (βj− βp αp αj)aj = X j∈Iu|{p} (βj− βp αp αj)aj, com βj− βp αp αj≥ 0 ∀j ∈ Iu,

ou seja, v ∈ K (Iu\ {p}) (onde K(J) define o cone gerado pelas colunas de A

cujos índices estão J). Se estas colunas são linearmente dependentes, então o processo repete-se até se obter um conjunto de índices Iw tal que {aj: j ∈ Iw}

é linearmente independente e v ∈ K(Iw), que é um conjunto fechado, de acordo 8

Associado a um subconjunto não vazio de Rn, M , existe também a noção de conjunto

polar de M , o qual também se denota por M∗e corresponde ao conjunto M= {y ∈ Rn:

(19)

1.3 Teoremas de separação e lema de Farkas 15

com a prova apresentada no ponto 1. Fazendo variar v em K, podemos obter K como a união dos cones convexos fechados K1, K2, . . . , Kr , gerados por

conjuntos maximais de colunas de A linearmente independentes (cujo número é finito). Logo vem que K =S1≤i≤rKi, pelo que K é fechado.

1.3

Teoremas de separação e lema de Farkas

O teorema que se segue, conhecido por teorema da separação estrita, constitui um resultado com inúmeras aplicações em Programação Matemática.

Teorema 1.11 (da separação estrita ). Seja S um subconjunto fechado, con-vexo, não vazio de Rn e x∈ Rn\ S. Então existe c ∈ Rn\ {0} e existe ǫ > 0 tais que cTx≥ cTy + ǫ ∀y ∈ S.

Demonstração. Sendo y′ o ponto de S mais próximo de x (note-se que, uma vez

que S é fechado e não vazio, um tal ponto existe (porquê?)9

, tem-se que ||x − y′|| > 0 (porquê?). S Y' X Y

Figura 1.8: Conjunto convexo fechado.

Primeiramente, vamos mostrar que (x − y′)T(y − y) ≤ 0 ∀y ∈ S.

Sendo y um ponto arbitrário de S tem-se que ∀λ ∈]0, 1[, λy + (1 − λ)y′ ∈ S e, uma

vez que y′ é o ponto de S mais próximo de x, tem-se ainda que

||x − y′||2 ≤ ||x − λy − (1 − λ)y′||2 = ||x − y′+ λ(y′− y)||2

= ||x − y′||2+ 2λ(x − y′)T(y− y) + λ2

||y′− y||2, donde vem que

0 ≤ 2(x−y′)T(y−y)+λ||y−y||2

⇒ lim

λ→02(x−y

)T(y−y)+λ||y−y||2= 2(x−y)T(y−y) ≥ 0.

Conclui-se assim que

(x−y′)T(y′−y) ≥ 0 ⇔ (x−y′)T

(x−x+y′−y) = (x−y′)T

(y′−x)+(x−y′)T

(x−y) ≥ 0,

9

Com efeito, uma vez que S é não vazio existe z ∈ S e considerando a bola fechada de centro em x e raio ||x − z|| obtém-se um conjunto compacto cuja intersecção com o conjunto fechado S é também compacta. Como a determinação do ponto de S que está à distância mínima de x corresponde à determinação do mínimo da função contínua f (y) = ||x − y|| na referida intersecção, vem que o ponto de mínimo, y′∈ S, existe.

(20)

16 Noções Elementares de Análise Convexa

pelo que, fazendo c = x − y′e ǫ = ||x − y||2, se obtém

−ǫ + cTx − cTy ≥ 0 ⇔ cTx ≥ cTy + ǫ.

Supondo que M é um subconjunto compacto e N um subconjunto fechado, pelo que M −N = {z = x−y : x ∈ M, y ∈ N} é um conjunto fechado e supondo que M e N são convexos, donde M −N também é convexo, com base no Teorema 1.11 e tendo em conta que M e N são disjuntos sse 0 6∈ M − N, podemos obter a separação estrita entre o subconjunto compacto M e o subconjunto fechado N , disjunto de M , obtendo a separação estrita entre 06∈ M − N e M − N . Com efeito,

cT0 > cTz∀z ∈ M − N ⇔ 0 > cT(x− y) ∀x ∈ M ∀y ∈ N ⇔ cTx > cTy∀x ∈ M ∀y ∈ N.

Deve sublinhar-se que para a obtenção da separação estrita entre dois sub-conjuntos disjuntos convexos, não basta que eles sejam fechados, é necessário que pelo menos um deles seja compacto. Por exemplo, embora os subconjuntos A ={(x, y) : x > 0 e y ≥ 1x} ⊂ R2 e B = {(x, y) : x ≥ 0 e y = 0} ⊂ R2sejam disjuntos, convexos e fechados, não existe qualquer separação estrita entre eles. Teorema 1.12. Seja S ⊆ Rn um subconjunto convexo com interior não vazio e seja x um ponto da fronteira de S (x∈ f r(S)). Então existe um vector v ∈ Rn\ {0} tal que vTx≥ vTy ∀y ∈ S.

Demonstração. Seja x′um ponto interior de S e, para τ > 1, seja x

τ = x′+τ (x−x′).

É claro que xτ 6∈ Ad(S) ∀τ > 1 (caso contrário, pelo Teorema 1.7, o segmento {x′+

ρ(x−x′) : 0 ≤ ρ < τ } estaria contido no interior de S e, em particular, x = x+(x−x)

pertenceria a Int(S)).

Uma vez que xτ 6∈ Ad(S) ∀τ > 1, pelo Teorema 1.11 (da separação estrita) para cada

τ > 1, existe uτ 6= 0 tal que uTτx > uTτy ∀y ∈ S. Supondo, sem perda de generalidade,

que ||uτ|| = 1 ∀τ > 1 10

e considerando uma sucessão (τk)k∈N convergente para 1

(limτ→∞τk= 1), tal que τk > 1 ∀k ∈ N, pelo Teorema de Bolzano-Weierstrass pode

concluir-se que a sucessão limitada (vk), com vk = uτk, admite uma subsucessão,

(vkp), convergente para v ∈ R

n. Adicionalmente, dado que 1 = lim

p→∞||vkp|| = ||v||

conclui-se ainda que v 6= 0. Destas considerações decorre finalmente que ∀y ∈ S vTy = lim p→∞(v T kpy) ≤ limp →∞(v T kpx) = v T x.

Lema 1.13 (de Farkas, 1a versão ). Dada uma matriz A = [a

1, a2, . . . , an] ∈ Rm×n e b∈ Rm, um e não mais do que um dos sistemas a seguir indicados tem solução.

Ax = b, e x≥ 0; (1.4)

yTA≤ 0 e yTb > 0. (1.5)

10

(21)

1.3 Teoremas de separação e lema de Farkas 17

S

u Y

Figura 1.9: Hiperplano de suporte de um conjunto convexo.

Demonstração. Suponha-se que (1.4) tem solução, ou seja, ∃x′∈ Rntal que Ax= b

e x′≥ 0, então ∀ y ∈ RmyTAx= yTb. Logo se ∃y∈ Rmtal que y′TA ≤ 0, vem que

y′TAx= yb ≤ 0, o que torna impossível a verificação da última inequação de (1.5).

Suponha-se agora que (1.4) não tem solução. Então b 6∈ K = {Ax : x ≥ 0} e, uma vez que (pelo Teorema 1.10) K é um convexo fechado, por aplicação do Teorema 1.11 conclui-se que ∃y ∈ Rm

\ {0} e ∃ǫ > 0 tais que yTb ≥ yTz + ǫ ∀z ∈ K (ou seja,

∀z : z = Ax, com x ≥ 0). Logo, tendo em conta que 0 ∈ K e ǫ > 0, pode concluir-se que yTb > 0. Por outro lado, dado que K é um cone, ∀z ∈ K ∀ρ > 0, ρz ∈ K.

Consequentemente, para z = Aej, com j ∈ {1, . . . , n} (onde ej denota o j-ésimo

vector da base canónica de Rn), vem que ∀ρ > 0, ρyTz = ρyTAe

j= ρyTaj≤ ytb − ǫ,

o que só é possível se yTa

j≤ 0 (caso contrário, bastaria tomar ρ = y

Tb−ǫ+1

yTa

j para que

a inequação em causa fosse violada). Assim, prova-se que yTa

j ≤ 0 ∀j ∈ {1, . . . , n}

e, consequentemente, que y é uma solução para o sistema (1.5), ou seja, yTA ≤ 0 e

yTb > 0.

A interpretação geométrica do lema de Farkas permite-nos concluir que, se b pertence ao cone K, gerado pelas colunas de A, então não existe y pertencente ao cone polar negativo de K, K∗ = {y ∈ Rm : ytz ≤ 0 ∀z ∈ K}, tal que ytb > 0. A figura a seguir ilustra esta afirmação.

A A A AK a2 6 a1  b   * a3       A A A A AA K∗ y

Figura 1.10: Interpretação geométrica do Lema de Farkas. Note-se que

K∗={y ∈ Rm: yTz≤ 0 ∀z ∈ K} = {y ∈ Rm: yTa

(22)

18 Noções Elementares de Análise Convexa Com efeito, se yTa

j≤ 0 ∀j ∈ {1, . . . , n}, então

yTAx≤ 0 ∀x ≥ 0 ⇔ yTz≤ 0 ∀z ∈ K.

Reciprocamente, se yTz ≤ 0 ∀z ∈ K, então, em particular, yTAe

j ≤ 0 ∀j ∈ {1, . . . , n} ⇔ yTa

j≤ 0 ∀j ∈ {1, . . . , n}.

Sendo A uma matriz com m linhas e n colunas (A ∈ Rm×n) e b um vector de Rm (b ∈ Rm), o sistema de inequações Ax ≤ b que determina um poliedro convexo, pode transformar-se no sistema equivalente de equações, Ax + y = b, desde que se acrescentem as condições de não negatividade ao m-uplo de variáveis y, ou seja,

{x ∈ Rn: Ax≤ b} = {x ∈ Rn: Ax + y = b, y≥ 0}.

Com efeito, sendo S = {x ∈ Rn : Ax≤ b} e T = {x ∈ Rn: Ax + y = b, y≥ 0}, se x ∈ S, fazendo y = b − Ax ≥ 0, conclui-se que ∃y ≥ 0 tal que Ax + y = b, pelo que x ∈ T . Logo, T ⊇ S (i). Reciprocamente, se x ∈ T , então ∃y ≥ 0 tal que Ax + y = b, pelo que x é tal que b − Ax ≥ 0 ⇔ Ax ≤ b, ou seja, x∈ S. Consequentemente, S ⊇ T (ii). De (i) e (ii) conclui-se que S = T . Assim, supondo que A ∈ Rm×n, a partir de um conjunto

T ={  x y  ∈ Rm×n: [A, Im]  x y  = b} por aplicação da projecção π : Rm×n → Rn, tal que π(

 x y



) = x, vem que π(T ) = S. A restrição a T desta projecção, é uma aplicação bijectiva entre T e S, a qual admite, como inversa, a aplicação π−1(x) = (x, b− Ax).

As variáveis y1, y2, . . . , ym, introduzidas na passagem de S para T , designam-se por variáveis de desvio ou folga. Recorrendo a estas variáveis de desvio, estamos em condições de apresentar uma versão alternativa à versão do Lema de Farkas anteriormente referida.

Lema 1.14 (de Farkas, 2a versão ). Dada uma matriz A ∈ Rm×n e b ∈ Rm, um e não mais do que um dos sistemas a seguir indicados tem solução.

Ax≥ b e x ≥ 0. (1.6)

yTA≤ 0, yTb > 0 e y≥ 0. (1.7)

Demonstração. Introduzindo variáveis de desvio no sistema (1.6), i.e., fazendo Ax − s = b, com s ≥ 0, os sistemas (1.6) e (1.7) podem escrever-se (de um modo equivalente) da seguinte forma: [A, −I]  x s  = b e  x s  ≥ 0. (1.8) yT[A, I] ≤ 0 e yT b > 0. (1.9) Nestas condições, por aplicação directa do Lema 1.13, conclui-se o que se pretendia.

(23)

1.4 Exercícios 19

1.4

Exercícios

Exercício 1.1. Dado um ponto x ∈ Rn e um escalar não nulo λ, prove que a aplicação ψ : Rn → Rn, tal que ψ(y) = x + λy, é um homeomorfismo (i. e, é uma função contínua que admite inversa também contínua).

Exercício 1.2. Dados dois subconjuntos de Rn, A e B, prove ou refute cada uma das seguintes afirmações:

1. Se A e B são abertos, então A + B é aberto. 2. Se A e B são fechados, então A + B é fechado.

3. Se A e B são convexos, então A + B e A− B são convexos. Exercício 1.3. Dada a família de subconjuntos convexos de Rn, S

j com j∈ J, prove que S =Tj∈JSj é um conjunto convexo.

Exercício 1.4. Sendo Ti, com i∈ I, uma colecção de subespaços afim, prove queTi∈ITi é um subespaço afim.

Exercício 1.5. Dado um subconjunto finito de pontos de Rn, S ={x1, . . . , xp}, prove que se p≥ n + 2, então S pode partir-se em dois subconjuntos disjuntos S1e S2 tais que H(S1)∩ H(S2)6= ∅11.

Sugestão: Sabendo que para p ≥ n + 2, os pontos de S são dependentes afim, a partir da igualdade Ppi=1λixi= 0, onde os λis não são todos nulos e são tais que Ppi=1λi = 0, podemos concluir a existência de um ponto x = λ1Pp1

i=1αixi = λ1Ppj=12 βjxj, com αi ≥ 0 para i = 1, . . . , p1, βj ≥ 0, para j = 1, . . . , p2, p1+ p2= p e λ =Pp1

i=1αi=Ppj=12 βj > 0.

Exercício 1.6. Sendo F = {S1, . . . , Sp} uma família de p suconjuntos convexos de Rn, com p≥ n + 1, prove que se toda a subfamília de n + 1 conjuntos de F tem intersecção não vazia, entãoT1≤i≤pSi6= ∅.

12

Sugestão: fazer a prova por indução sobre p (tendo em conta que o resultado é trivialmente válido para p = n + 1), considerando o resultado válido para p = k ≥ n + 1 e aplicando o resultado do exercício anterior (teorema de Radon) ao conjunto de pontos S = {xi ∈ S

1∩ . . . ∩ Si−1∩ Si+1. . .∩ Sk+1 : 1 ≤ i ≤ k + 1}. A partir deste conjunto, por aplicação do teorema de Radon, pode supôr, sem perda de generalidade, que existem dois subconjuntos, T1 e T2, tais que T = T1∪ T2, com T1 ={x1, . . . , xr}, T2 = {xr+1, . . . , xk+1} e que∃x ∈ H(T1)∩ H(T2). Finalmente, dada a convexidade dos Sis,

11

Este resultado é conhecido por Teorema de Radon .

12

(24)

20 Noções Elementares de Análise Convexa e dado que para i≤ r, xi ∈ S

r+1∩ . . . ∩ Sk+1e, para j ≥ r + 1, xj∈ S1∩ . . . ∩ Sr, tenha em consideração que Sr+1∩ . . . ∩ Sk+1⊇ H(T1) e S1∩ . . . ∩ Sr⊇ H(T2).

Exercício 1.7. Sendo S um subconjunto convexo de Rn, prove que Int(S) é convexo.

Exercício 1.8. Prove que a intersecção de uma colecção arbitrária de cones convexos é um cone convexo.

Exercício 1.9. Considerando os pontos de R2: x1 = (1, 0), x2 = (1, 3), x3 = (4, 3), x4= (4, 0) e x = (7 4, 5 4), pelo que x = 1 2x1+ 1 4x2+ 1 6x3+ 1 12x4, com uma técnica idêntica à utilizada na prova do teorema de Caratheodory, exprima x como combinação linear convexa de x1, x2 e x3.

Exercício 1.10. Supondo que C1 é um subconjunto convexo de Rn e que C2= Rn+={x ∈ Rn: x≥ 0}, verifique que C1+ C2={x ∈ Rn: ∃¯x∈ C1, ¯x≤ x}. Exercício 1.11. Supondo que M é compacto e N é fechado prove que M + N é fechado.

Sugestão: Considere uma sucessão {xk} de M + N convergente para x (pelo que, para cada k ∈ N ∃yk ∈ M e ∃zk ∈ N tal que xk = yk + zk) e tendo em conta a compacidade de M considere a subsucessão de{yk}, {yk′

}, convergente para y ∈ M , donde vem que xk′ = yk′ + zk′ ⇔ zk′ = xk′ − yk′ e{xk′ − yk′ } → x − y ∈ N (uma vez que N é fechado).

Exercício 1.12. Sendo f : Rn→ Rm uma aplicação linear, A um subconjunto convexo de Rn e B um subconjunto convexo de Rm prove que tanto f (A) = {f (x) : x ∈ A} como f−1(B) ={x ∈ Rn: f (x)∈ B} são conjuntos convexos. Exercício 1.13. Seja u ∈ Rn\ {0} e considere a aplicação f : Rn → R definida por f (x) = uTx.

1. Mostre que f é uma funcional linear.

2. A partir de f , determine o hiperplano que contém o ponto u.

3. Considerando que o hiperplano determinado em b) divide Rn em dois meios espaços, indique qual deles contém a origem.

Exercício 1.14. Seja S um subconjunto de Rn fechado e não vazio e x ∈ Rn tal que x6∈ S.

1. Prove que ∃x∗ ∈ S tal que xé um ponto de S mais próximo de x (no sentido da métrica induzida pela norma euclidiana).

2. Prove que se x∗ é um ponto nas condições da alínea anterior, então ||x − x∗|| > 0

(25)

1.4 Exercícios 21 Exercício 1.15. Sendo A e B dois subconjuntos de Rn, prove que A∩ B 6= ∅ sse 0∈ A − B.

Exercício 1.16. Supondo que a matriz A é tal que A ∈ Rm×n e que a sua característica é n, prove que a matriz ATA é não singular e que a matriz AAT pode ser singular.

Exercício 1.17. Dado um cone K, gerado pelas combinações lineares não ne-gativas dos vectores de Rm:{u

1, . . . , un} e um vector b ∈ Rm, prove que ou (i) b ∈ K ou (ii) ∀y ∈ K∗ (cone polar negativo de K) yTb > 0, mas não as duas coisas.

(26)
(27)

Capítulo 2

Pontos Extremos e Direcções

Extremas

Os conjuntos convexos têm certos pontos (pontos extremos) e direcções (di-recções extremas) com especial interesse, no contexto da Optimização, muito particularmente, em Optimização Linear. Com efeito, como veremos, se o con-junto de soluções óptimas de uma funcional linear num poliedro convexo é não vazio, então esse conjunto contém, necessariamente, um ponto extremo e se essa funcional linear não tem mínimo (máximo) finito, então existe uma direcção extrema ao longo da qual a funcional linear é decrescente (crescente).

Definição 2.1. Sendo S ⊆ Rnum conjunto convexo não vazio, diz-se que x∈ S é um ponto extremo de S se não existem dois pontos y, z ∈ S distintos (y 6= z) e um escalar λ∈]0, 1[ tais que x = λy + (1 − λ)z.

S

X S

X

Figura 2.1: Exemplos de pontos extremos.

O teorema a seguir dá-nos uma condição necessária e suficiente para que um ponto de um conjunto convexo seja um ponto extremo.

Teorema 2.1. Dado um conjunto convexo S ⊆ Rn, o ponto x∈ S é um ponto extremo sse ∀y ∈ S \ {x} {z ∈ Rn: z = x + λ(x− y), λ > 0} ∩ S = ∅.

(28)

24 Pontos Extremos e Direcções Extremas

Demonstração. Suponha-se que x é um ponto extremo de S, seja y ∈ S \ {x} e z = x + λ(x − y) com λ > 0. Logo, vem que x = 1+λ1 z + λ

1+λy, donde se conclui

que z /∈ S (uma vez que x é um ponto extremo de S). Como consequência, podemos afirmar que

{z ∈ Rn: z = x + λ(x − y), λ > 0} ∩ S = ∅.

Reciprocamente, suponha-se que x não é um ponto extremo de S, ou seja, que existem dois pontos de S, y e z, distintos (y 6= z) e um escalar α ∈]0, 1[ tais que x = (1−α)y+αz. Assim, vem que

z = 1 αx − 1 − α α y = x + 1 − α α (x − y) = x + λ(x − y), com λ =1−α α > 0, pelo que {z ∈ R n: z = x + λ(x − y), λ > 0} ∩ S 6= ∅.

Definição 2.2. Sendo S um conjunto convexo de Rn, d∈ Rn\ {0} diz-se uma direcção de S se

∀x ∈ S, S ⊇ {y : y = x + λd, λ > 0}.

Duas direcções d1 e d2 dizem-se distintas se não existe um escalar α > 0, tal que d1= αd2.

Como é óbvio, só os conjuntos ilimitados é que admitem direcções.

d S

Figura 2.2: Exemplo de um conjunto que contém direcções.

Definição 2.3. Uma direcção d de um conjunto convexo S ⊆ Rn diz-se uma direcção extrema, se não admitir uma representação do tipo

d = d1+ d2, onde d1 e d2 são duas direcções distintas de S.

(29)

2.1 Relações entre pontos extremos e soluções básicas 25 S direcção extrema dire cçã o e xtrem a

Figura 2.3: Exemplos de direcções extremas.

2.1

Relações entre pontos extremos e soluções

básicas

No que se segue, S identificará o conjunto de pontos de Rn, S ={x ∈ Rn: Ax = b, x≥ 0},

com A ∈ Rm×n tal que r(A) = m (onde r(A) denota a característica de A) e b∈ Rm.

Definição 2.4. Uma sua solução ¯x do sistema de equações Ax = b (anteri-ormente referido) diz-se uma solução básica se, após eventual reordenação das suas componentes e, consequentemente, das colunas de A, a matriz A admitir uma decomposição do tipo A = [B, N ], em que B é uma matriz invertível e se verifica que

A¯x = B ¯xB+ N ¯xN = B ¯xB = b

(com ¯xN = 0). Adicionalmente, verificando-se que as componentes de ¯xB são não negativas, a solução diz-se uma solução básica admissível para S. As compo-nentes associadas a ¯xB(¯xN) designam-se por componentes básicas (não básicas) da solução básica ¯x.

Teorema 2.2. Pode afirmar-se que x é um ponto extremo de S sse é uma solução básica admissível para S, i.e., sse (após uma eventual reordenação das componentes de x e, consequentemente, das colunas de A) a matriz A admitir uma decomposição do tipo A = [B, N ], em que B é uma matriz invertível e

x =  xB xN  =  B−1b 0  ≥ 0.

(30)

26 Pontos Extremos e Direcções Extremas

Demonstração. Suponha que A se pode decompor na forma [B, N], onde B é uma matriz invertível tal que

x =  B−1b 0  ,

e se verifica que B−1b ≥ 0. É claro que, nestas condições, x é uma solução básica

admissível para S.

Suponha que existem dois pontos de S, x′ e x′′, e um escalar λ ∈]0, 1[ para os quais

se verifica que x = λx′+ (1 − λ)x′′. Seja

x′=  x′B x′ N  e x′′= x′′B x′′ N  ,

então vem que  B−1b 0  = λ  x′ B x′N  + (1 − λ)  x′′ B x′′N  , donde se conclui que x′

N= x′′N= 0. Logo x′B= x′′B= B−1b 1

, pelo que x′= x′′= x, o

que mostra que x é um ponto extremo de S.

Reciprocamente, suponha-se que x é um ponto extremo de S e, sem perda de genera-lidade, que x =           x1 .. . xk 0 .. . 0          

é tal que xi> 0, para i = 1, . . . , k. Suponha-se ainda que, sendo A = [a1a2. . . ak. . . an],

onde a1, a2, . . . , ak, . . . , an denotam as colunas de A, as colunas a1, a2, . . . , ak são

linearmente dependentes, ou seja, que existem k escalares, α1, α2, . . . , αk, não todos

nulos, tais quePk

i=1αiai= 0. Fazendo u =           α1 .. . αk 0 .. . 0          

x′ = x + βu e x′′ = x − βu, com β > 0 e tal que x≥ 0 e x′′ ≥ 0, tem-se que

x′, x′′∈ S (note-se que Ax′= Ax + βAu = b + βPk

i=1αiai= b e Ax′′= Ax − βAu =

b − βPki=1αiai= b). Uma vez que x′ 6= x′′ 2 e x = 12x′+12x′′conclui-se que x não

é um ponto extremo de S, o que contraria a hipótese. Esta contradição resultou de

1

Observe-se que, uma vez que x′

N= x′′N= 0, então  Bx′ B= b Bx′′ B= b ⇔  x′ B= B−1b x′′ B= B−1b 2

Caso contrário, ter-se-ia x + βu = x − βu ⇔ 2βu = 0, o que contraria o facto de se saber que β > 0 e u 6= 0.

(31)

2.1 Relações entre pontos extremos e soluções básicas 27

se haver suposto que a1, a2, . . . , ak seriam linearmente dependentes. Assim, provou-se

que se x é um ponto extremo de S, então a1, a2, . . . , ak (as colunas de A associadas

a componentes estritamente positivas de x) são linearmente independentes, pelo que k ≤ m. No caso de se ter k < m bastará completar as k colunas de A com m − k colunas, de entre as colunas ak+1, . . . , an, de modo a obter-se uma matriz invertível

B = [a1. . . akaj1. . . ajm−k], para a qual vem que

b = x1a1+ . . . + xkak+ 0aj1+ . . . + 0ajm−k ⇔ B           x1 .. . xk 0 .. . 0           = b ⇔           x1 .. . xk 0 .. . 0           = B−1b.

Deve observar-se, no entanto, que não existe uma correspondência biunívoca entre pontos extremos (vértices) e soluções básicas admissíveis. Com efeito, em-bora a uma dada solução básica admissível corresponda um único vértice, o recíproco nem sempre é verdadeiro, conforme a seguir se exemplifica.

No poliedro convexo

S ={(x, y) ∈ R2: 3x + 5y≤ 40, 5x + 3y ≤ 40, x + y ≤ 10, x, y ≥ 0}, a seguir representado, facilmente se reconhece que ao ponto (5, 5) correspondem mais do que uma solução básica admissível.

10 (5,5)

10

x y

(32)

28 Pontos Extremos e Direcções Extremas Estas situações ocorrem em soluções básicas admissíveis com uma ou mais componentes básicas nulas.

Deve ter-se em atenção ainda que a equivalência entre soluções básicas de com-ponentes não negativas e pontos extremos não é válida para todo o tipo de conjuntos poliédricos. Com efeito, sendo A uma matriz de Rm×n, o subconjunto poliédrico T = {x ∈ Rn : Ax ≤ b} ⊂ Rn pode determinar-se a partir do subconjunto poliédrico de Rn+m U ={  x y  ∈ Rn+m: Ax + y = b, y≥ 0}, por intermédio da projecção

π : Rn+m 7→ Rn  x y  π(  x y  ) = x, a qual constitui uma bijecção entre U e T 3

. Porém, neste caso, podem existir soluções básicas de U , com componentes não negativas, que não só não são pontos extremos de U , como as suas imagens (por π) também não são pontos extremos de T . Com efeito, considerando-se o conjunto

T ={(x1, x2)∈ R2: −2 ≤ x1≤ 2, −1 ≤ x2≤ 1},

é imediato verificar que T é a projecção em R2das primeiras duas componentes dos pontos do conjunto

U ={  x y  : x∈ R2, y∈ R4, A  x y  = b, y≥ 0}, onde A =     1 0 1 0 0 0 −1 0 0 1 0 0 0 1 0 0 1 0 0 −1 0 0 0 1     e b =     2 2 1 1   

. Por outro lado, o ponto (0, 0, 2, 2, 1, 1)T, embora sendo uma solução básica para U (de componentes não negativas) não só não é ponto extremo como a sua imagem, pela projecção con-siderada (ou seja, o ponto (0, 0)T), também não é ponto extremo de T .

3

Com efeito, se existem dois vectores u =  x1 y1  , v =  x2 y2  ∈ U

tais que π(u) = π(v) ⇔ x1= x2(*), então Ax1= Ax2, donde (uma vez que y1 = b − Ax1 e

y2= b − Ax2) se pode concluir que y1= y2 (**). Tendo em conta (*) e (**) vem que u = v.

Por outro lado, se x ∈ T , então 

x b − Ax

 ∈ U. e a sua imagem por π é precisamente x.

(33)

2.1 Relações entre pontos extremos e soluções básicas 29

T

Figura 2.5: Representação de T = {(x, y) ∈ R2:−2 ≤ x ≤ 2, −1 ≤ y ≤ 1}. Por exemplo, (−2, 1, 4, 0, 0, 2)T e (2, −1, 0, 4, 2, 0)T são pontos de U (aos quais correspondem soluções básicas) tais que

1

2(−2, 1, 4, 0, 0, 2) T+1

2(2,−1, 0, 4, 2, 0)

T = (0, 0, 2, 2, 1, 1)T.

Note-se que este exemplo não entra em contradição com o Teorema 2.1, tendo em conta que nele apenas se afirma a equivalência entre pontos extremos e soluções básicas definidas num conjunto S = {x ∈ Rn : Ax = b, x≥ 0}. Considerando U tal como anteriormente e procedendo às mudanças de variável x1 = x′1− x′′1 e x2 = x′2− x′′2, com x′1, x′′1, x′2 , x′′2 ≥ 0, transformamos as variáveis livres x1 e x2 em variáveis não negativas e o subconjunto U ⊂ R6 no subconjunto de R8 V ={  x′ y  = (x′1, x′2, x′′1, x′′2, y1, y2, y3, y4)T ∈ R8: A′  x′ y  = b,  x′ y  ≥ 0}, onde A′=     1 −1 0 0 1 0 0 0 −1 1 0 0 0 1 0 0 0 0 1 −1 0 0 1 0 0 0 −1 1 0 0 0 1    . A partir da aplicação g : R8 7→ R6             x′ 1 x′′ 1 x′ 2 x′′ 2 y1 y2 y3 y4                     x′ 1− x′′1 x′ 2− x′′2 y1 y2 y3 y4         ,

verifica-se que g(V ) = U e que, por sua vez, π(g(V )) = π(U ) = T . No en-tanto, g não é uma aplicação injectiva uma vez que, por exemplo, o ponto

(34)

30 Pontos Extremos e Direcções Extremas (0, 0, 2, 2, 1, 1)T ∈ U é imagem por g de qualquer dos pontos do subconjunto {(α, α, β, β, 2, 2, 1, 1)T : α, β ∈ R} ⊂ R8. Se considerarmos, porém, apenas o subconjunto V′ ⊂ V , definido por

{  x′ y  ∈ R8: x′=     x′1 x′ 2 x′′ 1 x′′ 2    ∈ R 4, A′ x′ y  = b,  x′ y  ≥ 0, x′1x′′1 = 0, x′2x′′2 = 0},

g já constitui uma bijecção entre V′ e U . Nestas condições, porém, embora se tenha g(V ) = U e π(g(V )) = T , apesar do ponto z = (0, 0, 0, 0, 2, 2, 1, 1)T ∈ V′ ser uma solução básica admissível para V e, consequentemente, de acordo com o Teorema 2.1, um ponto extremo de V , nem g(z) = (0, 0, 2, 2, 1, 1) é um ponto extremo de U , nem π(g(z)) = (0, 0) é um ponto extremo de T . Deve notar-se, no entanto, que neste caso, V′ não só não é um conjunto poliédrico, como nem sequer é um conjunto convexo.

Por exemplo, ao conjunto poliédrico I = {x ∈ R : 1 ≤ x ≤ 1} corresponde, biunivocamente, o subconjunto de R2 W ={(x′, x′′)∈ R2:  1 −1 −1 1   x′ x′′  ≤  1 1  , x′x′′= 0, x′, x′′≥ 0}, uma vez que h : R2→ R, definida por h(x, x′′) = x−x′′, constitui uma bijecção entre W e I (como exercício, prove esta afirmação e determine a inversa de h). No entanto, h−1(I) = W não é um conjunto convexo.

x′ x′′ 1 1 W −1 I 1   > 

Figura 2.6: Bijecção entre um conjunto convexo e um conjunto não convexo.

Definição 2.5. Uma solução básica, ¯x, do sistema de equações Ax = b, que apresenta pelo menos uma das suas componentes básicas com valor nulo desi-gna-se por solução básica degenerada (e, no caso de ser admissível, diz-se básica admissível degenerada ).

(35)

2.1 Relações entre pontos extremos e soluções básicas 31 de equações de variáveis não negativas:

  3 5 1 0 0 5 3 0 1 0 1 1 0 0 1         x y z1 z2 z3       =   40 40 10  , x, y, z1, z2, z3≥ 0,

verifica-se que ao ponto extremo (5, 5) estão associadas as soluções básicas de-generadas (x, y, z1) = (5, 5, 0), (x, y, z2) = (5, 5, 0) e (x, y, z3) = (5, 5, 0) às quais correspondem as bases B′ =   3 5 1 5 3 0 1 1 0  , B′′=   3 5 0 5 3 1 1 1 0  , B′′′=   3 5 0 5 3 0 1 1 1  .

Uma vez que os candidatos a pontos extremos de S são as soluções básicas do sistema de equações Ax = b, podemos concluir que qualquer ponto extremo de S tem pelo menos n− m componentes nulas e que o número de pontos extremos de S é não superior a n

m 

= n!

m!(n−m)!.

Teorema 2.3. Se S 6= ∅ então S tem pelo menos um ponto extremo.

Demonstração. Seja x ∈ S e, sem perda de generalidade, suponha-se que x = (x1, . . . , xk, xk+1, . . . , xn)T, onde xi > 0 para i = 1, . . . , k e xj = 0, para

j = k + 1, . . . , n. Seja A = [a1. . . akak+1. . . an], onde a1, . . . , ak, ak+1, . . . , an

deno-tam as colunas de A.

Se a1, . . . , ak são vectores linearmente independentes, então k ≤ m e x é uma solução

básica admissível, pelo que (de acordo com o Teorema 2.2) é um ponto extremo. Suponha-se que existem k escalares, λ1, . . . , λk, com pelo menos um positivo, tais que

Pk

j=1λjaj= 0, ou seja, a1, . . . , aksão vectores linearmente dependentes (note-se que se

existem k escalares não positivos que satisfazem o sistema de equaçõesPk

j=1λjaj= 0,

multiplicando-os por −1 obtêm-se k escalares não negativos que satisfazem as mesmas equações). Fazendo-se α = min1≤j≤k{

xj

λj : λj> 0} =

xi

λi e determinando-se x

de tal

forma que as suas componentes venham determinadas por

x′j=  xj− αλj, para 1 ≤ j ≤ k, 0, para j > k, vem que x′ j≥ 0 para, j = 1, . . . , k, x′j= 0 para j = k + 1, . . . , n e x′i= 0. Nestas condições, Ax′= n X j=1 x′jaj= k X j=1 (xj− αλj)aj= k X j=1 xjaj− α k X j=1 λjaj= b − 0 = b,

pelo que se obtém um novo ponto x′com, no máximo k − 1 componentes estritamente

positivas. Uma vez que este processo se pode repetir até que às componentes estri-tamente positivas correspondam colunas de A linearmente independentes, conclui-se o pretendido.

(36)

32 Pontos Extremos e Direcções Extremas

2.2

Direcções extremas e representação de

polie-dros convexos

Teorema 2.4. Pode afirmar-se que d é uma direcção extrema de S sse (após reordenação das componentes de d e, consequentemente, das colunas de A)

1. a matriz A admite uma decomposição do tipo A = [B, N ], onde B é uma matriz invertível,

2. existe pelo menos uma coluna aj tal que B−1aj≤ 0, 3. d é um múltiplo escalar positivo de

 −B−1a j ej−m  ,

com ej−m denotando o (j− m)-ésimo vector da base canónica de Rn−m.

Demonstração. (⇐) Se B−1a

j≤ 0, então d ≥ 0 e, além disso, Ad = 0, pelo que d é uma direcção de

S.

Vamos mostrar que se trata de uma direcção extrema.

Sendo d = d′+ d′′, com de d′′duas direcções de S, tem-se que n−m −1

compo-nentes, tanto de d′como d′′, são iguais a zero (uma vez que as correspondentes

componentes de d são nulas). Nestas condições, tanto d′ como d′′são da forma

d′=  d′B djej−m  e d′′= d′′B djej−m  .

Dado que Ad′= Ad′′= 0, i.e., Ad= Bd

B+ djaj= 0 e Ad′′= Bd′′B+ djaj= 0,

vem que d′

B = dj(−B−1aj) e d′′B = dj(−B−1aj), ou seja, d′ e d′′não são duas

direcções distintas. Logo d é uma direcção extrema.

(⇒) Reciprocamente, suponha-se que d é uma direcção extrema de S e, sem perda de generalidade, que d =                     d1 .. . dk 0 .. . 0 dj 0 .. . 0                     , com di> 0, para i = 1, . . . , k e i = j.

(37)

2.2 Direcções extremas e representação de poliedros convexos 33

dependentes. Logo, existem k escalares, λ1, . . . , λk, não todos nulos, tais que

Pk i=1λiai= 0. Seja u =               λ1 .. . λk .. . 0 .. . 0              

e escolha-se α > 0, suficientemente pequeno para que os vectores d′= d + αu e

d′′= d − αu tenham componentes não negativas. Note-se que

Ad′= Ad + αAu = 0 + k X i=1 λiai= 0 = 0 − k X i=1 λiai= Ad − αAu = Ad′′.

Assim, d′e d′′são duas direcções de S distintas de d e distintas entre si, uma vez

que α > 0, u 6= 0 e a j-ésima componente, tanto de d′ como de d′′, são iguais à

j-ésima componente de d4

. Adicionalmente, pode concluir-se que d = 1 2d′+

1 2d′′,

o que contradiz a suposição de d ser uma direcção extrema. Consequentemente, a1, . . . , ak são colunas de A linearmente independentes e, uma vez que a

carac-terística de A é m, tem-se que k ≤ m. Nestas condições, acrescentando as m − k colunas de A que, conjuntamente com a1, . . . , ak, formam uma base para Rm

e, consequentemente, constituem uma matriz invertível B, fazendo A = [B, N], vem que Ad = BdB+ djaj= 0 ⇔ dB = djB−1aj, pelo que d = dj  −B−1a j ej−m  .

Como corolário, imediato, deste teorema pode afirmar-se que o número de direcções extremas de S é não superior a (n − m) n

m, onde n − m corresponde ao número de possibilidades de escolha de aj e mn corresponde ao número de partições possíveis de A na forma [B, N ].

Segue-se um teorema que desempenha um papel crucial em Optimização Linear. Teorema 2.5 (da representação de poliedros convexos ). Dado um ponto x ∈ Rn, x∈ S sse x admite uma representação do tipo

x = p X j=1 αjxj+ q X i=1 βidi, 4

Com efeito, d′ = τ d′′ com τ > 0, é equivalente a d + αu = τ (d − αu) ⇔ (1 + τ )αu =

(τ − 1)d ⇒ (τ − 1)dj= 0 (uma vez que a j-ésima componente de u é nula). Por outro lado,

dado que (por hipótese) dj> 0, conclui-se que τ = 1. Logo, 2αu = 0, o que é absurdo, tendo

Referências

Documentos relacionados

O começo da década O incrível zepelim Enfim, o rádio comercial Espaços comprados Programas patrocinados A mídia da mãe Sem segurança Cinema ao ar livre A guerra civil De carona

No sistema comunal, Marx, advoga, dentre outras coisas, a organização planejada do trabalho (em vez de sua alienante divisão), determinada pelos imperativos auto-afirmadores do

Sempre em mangas de camisa, sem domingo nem dia santo, não perdendo nunca a ocasião de assenhorear-se do alheio, deixando de pagar todas as vezes que podia e nunca deixando

O vinho que vende aos seus clientes é diluído em água (fica aqui nas entrelinhas a idéia de que o brasileiro está destinado a ser explorado pelo estrangeiro). Mas o mais

Já no caso do Piauí, embora algo mais da metade (55%) tenha retornado da Região Sudeste (de São Paulo, principalmente), percebe-se que tanto a Região Norte, como a Região

O objetivo do presente trabalho é apresentar uma metodologia para a geração das posições de contato da ferramenta de corte , CCData (Cutter Contact Data), para a usinagem de

The objective of this study was to quantify the genotype by environment interaction for 365 d weight in pasture- raised Nellore cattle by employing reaction norms in

Fonte: Roadmap Portugal 2050: análise das novas tecnologias energéticas nacionais e cenarização do seu impacto no sistema energético