• Nenhum resultado encontrado

ANÁLISE DE EQUIVALÊNCIA ENTRE ATIVOS FINANCEIROS

N/A
N/A
Protected

Academic year: 2021

Share "ANÁLISE DE EQUIVALÊNCIA ENTRE ATIVOS FINANCEIROS"

Copied!
12
0
0

Texto

(1)

ANÁLISE DE EQUIVALÊNCIA ENTRE ATIVOS FINANCEIROS

Gustavo Santos Raposo

PUC-RJ: Departamento de Engenharia Elétrica - DEE

Rua Marquês de São Vicente, 225 - Gávea, Cep: 22453-900 – Rio de Janeiro/RJ E-mail: gsraposo@algorithmics.com.br

Victor Santos Raposo

COPPE/UFRJ: Programa de Engenharia de Produção - PEP

Cidade Universitária – Centro de Tecnologia, Cep: 21945-970 – Rio de Janeiro/RJ E-mail: victor.raposo@shell.com

Resumo

No presente trabalho, procurar-se-á apresentar, em linhas gerais, metodologia proposta para a análise de ativos financeiros equivalentes, a qual toma por base toda teoria de agrupamento de elementos, em particular a análise de clusters e técnicas de classificação, fazendo uso de certos tipos de variáveis e parâmetros utilizados/calculados com base na teoria financeira.

Para a realização das análises propostas, o presente estudo utilizar-se-á, primeiramente, de fundamentos e métodos estatísticos, em especial o K-means e análise de discriminantes, e, posteriormente, de uma modelagem empregando redes neurais, com uso das redes auto-organizáveis (SOM – Self-Organizing Map) e das redes PNNs (Probabilistic Neural Networks), possibilitando uma abordagem comparativa entre os resultados encontrados.

Assim sendo, o estudo mostra as etapas que compõem o arcabouço analítico proposto, enfatizando as fases de modelagem e preparação dos dados de entrada, em que, através da abordagem de um caso prático, são apresentados os resultados finais passíveis de serem obtidos segundo a proposta, ilustrando tanto o processo de formação dos grupos (clustering e ordenação), quanto à classificação de entidades novas, condicionada a existência de padrões pré-determinados.

Palavras-chave: classificação, ativos financeiros, redes neurais. Abstract

This paper presents methodology proposed for the analysis of financial assets similarities, which is based on the clustering and classification techniques, using different parameters and attributes determined by the financial theory.

In order to establish the proposed model, this article aggregates two different methods. The first one is based on statistical techniques, using K-means for clustering and discriminant analysis to classify the elements. The results are compared to the ones obtained through neural network procedures – self-organizing networks and probabilistic neural networks, respectively.

In that way, this article shows the different steps followed during the modeling process, giving emphasis to the phases related to the input data manipulation regarding a practical case; presenting a brief description of the theory concerned.

(2)

1. Introdução

A similaridade entre ativos financeiros desempenha papel fundamental, principalmente no que se refere à questão da definição de estratégias de investimentos em mercados ineficientes e/ou pouco líquidos. Além da questão das estratégias de investimentos, considerando a atuação em mercados emergentes, que compartilha as características citadas anteriormente, outra área de interesse para o estudo de equivalência entre ativos financeiros diz respeito à atuação das chamadas câmaras de compensação (Clearing Houses).

As câmaras de compensação são entidades cujo objetivo é prover garantias ao mercado quanto ao fechamento das operações transacionadas, garantindo, assim, a solvência das mesmas. Deste modo, pode-se entender a atuação das referidas entidades como sendo “a contraparte das contrapartes”.

A operação das câmaras de compensação está condicionada à existência de um certo grau de disponibilidade interna de ativos sendo negociados livremente no mercado, estando os preços dos mesmos relacionados aos chamados fatores de mercado (taxa de juros, índices de inflação, câmbio,

spreads de crédito, dentre outros). Porém, um dos fatos característicos dos mercados emergentes é a

existência dos spreads de liquidez, cujo valor oscila de acordo com diversos fatores, dentre os quais destacam-se: presença de instrumentos necessários à adoção de políticas de hedge, volume em mercado após a distribuição primária e concentração/diversificação dos bond holders.

Torna-se imprescindível ao bom funcionamento destes agentes que seja possível a utilização de ativos que, dentro de um determinado nível de confiança, compartilhem características semelhantes àquele originalmente transacionado, reduzindo perdas inesperadas, ocasionadas, principalmente, pela ineficiência do mercado no qual tais transações são realizadas.

Dentro deste espírito, o presente trabalho vem propor um procedimento analítico, que terá por objetivo principal o detalhamento do processo para a identificação dos chamados grupos de “ativos similares”, contemplando os instrumentos que compõem o mercado brasileiro de renda fixa. Em paralelo, são apresentadas técnicas de classificação, as quais tem por objetivo auxiliar o processamento de informações, dispensando a re-execução das rotinas de formação dos grupos (computacionalmente intensivo).

2. Procedimento de Análise

As etapas correspondentes ao procedimento de análise proposto são:

1) Formação dos grupos: definição do processo de formação de grupos de instrumentos financeiros (clusters), com base no grau de similaridade apresentada. Nesta etapa serão empregadas duas metodologias distintas: K-means (estatística clássica) e redes SOM (redes neurais);

2) Alocação de “novos instrumentos”: classificação de um novo ativo em um dos grupos previamente definidos. Novamente serão utilizados dois procedimentos diferentes. São eles: análise de discriminantes e redes PNN.

3. Análise de Clusters

A análise de cluster consiste em métodos de agrupamento de objetos ou variáveis de interesse, mediante análise das similaridades (distâncias) que estas apresentam entre si. Ela difere dos métodos de classificação tradicionais, e o objetivo principal passa a ser, dada uma nova observação para um certo número de grupos existentes, definir aquele no qual a nova observação será inserida. Assim, a análise de cluster pode ser entendida como um método mais primitivo, onde nenhum pressuposto com relação ao número de grupos nem a estrutura dos mesmos é feita, sendo as medidas de similaridade entre as variáveis, os únicos inputs requeridos para a modelagem.

Assim sendo, o objetivo básico da análise de cluster é determinar os grupos “naturais” das variáveis de interesse. De forma a possibilitar tal determinação, torna-se necessário o desenvolvimento de uma escala quantitativa, segundo a qual as medidas de associação (similaridades) entre os diferentes objetos possam ser definidas.

(3)

3.1. Medidas de similaridades:

Conforme exposto anteriormente, o grande desafio dos procedimentos de análise é buscar estruturas simples de agrupamento a partir de conjunto complexo de dados, fazendo uso de medidas de proximidade ou similaridade entre os diferentes objetos em estudo. Existe uma grande parcela de subjetividade envolvida na definição da medida de similaridade apropriada. Para que o processo de escolha seja bem sucedido, tornam-se necessárias certas considerações, tanto no que diz respeito à natureza das variáveis (discreta, contínua e binária ou dicotômica), quanto à escala das medidas (nominal, ordinal, intervalo ou razão).

Pode-se distinguir dois procedimentos distintos dentro do processo de análise de cluster. O primeiro diz respeito ao processo de agrupamento dos itens ou objetos de estudo, no qual a grande maioria dos autores faz uso do método das distâncias. Já o segundo, se refere ao agrupamento das variáveis que qualificam cada um dos itens de interesse, onde é dada maior ênfase ao uso de medidas de associação e/ou correlação.

¾ Distâncias e similaridades para pares de itens: • Distância euclidiana:

Sejam dois vetores x’ = [x1, x2, ..., xp] e y’ = [y1, y2, ..., yp]. Então, a distância euclidiana entre eles

será:

( )

x,y

(

x y

)

(

x y

) (

'. x y

)

d p 1 i 2 i i − = − − =

=

Onde, d(x, y) – distância euclidiana entre os vetores x e y. • Distância estatística:

Sejam dois vetores aleatórios x’ = [x1, x2, ..., xp] e y’ = [y1, y2, ..., yp]. Então, a distância estatística

entre eles será:

( )

x,

y

(

x

y

)

'

.

S

.

(

x

y

)

d

1

est

=

Onde, dest (x, y) é a distância estatística entre os vetores x e y e S é o estimador da matriz de

variância-covariância.

Vale lembrar que, para a determinação da distância estatística, torna-se necessário o conhecimento das variâncias e covariâncias amostrais. Entretanto, sem o prévio conhecimento dos diferentes grupos, tais informações não poderão ser geradas. Devido a este fato, a distância euclidiana é geralmente preferida para a implementação das rotinas de identificação dos chamados “grupos naturais”.

3.2. Método de determinação de distâncias entre grupos:

¾ Método K-means:

Em linhas gerais, o método consiste de um algoritmo que busca redefinir o conjunto inicial de grupos proposto, a partir da análise da distância entre os centróides dos mesmos, tomando por base a distância euclidiana como sendo a medida de similaridade imposta.

Os passos percorridos pelo método podem ser resumidos da seguinte maneira: 1. Particionar os itens em K grupos iniciais, escolhidos aleatoriamente;

2. Percorrer o conjunto inicial de itens, comparando a distância entre cada um e os diferentes grupos existentes, realizando a re-alocação dos mesmos, caso a menor distância auferida seja inferior àquela apresentada pelo centróide do grupo no qual a variável estava inicialmente alocada (normalmente utiliza-se a distância euclidiana, podendo as observações estar padronizadas ou não);

(4)

3. Repetir passos 1 e 2 até que não seja possível mais nenhuma realocação entre os grupos. ¾ Redes SOM:

A principal característica dos mapas auto-organizáveis é converter um sinal (padrão) de dimensão arbitrária em um mapa discreto de uma ou duas dimensões, promovendo esta transformação de uma maneira estruturalmente ordenada.

Dentre os métodos existentes, merece destaque aquele desenvolvido por Kohonen (1982), o qual provém um mapeamento topológico, que aloca de maneira ótima um número fixo de vetores em um espaço de entrada de dimensão elevada, facilitando a compressão da informação.

O algoritmo responsável pela formação dos mapas auto-organizáveis tem início a partir da inicialização dos pesos sinápticos, a qual deve ser processada tomando-se por base valores aleatórios pequenos a serem atribuídos a cada uma das interconexões.

Na figura abaixo, ilustra-se a metodologia de formação dos mapas auto-organizáveis, como o modelo proposto por Kohonen.

Figura 1 – Representação esquemática dos mapas auto-organizáveis

Existem três grandes processos envolvendo a formação dos mapas auto-organizáveis. São eles: • Competição: Para cada padrão de entrada apresentado os diferentes neurônios irão determinar seus respectivos valores, a partir das chamadas funções discriminantes (base para competição). O neurônio que apresentar o maior valor (estado de ativação) será considerado vencedor;

• Cooperação: A posição topológica do neurônio vencedor determinará quais neurônios irão compor a vizinhança excitada, ou melhor, estimulada conjuntamente;

• Atualização do peso sináptico: Estabelece a forma pela qual os pesos das interconexões (sinapses) de cada neurônio que compõe a vizinhança estimulada são alterados, de modo a aumentar o valor da função discriminante de cada processador condicionado ao referido padrão de entrada.

9 Características básicas:

ƒ Regra de propagação: Netij = Σ xi . wij = X . W

ƒ Função de ativação: degrau (para o vencedor) ƒ Topologia: 1 camada de processadores

ƒ Algoritmo de aprendizado: não supervisionado ƒ Valores (entrada/saída): binários/contínuos

4. Métodos de Classificação

O processo de classificação objetiva a alocação de entidades em grupos, entendidos como conjuntos de elementos previamente definidos. Conforme comentado, no presente trabalho foram utilizados dois métodos de naturezas distintas: análise de discriminantes e PNN.

(5)

4.1. Análise de Discriminantes

A análise de discriminantes consiste de uma técnica de separação de entidades de interesse. Ainda no que diz respeito à utilização da análise de discriminantes, deve-se ressaltar sua função quando da alocação de determinados objetos ou observações a grupos (ou populações) previamente definidos.

Com base no que foi colocado, percebe-se a divisão da teoria de análise de discriminantes em dois campos distintos, porém com determinado grau de convergência. São eles:

1. Separação: cujo objetivo principal é descrever, gráfica ou algebricamente, as diferenças apresentadas pelos objetos (ou observações) a partir de grupos (ou populações) previamente conhecidos. De maneira resumida, procede-se à identificação dos “discriminantes” que tornam as observações tão distantes entre si quanto possível – definindo similaridades de maneira indireta. 2. Alocação: agrupar indivíduos, objetos ou observações em classes/categorias previamente definidas.

O presente trabalho buscará dar ênfase à questão de alocação de itens de interesse, neste caso ativos financeiros, em grupos previamente definidos – resultado da análise de cluster executada na etapa inicial do presente trabalho.

Dentre os métodos de alocação (n grupos) existentes, merecem destaque:

¾ Análise de discriminantes (população normal com matriz de variância-covariância distinta): Ao considerar grupos com função de distribuição de probabilidades Gaussiana e matriz de variância-covariância distinta, tem-se que o mínimo da probabilidade total de classificação equivocada dependerá da razão entre as verossimilhanças ou, equivalentemente, da diferença entre as log-verossimilhanças (para detalhes, ver Johnson, Richard A. and Wichern, Dean W. – 5a edição). Dessa forma, seja:

( )

( )

[

(

) (

K K

)

]

T K K p K

x

x

x

x

x

f

Σ

Σ

=

− 0 1 0 2 1 2 0

.

exp

2

1

π

então,

x

0 será alocado no grupo k, se

f

K

( )

x

0

>

f

i

( )

x

0

i

K

¾ Análise de Fisher:

A motivação do método está relacionada à necessidade de uma representação alternativa para a população, onde esta seria definida a partir de combinações lineares das observações. Dentre as vantagens do método, pode-se destacar:

• Redução do número de parâmetros qualificadores das populações; • Análise explicita das relações existentes entre as populações; • Identificação de outliers.

Apesar o método de Fisher ter sido originalmente proposto com o objetivo de segregar populações, seu uso em problemas de alocação é fortemente recomendado. Neste, um dado elemento é associado a um determinado grupo caso o quadrado da distância verificada entre o elemento e o centróide deste grupo seja inferior ao dos demais existentes (para detalhes, ver Johnson, Richard A. and Wichern, Dean W. – 5a edição). Assim, seja:

(

)(

)

= − − = g i T i i i x x x x n B 1

(6)

(

)(

)

∑∑

= =

=

g i n j T j i j i i

x

x

x

x

W

1 1

então, os autovetores (ai, i=1...r) da matriz

W

B

1 −

serão os chamados discriminantes amostrais de Fisher e a regra de alocação será:

0

x

será alocado no grupo k, se:

[

a

(

x

x

)

]

[

a

(

x

x

)

]

i

K

r j i T j r j K T j

<

= = 2 1 0 2 1 0

4.2. PNN (Probabilistic Neural Networks)

Rede inspirada nos classificadores bayesianos, as PNNs vem sendo fortemente empregadas em problemas de classificação de padrões em grupos com elementos previamente conhecidos. Dentre as vantagens apresentadas merecem destaque:

- Mapeamento não linear dos dados de entrada;

- Poder de generalização (tratamento apropriado de dados ruidosos); - Utilização do processamento paralelo (paralelismo);

- Aprendizado rápido;

- Convergência para o classificador bayesiano;

- Indicação de confiança (grau de evidência que justifica a alocação em determinado grupo em detrimento de outros).

Na ilustração a seguir, é apresentado o funcionamento das redes PNNs para um caso genérico, supondo p amostras da classe A e q amostras da classe B.

Figura 2 – Representação esquemática das redes PNNs

5. Estudo de Caso

Dentre os fatores que caracterizam um determinado ativo financeiro, pode-se destacar: fator de risco de mercado, grau de liquidez, duração média, categoria do emissor. Assim, qualquer procedimento de agrupamento deverá, necessariamente, fazer uso destes tipos de parâmetros, de forma a minimizar os resultados de uma eventual substituição, tanto no que se refere à entidade garantidora (clearing), quanto aos participantes de maneira geral.

5.1. Formação dos grupos

No estudo de caso proposto foram utilizados ativos financeiros hipotéticos de variados tipos. Dentre estes destacam-se: debêntures, NTN-Ds, NBC-Es, LFTs, LTNs, NTN-Cs, CDBs e TDAs.

Processo de agrupamento: uso de variáveis dicotômicas.

9 Fator de risco de mercado (TJLP, TR, IPCA, IGP-M, Dólar, Juros pré e Juros pós); 9 Faixas de duração (0 – 0.5 ano, 0.5 – 1.0 ano, 1.0 – 1.5 anos, 1.5 – 2.0 anos e > 2.0 anos);

(7)

9 Faixas – índices de liquidez (0 – 0.3, 0.3 – 0.6 e 0.6 – 1.0); 9 Categoria de emissor (A, B e C).

A seguir são apresentadas as metodologias propostas no presente artigo aplicadas ao estudo de caso em questão.

5.1.1. K-means

Conforme já mencionado anteriormente, o procedimento estatístico utilizado para composição dos grupos foi o K-means, pertencente à família dos métodos aglomerativos não-hierárquicos. Após o término do processo de obtenção dos dados, ou seja, geração das informações referentes aos ativos financeiros, passa-se à fase de elaboração da base a ser utilizada pela rotina de formação dos grupos.

Após a montagem da base de dados, tem início o processo de construção dos grupos, mediante aplicação do algoritmo K-means. Neste, conforme já visto ao longo do trabalho, torna-se necessária a definição prévia do número de grupos a serem formados.

No contexto do trabalho a ser desenvolvido, optar-se-á pela construção de sete grupos distintos. A seguir, são apresentados os resultados obtidos para os dois ensaios realizados.

• Ensaio 1 – pesos iguais para parâmetros

Tabela 1 – Grupos de ativos financeiros (pesos iguais) – K-means • Ensaio 2 – pesos variados para parâmetros

• Fatores de risco: 3; • Duration: 1;

• Índice de Liquidez: 2; • Rating: 2.

Tabela 2 – Grupos de ativos financeiros (pesos diferentes) – K-means • Ensaio 1:

Grupo 1 → Praticamente todos os ativos apresentam como fator de risco a Taxa de Juros de

Longo Prazo - TJLP. Somente o ativo DEB VOT 2 possui como fator de risco o CDI. Todos os título têm o prazo de 3 anos, com vencimento em 2003;

Grupo 2 → Todos os ativos possuem como fator de risco principal a Taxa Referencial (TR).

(8)

Grupo 3 → Neste grupo, os fatores que prevaleceram na composição das medidas de similaridade

foram: rating dos emissores e índice de liquidez.;

Grupo 4 → Composto por títulos públicos e privados (debênture), tendo como fator de risco a

taxa de variação de inflação medida pelo IGP-M (NTN-C’s);

Grupo 5 → Composto somente por títulos públicos, tendo como fator de risco a taxa de câmbio

(NTN-D’s e NBC-E’s);

Grupo 6 → Composto basicamente por títulos pré-fixados, com duração muito semelhante; Grupo 7 → Composto por ativos que apresentam um mesmo grau de liquidez e cujos emissores

encontram-se classificados como rating “A”. • Ensaio 2:

Neste, devido ao peso conferido aos fatores de risco ser superior aos demais parâmetros, pode-se constatar que esta é a medida que prevalece na montagem dos grupos.

5.1.2. SOM

A rede neural utilizada nesta etapa do trabalho apresenta as seguintes características principais: - Topologia: 15 x 15;

- Vizinhança: quadrada;

- Medida de distância: Euclidiana;

- Número de épocas (ajuste fino): 100000; - Taxa de aprendizado: 0.2.

A seguir serão apresentados os resultados obtidos a partir do emprego das redes auto-organizáveis, em especial, o mapa de Kohonen.

• Ensaio 1 – pesos iguais para parâmetros

Figura 3 – Grupos formados a partir do uso das redes SOM (pesos iguais)

(9)

• Ensaio 2 – pesos variados para parâmetros • Fatores de risco: 3;

• Duration: 1;

• Índice de Liquidez: 2; • Rating: 2.

Figura 4 – Grupos formados a partir do uso das redes SOM (pesos diferentes)

Tabela 4 – Grupos de ativos financeiros (pesos diferentes) – Redes SOM • Ensaio 1:

Grupo 1 → Praticamente todos os ativos apresentam como fator de risco a Taxa de Juros de

Longo Prazo - TJLP;

Grupo 2 → Todos os ativos possuem como fator de risco principal a Taxa Referencial (TR); Grupo 3 → Neste grupo, os fatores que prevaleceram na composição das medidas de similaridade

foram: rating dos emissores e índice de liquidez;

Grupo 4 → Composto somente por títulos públicos, tendo como fator de risco a taxa de variação

de inflação medida pelo IGP-M (NTN-C’s);

Grupo 5 → Composto principalmente por títulos públicos, tendo como fator de risco a taxa de

câmbio (NTN-D’s e NBC-E’s) – exceção para DEB PETR1;

Grupo 6 → Composto basicamente por títulos pré-fixados, com duração muito semelhante; Grupo 7 → Composto por ativos que apresentam um mesmo grau de liquidez e cujos emissores

encontram-se classificados como rating “A”. • Ensaio 2:

(10)

Neste, devido ao peso conferido aos fatores de risco ser superior aos demais parâmetros, pode-se constatar que esta é a medida que prevalece na montagem dos grupos. Vale ressaltar que o processo de agrupamento realizado pelas redes auto-organizáveis alcançou um resultado final superior, pelo menos do ponto de vista qualitativo, do que o método estatístico (K-Means).

5.2. Classificação de novos ativos

A presente seção tem por objetivo, a partir do emprego da análise de discriminantes (método de Fisher) e do uso de redes PNNs, determinar o grupo no qual um determinado conjunto de ativos financeiros hipotéticos deveria ser alocado, de forma a respeitar as idéias de determinação de classes apresentadas quando da primeira fase do trabalho. Para tal, serão utilizados os grupos definidos anteriormente, resultado da análise de cluster com ausência de ponderação. Neste exemplo ilustrativo será considerada somente a saída obtida a partir dos procedimentos estatísticos.

5.2.1. Análise de Discriminantes

Convém ressaltar a necessidade de re-parametrização dos objetos em estudo, devido ao fato de que existe uma maior quantidade de “parâmetros qualificadores” do que de observações (entidades alocadas por grupo) propriamente ditas. Sem este procedimento, o estimador da matriz de variância-covariância se mostrará não inversível.

Desta forma, será considerado o seguinte conjunto de ativos:

Tabela 5 – Conjuntos de ativos financeiros a serem alocados em grupos pré-existentes

e a seguinte re-parametrização1, onde o objetivo é reduzir o número de parâmetros qualificadores, consolidando a natureza dos inicialmente utilizados:

Tabela 6 – Re-parametrização proposta Dessa forma, o novo conjunto de ativos terá a seguinte forma:

Tabela 7 – Conjuntos de ativos financeiros (após re-parametrização)

Assim, seguindo-se os passos do método de Fisher (descritos anteriormente) e aplicando a re-parametrização proposta aos ativos analisados na etapa inicial do trabalho, ter-se-á:

1

A re-parametrização proposta não torna os subgrupos existentes ordenáveis, estando relacionada a um procedimento puramente qualitativo de identificação.

(11)

• Resultado final (alocação dos ativos nos grupos previamente definidos):

Ativos Grupo 1 Grupo 2 Grupo 3 Grupo 4 Grupo 5 Grupo 6 Grupo 7

Ativo 1 0 0 0 0 0 1 0

Ativo 2 0 0 0 0 0 0 1

Ativo 3 0 0 0 0 1 0 0

Ativo 4 0 0 1 0 0 0 0

Ativo 5 0 0 1 0 0 0 0

Tabela 8 – Resultado final da classificação (análise de discriminantes)

5.2.2. PNN

Neste, não se faz necessário qualquer tipo ou procedimento de re-parametrização, o qual pode, além do inconveniente resultante da manipulação da base de dados, ocasionar desvios nos resultados a serem obtidos.

A seguir são apresentados os resultados obtidos pela execução da rede.

Ativos Grupo 1 Grupo 2 Grupo 3 Grupo 4 Grupo 5 Grupo 6 Grupo 7

Ativo 1 0 0 0 0 0 1 0

Ativo 2 0 0 0 0 0 1 0

Ativo 3 0 0 0 0 1 0 0

Ativo 4 1 0 0 0 0 0 0

Ativo 5 0 0 0 0 0 1 0

Tabela 9 – Resultado final da classificação (redes PNN)

6. Comentários finais e conclusões

Pode-se perceber que a teoria de análise de cluster atende à proposição básica de mercados pouco líquidos, a qual diz respeito à identificação de padrões de similaridade entre os ativos financeiros passíveis de negociação. Apesar dos resultados obtidos terem sido satisfatórios sob o ponto de vista processual, ressalta-se que existe um elevado grau de subjetividade, tanto com relação à escolha do modelo para composição dos grupos (medidas de distância, formas de agrupamento,...), como na própria aferição dos resultados obtidos, sendo imprescindível, nesse caso, o pleno domínio do problema em estudo, de forma a minimizar possíveis distorções na informação final, resultado do modelo.

No caso em estudo, vimos que os resultados do modelo proposto se mostram sobremaneira sensíveis a mudanças nos valores dos parâmetros que qualificam as variáveis de interesse, estando todos os demais resultados condicionados à ponderação ou grau de importância atribuído a cada um desses parâmetros, cabendo observar, mais uma vez, a importância do completo entendimento do problema.

Pode-se concluir que tanto o emprego da análise de discriminantes, quanto do PNN foram bem sucedidos, dentro da idéia de se desenvolver uma alternativa à alocação de novas entidades a grupos previamente selecionados, não tornando necessário todo o processamento de formação dos grupos desenvolvido. Convém ressaltar que, numa implementação prática da metodologia proposta neste trabalho, esta questão seria de grande importância no gerenciamento da “inclusão” de novos ativos no mercado, tanto em termos de acurácia, precisão e praticidade, quanto em termos da possível ausência de alguns dos parâmetros balizadores/qualificadores das variáveis de interesse.

(12)

Bibliografia

[1] Algorithmics Inc. RiskWatch – Sistema de controle e gerenciamento de risco. [2] Banco Central do Brasil. “Manual de Títulos e Valores Mobiliários.” 1997. [3] Haykin, S. “Neural Networks” – Second Edition – Prentice Hall.

[4] Johnson, Richard A. and Wichern, Dean W. “Applied Multivariate Statistical Analysis” – Fifth Edition – Prentice Hall.

Referências

Documentos relacionados

efeitos de conformidade com os requisitos estabelecidos no artigo 3.º, n.º 1, alínea e), e no artigo 4.º, alínea c), a classe de eficiência energética e a gama de

As variáveis peso, estatura e circunferência da cintura apresentaram valores médios superiores aos homens em relação as mulheres, sendo o inverso observado para índice

O que foi paradoxal é que, mesmo com a instituição do grau acima mencionado, não houve substancial melhoria na qualidade do ensino da Matemática na Escola Militar, na Escola Central

As crianças preparam entre eles a Eucaristia somente o dia da acolhida na comunidade, como uma coisa excepcional, mas depois já não fazem como um mais,  porque a Eucaristia é

Percebe-se que a escola tem grande importância para a interação com as Tecnologias de Informação e Comunicação (TIC), por parte dos alunos e também dos

Ricoeur assinala que “o caráter laborioso dessa fenomenologia do outrem [...], nos autoriza, ao final de nosso próprio empreendimento, a modificar-lhe o sentido e a discernir nela

Mais do que definir a última etapa da vida, trata-se de impor estilos de vida, criando uma série de regras e comportamento e de consumo de bens específicos que indicam

A Formação Modular assume-se como uma modalidade de formação que promove a dupla certificação, organiza-se e desenvolve-se com base em unidades de formação de