• Nenhum resultado encontrado

PRIMEIRA PARTE – INTRODUÇÃO

4. Modelagem Topológica – modelos estruturais e dinâmicos utilizados para representar o funcionamento dos equipamentos quando conectados em rede.

2.2. Avaliação de Desempenho

Desde os primórdios dos sistemas elétricos de potência, no início do século passado, as empresas geradoras, transmissoras e distribuidoras investigam as causas de desligamentos e interrupções do suprimento de energia, principalmente aquelas que impactam nos consumidores. Ainda no final do século dezenove, ocorreu o primeiro “apagão” que se tem notícia (SCHEWE [221]), na Pearl Street em Nova York, em 21 de janeiro de 1890, devido a um incêndio na usina do próprio Thomas Alva Edison (1847-1931), na primeira rede de distribuição de energia elétrica para iluminação, suspendendo o fornecimento de corrente contínua para 1300 lâmpadas, em 60 famílias aproximadamente. No ano seguinte (HENNESSEY [108]), um grande apagão ocorreu na região central de Londres em Novembro de 1891, com duração de quatro dias, motivado por um longo período de névoa (fog) e umidade. Já naquela época houve muita pressão sobre a LESC (London Electric

Supply Corporation) quanto às consequências econômicas resultantes, e a

necessidade de análises das causas.

Até a primeira metade do século XX, estas análises eram essencialmente pontuais, voltadas para a correção de defeitos isolados. Inexistiam até então normas que regulamentassem a análise sistêmica do desempenho e sua mensuração por indicadores. (BROWN [50]) fornece um resumo histórico desta evolução, até os dias atuais, com foco nos sistemas de distribuição nos Estados Unidos da América. Com o crescimento dos sistemas de distribuição, surgiram os primeiros estudos, na década de 40, relacionados a taxas de falha de linhas aéreas, sumarizados em uma pesquisa de 1959 publicada pela (WESTINGHOUSE [270] [269]). Nesta publicação ainda não havia referência a indicadores de desempenho ou conceitos de confiabilidade, nem existiam metodologias normatizadas de avaliação de desempenho. Até 1955, segundo (BROWNb [51]), todos os problemas de sistemas elétricos eram resolvidos por cálculos manuais, ou utilizando analisadores analógicos de rede, réplicas elétricas em escala reduzida das redes de alta tensão. Estudos de proteção, por exemplo (MASON [156], WARRINGTON [268]), e fluxos de carga (STEVENSON [255]) eram realizados com cálculos analógicos manuais, baseados em tabelas, curvas características de tempo e impedâncias de alcance de relés.

No final da década de 60, (CAPRA, GANGEL e LYON [57]), em uma das primeiras publicações sobre confiabilidade em sistemas de distribuição, correlacionavam as taxas de falha de equipamentos da rede de distribuição com as interrupções anuais sofridas pelos consumidores. Este estudo foi um prenúncio da sistematização, na década de 70, da coleta de dados sistemáticos pelas empresas distribuidoras, para avaliação de índices de confiabilidade. Datam desta década a concepção e proposta de alguns indicadores de confiabilidade de sistemas de distribuição similares ao

SAIFI, SAIDI e CAIDI (equivalentes ao DEC, FEC, DIC e FIC no Brasil) utilizados

atualmente (BROWN [50]), e o registro do primeiro “apagão” de consequências dramáticas, ocorrido em 09/11/1965 no Nordeste dos Estados Unidos. Este evento

63

evidenciou a necessidade de cooperação e interação entre as empresas, motivando a criação da NERC (National Electric Reliability Corporation) em 1968, encarregada de distribuir recomendações e informações sobre o comportamento dinâmico e estático de sistemas elétricos. Já em 1966 (HORE [110]) e em 1970 (VENIKOV et

alii [266]) documentavam o conhecimento existente sobre modelos de

representação dinâmica de sistemas elétricos, incluindo cargas e máquinas elétricas, para estudos de estabilidade transitória e equivalentes dinâmicos. No final da década, (STAGG e EL-ABIAD [254]) lançaram seu livro clássico, estabelecendo as bases da computação digital na análise de sistemas de potência, popularizada na década seguinte.

A década de 70 foi caracterizada pela migração dos meios de cálculo, manuais e registrados em papel, para os métodos automatizados, com a proliferação do uso de computadores (mainframes) no controle automático de sistemas e equipamentos elétricos (AMBROSOVICH [8]), e o surgimento dos Sistemas de Gerenciamento de Desligamentos (OMS – Outage Management Systems), e sistemas SCADA (SAVULESCU [205], BAILEY e WRIGHT [25], MORAES e CASTRUCCI [167]) hoje disponibilizados on-line na Internet por grande parte de empresas (WIKIPEDIA [274]). A pesquisa em sistemas elétricos de potência ganhou ímpeto com a criação de centros de pesquisa em vários países, inclusive no Brasil, através do CEPEL, o Centro de Pesquisa em Energia Elétrica (ELETROBRAS [77]). Este movimento foi acompanhado do uso crescente de modelos probabilísticos mais sofisticados na representação de componentes de sistemas de potência (ANISIMOVA et alii [17]), e no desenvolvimento de ferramentas de análise de fluxo de carga CC e CA em estado permanente (MONTICELLI [164]), métodos de análise de transitórios (GREENWOOD [102], REED et alii [197], e VENIKOV [264] [265]), estudos de curtos-circuitos (ANDERSON [11]) e controle e estabilidade de sistemas de potência (ANDERSON [10]). Já em 1970, (BILLINTON [37]) sistematizava a avaliação da confiabilidade de sistemas compostos, destacando a importância da padronização dos conceitos sobre saídas forçadas e os níveis de confiança na coleta de dados. Em 1971, (ENDRENYI [76]) introduzia um modelo de 3 estados para representar sistemas reparáveis, onde as condições de defeito antes e após o chaveamento do componente eram explicitamente representadas por estados independentes. Esta década também testemunhou um dos maiores blackouts em região urbana, na Cidade de Nova York, em 13 de julho de 1977, atingindo milhões de pessoas. Pela primeira vez, o relatório final (FINK [88]) tentou definir uma metodologia de avaliação do valor da confiabilidade da energia elétrica com base no impacto de sua falta nos indivíduos, negócios e instituições afetadas.

Mas só foi na década de 80 que ocorreu a sistematização da definição e cálculo de indicadores padronizados de confiabilidade e desempenho de sistemas elétricos. No Brasil, o CEPEL (ELETROBRAS [77]) iniciava o desenvolvimento de uma cadeia completa de modelos computacionais para o planejamento da expansão e operação da transmissão e geração, hoje utilizada em larga escala. Já em 1981, (CAMARGO [54]) documentava os modelos, conceitos e indicadores utilizados na avaliação da confiabilidade de sistemas de transmissão. Este estudo foi seguido, em 1982, por uma publicação da (ELETROBRÁS [76]), através do CODI, seu Comitê de Distribuição, estabelecendo as classificações aplicáveis às interrupções de consumidores, definindo os indicadores operativos, e propondo uma sistemática padronizada para levantamento de dados nas empresas. Constam neste documento

64

as definições de índices de duração e frequência equivalente por consumidor e por potência instalada, percussores dos índices utilizados atualmente, bem como as classificações das interrupções segundo a natureza programada ou forçada. Em 1988, (BILLINTON e ALLAN [41]) publicaram um dos primeiros livros no Canadá dedicado à discussão de indicadores de confiabilidade, e popularizaram os indicadores SAIFI, SAIDI e CAIDI utilizados internacionalmente. Este livro foi seguido, em 1989, pela criação de um grupo de trabalho no Subcomitê de Distribuição da Sociedade de Engenharia de Potência (PES – Power Engineering

Society) do IEEE para definir indicadores de confiabilidade para empresas nos

Estados Unidos (IEEE [117]), introduzindo o conceito de interrupções e eventos momentâneos no suprimento de energia. Esta época marca a popularização dos métodos probabilísticos para tratamento de incertezas em sistemas de potência (LEITE DA SILVA, PEREIRA e SCHILLING [147]), e a necessidade de avaliação da confiabilidade conjunta de sistemas de geração, transmissão e distribuição (CASSULA, LEITE DA SILVA et alii [58]). Métodos e algoritmos baseados em enumeração de contingências (KHAITAN e McCALLEY [133]) e simulações de Monte Carlo tornaram-se viáveis com os recursos computacionais existentes, para avaliação de confiabilidade probabilística de sistemas de potência, conforme comprovado por (REI, SCHILLING e MELOb [198]). Sistemas de proteção (WARRINGTON [265], WESTINGHOUSE [271]) são atualmente modelados para avaliação de confiabilidade, utilizando árvores de falha e processos Markovianos, conforme descrito em (ANDERSON [9] e SIQUEIRA [231][232][233]). (BARLOW et

alii [27]) reúne outras aplicações de árvores de falha na avaliação de confiabilidade.

Na década final do século passado, as mudanças institucionais ocorridas no Setor Elétrico mundial trouxeram alterações consideráveis na estrutura, manutenção e operação de sistemas elétricos em várias nações do mundo, em especial nos Estados Unidos (US DOE [263]). Métodos estruturados de coleta e análise de dados foram desenvolvidos atendendo as exigências regulatórias e sociais. (KOIVURANTA [143]) descreve uma estrutura implantada para análise de confiabilidade em empresas de distribuição, e das ferramentas de análise e bases de dados necessários. Já em 1995, (SCHILLING, GOMESb et alii [209]) estabeleciam critérios para introdução da confiabilidade composta nos estudos de planejamento da operação. Em 1999, (BILLINTON et alii [38]) avaliaram o impacto das mudanças institucionais nas questões de confiabilidade, provocadas pela privatização e desregulamentação da indústria elétrica de potência, reconhecendo a necessidade de novas abordagens e ferramentas de análise para o novo ambiente competitivo. Os autores destacavam a relevância das técnicas probabilísticas na avaliação da probabilidade, frequência, duração e severidade de eventos, em contrapartida aos métodos determinísticos tradicionais. A partir de então, maior ênfase foi dada à previsão e avaliação da qualidade do serviço prestado ao consumidor final, e à determinação da responsabilidade distribuída entre os agentes do mercado de energia. Em especial, o ambiente de competição gerou a necessidade de novos conceitos de alocação de responsabilidade sobre confiabilidade e operação entre os agentes, e a definição de regras claras sobre preços, direitos e deveres (BHATTACHARYA et alii [36]).

A primeira década do século XXI tem sido marcada pelo aumento da atividade regulatória nos diversos setores da sociedade, entre eles o de energia elétrica (GILBERT e KAHN [97]). Um novo “apagão”, de grandes proporções, atingiu em

65

2003 o Nordeste dos EUA e parte do Canadá, contribuindo para a institucionalização, nos EUA, da NERC e FERC (Federal Energy Regulatory

Commission) como entidades regulatórias. A avaliação de desempenho e

confiabilidade passou a ser não só um instrumento de planejamento (BARROS [28]) e operação da rede elétrica, mas um mecanismo de auditoria e regulação da sociedade sobre um serviço de utilidade pública (BROWN [50], KELLY [134]). A qualidade do serviço prestado pelas empresas de energia passou a ser avaliada não apenas pelas interrupções, mas por um conjunto de indicadores que incluem interrupções curtas e longas, afundamentos de tensão e componentes harmônicas (BOLLEN [48], OLGUIN [185], ANEEL [15]), associados a sinalizadores econômicos de incentivo à melhoria da qualidade do serviço público (SILVAb [222]). Movimentos idênticos tem sido observados na padronização de indicadores de desempenho na área de manutenção industrial (WIREMAN [278] e LAFRAIA 563), com ênfase especial em indicadores de desempenho genéricos, a exemplo do indicador de Eficiência Global dos Equipamentos (HANSEN [104], WIREMAN [277]), e de aspectos de eficiência, eficácia e efetividade da manutenção (SIQUEIRA [244]), e qualidade da operação (SIQUEIRA e MENEZES [246]). Estas pesquisas tem contribuído para a padronização e auditabilidade dos indicadores e métodos de avaliação, no Brasil e em vários países que adotaram a desregulamentação do setor elétrico (ANEEL [12], SILVAb [222]).

Na atualidade, a dimensão e complexidade de sistemas elétricos exigem a avaliação não só da confiabilidade, mas de uma extensa gama de indicadores, cobrindo vários aspectos além daqueles já relacionados (MELIOPOULOS et alii [160]), inclusive indicadores de eficientização no uso da eletricidade (BANNISTER [25]) e suportabilidade a contingências (JONES [129]). Conceitos como robustez e imunidade a perturbações foram agregados ao jargão dos profissionais de controle e automação destes sistemas (CRUZb [68], BOESCH [45]). Além da regulação, as agências também padronizam indicadores de qualidade e desempenho (KAGAN, ROBBA E SCHMIDT [131]) associados a sinais financeiros de incentivo à melhoria da qualidade do serviço de eletricidade (ANEEL [13] [15]). Recentemente, (SCHILLING, BILLINTON e SANTOS [211]) realizaram um levantamento sistemático da bibliografia disponível sobre análise de segurança nos últimos 40 anos (de 1968 a 2008) com ênfase em análise e indicadores de estabilidade, comportamento dinâmico, confiabilidade, reserva girante, falhas de proteção, desligamentos em cascata (blackouts), e análise de segurança. No Brasil, em particular, talvez pela peculiaridade do sistema elétrico, (SCHILLING et alii [207] [208]) já registravam publicações disponíveis sobre confiabilidade no período de 1969 a 1985. Técnicas modernas de análise, controle e estabilização de transitórios eletromecânicos são correntemente incluídas nestas avaliações (MOTA [169]), incluindo a avaliação de falhas ocultas em sistemas de proteção (YANG [280]), como itens necessários à análise de desempenho e confiabilidade. A análise probabilística da confiabilidade consolida-se como alternativa contemporânea à análise e critérios determinísticos, exigindo maiores detalhes na representação e documentação de premissas, e interpretação dos resultados (SHCHILLING et alii [212]).

Apesar da evolução dos métodos de análise, a dimensão atual dos sistemas elétricos atingiu um nível de complexidade que desafia os meios computacionais, processos de gestão e dados disponíveis. Os modelos necessários à análise de todos os aspectos de planejamento e exploração de sistemas elétricos incluem da

66

ordem de 30 programas computacionais complexos (ELETROBRAS [77]), integrados por bases de dados e filtros de formatação entre programas. Técnicas de agregação topológica de componentes são necessárias por exemplo em modelos equivalentes de subestações para reduzir a complexidade na análise da confiabilidade composta da geração, transmissão e distribuição (ARENTZ [18], ZHANG [282]). A análise de contingências em tempo real já é uma realidade em alguns sistemas SCADA e EMS (YAO et alii [281]) agregando medidas de restauração e remediação automática, com novos requisitos de desempenho computacional. Outras ferramentas e métodos modernos têm sido utilizados nesta área, em especial aqueles baseados em inteligência artificial, como programação genética (SOUZAb e ALBUQUERQUE [252]) e outras. Conceitos modernos de gestão estratégica (KAPLAN & NORTON [132] [133]), com base em indicadores chaves (KPI – Key Performance Indicators) tendem a integrar os indicadores de confiabilidade, manutenção (MATHER [157], TAKAHASHI e OSADA [257]), e desempenho elétrico com outros indicadores empresariais (GORP [101]) incluindo aqueles relacionados a aspectos intangíveis da sustentabilidade de negócios (HUBBARD [112]).

A próxima década deverá ser marcada pelo uso crescente de tecnologia da informação e telecomunicações na implementação de soluções que atendam aos anseios da sociedade por qualidade e confiabilidade dos sistemas elétricos. A implementação dos conceitos de redes inteligentes (Smartgrid ou Intelligrid) já são prenúncios destas medidas, buscando meios eficientes de gestão e fiscalização dos serviços de geração, transmissão e distribuição de energia elétrica. Entre os aspectos monitorados nestes sistemas, destaca-se a avaliação de indicadores de risco, parte inerente à exploração segura de sistemas de potência.