• Nenhum resultado encontrado

2.2. METODOLOGIAS DE ANÁLISES DE RISCO A ESCORREGAMENTOS

2.2.2. Mapas de Suscetibilidade a Escorregamentos

O mapa de suscetibilidade a escorregamentos desenvolvido por Brabb et al. (1972) foi conceitualmente expandido por diversos autores. Neste estudo, os autores adotaram uma metodologia quantitativa, com base em análises estatísticas, para avaliar a influência dos fatores considerados como condicionantes de escorregamentos na estabilidade de vertentes, utilizando as seguintes técnicas de mapeamento e de análises quantitativas:

Medidas da área de afloramento de cada tipo litológico;

Medidas das áreas de escorregamentos por litologia, pela superposição de um mapa de inventário de escorregamento sobre o mapa geológico;

Ordenamento dos tipos litológicos, segundo a porcentagem de escorregamentos, do maior para a menor porcentagem, os quais foram avaliados quanto ao grau de suscetibilidade a escorregamentos;

Sobreposição de um mapa de declividade ao de geologia local e de escorregamentos para determinar a associação entre eles;

Definição de classes de perigo com base na suscetibilidade dos tipos litológicos e das classes de declividade das vertentes avaliadas, a partir da associação com os escorregamentos.

A avaliação da suscetibilidade é o resultado da combinação de informações do meio físico (tipo de solo, declividade, clima) e do mapa de inventário de escorregamentos existente. Os atributos prescritos neste mapa são analisados em termos qualitativos denotando em baixa, média ou alta suscetibilidade. Alguns autores, como Einstein (1988), Cooke & Doorkamp (1990), Fernandes e Amaral (1996), consideram que o mapa de suscetibilidade refere-se também ao mapa de perigo de escorregamento (landslide hazard), uma vez que representam as probabilidades de ocorrência de determinados eventos.

Para Cooke & Doorkamp (1990), mapas de suscetibilidade representam um estágio além do mapa de inventário, ou do mapa geomorfológico, nos quais se definem tendências à instabilidade em adição às encostas que já sofreram escorregamentos. Uma classificação típica é indicada na Tabela 2.5. Este mapa expressa em sua análise o quanto próximo se encontra a encosta do limiar de instabilidade. Na Figura 2.2, apresenta-se um exemplo de mapa de suscetibilidade a movimentos de massa para o estado de São Paulo, elaborado por DAEE/IPT (1985).

Tabela 2.5 - Classificação de encostas de acordo com as características de estabilidade (baseado em Cooke e Doorkamp, 1990).

Classe I Encostas com escorregamentos ativos. Movimentos podem ser contínuos ou sazonais.

Classe II

Encostas frequentemente sujeitos a novos escorregamentos ou a reativação de antigos. Os intervalos de recorrência dos eventos de escorregamentos são de até cinco anos.

Classe III Encostas sujeitos a escorregamentos (novos ou a reativação de antigos) pouco frequentes. Os intervalos de recorrência são maiores que cinco anos.

Classe IV

Encostas com evidência de atividade de

escorregamentos prévios, mas que não sofreram nenhum movimento nos últimos 100 anos.

Classe V

Encostas que não mostram evidências de atividade prévia de escorregamento mas são consideradas como prováveis áreas para desenvolver escorregamentos no futuro. O potencial de escorregamentos é indicado pela análise de esforços ou por analogia com outras vertentes.

Classe VI

Encostas que não mostram evidências de atividade prévia de escorregamento e que pela análise de esforços ou por analogia com outras vertentes, são consideradas estáveis.

Figura 2.2 - Mapa de suscetibilidade a movimentos de massa do Estado de São Paulo (DAEE/IPT, 1985).

O desenvolvimento de SIG’s e dos modernos métodos de modelamento espacial permitiram um considerável aumento na produção de estudos sobre metodologias de avaliação de perigos e de previsão de área instáveis. Tais estudos podem ser agrupados em três tipos principais: os puramente empíricos; os probabilísticos com bases empíricas e com bases estatísticas; e os analítico-determinísticos (Barredo et al., 2000; Fernandes et al., 2001; Savage et al., 2004, entre outros).

 Métodos Empíricos

O método empírico baseia-se na distribuição das cicatrizes recentes e nos depósitos associados como indicativos das áreas que podem apresentar futuras instabilizações. Por meio da produção de mapas de inventários ou mapas de densidade de ocorrências de um único evento ou de uma série temporal, são indicadas as áreas com potencial de instabilização (Campbell, 1973; Gao, 1993; Larsen e Torres Sanchez, 1998; Amaral, 1996, citados por Fernandes et al., 2001).

Esta metodologia consiste em realizar de maneira estimada a distribuição espacial e temporal das diversas variáveis (dados pluviométricos, mapas geológicos, parâmetros geomecânicos) e concluir acerca da instabilidade das encostas.

Uma segunda abordagem baseia-se em correlações estatísticas multivariáveis dos condicionantes (ângulo do talude, curvatura da encosta, substrato litológico, tipo de solo e morfologia da bacia) a instabilização das encostas com o histórico de eventos já registrados e analisados. Isto permite a análise de outras áreas que apresentem fatores com características semelhantes, as quais podem tornar-se futuras áreas de instabilização (Carrara et al., 1995; Guzzetti et al. 1999).

Em um de seus estudos Barredo et al. (2000) aplicaram análises estatísticas multivariáveis, onde a combinação dos fatores que causaram escorregamentos no passado fora determinada estatisticamente, permitindo avaliações quantitativas para áreas ainda não passíveis de escorregamentos. Este método requer uma coleção de grande número de dados para que os resultados sejam confiáveis, sendo mais apropriado para mapas de escala média entre 1:25.000 e 1:50.000, ou seja, em macro análises. Usando-se de outros artifícios, este método, também denominado de heurístico, baseia- se em análise de especialista que decide o tipo e grau de perigo para cada área através de técnicas de integração de dados, incluindo combinação de parâmetros qualitativos. Barredo et al. (2000) utilizaram uma análise denominada analytical hierarchy process (AHP), em que foram atribuídos pesos para diversos parâmetros do terreno com influência no desenvolvimento de escorregamentos. Os layers dos parâmetros foram, então, combinados em SIG para se determinar os “valores” de perigo (Tominaga,2007). O desenvolvimento dos SIG’s, que permite a combinação de vários mapas e de atribuição de pesos, estão sendo muito utilizados recentemente. Entretanto, alguns autores como Guzzetti et al. (1999); Van Westen (1993); Gee (1992); Fernandes et al. (2001) entre outros, consideram que este tipo de análise caracteriza-se por uma grande subjetividade, condicionado a experiência e ao nível de conhecimento do problema pelo investigante. Há acrescentar ainda, que cada especialista adota diferentes critérios, o que dificulta a comparação e análise dos resultados quanto à importância relativa dos parâmetros empregados.

 Métodos Probabilísticos

Análises com bases estatísticas conferem menor subjetividade aos mapeamentos, baseados no princípio de que fatores que causaram a instabilidade de um determinado local no passado poderão gerar novas instabilizações no futuro (Carrara et al. 1991, Van Westen, 1993; Carrara et al, 1995; Guzzetti et al., 1999; Tominaga,2007).

Esta metodologia associa registros históricos de eventos geotécnicos às bases empíricas para prever espacial e temporalmente, os futuros escorregamentos. Os resultados das análises com bases empíricas são representados em mapas baseados em SIG (Savage et al., 2004).

Deve-se destacar que, como os critérios e as regras de combinação nestes métodos baseiam-se em padrões mensuráveis a partir de observações e/ou ensaios de campo, torna-se necessária a disponibilidade de extensos bancos de dados sobre os processos estudados, o que é muito raro no contexto da realidade brasileira (Fernandes et al., 2001).

 Métodos Determinísticos

Os métodos analíticos ou determinísticos são abordagens que utilizam modelos matemáticos em bases físicas, ou seja, que descrevem alguns dos processos e leis físicas que controlam a estabilidade de vertentes (Fernandes et al., 2001; Tominaga,2007). Muitos programas computacionais baseiam-se neste método analítico, dentre os quais se destacam os softwares SINMAP, (Pack et al., 1998); SHALSTAB (Montgomery e Dietrich, 1994); TRIGRS (Savage et al., 2003), entre outros.

Segundo Tominaga (2007), a heterogeneidade mecânica, geométrica e hidrológica dos solos restringe a utilização dos métodos com base somente em SIG para fornecer uma avaliação detalhada do perigo a escorregamentos. Mapeamentos das variações sub- superficiais da espessura, do grau de saturação, das propriedades hidráulicas, da resistência ao cisalhamento, e outros parâmetros dos solos com efeitos sobre a estabilidade de encosta, são muito difíceis de serem obtidos.

Desta forma os métodos atuais de modelagem da estabilidade de encosta com base em SIG são úteis apenas para avaliações preliminares da estabilidade para grandes extensões de áreas. Para áreas específicas ou localizadas, a avaliação de estabilidade da encosta necessita de estudos mais detalhados (Savage et al., 2004).

Fernandes et al. (2001) consideram que as limitações na aplicação destes procedimentos são decorrentes do conhecimento incompleto de muitos dos processos envolvidos, associado às dificuldades de obtenção dos dados exigidos pelos modelos, principalmente quando aplicados a áreas mais extensas.

Outra abordagem determinística utiliza-se de modelos de estabilidade de encostas para determinar o perigo de escorregamento, por meio de cálculo do fator de segurança. Os Modelos determinísticos são apropriados para fornecer as informações quantitativas do perigo de escorregamentos, as quais podem ser usadas diretamente em projetos de engenharia ou na quantificação do risco.

É notório que este método requer uma grande quantidade de dados detalhados, derivados de testes de laboratório e de medidas de campo, os quais podem ser aplicados apenas para estudos em grande escala aplicados a áreas restritas (Van Westen, 2004). Contudo, o uso de modelos físicos para zoneamento de perigo a escorregamentos com uso de SIG também tem seus problemas. Como pondera Van Westen (2004), os dados utilizados normalmente têm um alto grau de incerteza, os valores que resultam dos cálculos não devem ser considerados como valores absolutos para a ocorrência de escorregamentos e, por conseguinte, não podem servir diretamente para a avaliação quantitativa do risco.