• Nenhum resultado encontrado

Após georreferenciamento do dado, ou ainda, o carregamento da geometria e edição

dos traços (pré-processamento), já é possível a execução de uma análise preliminar de

velocidades. Esta ação vai gerar um campo de velocidade preliminar (velocidade RMS), será

utilizado em diversas etapas do processamento. Como exemplo inicial, na tentativa de

recuperação de amplitudes (divergência esférica). Para a análise de velocidades (velan) são

interpoladas informações relativas às CMP’s (dito CDP’s).

Para a picagem de velocidades na análise preliminar, painéis foram utilizados além

da seção de offset mínimo (vide figura 11). Por tratar-se de uma velocidade preliminar, foram

usados 26 painéis para análises (executada entre o CDP 994 e 4540 com equidistâncias de 140

CDPs), combinando interpolações com mais 8 CDP’s em cada painel (formando o conjunto

de sismogramas com 9 CDP’s). Uma filtragem preliminar para a velan também foi executada

com o uso de um filtro simples denominado Ormsby (forma trapezoidal, cujo módulo é

chamado de Bandpass Filter.) do tipo passa banda, entre as frequências (5-8-45-70 Hz). Na

filtragem, são removidos os componentes de frequência muito baixos (geralmente associados

aos eventos superficiais de alta energia) e os componentes de alta frequência (geralmente

originados por fontes de interferência) dos traços. Foi aplicado um ganho AGC ( Automatic

Gain Control , mesmo nome do módulo do software ) de 500ms, este distribui uniformemente

um ganho nas amplitudes (direção do eixo do tempo) e consiste em melhorar apenas a forma

visual (destacar amplitudes dos traços).

No software foi utilizado quatro painéis ( displays ) lado a lado para a escolha

combinada da velocidade na tentativa de melhor aproximação desta medida.

O ProMAX usa o

módulo Velocity Analysis de forma interativa para gerar o campo de velocidades. Os quatro

painéis presentes na figura 12 são: o painel da semblance (medida de coerência do sinal

sísmico, onde cores quentes representam maior coerência e cores frias, menores), o painel de

ajuste hiperbólico (com a opção de correção de NMO), um outro painel dinâmico

(empilhamento, em função do tempo e offset , de acordo com o número de conjuntos de

sismogramas escolhidos) e o painel de funções de velocidade de empilhamento.

O reflexo do cenário geológico, como resultado da análise de velocidade, pode ser

representado em um modelo de velocidade 2D (usando o módulo Velocity View ) conforme

figura 13, em que camadas geralmente planas são esperadas.

37

figura 12 - Painéis aplicados ao conjunto de 9 CDPs, utilizado para a aumentar a confiabilidade na interpretação das velocidades. A picagem da velocidade é exibida por uma linha branca no painel de semblance e uma linha vermelha no painel de funções de velocidade de empilhamento.

38

figura 13 - Modelo de velocidades 2D resultante da velan nas CDPs definidas (destacadas em vermelho), usado para controle de qualidade. Neste controle, variações laterais de velocidade devem ser suaves e caso haja anomalias bruscas deverá ser executada uma nova análise em torno da CDP.

39

Após análise de velocidades, já é possível gerar a primeira seção empilhada

(simulada de zero offset pela correção de NMO), esta figura é bem melhor representativa que

a Seção “traço próximo”. Esta seção, após gerada, servirá para efeitos de comparação entre a

próxima etapa (divergência esférica).

O fluxo segue com o tratamento de amplitude e então é executada a correção da

divergência esférica com o módulo Offset Amplitude Recovery . O módulo admite camadas

horizontais em subsuperfície, utiliza o campo de velocidade obtido na etapa anterior e a

distância entre fonte e receptor ( offset ). Essa correção, está relacionada ao espalhamento

geométrico e faz parte do tratamento de amplitude na tentativa de compensar a perda da

amplitude que o raio sísmico sofre durante sua trajetória entre fonte e receptor. A figura 14

mostra o efeito da correção e exibe como exemplo, os traços do tiro 290.

figura 14: Traços do tiro 290. A) Antes da correção B) Depois da correção da divergência esférica. Note efeito do top mute na faixa superior dos traços (comparação entre A e B, antes e depois de sua aplicação, respectivamente) e janela de deconvolução (jan_decon) limitada na faixa inferior dos traços da figura B apenas com dados destinados ao uso.

40

Observando as partes inferiores da figura 15 (comparativo entre as figuras 14A e

14B) é notável que o ganho aplicado na correção da divergência esférica é proporcional ao

tempo. Nas partes mais rasas, abaixo da lâmina d'água (linha horizontal em vermelho na

figura 14B), onde a perda da amplitude foi menor, há um menor ganho, e nas partes profundas

onde a perda de amplitude foi maior, há um maior ganho. Trechos da seção empilhada desta

correção é mostrada na figura 15 e é perceptível o ganho de resolução.

figura 15: Sessões de empilhadas para efeito de comparação. A) Empilhamento da geometria; B) Empilhamento da divergência esférica.

Fonte própria.

No ProMAX, a deconvolução do pulso sísmico é feita a partir da janela de

deconvolução selecionada para o cálculo da autocorrelação dos traços e da aplicação do filtro

usando o módulo Spiking/Predictive Decon . Usando a suposição de que a assinatura de fontes

de fase mínima é mais provavelmente válido para dados terrestres à dados marinhos

(LEINBACH, 1995) e por se tratar de uma antiga aquisição, foi descartada a hipótese do uso

desta suposição. Este fato, permitiu a escolha adequada d o filtro e na parametrização usada

para o filtro em termos de simplificações matemáticas. O modelo de deconvolução utilizado

então, foi do tipo fase zero ( Zero Phase Spiking ) e assume algumas premissas relacionadas

41

com o filtro Spiking . Premissas supõem que o meio percorrido pela onda sísmica é formado

por camadas horizontais, que o pulso é considerado de fase zero e que o sinal é direcionado à

incidência normal (verticalmente), além disso, variações laterais de velocidade também

devem ser suaves. Trechos da seção empilhada desta correção é mostrada na figura 16 e é

perceptível o ganho de resolução vertical das figuras 16 A para as figuras 16 B.

Na tentativa de melhorar a resolução vertical, a deconvolução comprime as wavelets

no tempo removendo os efeitos do pulso por modelagem . A deconvolução do tipo Zero Phase

Spiking utiliza o modelo convolucional e assume que as propriedades da wavelet não mudam

com o tempo (são estacionárias), deste modo a janela é idealizada de forma a assumir que,

nela, não houve nenhum tipo de efeito de atenuação sobre a onda emitida pela fonte. As

janelas são formadas pela faixa de amplitudes picadas (ver parte inferior da figura 15B),

denominada jan_decon, e são escolhidas onde os registros dos eventos de reflexão primária

(sinais) se tornam mais evidentes e no domínio do tiro, e nglobando as faixas dos traços onde o

cálculo da autocorrelação é realizado. O cálculo é efetuado com a finalidade de encontrar o

filtro inverso. O Comprimento do operador de deconvolução escolhido foi de 380ms e, visto

que o aumento do nível de ruído branco reduz a eficácia do filtro, foi usado 0.1 como valor

mínimo apenas para “ajudar” a equalização dos traços na etapa de deconvolução . Em resumo,

a deconvolução consiste em pegar o traço e fazer a convolução com o filtro inverso. Várias

janelas foram testadas para o operador da deconvolução do pulso sísmico (80, 100, 120...), na

tentativa de melhorar a resolução vertical, mas o operador que apresentou melhores

resultados, escolhido através de comparações dos empilhamentos, foi o de 380ms .

42

figura 16: Sessões de empilhadas para efeito de comparação. A) Empilhamento da divergência esférica; B) Empilhamento da deconvolução.

Fonte própria.

Análises espectrais no dado sempre foram executadas no intuito de avaliar a

aplicação de filtros e ganhos, ou seja, antecedem as etapas de análise de velocidades e as

etapas de empilhamento. As análises exibidas na figura 17 foram executadas de modo a

comparar os efeitos entre uma etapa e outra (antes e depois) por exemplo, pode-se determinar

o intervalo de frequências dominantes do dado.

figura 17: Espectro de amplitude x frequência, com o intuito de verificar a faixa de frequências predominantes no dado sísmico para uso posterior de filtragem. A) Após carregamento da geometria; B). Após correção de amplitude. (C) Após correção da divergência.

43

.

Note que na figura 17, de A para C, há um ganho no conteúdo de frequências mais

altas no decorrer do processamento, significando que o processo conseguiu ampliar a

amplitude para as altas frequências (acréscimo de resolução), mas também adicionar ruído de

alta frequência. Este último fato, corrobora com a idéia da análise espectral servir como

parâmetro na avaliação da aplicabilidade de ganhos e filtros.

Outra filtragem do tipo passa banda foi utilizada com do mesmo modo

anteriormente, desta vez com o dado de saída da deconvolução, com o intuito de uma análise

de velocidades mais acurada. É certo que o campo de velocidades criado é de extrema

importância para melhores resultados, visto que muitos processos utilizam essa informação e

as etapas posteriores, por mais que não usem diretamente esse campo, estão interligadas ao

sucesso (ou melhores resultados) da etapa anterior. Neste contexto, a análise de velocidades

executada nos quatro painéis do ProMAX torna-se muito depende do operador, visto que é

executada de forma manual e visível através dos painéis disponíveis para picagem da

velocidade e, como os painéis são muito sensíveis, torna a susceptibilidade à distintos valores

de velocidades (ou grandes diferenças nesses valores) na dependência do operador. A

sensibilidade dos painéis na picagem de velocidades torna-se perceptível nos painéis laterais,

já que são painéis dinâmicos. e uma seleção incorreta da velocidade pode resultar numa má

horizontalização das reflexões na correção de NMO, já que o evento pode estar sobrecorrigido

(escolha da velocidade mais baixa que a correta) ou subcorrigido (escolha da velocidade mais

alta que a correta). Em prol desse ponto de vista, toda informação que possa ser combinada

relativa à velocidade ao CDP que estava sendo analisado foi utilizada.

Uma imagem resultante da análise preliminar sobreposta à seção de offset mínimo

pode ser vista na figura 18 e serviu como combinação adicional para esta análise. O intervalo

de frequências dos traços sísmicos foi escolhido (5-10-75-80 Hz) e foi usado um AGC de

500ms. Desta vez, foram usados 52 painéis para análises (executada entre o CDP 994 e 4540

com equidistâncias de 70 CDPs), com mesma combinação de conjuntos de CDP´s para

interpolações (9 CDP’s) O resultado desta análise é mostrado num modelo de velocidades 2D

na figura 19.

44

Figura 18: Seção de offset mínimo sobreposta com o modelo de velocidades 2D resultante da análise preliminar de velocidades.

45

Figura 19 - Modelo de velocidades 2D resultante da análise de velocidades nas 52 CDPs (destacadas em vermelho na parte superior da seção) usado para controle de qualidade. Variações laterais de velocidade também devem ser suaves.

46

É possível notar diferença, se comparada o modelo de velocidades na figura 19 com

o modelo que encontra-se ao fundo da figura 18 (preliminar), em termos dos valores de

velocidades, cujo são melhores representados na segunda análise de velocidade, como é de se

esperar. Além desta última etapa representar um número maior de análises (o dobro), já possui

a correção do espalhamento geométrico e a filtragem da deconvolução.

Os eventos são então re-agrupados de acordo com as informações do novo campo de

velocidade RMS criado. Com o uso do módulo Normal Moveout Correction foi realizada a

correção de NMO, e o parâmetro para minimizar o efeito do estiramento do traço ( Stretch

Mute Percentage) re-ajustado para 40%. Sequencialmente, buscando uma seção empilhada

melhor representativa em relação aos efeitos de distorção de mergulhos, a correção DMO foi

executada com o uso do módulo Common Offset DMO .

Apesar de esperar uma melhor representatividade, na comparação da sessão de

empilhamento (figura 20 B) com a seção de empilhamento CMP convencional baseada

somente na correção de NMO (figura 20 A), visto que aquela possui também correção de

DMO, não foi notado grandes diferenças em ganho de resolução, como se no dado não

houvessem refletores mergulhantes marcantes.

Figura 20: Sessões de empilhadas para efeito de comparação. A) Empilhamento da deconvolução; B) Empilhamento (NMO/DMO).

47

Provavelmente uma análise de velocidades melhor interpretada, visto uma melhor

horizontalização das picagens (primárias), obtenha um resultado melhor em termos

comparativos. De todo modo, a baixa cobertura sísmica para o dado deixa a desejar neste

aspecto.

Para este caso, o dado foi empilhado ( Stacking ) antes da migração. O empilhamento

objetiva simular a seção sísmica zero-offset, por isso que é feita a correção NMO/DMO

anteriormente, e consiste na soma horizontal dos traços pertencentes à mesma família

CMP/CDP. O resultado é uma melhora na razão sinal/ruído devido interferências construtivas

(das primárias somadas em fase) e destrutivas (dos ruídos, fora de fase), relativas às ondas

refletidas. O módulo usado no empilhamento é o CDP/Ensemble Stack.

Como a migração aconteceu após o empilhamento, ela é conhecida como Pós-Stack.

O processo usado na migração foi o Kirchhoff Time Mig. O método é baseado no somatório

das amplitudes dos dados amostrados ao longo de uma hipérbole de difrações (associado ao

ponto difrator), cuja curvatura é governada por uma função velocidade (FERREIRA &

FURTADO, 2011). O módulo Kirchhoff Time Mig (nome oriundo da solução do método

através da integral de Kirchhoff) utiliza o campo de velocidades criado na última análise de

velocidades, o ângulo de mergulho máximo que se pretende mapear e a distância entre CDP´s.

Tem o objetivo de colapsar difrações, na sequência posicionar corretamente os refletores

sísmicos em subsuperfície e aumentar assim a resolução espacial (aumenta a resolução

horizontal da seção) proporcionando maior similaridade entre a seção geológica. Para a

migração foi executada uma última análise espectral, uma filtragem f-x e adicionado ganho.

O filtro F-X Decon (nome do módulo no ProMAX) é um tipo de filtragem que busca

atenuar ruídos aleatórios, porém não é capaz de discriminar esses ruídos para grandes

mergulhos (YILMAZ, 2001). Opera em faixas de frequências, utiliza janelas de tempo

parametrizadas, e é executada no conjunto dos traços corrigidos de NMO/DMO, com uso da

informação de offset . O tipo de filtro usado no módulo F-X Decon operou entre as faixas de

frequências de 5 a 80 Hz. Outra filtragem utilizada, análogo às outras etapas, foi também do

tipo passa banda (5-10-75-80 Hz), desta vez com a faixa de frequência analisada no mesmo

dado de entrada para o último filtro (corrigidos de NMO/DMO). O ganho AGC é de fácil

aplicação, serve como um corretor de forma visual para a análise da seção sísmica e pode ser

mantido, caso desejado, durante outras etapas. A partir desta última etapa, o dado pode ser

gravado para análise da interpretação.

48

Por fim desta etapa do fluxo de processamento, todas as seções podem ser

comparadas. A figura 21 mostra o resultado das últimas etapas executadas até então .

Figura 21: Sessões de empilhadas para efeito de comparação. A) Empilhamento (NMO/DMO); B) Empilhamento dado migrado.

Fonte própria.

Como resultado deste trabalho, a figura 22 exibe a mesma seção empilhada, porém

de fontes e processamentos diferentes, para efeito de comparação. Na figura 22B, encontra-se

a parte inferior da seção final (limitada entre os tempos de 4500 ms e 8500 ms) e na figura

22A, a seção final oriunda do próprio site onde encontra-se disponível o dado analisado

(Seismic Project Information FM0106). A figura 22A trata-se de um trecho menor da linha

sísmica WSA-01, que está inserida dentro do trecho analisado (WSA-01tr3). O trecho

analisado neste trabalho mede cerca de 89km e parte deste trecho, que compõe a figura

oriunda do site (figura 22A), mede aproximadamente 75km (de acordo com sua escala).

49

figura 22: Seções empilhadas. A) Seção final de fonte externa; B) Parte seção final.

50

5 CONSIDERAÇÕES FINAIS

O método sísmico por ser um método geofísico de baixo custo pode ser utilizado em

conjunto com outros dados (dados de poços, por exemplo) visando investigar grandes áreas,

em que torna-se inviável o uso de métodos diretos. Deste modo, informações externas sobre o

meio exercem papel coadjuvante, envolvendo as três etapas primordiais para o método

sísmico, onde a interação entre a aquisição, o processamento e a interpretação, está

relacionada com o meio. Neste trabalho foi aplicado um fluxo de processamento convencional

em um dado marinho 2D, cujo aquisição aconteceu em meados 1979 próximo a costa do Rio

de Janeiro no Oceano Atlântico, numa região que separa a Bacia de Santos da Bacia de

Pelotas. Como “calibrador”, auxiliar nas etapas de processamento, foram usadas informações

acerca da região. A litologia nas proximidades sendo composta por uma sucessão de

carbonatos pelágicos intercalados com sedimentos vulcanogênicos e basaltos, típicos de fundo

de oceano, e batimetria em torno de 2000 a 4000 metros, o que define altas profundidades

para o método.

Por tratar-se de um dado antigo, apresenta redução da multiplicidade visto que foi

adquirido com apenas 24 canais de recepção, afetando diretamente na eficiência do

empilhamento CMP. Apesar de dados mais atuais serem adquiridos com um elevado número

de canais para minimizar esse problema, bons resultados foram adquiridos com o fluxograma

aplicado. O ambiente do software utilizado para o processamento do dado é bem intuitivo e,

apesar de ser uma versão com licença acadêmica do tipo Grant, o ProMAX/SeisSpace

mostrou a eficiência de novas técnicas aplicadas em dados com baixa multiplicidade. É no

software que o dado é passível de ser manipulado, onde realiza-se edições e principalmente

aplica-se correções.

É notório que os fluxos de processamento aplicados nos trabalhos de Zaque (2011),

Assunção (2013), Revorêdo e Nascimento da Silva (2016), Carvalho, Neto e Nascimento da

Silva, (2017) bem como Santos (2018), são fluxos parecidos. Isso remete que o fluxo aplicado

também depende da experiência de cada pessoa que processa o dado com o software , além de

se tratarem de trabalhos distintos (objetivos). O fluxo aplicado neste trabalho foi formado por

etapas fundamentais para o ganho de resolução sísmica (ou seja, voltado em sua essência para

reduzir ao máximo a influência do sinal enviado pela fonte e dos ruídos). É de se esperar que

os ruídos nunca serão completamente removidos dos dados, em termos de averiguar os

51

resultados obtidos, definir se o último passo foi eficaz, e na tomada de decisão para solução e

próximo passo. Como cada etapa influenciou na etapa seguinte, optou-se por comparar os

dados entre etapas em busca do fluxo satisfatório.

Relativo às etapas iniciais (leitura do dado, o carregamento da geometria, a edição e

a seleção dos traços para silenciamento), apesar de etapas simples, os devidos cuidados foram

tomados. Como exemplo, ao parametrizar os dados para interação com o ProMAX. Outro

exemplo, na seleção dos traços para o silenciamento, onde haja visto baixa cobertura, não

seria interessante a remoção do traço por uma anomalia qualquer presente. Assim, esse passo

foi executado com cautela, e os traços zerados foram eliminados.

As análises espectrais exerceram grande importância ao fluxo, onde antecederam as

filtragens para reduzir ruídos, além de exercer a função de avaliar etapas como visto

comparação entre a divergência esférica (mantendo a faixa de frequência inicial) e a

deconvolução (ganho nas altas frequências). Outro ponto que merece destaque, são as análises

de velocidades, visto que é a etapa que gera a informação base (função do tempo e distância)

para todas as outras etapas, sendo assim a etapa mais custosa do processamento. Relativo à

correção de NMO quanto ao uso do mute stretch , que usa a informação do campo de

velocidades, um acréscimo de 30% para 40% na segunda análise de velocidades foi devido

esta não se tratar de uma análise preliminar, deixando a critério a remoção do que foi

“estirado” nos traços no intuito de melhorar a qualidade na seção empilhada.

A seção de empilhamento não mostrou tanta diferença comparada com a seção

empilhada da deconvolução, o que provavelmente esteja ligado ao campo de velocidades,

onde um campo de velocidades melhor representado trará melhores resultados. Ainda assim, a

baixa cobertura do dado adquirido fez com que a picagem da velocidade, na sua análise, fosse

executada na premissa de que variações laterais de velocidade deveriam ser suaves. Porém a

migração Kirchhoff em tempo mostrou-se eficiente, aplicado com a filtragem e os ganhos,

notável pela análise com a imagem da seção final oriunda do próprio site onde encontra-se

disponível o dado analisado (Seismic Project Information FM0106). Para destacar o uso de

filtros e ganhos na geração da seção sísmica final, dois tipos de filtragens foram utilizadas

(filtragem passa banda e deconvolução F-X) juntamente com um ganho AGC.

É considerável que fatores da aquisição sísmica influenciam diretamente a qualidade

do dado adquirido em campo, exercendo também forte influência na qualidade do

processamento. Como esses fatores dependem da área onde o dado será coletado, juntamente

52

com o objetivo a ser alcançado, estratégias e parâmetros irão sempre variar de acordo a

geologia local. Assim, a qualidade dos resultados não estará ligada somente ao tratamento

feito no dado, por tratar-se de um dado já adquirido. Deste modo, busca-se a melhor

parametrização para obtenção de um processamento satisfatório. De etapa por etapa,

considerando as pequenas mudanças relativas ao ganho de resolução entre elas, podemos

fazer alusão ao empilhamento de dados sísmicos e dizer que o objetivo do processamento é

dado pelo empilhamento de etapas.

Com o fluxo aplicado foi obtido uma imagem satisfatória (que permite mapear as

estruturas geológicas presentes na subsuperfície) quando comparada com fontes externas.

Lembrando que fontes externas podem ser quaisquer outras imagens representativas da

Documentos relacionados