Após georreferenciamento do dado, ou ainda, o carregamento da geometria e edição
dos traços (pré-processamento), já é possível a execução de uma análise preliminar de
velocidades. Esta ação vai gerar um campo de velocidade preliminar (velocidade RMS), será
utilizado em diversas etapas do processamento. Como exemplo inicial, na tentativa de
recuperação de amplitudes (divergência esférica). Para a análise de velocidades (velan) são
interpoladas informações relativas às CMP’s (dito CDP’s).
Para a picagem de velocidades na análise preliminar, painéis foram utilizados além
da seção de offset mínimo (vide figura 11). Por tratar-se de uma velocidade preliminar, foram
usados 26 painéis para análises (executada entre o CDP 994 e 4540 com equidistâncias de 140
CDPs), combinando interpolações com mais 8 CDP’s em cada painel (formando o conjunto
de sismogramas com 9 CDP’s). Uma filtragem preliminar para a velan também foi executada
com o uso de um filtro simples denominado Ormsby (forma trapezoidal, cujo módulo é
chamado de Bandpass Filter.) do tipo passa banda, entre as frequências (5-8-45-70 Hz). Na
filtragem, são removidos os componentes de frequência muito baixos (geralmente associados
aos eventos superficiais de alta energia) e os componentes de alta frequência (geralmente
originados por fontes de interferência) dos traços. Foi aplicado um ganho AGC ( Automatic
Gain Control , mesmo nome do módulo do software ) de 500ms, este distribui uniformemente
um ganho nas amplitudes (direção do eixo do tempo) e consiste em melhorar apenas a forma
visual (destacar amplitudes dos traços).
No software foi utilizado quatro painéis ( displays ) lado a lado para a escolha
combinada da velocidade na tentativa de melhor aproximação desta medida.
O ProMAX usa o
módulo Velocity Analysis de forma interativa para gerar o campo de velocidades. Os quatro
painéis presentes na figura 12 são: o painel da semblance (medida de coerência do sinal
sísmico, onde cores quentes representam maior coerência e cores frias, menores), o painel de
ajuste hiperbólico (com a opção de correção de NMO), um outro painel dinâmico
(empilhamento, em função do tempo e offset , de acordo com o número de conjuntos de
sismogramas escolhidos) e o painel de funções de velocidade de empilhamento.
O reflexo do cenário geológico, como resultado da análise de velocidade, pode ser
representado em um modelo de velocidade 2D (usando o módulo Velocity View ) conforme
figura 13, em que camadas geralmente planas são esperadas.
37
figura 12 - Painéis aplicados ao conjunto de 9 CDPs, utilizado para a aumentar a confiabilidade na interpretação das velocidades. A picagem da velocidade é exibida por uma linha branca no painel de semblance e uma linha vermelha no painel de funções de velocidade de empilhamento.
38
figura 13 - Modelo de velocidades 2D resultante da velan nas CDPs definidas (destacadas em vermelho), usado para controle de qualidade. Neste controle, variações laterais de velocidade devem ser suaves e caso haja anomalias bruscas deverá ser executada uma nova análise em torno da CDP.
39
Após análise de velocidades, já é possível gerar a primeira seção empilhada
(simulada de zero offset pela correção de NMO), esta figura é bem melhor representativa que
a Seção “traço próximo”. Esta seção, após gerada, servirá para efeitos de comparação entre a
próxima etapa (divergência esférica).
O fluxo segue com o tratamento de amplitude e então é executada a correção da
divergência esférica com o módulo Offset Amplitude Recovery . O módulo admite camadas
horizontais em subsuperfície, utiliza o campo de velocidade obtido na etapa anterior e a
distância entre fonte e receptor ( offset ). Essa correção, está relacionada ao espalhamento
geométrico e faz parte do tratamento de amplitude na tentativa de compensar a perda da
amplitude que o raio sísmico sofre durante sua trajetória entre fonte e receptor. A figura 14
mostra o efeito da correção e exibe como exemplo, os traços do tiro 290.
figura 14: Traços do tiro 290. A) Antes da correção B) Depois da correção da divergência esférica. Note efeito do top mute na faixa superior dos traços (comparação entre A e B, antes e depois de sua aplicação, respectivamente) e janela de deconvolução (jan_decon) limitada na faixa inferior dos traços da figura B apenas com dados destinados ao uso.
40
Observando as partes inferiores da figura 15 (comparativo entre as figuras 14A e
14B) é notável que o ganho aplicado na correção da divergência esférica é proporcional ao
tempo. Nas partes mais rasas, abaixo da lâmina d'água (linha horizontal em vermelho na
figura 14B), onde a perda da amplitude foi menor, há um menor ganho, e nas partes profundas
onde a perda de amplitude foi maior, há um maior ganho. Trechos da seção empilhada desta
correção é mostrada na figura 15 e é perceptível o ganho de resolução.
figura 15: Sessões de empilhadas para efeito de comparação. A) Empilhamento da geometria; B) Empilhamento da divergência esférica.
Fonte própria.
No ProMAX, a deconvolução do pulso sísmico é feita a partir da janela de
deconvolução selecionada para o cálculo da autocorrelação dos traços e da aplicação do filtro
usando o módulo Spiking/Predictive Decon . Usando a suposição de que a assinatura de fontes
de fase mínima é mais provavelmente válido para dados terrestres à dados marinhos
(LEINBACH, 1995) e por se tratar de uma antiga aquisição, foi descartada a hipótese do uso
desta suposição. Este fato, permitiu a escolha adequada d o filtro e na parametrização usada
para o filtro em termos de simplificações matemáticas. O modelo de deconvolução utilizado
então, foi do tipo fase zero ( Zero Phase Spiking ) e assume algumas premissas relacionadas
41
com o filtro Spiking . Premissas supõem que o meio percorrido pela onda sísmica é formado
por camadas horizontais, que o pulso é considerado de fase zero e que o sinal é direcionado à
incidência normal (verticalmente), além disso, variações laterais de velocidade também
devem ser suaves. Trechos da seção empilhada desta correção é mostrada na figura 16 e é
perceptível o ganho de resolução vertical das figuras 16 A para as figuras 16 B.
Na tentativa de melhorar a resolução vertical, a deconvolução comprime as wavelets
no tempo removendo os efeitos do pulso por modelagem . A deconvolução do tipo Zero Phase
Spiking utiliza o modelo convolucional e assume que as propriedades da wavelet não mudam
com o tempo (são estacionárias), deste modo a janela é idealizada de forma a assumir que,
nela, não houve nenhum tipo de efeito de atenuação sobre a onda emitida pela fonte. As
janelas são formadas pela faixa de amplitudes picadas (ver parte inferior da figura 15B),
denominada jan_decon, e são escolhidas onde os registros dos eventos de reflexão primária
(sinais) se tornam mais evidentes e no domínio do tiro, e nglobando as faixas dos traços onde o
cálculo da autocorrelação é realizado. O cálculo é efetuado com a finalidade de encontrar o
filtro inverso. O Comprimento do operador de deconvolução escolhido foi de 380ms e, visto
que o aumento do nível de ruído branco reduz a eficácia do filtro, foi usado 0.1 como valor
mínimo apenas para “ajudar” a equalização dos traços na etapa de deconvolução . Em resumo,
a deconvolução consiste em pegar o traço e fazer a convolução com o filtro inverso. Várias
janelas foram testadas para o operador da deconvolução do pulso sísmico (80, 100, 120...), na
tentativa de melhorar a resolução vertical, mas o operador que apresentou melhores
resultados, escolhido através de comparações dos empilhamentos, foi o de 380ms .
42
figura 16: Sessões de empilhadas para efeito de comparação. A) Empilhamento da divergência esférica; B) Empilhamento da deconvolução.
Fonte própria.
Análises espectrais no dado sempre foram executadas no intuito de avaliar a
aplicação de filtros e ganhos, ou seja, antecedem as etapas de análise de velocidades e as
etapas de empilhamento. As análises exibidas na figura 17 foram executadas de modo a
comparar os efeitos entre uma etapa e outra (antes e depois) por exemplo, pode-se determinar
o intervalo de frequências dominantes do dado.
figura 17: Espectro de amplitude x frequência, com o intuito de verificar a faixa de frequências predominantes no dado sísmico para uso posterior de filtragem. A) Após carregamento da geometria; B). Após correção de amplitude. (C) Após correção da divergência.
43
.
Note que na figura 17, de A para C, há um ganho no conteúdo de frequências mais
altas no decorrer do processamento, significando que o processo conseguiu ampliar a
amplitude para as altas frequências (acréscimo de resolução), mas também adicionar ruído de
alta frequência. Este último fato, corrobora com a idéia da análise espectral servir como
parâmetro na avaliação da aplicabilidade de ganhos e filtros.
Outra filtragem do tipo passa banda foi utilizada com do mesmo modo
anteriormente, desta vez com o dado de saída da deconvolução, com o intuito de uma análise
de velocidades mais acurada. É certo que o campo de velocidades criado é de extrema
importância para melhores resultados, visto que muitos processos utilizam essa informação e
as etapas posteriores, por mais que não usem diretamente esse campo, estão interligadas ao
sucesso (ou melhores resultados) da etapa anterior. Neste contexto, a análise de velocidades
executada nos quatro painéis do ProMAX torna-se muito depende do operador, visto que é
executada de forma manual e visível através dos painéis disponíveis para picagem da
velocidade e, como os painéis são muito sensíveis, torna a susceptibilidade à distintos valores
de velocidades (ou grandes diferenças nesses valores) na dependência do operador. A
sensibilidade dos painéis na picagem de velocidades torna-se perceptível nos painéis laterais,
já que são painéis dinâmicos. e uma seleção incorreta da velocidade pode resultar numa má
horizontalização das reflexões na correção de NMO, já que o evento pode estar sobrecorrigido
(escolha da velocidade mais baixa que a correta) ou subcorrigido (escolha da velocidade mais
alta que a correta). Em prol desse ponto de vista, toda informação que possa ser combinada
relativa à velocidade ao CDP que estava sendo analisado foi utilizada.
Uma imagem resultante da análise preliminar sobreposta à seção de offset mínimo
pode ser vista na figura 18 e serviu como combinação adicional para esta análise. O intervalo
de frequências dos traços sísmicos foi escolhido (5-10-75-80 Hz) e foi usado um AGC de
500ms. Desta vez, foram usados 52 painéis para análises (executada entre o CDP 994 e 4540
com equidistâncias de 70 CDPs), com mesma combinação de conjuntos de CDP´s para
interpolações (9 CDP’s) O resultado desta análise é mostrado num modelo de velocidades 2D
na figura 19.
44
Figura 18: Seção de offset mínimo sobreposta com o modelo de velocidades 2D resultante da análise preliminar de velocidades.
45
Figura 19 - Modelo de velocidades 2D resultante da análise de velocidades nas 52 CDPs (destacadas em vermelho na parte superior da seção) usado para controle de qualidade. Variações laterais de velocidade também devem ser suaves.
46
É possível notar diferença, se comparada o modelo de velocidades na figura 19 com
o modelo que encontra-se ao fundo da figura 18 (preliminar), em termos dos valores de
velocidades, cujo são melhores representados na segunda análise de velocidade, como é de se
esperar. Além desta última etapa representar um número maior de análises (o dobro), já possui
a correção do espalhamento geométrico e a filtragem da deconvolução.
Os eventos são então re-agrupados de acordo com as informações do novo campo de
velocidade RMS criado. Com o uso do módulo Normal Moveout Correction foi realizada a
correção de NMO, e o parâmetro para minimizar o efeito do estiramento do traço ( Stretch
Mute Percentage) re-ajustado para 40%. Sequencialmente, buscando uma seção empilhada
melhor representativa em relação aos efeitos de distorção de mergulhos, a correção DMO foi
executada com o uso do módulo Common Offset DMO .
Apesar de esperar uma melhor representatividade, na comparação da sessão de
empilhamento (figura 20 B) com a seção de empilhamento CMP convencional baseada
somente na correção de NMO (figura 20 A), visto que aquela possui também correção de
DMO, não foi notado grandes diferenças em ganho de resolução, como se no dado não
houvessem refletores mergulhantes marcantes.
Figura 20: Sessões de empilhadas para efeito de comparação. A) Empilhamento da deconvolução; B) Empilhamento (NMO/DMO).
47
Provavelmente uma análise de velocidades melhor interpretada, visto uma melhor
horizontalização das picagens (primárias), obtenha um resultado melhor em termos
comparativos. De todo modo, a baixa cobertura sísmica para o dado deixa a desejar neste
aspecto.
Para este caso, o dado foi empilhado ( Stacking ) antes da migração. O empilhamento
objetiva simular a seção sísmica zero-offset, por isso que é feita a correção NMO/DMO
anteriormente, e consiste na soma horizontal dos traços pertencentes à mesma família
CMP/CDP. O resultado é uma melhora na razão sinal/ruído devido interferências construtivas
(das primárias somadas em fase) e destrutivas (dos ruídos, fora de fase), relativas às ondas
refletidas. O módulo usado no empilhamento é o CDP/Ensemble Stack.
Como a migração aconteceu após o empilhamento, ela é conhecida como Pós-Stack.
O processo usado na migração foi o Kirchhoff Time Mig. O método é baseado no somatório
das amplitudes dos dados amostrados ao longo de uma hipérbole de difrações (associado ao
ponto difrator), cuja curvatura é governada por uma função velocidade (FERREIRA &
FURTADO, 2011). O módulo Kirchhoff Time Mig (nome oriundo da solução do método
através da integral de Kirchhoff) utiliza o campo de velocidades criado na última análise de
velocidades, o ângulo de mergulho máximo que se pretende mapear e a distância entre CDP´s.
Tem o objetivo de colapsar difrações, na sequência posicionar corretamente os refletores
sísmicos em subsuperfície e aumentar assim a resolução espacial (aumenta a resolução
horizontal da seção) proporcionando maior similaridade entre a seção geológica. Para a
migração foi executada uma última análise espectral, uma filtragem f-x e adicionado ganho.
O filtro F-X Decon (nome do módulo no ProMAX) é um tipo de filtragem que busca
atenuar ruídos aleatórios, porém não é capaz de discriminar esses ruídos para grandes
mergulhos (YILMAZ, 2001). Opera em faixas de frequências, utiliza janelas de tempo
parametrizadas, e é executada no conjunto dos traços corrigidos de NMO/DMO, com uso da
informação de offset . O tipo de filtro usado no módulo F-X Decon operou entre as faixas de
frequências de 5 a 80 Hz. Outra filtragem utilizada, análogo às outras etapas, foi também do
tipo passa banda (5-10-75-80 Hz), desta vez com a faixa de frequência analisada no mesmo
dado de entrada para o último filtro (corrigidos de NMO/DMO). O ganho AGC é de fácil
aplicação, serve como um corretor de forma visual para a análise da seção sísmica e pode ser
mantido, caso desejado, durante outras etapas. A partir desta última etapa, o dado pode ser
gravado para análise da interpretação.
48
Por fim desta etapa do fluxo de processamento, todas as seções podem ser
comparadas. A figura 21 mostra o resultado das últimas etapas executadas até então .
Figura 21: Sessões de empilhadas para efeito de comparação. A) Empilhamento (NMO/DMO); B) Empilhamento dado migrado.
Fonte própria.
Como resultado deste trabalho, a figura 22 exibe a mesma seção empilhada, porém
de fontes e processamentos diferentes, para efeito de comparação. Na figura 22B, encontra-se
a parte inferior da seção final (limitada entre os tempos de 4500 ms e 8500 ms) e na figura
22A, a seção final oriunda do próprio site onde encontra-se disponível o dado analisado
(Seismic Project Information FM0106). A figura 22A trata-se de um trecho menor da linha
sísmica WSA-01, que está inserida dentro do trecho analisado (WSA-01tr3). O trecho
analisado neste trabalho mede cerca de 89km e parte deste trecho, que compõe a figura
oriunda do site (figura 22A), mede aproximadamente 75km (de acordo com sua escala).
49
figura 22: Seções empilhadas. A) Seção final de fonte externa; B) Parte seção final.
50
5 CONSIDERAÇÕES FINAIS
O método sísmico por ser um método geofísico de baixo custo pode ser utilizado em
conjunto com outros dados (dados de poços, por exemplo) visando investigar grandes áreas,
em que torna-se inviável o uso de métodos diretos. Deste modo, informações externas sobre o
meio exercem papel coadjuvante, envolvendo as três etapas primordiais para o método
sísmico, onde a interação entre a aquisição, o processamento e a interpretação, está
relacionada com o meio. Neste trabalho foi aplicado um fluxo de processamento convencional
em um dado marinho 2D, cujo aquisição aconteceu em meados 1979 próximo a costa do Rio
de Janeiro no Oceano Atlântico, numa região que separa a Bacia de Santos da Bacia de
Pelotas. Como “calibrador”, auxiliar nas etapas de processamento, foram usadas informações
acerca da região. A litologia nas proximidades sendo composta por uma sucessão de
carbonatos pelágicos intercalados com sedimentos vulcanogênicos e basaltos, típicos de fundo
de oceano, e batimetria em torno de 2000 a 4000 metros, o que define altas profundidades
para o método.
Por tratar-se de um dado antigo, apresenta redução da multiplicidade visto que foi
adquirido com apenas 24 canais de recepção, afetando diretamente na eficiência do
empilhamento CMP. Apesar de dados mais atuais serem adquiridos com um elevado número
de canais para minimizar esse problema, bons resultados foram adquiridos com o fluxograma
aplicado. O ambiente do software utilizado para o processamento do dado é bem intuitivo e,
apesar de ser uma versão com licença acadêmica do tipo Grant, o ProMAX/SeisSpace
mostrou a eficiência de novas técnicas aplicadas em dados com baixa multiplicidade. É no
software que o dado é passível de ser manipulado, onde realiza-se edições e principalmente
aplica-se correções.
É notório que os fluxos de processamento aplicados nos trabalhos de Zaque (2011),
Assunção (2013), Revorêdo e Nascimento da Silva (2016), Carvalho, Neto e Nascimento da
Silva, (2017) bem como Santos (2018), são fluxos parecidos. Isso remete que o fluxo aplicado
também depende da experiência de cada pessoa que processa o dado com o software , além de
se tratarem de trabalhos distintos (objetivos). O fluxo aplicado neste trabalho foi formado por
etapas fundamentais para o ganho de resolução sísmica (ou seja, voltado em sua essência para
reduzir ao máximo a influência do sinal enviado pela fonte e dos ruídos). É de se esperar que
os ruídos nunca serão completamente removidos dos dados, em termos de averiguar os
51
resultados obtidos, definir se o último passo foi eficaz, e na tomada de decisão para solução e
próximo passo. Como cada etapa influenciou na etapa seguinte, optou-se por comparar os
dados entre etapas em busca do fluxo satisfatório.
Relativo às etapas iniciais (leitura do dado, o carregamento da geometria, a edição e
a seleção dos traços para silenciamento), apesar de etapas simples, os devidos cuidados foram
tomados. Como exemplo, ao parametrizar os dados para interação com o ProMAX. Outro
exemplo, na seleção dos traços para o silenciamento, onde haja visto baixa cobertura, não
seria interessante a remoção do traço por uma anomalia qualquer presente. Assim, esse passo
foi executado com cautela, e os traços zerados foram eliminados.
As análises espectrais exerceram grande importância ao fluxo, onde antecederam as
filtragens para reduzir ruídos, além de exercer a função de avaliar etapas como visto
comparação entre a divergência esférica (mantendo a faixa de frequência inicial) e a
deconvolução (ganho nas altas frequências). Outro ponto que merece destaque, são as análises
de velocidades, visto que é a etapa que gera a informação base (função do tempo e distância)
para todas as outras etapas, sendo assim a etapa mais custosa do processamento. Relativo à
correção de NMO quanto ao uso do mute stretch , que usa a informação do campo de
velocidades, um acréscimo de 30% para 40% na segunda análise de velocidades foi devido
esta não se tratar de uma análise preliminar, deixando a critério a remoção do que foi
“estirado” nos traços no intuito de melhorar a qualidade na seção empilhada.
A seção de empilhamento não mostrou tanta diferença comparada com a seção
empilhada da deconvolução, o que provavelmente esteja ligado ao campo de velocidades,
onde um campo de velocidades melhor representado trará melhores resultados. Ainda assim, a
baixa cobertura do dado adquirido fez com que a picagem da velocidade, na sua análise, fosse
executada na premissa de que variações laterais de velocidade deveriam ser suaves. Porém a
migração Kirchhoff em tempo mostrou-se eficiente, aplicado com a filtragem e os ganhos,
notável pela análise com a imagem da seção final oriunda do próprio site onde encontra-se
disponível o dado analisado (Seismic Project Information FM0106). Para destacar o uso de
filtros e ganhos na geração da seção sísmica final, dois tipos de filtragens foram utilizadas
(filtragem passa banda e deconvolução F-X) juntamente com um ganho AGC.
É considerável que fatores da aquisição sísmica influenciam diretamente a qualidade
do dado adquirido em campo, exercendo também forte influência na qualidade do
processamento. Como esses fatores dependem da área onde o dado será coletado, juntamente
52