5. Deteção e Estimação
5.1 – Modelo do Sistema Digital
Cada símbolo de mensagem mi (i = 1, 2, …, M) é transmitido a cada Tp segundos, onde Tp é o tempo de duração de qualquer uma das mensagens mi.
Estes símbolos podem ser 0’s e 1’s, ou podem ser símbolos quaternários (M = 4), ou etc.
Considera-se que todos os símbolos têm igual probabilidade: pi = 1/M = Pr (emitir mi), i = 1, …, M. Isso pode ser conseguido com a codificação de Huffman, por exemplo.
O vetor de transmissão produz M símbolos (M formas de onda, uma para cada mi) sendo que cada símbolo terá N números (devido à decomposição das formas de onda em uma combinação linear de N funções base).
M
N
M
,
2,
1,
i
s
s
s
s
m
iN i2 i1 i produz i=
≤
=
⇒
L
M
Tendo si como entrada, o modulador produz si(t), o qual tem energia finita
dt
(t)
s
E
Tp 0 2 i i=
∫
O canal de transmissão consegue enviar todos os si(t) possíveis. Entram no canal sinais indesejáveis (diferentes de si(t)) chamados de ruído. Esse ruído é considerado aditivo, de média zero, estacionário, branco, formando um processo Gaussiano denotado por w(t). Este ruído é simbolizado por AWGN (Aditive White Gaussian Noise).
No receptor chega, então, o sinal x(t) = si(t) + w(t), 0 ≤ t ≤ Tp, i = 2, …, M.
O receptor observado x(t) produz a melhor estimativa de mi num tempo de Tp segundos. Esta estimativa é simbolizada por
m
ˆ
i. Tp é a duração do sinal (pulso).A estimativa leva em conta as probabilidades pi e o conhecimento sobre si, tendo em vista que temos um ruído branco somado ao sinal de informação. Essa estimativa produz um erro médio que pode ser interpretado como tendo em média 1 bit errado de tantos em tantos bits (ou símbolos M-ários).
(
i i)
r
e
P
m
ˆ
m
P
=
≠
Por exemplo: Pe = 10-4 significa que em média tem-se um bit errado a cada 10.000 bits transmitidos.
O que se deseja fazer é obter um algoritmo (uma maneira de se estimar) que faça com que a estimativa produza um erro mínimo (aceitável na estimativa da informação).
O procedimento que se segue faz com que se tenha uma melhor manipulação dos sinais que chegam ao receptor, e dessa forma uma melhor relação sinal/ruído de recepção. Esse procedimento é baseado em se obter sinais ortogonais (ortonormais) que fazem com que o ruído no receptor fique fracionado em partes estatisticamente independentes.
5.2 – Ortogonalização de Gram-Schmidt
Tem-se M sinais (si(t), i = 1, 2, …, M) de energia e deseja-se obtê-los como (função) combinação linear de N funções bases (N ≤ M).
∑
=≤
≤
=
=
N 1 j ij j p i(t)
s
(t)
0
t
T
i
1,
2,
,
M
s
φ
L
As funções bases são φj(t) j = 1, …, N, sendo sij coeficientes constantes dados pela projeção de si(t) em φj(t). p T t ij 0 j
i 1, 2, , M
s
s (t) (t) dt
j 1, 2, , N
φ
=
=
∫
=
L
L
As funções bases são ortonormais, isto é,
p
T
k
l
0
1 se k l
(k) (t) dt =
0 se k l
φ
φ
=
≠
∫
Procedimentos para se obter a ortogonalização de Gram-Schmidt:
É claro que se um determinado sinal (exemplo sM(t)) é linearmente dependente dos outros, então obtém-se
aM sM(t) + a1 s1(t) + a2 s2(t) + … + aN sN+1(t) = 0 0 ≤ 1 ≤ Tp
onde aM e alguns outros coeficientes ai são diferentes de zero.
Exemplo: É dado o conjunto abaixo:
É claro que s1(t) + s3(t)= s4(t). Logo teremos pelo menos 3 sinais L.I. Retiremos s4(t). Será que entre s1, s2, s3 existe independência linear ? Neste caso, eles são L.I. (s1, s2, s3), até porque estão em intervalos de tempo diferentes.
Dentre os possíveis conjuntos
( )
C
34 :1. s1 s2 s3 Poderíamos escolher qualquer um desses, exceto o terceiro, pois os sinais não são L.I. 2. s1 s2 s4
3. s1 s3 s4 4. s2 s1 s4
20) Obtenção das funções bases φ(t)
Estas funções são ortonormais. Escolhe-se qualquer um dos si(t) L.I. para formar φ1(t). Escolhamos s1(t) e normalizemos:
∫
=
Tp 0 2 1 1s
(t)
dt
E
1 1 1E
)
(
s
(t)
=
t
φ
Neste caso s1(t) =
E
1φ
1(t)
, ou seja, s11 =E
e s1j = 0 para j = 2, …, N.Tendo-se φ1(t) podemos obter o coeficiente s21 de s2(t).
∫
=
Tp0 2 1 21
s
(t)
(t)
dt
s
φ
Defina-se uma função intermediária g2(t) que será igual a s2(t) menos o vetor s2(t) projetado em φ1(t)
g
2(t) = s
2(t) - s
21φ
1(t)
Essa função é ortogonal a
φ
1(t)
em (0, Tp), pois:0
s
-s
dt
(t)
s
-(t)
(t)
s
dt
(t)
(t)
g
12 21 21 T 0 T 0 T 0 21 1 2 1 2 p=
p p=
=
∫
φ
∫
φ
∫
φ
Como g2(t) é ortogonal a φ1(t), podemos escolher φ2(t) igual a g2(t) normalizado, ou seja: p T 0 2 2 2 2
0
t
T
dt
(t)
g
(t)
g
(t)
p≤
≤
=
∫
φ
[
s
(t)
-
s
(t)
]
dt
(t)
s
-(t)
s
(t)
p T 0 2 1 21 2 1 21 2 2∫
=
φ
φ
φ
O denominador será igual a:
∫
Tp∫
p+
∫
p 0 T 0 T 0 2 1 2 21 1 21 2 2 2dt
-
2
s
(t)
s
(t)
dt
s
(t)
dt
s
φ
φ
2 21 2 2 21 2 21 2-
2s
s
E
-
s
E
+
=
=
2 21 2 1 21 2 2s
-E
(t)
s
-(t)
s
(t)
φ
φ
=
onde E2 é a energia de s2(t).Prosseguindo, definamos a função intermediária:
g
3(t) = s
3(t) – s
31φ
1(t) – s
32φ
2(t)
onde
s
31=
∫
0Tps
3(t)
φ
1(t)
dt
e
s
32=
∫
0Tps
3(t)
φ
2(t)
dt
Vê-se que
g
3(t)
é ortogonal aφ
1(t)
e aφ
2(t)
. Logo, basta normalizarg
3(t)
parase obter
φ
3(t)
.Continuando dessa maneira, vamos obter um conjunto ortonormal. Assim os sinais s1(t), s2(t), …, sM(t) podem ser obtidos como combinação linear de φ1(t), φ2(t), …, φN(t), ou seja:
(t)
E
(t)
s
1=
1φ
1(t)
s
-E
s
(t)
s
2=
21φ
t+
2 221φ
2onde
s
22=
E
2-
s
221(t)
dt
(t)
g
(t)
s
(t)
s
(t)
s
3=
31φ
1+
32φ
2+
∫
0Tp 32φ
3 ondes
33=
∫
0Tpg
32(t)
dt
No exemplo anterior tinhamos:
Escolhendo s1(t), s2(t) e s3(t) como L.I., teremos após cálculos sobre esse conjunto:
Para melhor estimar si(t) no receptor, estimamos si1, si2, …, siN e com base nestes valores, dizemos o que foi transmitido (bits enviados pelo transmissor).
5.3 – Resposta do Detetor à Entrada com Ruído
Na figura anterior, devido às imperfeições do canal de comunicações, não chega somente si(t), chega também ruído, ou seja:
x(t) = s2(t) + w(t)
onde w(t) é um ruído AWGN de média zero e densidade espectral de potência igual a N0/2.
A saída do detetor (correlatores) não é somente si1, si2, …, siN mas por causa do ruído será:
N
,
2,
1,
j
w
s
dt
(t)
x(t).
x
j=
∫
0Tpφ
j=
ij+
j=
L
sij ≡ si1, si2, si3, …, siNxj é uma variável aleatória onde sij é constante em termos de variável aleatória e wj é aleatório. Como w(t) é AWGN, wj também será e por consequência, xj também será. Basta então descobrirmos a média e a variância de xj para que o processo aleatório esteja definido, já que se a entrada do sistema linear é Guassiana, a saída também será:
E[xj] = E[sij + wj] = sij + E[wj] = sij
[ ]
w
E
[
w(t)
(t)
dt
]
E
[ ]
w(t)
dt
0
E
j=
∫
0Tpφ
j=
∫
0Tpφ
j=
sendo a média de wj é igual a zero, a variância é calculada como
E
[
(
x
j-
x
j)
2]
=
σ
x2j(
)
[
] [ ]
2 j 2 j j ij 2 xj=
E
s
+
w
-
x
=
E
w
σ
porém,
w
j=
∫
0Tpw(t)
φ
j(t)
dt
∫
∫
=
∫ ∫
=
Tp p p p 0 T 0 T 0 T 0 j j j j 2j
w(t)
(t)
dt
w(u)
(u)
du
w(t)
w(u)
(t)
(u)
dt
du
w
φ
φ
φ
φ
p p p p T T 2 j 0 0 j j T T j j 0 0E w E
w(t) w(u). (t). (u) dt du
(t). (u).E w(t) w(u) dt du
φ
φ
φ
φ
=
∫ ∫
=
∫ ∫
du
dt
u)
-(t
.R
(u)
(t).
w T 0 T 0 j j p p∫ ∫
=
φ
φ
Rw(t-u) é a função de autocorrelação do ruído w(t). A densidade espectral é constante igual a Sw(f) = N0/2. Logo:
[
]
.
(t
-
u)
2
N
(f)
S
F
u)
-(t
R
w=
-1 w=
0δ
onde a função delta
≠
=
∞
=
u
t
0
u
t
u)
-(t
δ
Então:[ ]
N
2
dt
(t)
.
2
N
du
dt
u)
-(t
2
N
(u)
(t)
w
E
T 0 0 2 j 0 T 0 T 0 j j 0 2 j=
∫ ∫
p pφ
φ
δ
=
∫
pφ
=
2
N
0 2 xj=
σ
No detetor, à cada variável sij será somado um ruído Gaussiano cuja média é zero e variância N0/2, ou seja:
(
)
=
2
.
2
N
s
-x
-exp
.
2
N
.
2
1
)
/m
(x
f
0 2 ij j 0 i j j Xπ
para j = 1, 2, ..., N.5.4 – Deteção de Sinais Conhecidos em Presença de Ruído
Cada sinal si(t) i = 1, 2, …, M tem duração de Tp segundos. Nesse tempo, um desses sinais foi transmitido com igual probabilidade Prob(transmitir mi) = 1/M. Como o canal não é ideal, entra ruído, que é considerado aditivo e Gaussiano.
Logo, chega ao receptor:
M
.
2,
1,
i
T
t
0
w(t)
(t)
s
x(t)
=
i+
≤
≤
p=
L
As coordenadas de si(t), função das N funções bases podem ser representadas no espaço Euclidiano. Os M pontos (M sinais si(t)) formam a constelação de sinais. Cada si(t) é um vetor de N coordenadas.
Devido ao ruído, teremos no receptor, um sinal x(t) que também terá N coordenadas mas que nesse caso é aleatório. Esse vetor x(t) é chamado de vetor recebido ou vetor de observação. A orientação desse vetor no espaço Euclidiano é completamente aleatória.
5.4.1 – Detetor de Máxima Verossimilhança (Maximum-Likelihood) ou Máxima Probabilidade
Quando mi é transmitido, o detetor tenta estimar mi pelo vetor de observação de x(t). Caso o receptor faça a decisão m = mi, haverá uma probabilidade de erro associada, dada por:
Pe(mi, x) → Prob(mi não tenha sido transmitido/x) = 1 – Prob(mi ter sido transmitido/x)
Uma decisão ótima seria fazer:
Escolha-se m = mi, se
Prob(mi transmitido/x) ≥ Prob(mk transmitido/x)
Que é equivalente a achar:
f(mk/x) máximo
M
,
2,
1,
k
k,
=
L
∀
Esta decisão é chamada de probabilidade máxima a posteriori. Essa condição também pode ser colocada como (utilizando a regra de Bayes)
Faça m = mi, se
i
k
para
máximo
for
(x)
f
)
m
(x
f
p
x k x k=
onde pk é a probabilidade de se transmitir o símbolo mk.
fx(x|mk) é a função densidade de probabilidade dado um valor mk; também chamada neste caso de função de verossimilhança.
Como o denominador da expressão acima não depende de mk podemos suprimí-lo já que desejamos achar qual o valor de mk que torna máxima a expressão. Da mesma forma, como pk é constante (símbolos equiprováveis), a maximização da expressão acima, independe de pk, logo tem-se:
Escolha-se m = mi, se
fx(x|mk) é máximo para k = i.
É comum usar-se também a decisão:
Escolha-se m = mi, se
ln[fx(x|mk)] é máximo para k=i,
porque a dependência em mk está, normalmente, no argumento de exp[ ... ].
Para exemplificar, viu-se que a resposta de um detetor de correlação à entrada com ruído AWGN de média zero e densidade espectral de potência igual a N0/2 era
(
)
=
0 2 0 j 0 i j xjN
s
-x
-exp
.
N
1
m
x
f
π
A probabilidade do vetor x que tem como coordenadas x1, x2, …, xj, …, xN é a probabilidade conjunta dessas variáveis aleatórias que, neste caso são independentes.
Logo:
(
x
m
)
)
f
)
m
f
)
m
(x
).f
m
(x
f
)
m
(x
f
N j i 1 j x i x i 2 x i 1 x i X 1 2 N∏
j ==
=
L
(
)
(
)
=
∑
= N 1 j 2 ij j 0 N/2 0 i XN
.
x
-
s
1
-exp
.
N
.
1
)
m
(x
f
π
Então teremos como decisão:Decide-se por mi, se
(
)
[
]
(
)
(
x
-
s
)
k
1,
2,
,
M
N
1
-.N
ln
.
2
N
-m
x
f
ln
2 N 1 j j kj 0 0 k x=
∑
=
L
=π
for máxima para k = i, ou
Decide-se por mi, se
(
x
-
s
)
k
1,
2,
,
M
N
1
-2 N 1 j j kj 0
L
=
∑
=for máxima para k = i, já que
ln
(
N
0)
2
N
-
π
é constante; ou ainda: Decide-se por mi se(
)
∑
N=
j1 2 kj j-
s
k
1,
2,
,
M
x
L
for mínima para k = i
Porém,
(
)
2 N 1 j j kj kx
-
s
s
-x
∑
==
representa a distância entre o ponto de sinal recebido x e o ponto de mensagem sk no espaço Euclidiano.Continuando-se, tem-se:
(
x
-
s
)
tem
que
ser
mínimo
2 N 1 j j kj
∑
=(
)
∑
∑
∑
∑
==
= =+
= N 1 j N 1 j N 1 j N 1 j 2 kj kj j 2 j 2 kj j-
s
x
-
2
.
x
.
s
s
x
Como estamos tentando obter o valor de k que torna mínima essa expressão, vemos que podemos suprimir o termo
∑
= N 1 j 2 j
x
pois não depende de k.Por outro lado, o termo
∑
= N 1 j 2 kjs
representa a energia do sinal transmitido sk(t).Então
∑
(
)
= N 1 j 2 kj j-
s
x
tem que ser mínimo, é equivalente a∑
=+
N 1 jh j kj kE
s
.
x
2
-
ser mínimo, que é equivalente a∑
= n 1 j j kj k
E
2
1
-s
.
x
ser máximo para k = i.Resumindo, decide-se por k = i, se
∑
= N 1 j j kj kE
2
1
-s
.
x
for máximo para k = i.Como exemplo, se tivermos N = 2 funções bases e M = 4 sinais a serem transmitidos da seguinte forma:
Sendo as bases: p c 1
.
cos(2
f
t)
0
t
T
T
2
(t)
=
π
≤
≤
φ
p c 2T
.
sin(2
f
t)
0
t
T
2
(t)
=
π
≤
≤
φ
Sendo os sinais transmitidos iguais a:
(t)
.
E
(t)
s
(t)
.
E
(t)
s
1=
φ
1 2=
φ
2(t)
.
E
-(t)
s
t)
.
E
-(t)
s
3=
φ
1 4=
φ
25.5 – Probabilidade de Erro
Um êrro ocorre quando mi foi transmitido porém o sinal recebido não cai na região Zi.
Esse êrro tem uma chance de ocorrer dado pelo sua probabilidade Pe.
∑
==
M 1 i ePr
P
(mi ter sido transmitido).Pr(x recebido não cai na região Zimi foitransmitido)
(
)
M
e i i
i 1
1
P
Pr x não estar em Z m foi transmitido
M
==
∑
(
)
M e i i i 11
P 1 -
Pr x estar em Z m foi transmitido
M
==
∑
Porém(
)
=
∫
i Z x i i im
foi
transmiti
do
f
(x
m
)
dx
Z
em
estar
x
Pr
Logo∑ ∫
==
M 1 i Z i i e if
(x
m
)
dx
M
1
-
1
P
Exemplo 2: Sinalização M-ária
Suponha que se deseja transmitir os seguintes sinais:
p 2 1
a
0
t
T
2
1
-(t)
s
a
2
3
-(t)
s
=
=
≤
≤
constante
é
a
a
2
3
(t)
s
a
2
1
(t)
s
3=
4=
Neste caso só temos φ1(t) igual a
T
t
0
T
1
(t)
1=
≤
≤
φ
T
2
a
s
T
2
a
-s
T
a
2
3
-s
11=
21=
31=
T
1
0
(t)
.
s
(t)
s
T
a
2
3
s
41=
i=
i1φ
1≤
≤
__________________________________________________________ 3 a a 3a - T - T T a T 2 2 21
(t)
φ
Os sinais si(t) i = 1, … 4 são transmitidos e chega ao receptor x(t) = si(t) + w(t) 0 ≤ 1 ≤ T onde w(t) é um ruído AWGN.
Neste caso cada par de dígitos (dibit) transmitidos se somará ao ruído branco de densidade espectral igual a N0/2.
Forma de Onda Símbolo Dibit (Código de Gray)
s1(t) m1 00
s2(t) m2 01
s3(t) m3 11
s4(t) m4 10
Suponha que se transmita o dibit 00 (código m1). Neste caso no receptor, teremos a variável aleatória X1 que é uma função amostra de x(t), que neste caso só tem uma coordenada.
[ ]
a
T
2
3
-s
w
s
X
E
x
1=
1=
11+
i=
11=
Então[ ]
2 x1 0 12
N
X
var
=
=
σ
Então a função densidade de probabilidade
1 X
f
(x1/m1) será igual a(
)
=
2 11 1 0 0 i j X1N
x
-
s
1
-exp
.N
1
m
x
f
π
T
2
3a
s
T
2
a
s
T
2
a
-s
T
a
3a
-s
11=
21=
31=
41=
A probabilidade de êrro na certeza que se transmite o símbolo m1 (dibit 00) é dada pelo receptor ter decidido que fora transmitido m2 (dibit 01) ou m3 (dibit 11), ou m4 (dibit 10), ou seja,
00)
(10
P
00)
(11
P
00)
(01
P
(00)
P
e=
e+
e+
e Porém, temos:(
)
-0a T 1 2 1 0 0 1 1 1 X ea
T
dx
2
3
-x
N
1
-exp
N
1
dx
/m
x
f
(01/00)
P
2 1∫
∫
=
=
π
Z(
)
1 T a 0 2 1 0 0 1 1 1 X e2
a
T
dx
3
-x
N
1
-exp
N
1
dx
/m
x
f
(11/00)
P
3 1∫
∫
=
=
π
Z(
)
a T 1 2 1 0 0 1 1 1 X ea
T
dx
2
3
-x
N
1
exp
N
1
dx
/m
x
f
(10/00)
P
4 1∫
∫
∞
=
=
π
ZDefine-se as funções erro [erf(u)] e erro complementar [erfc)u)], como sendo (vide apêndice A dessa apostila):
erfc(u)
-1
dy
e
2
erf(u)
=
∫
0u -y2=
π
)
2
Q(u
2
dy
e
2
erfc(u)
=
∫
u∞ -y2=
π
ondedy
e
2
1
)
Q(y
)
y
Prob(Y
0 0 y -y2/2 0∫
∞=
=
≥
π
Assim como a distribuição normal, as funções erf(u) e erfc(u) são tabeladas. Neste exemplo, tem-se então:
=
0 0 eN
T
2
3a
erfc
-N
T
2
a
erfc
2
1
(01/00)
P
=
0 0 eN
T
2
5a
erfc
-N
T
2
3a
erfc
2
1
(11/00)
P
=
0 eN
T
2
5a
erfc
2
1
(10/00)
P
Logo( )
=
0 eN
T
2
a
erfc
2
1
00
P
Analogamente, podem-se obter Pe(01), Pe(11) e Pe(10).
∑
==
4 1 i i e i ep(m
)
P
(m
)
P
Assumindo-se que os dígitos mi são equiprováveis (p(mi) = ¼) e somando-se todos os termos de Pe, teremos:
=
0 eN
T
2
a
erf
4
3
P
Este exemplo pode ser generalizado para:
2
a
1)
-(M
,
3a/2,
a/2,
(t)
s
i=
±
±
L
±
Obtendo-se:
=
0N
T
2
a
erfc
M
1
-M
Pe
5.6 – Receptor de CorrelaçãoPara um canal com ruído AWGN, e os sinais de transmissão s1(t), s2(t), …, etc, o receptor ótimo é o receptor de correlação visto anteriormente. Consiste de duas partes:
1. Um banco de N produtórios e integradores (chamados conjuntamente de correlatores) com as funções bases φ1(t), φ2(t), … φN(t) geradas localmente, produzindo-se então o vetor X. Vide figura abaixo:
2. A segunda parte consiste da deteção de máxima verossimilhança. Multiplica-se cada xj do vetor de observação por cada componente skj do sinal sk(t) j = 1, …, N. Após
soma-los e diminuir de
E
k2
1
, escolhe-se o maior valor como sendo a estimativa
m
ˆ
do sinal transmitido, conforme figura a seguir.A figura acima representa o vetor de observação X multiplicado (produto interno) pelos vetores dos M sinais possíveis de serem transmitidos s1(t), s2(t), ..., sM(t). Após feito o produto interno, este valor é diminuido da metade da energia do sinal si(t). Feito isso, escolhe-se o maior resultado. Cada braço da figura calcula a distância do vetor X ao vetor do sinal si(t).
Cada um dos M braços da figura acima é, na verdade, decomposto conforme mostra a figura a seguir.
5.7 – Receptor com Filtro Casado
A idéia do filtro casado é se obter um filtro cuja relação sinal-ruído num determinado instante de tempo (t = T) seja máxima (na saída do filtro). Dessa forma as multiplicações no detetor de correlação são eliminadas, pois são difíceis de serem realizados na prática.
Seja o sinal recebido x(t) entrando no filtro hj(t) e produzido a saída yj(t). O filtro hj(t) é linear e invariante no tempo, logo:
Como s(t) e correspondentemente x(t) é formando pelas funções bases φj(t), vamos substituir s(t) por φ(t) representando qualquer das j = 1, …, N funções bases.
A relação sinal-ruído (SNR) em t = T será:
Substitui-se w(t) por n(t) pois w(t) é uma amostra (função amostra) de n(t), que tem média zero e densidade espectral de potência igual a N0/2.
∫
+∞∞=
∫
+∞∞Φ
=
- - j2 ft 0(t)
φ
(
τ
)
h(t
-
τ
)
d
τ
H(f)
(f)
e
πdf
φ
[ ]
2=
∫
-+∞∞ N=
∫
-+∞∞2
0H(f)
2df
N
df
(f)
S
(t)
n
E
Logo(
)
df
H(f)
2
N
df
e
(f)
H(f)
SNR
2 0 2 -fT 2 OUTPUT∫
∫
∞ + ∞ − ∞ + ∞Φ
=
π jPela desigualdade de Schwarz, tem-se que:
(
)
[ ]
2 2 OUTPUT 0 OUTPUT 2 (T) (T) SNR VAR n(t) E n (t) φ φ = = dr
Y(r)
.
dr
X(r)
dr
Y(r)
X(r)
2∫
- 2∫
- 2∫
−+∞∞≤
+∞∞ +∞∞A igualdade se dará quando X(r) = Y*(r).
Aplicando-se essa desigualdade a SRN acima tem-se
(
)
2 2 OUTPUT 2 0 -H(f) df (f) df SNR N H(f) df 2 +∞ +∞ −∞ −∞ +∞ ∞ Φ ≤∫
∫
∫
(
)
≤
∫
-+∞∞Φ
2 0 OUTPUTN
(f)
df
2
SNR
O máximo para (SNR)0 será:
(
)
2 OUTPUTmáx -0 2 SNR (f) df N +∞ ∞ =∫
Φ isso se dá quando:[
(f)
e
j2 fT]
* *(f)
e
-j2 fTH(f)
=
φ
π=
Φ
πLogo a resposta impulsional que torna (SNR)0 máxima, será:
( )
∫
−+∞∞=
∫
−+∞∞Φ
=
∫
−+∞∞Φ
=
H(f)
e
df
(f)
e
e
df
(f)
e
df
(t)
h
opt j2πft * -j2πfT j2πft * -j2πf T-t Como φ(t) é real, Φ*(f) = Φ(-f),logo opt -j2 f(T-t)
-h (t)
+∞(-f) e
πdf (T- t)
φ
∞
=
∫
Φ
=
Ou seja, o filtro ótimo tem resposta impulsional igual às das funções bases, porém invertidas (rebatidas) e deslocadas de T segundos. φ(t) é rebatido → φ(-t) e deslocado de T → φ(-t + T). Diz-se então que o filtro é casado às funções bases ortonormais.
A saída do filtro casado y(t) será:
∫
+∞∞+
=
- j j(t)
x(
)
(T
-
t
)
d
y
τ
φ
τ
τ
Amostrando-se em t = T, tem-se:∫
+∞∞=
- j j(T)
x(
)
(
)
d
y
τ
φ
τ
τ
Nota-se que yj(T) = xj, onde xj é a j-ésima saída do correlator (do detetor de correlação) produzida pelo sinal recebido x(t). Logo o detetor de correlação pode ser substituído pelo detetor de filtro casado, produzindo o mesmo resultado.
Exemplo: Filtro casado para o pulso de RF definido abaixo:
Seja o seguinte pulso de RF:
c 2 cos (2 f ) (t) T 0 t T 0 outros intervalos de t t π φ = ≤ ≤ onde fc é um múltiplo de
T
1
T
t
0
T)
(0,
t
0
t)
f
cos(2
T
2
t)
-(T
h(t)
c≤
≤
∉
=
=
φ
π
∉
≤
≤
≤
≤
=
=
2T)
(0,
t
0
T
2
t
T
t)
f
cos(2
T
t
-2
T
t
0
t)
f
cos(2
T
t
y(t)
(t)
*
h(t)
c cπ
π
φ
h(t) = φ(T-t) H(f) = Φ*(f) . e-j2πfT
1. A saída do filtro casado tem espectro proporcional à densidade espectral de energia das funções bases (entrada do filtro)
fT j2 -2 fT j2 -
(f)
(f)
e
e
(f)
*
(f)
.
H(f)
Y(f)
=
Φ
=
Φ
πΦ
=
Φ
π2. A saída do filtro casado (no domínio do tempo) é proporcional à versão deslocada da função autocorrelação das funções bases (supondo que não há ruído).
(t)
*
t)
-(T
(t)
*
h(t)
y(t)
=
φ
=
φ
φ
T)
-(t
R
d
T)
-(t
)
(
T 0φ
τ
φ
+
τ
τ
=
φ=
∫
(t).
de
energia
E
(0)
R
y(T)
=
φ=
φ
3. A relação sinal-ruído na saída do filtro casado depende somente da energia da função φ(t) e da densidade espectral de potência do ruído na saída do filtro.
dt
(t)
N
2
df
(f)
N
2
(SNR)
0T 2 0 2 -0 0=
∫
+∞∞Φ
=
∫
φ
E
N
2
(SNR)
0 0=
5.8 – Deteção de Sinais com Fase Desconhecida (Aleatória) e Ruído Branco Aditivo
Algumas vezes, o sinal transmitido pode sofrer de ruído aditivo mas também de uma fase aleatória. Neste caso, o filtro casado ou o correlator sozinhos não são suficientes para se ter uma deteção ótima.
Suponha que se transmita
T
t
0
t)
f
cos(2
T
2E
(t)
s
i=
π
i≤
≤
onde E é a energia de si(t), T o tempo de duração do pulso e fi uma frequência múltipla de
T
1
. No receptor chega:T
t
0
w(t)
)
t
f
cos(2
T
2E
x(t)
=
π
i+
θ
+
≤
≤
onde θ e w(t) são variáveis aleatórias. Normalmente modela-se o sistema com w(t) sendo AWGN e θ uniformemente distribuída em (0, 2π).
Podemos escrever x(t) como:
T
t
0
w(t)
t)
f
sen(2
sen
T
2E
-t
f
cos2
cos
T
2E
x(t)
=
θ
π
iθ
π
i+
≤
≤
Uma maneira de se eliminar θ seria ter um correlator com funções bases cos2πfit e sen(2πfit). Após multiplicar x(t) por essas funções e integrar no tempo de duração T do pulso, teríamos como saída
E
cos
θ
e
-
E
sen
θ
(sem ruído aditivo).Poderíamos obter E como:
E
)
sen
E
(-)
cos
E
(
θ
2+
θ
2=
Então uma maneira de se eliminar essa fase aleatória sem levar em conta o ruído aditivo, seria usar o seguinte sistema:
Outra maneira de se fazer isso seria substituir os multiplicadores e integradores da
figura acima por filtros casados a
t
f
sen2
T
2
(t)
a
e
t
f
cos2
T
2
(t)
i 2 i iπ
φ
π
φ
=
=
e por amostradores em t = T.Uma outra maneira seria fazer:
Saída do filtro casado a somente a função transmitida
cos
2
f
t
T
2E
i
π
:onde x(τ) contém a fase aleatória θ. Podemos escrever também:
∫
=
cos2
f
i(T
-
t)
0Tx(
)
cos2
f
id
T
2E
y(t)
π
τ
π
τ
τ
∫
0T i i(T
-
t)
x(
)
sen2
f
d
f
sen2
T
2E
-
π
τ
π
τ
τ
Como a envoltória de y(t) não é afetada por θ, podemos calculá-la e avaliá-la em t = T.
d
)
f
sen(2
T
2
)
x(
d
)
f
cos(2
T
2
)
x(
l
2 i T 0 2 0 i 2 i
+
=
∫
Tτ
π
τ
τ
∫
τ
π
τ
τ
que é a saída do filtro em quadratura. Logo podemos ter o seguinte detetor:
(
)
[
2
f
T
-
t
]
d
cos
)
x(
T
2E
y(t)
=
∫
0Tτ
π
i+
τ
τ
APÊNDICE A Definição:
∫
∆=
2
0xe
-tdt
erf(x)
2π
∫
∞ ∆=
=
2
xe
-tdt
1
-
erf(x)
erfc(x)
2π
Relação com a distribuição normal de média m e variância σ2:
+
=
∫
∞σ
σ
π
σ2
m
-x
erf
1
2
1
dt
e
2
1
x -/2 m) -(t -2 2 2Expressão assintótica de erfc(x) quando x → ∞
+
∑
∞ =1 i 2 i i x-)
(2x
1)
-(2i
1.3.5
(-1)
1
x
e
~
erfc(x)
2L
π
Algumas probabilidades de uma variável aleatória X e seus relacionamentos com as funções erf e erfc: