DISSERTAÇÃO DE MESTRADO
UNIVERSIDADE FEDERAL DE SÃO CARLOS
CENTRO DE CIÊNCIAS EXATAS E DE TECNOLOGIA
PROGRAMA DE PÓS-GRADUAÇÃO EM
CIÊNCIA DA COMPUTAÇÃO
“
Reconhecimento de gestos da Língua Brasileira de
Sinais através de Máquinas de Vetores de Suporte e
Campos Aleatórios Condicionais Ocultos
”
ALUNO: César Roberto de Souza
ORIENTADOR:
Prof. Dr. Ednaldo Brigante Pizzolato
São Carlos
Abril/2013
CAIXA POSTAL 676 FONE/FAX: (16) 3351-8233 13565-905 - SÃO CARLOS - SP
Ficha catalográfica elaborada pelo DePT da Biblioteca Comunitária da UFSCar
S729rg
Souza, César Roberto de.
Reconhecimento de gestos da língua brasileira de sinais através de máquinas de vetores de suporte e campos aleatórios condicionais ocultos / César Roberto de Souza. -- São Carlos : UFSCar, 2013.
218 p.
Dissertação (Mestrado) -- Universidade Federal de São Carlos, 2013.
1. Processamento de imagens. 2. Reconhecimento de padrões. 3. Visão computacional. 4. Linguagem por sinais. I. Título.
ℝ2
ℝ2
ℝ𝑑
—
𝑡
𝑡
𝑆 = (𝐶𝑀, 𝑃𝐴, 𝑀, 𝐷𝑀, 𝑂𝑀, 𝑅𝐶, 𝑁𝑀)
𝐶𝑀 ∈ Λ
Λ
𝑃𝐴 ∈ Ω
Ω
𝑀 = (𝑑, 𝑢, 𝑡)
𝑑 ∈ 𝐷 u ∈ 𝑈
𝑡 ∈ 𝑇
𝐷
𝑈
𝑇
𝑂𝑀 ∈ 𝑃
𝑃
𝑁𝑀 ∈ 𝐸
𝐸
𝐷𝑀 ∈ { 𝑑𝑜𝑚𝑖𝑛𝑎𝑛𝑡𝑒, 𝑎𝑚𝑏𝑎𝑠 }
𝑑 ∈ 𝐷
u ∈ 𝑈
𝑡 ∈ 𝑇
𝐷 = { Unidirecional, Bidirecional, Multidirecional }
𝑃 = { 𝑐𝑖𝑚𝑎, 𝑏𝑎𝑖𝑥𝑜, 𝑐𝑜𝑟𝑝𝑜, 𝑓𝑟𝑒𝑛𝑡𝑒, 𝑒𝑠𝑞𝑢𝑒𝑟𝑑𝑎, 𝑑𝑖𝑟𝑒𝑖𝑡𝑎 }
𝐶
𝑑
𝑑
𝑥
𝐼
( , ) = d ( d( )) − d ( d( )) (4.1)
𝑑
(𝑥)
𝑥
𝐼
𝒖
ii( , ) = ∑ ∑ i(u, )
𝑖
𝑖𝑖
s( , ) = s( , − ) i( , )
ii( , ) = ii( − , ) s( , ) (4.3)
ii( , ) = i( , ) ii( − , ) ii( , − ) − ii( − , − ) (4.4)
𝑠(𝑥, − ) = 𝑖𝑖(− , 𝑦) = 0
(𝑥
, 𝑦
)
(𝑥
, 𝑦
)
∑ ∑ i( , )
𝐼(𝑥, 𝑦)
𝐼(𝑥, 𝑦)
=
=
𝐼(𝑥, 𝑦)
M = ∑ ∑ ( , ) Segundo momento ara coordenada
M = ∑ ∑ ( , ) Segundo momento ara coordenada
(4.8)
= ( a
2
⁄
2
⁄
c )
(4.9)a = MM
− =
M
M − c =
M
M − (4.10)
𝑙
𝑤
l = √(a c) √ 2 (a − c)
= √(a c) − √ 2 (a − c)
=2 arctan (a − c) 2 (4.12)
𝑥, 𝑦
𝑧
d (u, ) = ∑ ∑( ( , ) − t( − u, − ))
d (u, ) = ∑ ∑|( ( , ) − t( − u, − ))|
d (u, ) = ∑ ∑|H ( ( , ) − t( − u, − )) H |
(4.13)
𝑓
𝑡
𝐻
d (u, ) = ∑ ∑( ( , ) − t( − u, − ))
∑ ∑ 𝑡
(𝑥 − 𝑢, 𝑦 − 𝑢)
∑ ∑ 𝑓
(𝑥, 𝑦)
c(u, ) = ∑ ∑ ( , )t( − u, − ) (4.15)
𝑐(𝑢, 𝑣)
∑ ∑ 𝑓
(𝑥, 𝑦)
(u, ) = ∑ ∑ ( ( , ) − ̅ , )(t( − u, − ) − t̅)
√∑ ∑ ( ( , ) − ̅ , ) ∑ ∑ (t( − u, − ) − t̅)
(4.16)
𝑡̅
𝑓̅
,𝑓
𝑡
(𝑥, 𝑦) ≡ 𝑡(−𝑥, −𝑦)
( t )(u, ) = ∬ ( , )t ( − u, − ) d d
, (4.17)
{ t} = { } {t}
𝑓: ℝ
→ 𝕐
𝕐
𝒚 ∈ 𝕐
𝒚 = 〈𝑦
, … , 𝑦
〉
𝑦
∈ 𝒚
[𝑎; 𝑏]
𝑓
𝜽 ∈ ℝ
𝑤
( ; ) = ̂ (5.1)
𝑓
𝜽(𝒙) = 𝒚̂
𝜽
𝒙
𝒚̂
𝒚
𝑯
𝑯
𝑯
𝑱
( ) = (5.2)
𝐽
𝜆
𝜹
𝒆
𝑛
𝓓 = {𝒙
, 𝒚
}
𝜽 = 〈𝜃
, … , 𝜃
〉
= ( ( ; ) ( ; ) ( ; ) ( ; ) ) (5.3)
𝒙
𝑱
𝜹
𝜽
𝑱
𝑱
𝑯
𝑯 ≊ 𝑱
𝑱
𝑓
𝜽
𝜆
𝜆
𝜆
𝑯
𝑤
𝑯
𝑯
𝑯
𝑯
𝑤 × 𝑤
𝑶(𝑤
)
=
{
− ( ), se
( )
0
( ), se ( ) 0
0, caso restante
(5.4)
( )
𝑡
( )𝜃
( )=
{
( ), se ( ) ( ) 0
( ), se ( ) ( ) 0
( ), caso restante
(5.5)
0 𝜂
𝜂
𝜂
𝜂
( )
Algoritmo. Retropropagação Resiliente
Inicialização
( )
0,
( )
0, i, … ,
Repita
Calcule o vetor gradiente
( )
Para todos os pesos e vieses
da rede, faça:
Se
( )
( )
0
então:
( )
min (
( ),
)
( )
−sign (
( )
)
( )( )
( )
( )
( )
( )
Senão, se
( ) ( )0
então:
( )
ma (
( ),
)
( )
0
Senão,
( )
−sign (
( ) = sgn( ) (5.6)
𝑠𝑔𝑛( )
𝑠𝑔𝑛(0) =
Algoritmo. Perceptron em sua forma primal
Dado um conjunto de
ℓ
dados linearmente separáveis
S
e
uma taxa de aprendizado
∈ ℝ
0
,
0,
0
R ma
‖
‖
Repita
Para
i =
até
ℓ
Se
(
)
0
então
R
Fim-se
Fim-para
Até que nenhum erro seja cometido dentro do laço para
Retorne
(
,
)
em que k é o número de erros cometidos
𝜽
ℓ
𝒙
𝑦
∈ {− , }
𝛼
= ∑ (5.7)𝑦
𝛼
𝒙
𝑆
𝜶
Algoritmo. Perceptron em sua forma dual
Dado um conjunto de
ℓ
dados linearmente separáveis
S
0
,
0,
R ma
‖
‖
Repita
Para
i =
até
ℓ
Se
((∑
ℓ)
)
0
então
R
Fim-se
Fim-para
Até que nenhum erro seja cometido dentro do laço para
( ) = sgn( ) = sgn ((∑ ℓ
) )
= sgn (∑ ℓ ( )
)
𝑋
𝑋
𝑆
𝑆
ℝ
ℝ
( ) = = 0 (5.9)
( ) = sgn( ( )) = sgn( ) (5.10)
𝑠𝑔𝑛(0) =
‖𝜽‖
𝜉
min
, , 2‖ ‖ C (∑
)
su eito a { ( ) − 0
(5.11)
𝐶
𝐶
𝑎
𝜽 𝜉 𝑏
ma ∑ −2∑ aa ( )
,
su eito a {
0 C, i = , … , n
∑
= 0
𝐶
𝑥
𝛼
0
𝛼
= 0
( ) = sgn ( ∑
∈
) (5.13)
𝑆𝑉
(m, n) =C(m, n)
2 = {
2
2 ∑ (
m − i )
, m n
, m n
C(m, n) = {2 ∑ ( m − i ), m n
2 , m n
(5.14)
𝑛 → ∞
𝑃 →
( ) = sgn ( ∑ 〈 ( ), ( )〉
∈
) (5.15)
𝜑
𝜑
( , ) = 〈 ( ), ( )〉 (5.16)
𝜑(𝒙)
( , ) = Linear
( , ) = ( c) Polinomial Grau polinomial d,
Constante de homogeneidade c
( ) = sgn ( ∑ ( , )
∈
) (5.17)
𝐶
𝑘
𝐶
𝐶
𝐶
𝑛
{𝒙
}
𝐶
= 𝑛 ∑ 𝑘(𝑥
⁄
, 𝑥
)
𝑐
𝑐
𝑘
𝜔
𝜔
ℎ
(𝑥)
𝑐
𝑋
𝑐
𝑐
𝑐(𝑐 − )/2
𝑐(𝑐 − )/2
𝑐
𝑐(𝑐 − )/2
𝑐
𝑐
(𝑐 − )/2
𝑖
𝒙 = 〈𝑥
, 𝑥
, , 𝑥
〉
𝒚 = 〈𝑦
, 𝑦
, , 𝑦
〉
𝑦
𝑺
( , ) = ∏ ( | ) ( | )
(5.18)
𝒚
𝑝(𝒙)
𝒙
𝚲
= (n, m, , , ), (5.20)
𝑛
𝑚
𝑨
𝑛 × 𝑛
𝑨 = { 𝑎
}
𝑎
𝑖
𝑗
𝑖, 𝑗 𝑛
𝑩
𝑛 × 𝑚
𝑩 = {𝒃
(𝑜) }
𝒃
𝑜 ∈ 𝚲
𝑗
𝑗 𝑛
𝝅
𝝅 = {𝝅
} 𝑖 𝑛
𝑛
𝑺
𝑚
𝚲
𝑛
𝑚
𝑩
= ( , , ) (5.21)
𝒃
𝑑
𝑥
𝒙
𝜆
𝒙 =
〈𝑥
, 𝑥
, , 𝑥
〉
𝑇
𝑝(𝒙; 𝜆)
𝜆
𝒙 = 〈𝑥
, 𝑥
, , 𝑥
〉
𝒚 = 〈𝑦
, 𝑦
, , 𝑦
〉,
𝑦 ∈ 𝑆
𝒙
𝒙 = 〈𝑥
, 𝑥
, , 𝑥
〉
𝜆
𝑝(𝒙|𝜆)
𝒙
𝜆
𝜔
𝜖 Ω
𝑖 𝑐
𝑐
𝜆
𝜔
𝑝(𝜔
|𝑥)
𝑦̂
𝒙
𝑝(𝜔
)
𝜔
( | ) = ( ) ( | )
∑ ( | ) (5.22)
𝑝(𝜔
)
𝜔
̂ = argma
∈ ( | ) (5.23)
𝑃(𝜔
|𝒙)
𝜔
Ω
𝜔 𝑦̂
𝜆
𝑝(𝒙, 𝒚)
𝒙
𝑝(𝒙)
𝑽
𝑿 𝒀
𝑽 = 𝑿 ∪ 𝒀
𝑿
𝒀
𝑿
ℎ: 𝑿 → 𝒀
𝒗 ∈ 𝑽
𝓥
𝒗𝑿
𝒙
𝑖
𝑥
𝒙
𝓥
𝒙
𝑪 ⊂ 𝑿
𝒙
𝒀
𝑪 ⊂ 𝑽
( , ) = ∏ ( , ) (5.24)
𝐹 = {𝛹
}
𝐹
𝛹
: 𝕍 → ℝ
𝛹
( , ) = e {∑ ( , )} (5.25)
𝜽
𝑪∈ ℝ
{𝑓
}
𝑓: 𝕍 → ℝ
𝑪
𝒙
𝒚
𝑍
= ∑ ∏ ( , ) , (5.26)
𝑍
𝑽
𝒀
𝑿
ℎ: 𝑿 → 𝒀
𝑝(𝒙, 𝒚)
𝒀
𝑿
𝐺 = (𝑉, 𝐸)
𝒀 = (𝒀
) 𝑣 ∈ 𝓥
𝒀
𝐺
(𝑿, 𝒀)
𝑿
𝒀
𝑝(𝒀
|𝑿, 𝒀
, 𝑤 ≠ 𝑣) = 𝑝(𝒀
|𝑿, 𝒀
, 𝑤 ~𝑣)
𝑤 ~ 𝑣
𝑤
𝑣
𝐺
𝒙 ∈ 𝑿
𝒚
( | ) =∑ ( , ) ( , )
=
∏ ( , )
∑ ∏ ( , ), (5.27)
𝑍(𝒙) = ∑ ∏ 𝛹
𝒚(𝒙
,
𝒚
)
( | ) = ( ) ∏ ( , ) (5.28)
𝐺
𝒞 = {𝐶
, 𝐶
, … , 𝐶
}
𝐶
𝐶
{𝑓
(𝒙
,
𝒚
) }
𝜽
∈ ℜ
( )( | ) = ( ) ∏ ∏ ( , ; )
∈ ∈ 𝒞
𝑍(𝒙)
( ) = ∑ ∏ ∏ ( , ; )
∈
∈ 𝒞 (5.30)
( , ; ) = e {∑ ( , ) ( )
} (5.31)
𝑦
𝑥
∈ 𝒙
{ } { }
𝑥 = 𝑥’ 0
( , ) = e {∑ ∑ { } { }
,
∑ ∑ ∑ { } { }
} (5.32)
𝜽 = {𝜆, 𝜇}
𝝀
= log 𝑨
𝝁
= log 𝑩
{𝑓
}
𝑓
(𝑦, 𝑦
, 𝑥) =
{ } { }
(𝑖, 𝑗)
𝑓
(𝑦, 𝑦
, 𝑥) =
{ } { }(𝑖, 𝑜)
( , ) = e {∑ ( , , )
𝒚
( | ) =∑ ( , ) ( , )
=
e {∑ ( , , )}
∑ e {∑ ( , , )}, (5.34)
( | ) = ( ) e {∑ ( , , )
} (5.35)
𝑁
= {
( ),
( )}, i
(5.36)𝒙
( )𝒙
( )= 〈𝑥
( ), 𝑥
( ), … , 𝑥
( )〉
𝒚
( )𝒚
( )= 〈𝑥
( ), 𝑥
( ), … , 𝑥
( )〉
𝑦
( )𝒚
( )𝑥
( )𝒙
( )ℓ( ) = ∑ log ( | )
(5.37)
ℓ(𝜽)
ℓ( ) = ∑ ∑ ∑ ( ( ), ( ) , ( ))
− ∑ log ( ( ))
(5.38)
ℓ( ) = ∑ ∑ ∑ ( ( ), ( ), ( ))
− ∑ log ( ( ))
− ∑2
(5.39)
ℓ(𝜽)
𝝀 ∈ 𝜽
𝒈 = 〈
ℓ,
ℓ, … ,
ℓ〉 𝑘 𝐾
ℓℓ = ∑ ∑ ( ( ), ( ), ( )) − ∑ ∑ ∑ ( , , ( )) , ( , | ( )) − (5.40)
ℓ( ) = ∑ ∑ ∑ ( , )
( )
∈ ∈ 𝒞
− log ( ) (5.41)
ℓ
= ∑ ∈ ( , ) − ∑ ∑ ∈ ( , ) ( | ) (5.42)
𝒙
𝜔
∈ Ω
𝑝(𝜔
|𝒙)
𝑐
𝜆
𝑖 𝑐
𝑍(𝒙)
𝝎
( ) = ∑ ∑ ∏ ∏ ( , , ; )
∈
∈ 𝒞 (5.45)
𝛹
( , , ; ) = e {∑ ( , , ) ( )
} (5.46)
𝒚
𝒚
𝑝(𝜔|𝒙)
( | ) = ∑ ( , | ) (5.47)
𝒚
𝒚
𝒙
𝜔
( | , ) =∑ ∏∏ ∈ 𝒞∏∏∈ ( ( , , , , ; ; ) )
∈
∈ 𝒞 (5.48)
𝑍(𝜔, 𝒙)
( , ) = ∑ ∏ ∏ ( , , ; )
∈
( | , ) = ( , ) ∏ ∏ ( , , ; ) ∈ ∈ 𝒞 (5.50) ( | ) = ∑ ( ( ) ∏ ∏ ( , , ; ) ∈ ∈ 𝒞 ) = ( ) ∑ ∏ ∏ ( , , ; ) ∈ ∈ 𝒞 (5.51) ( | ) = ( ) ∑ ∏ ∏ ( , , ; ) ∈ ∈ 𝒞
= ( , ) ( ) (5.52)
𝑍(𝝎, 𝒙)
𝑁
= {
( ),
( )}, i
(5.53)𝒙
( )𝒙
( )= 〈𝑥
( ), 𝑥
( ), … , 𝑥
( )〉
𝜔
( )𝒙
( )ℓ(𝜽) = ∑ 𝑙𝑜𝑔 𝑝(𝜔( )|𝒙( ))
= ∑ 𝑙𝑜𝑔𝑍(𝜔𝑍(𝒙( )( ), 𝒙) ( ))
= ∑ log ( ( ), ( ))
− ∑ log ( ( ))
(5.54)
ℓ( ) = ∑ log ( ( ), ( ))
− ∑ log ( ( ))
− ∑2
(5.55)
ℓ(𝜽)
𝝀 ∈ 𝜽
𝒈 = 〈
ℓ,
ℓ, … ,
ℓ〉 𝑘 𝐾
ℓℓ
= ∑ ∑ 𝑝(𝒚 |𝜔, 𝒙)
𝒚
𝑓 (𝜔, 𝒙 , 𝒚)
∈
−
∑ ∑ ∑ 𝑝(𝒚 , 𝜔 |𝒙 )𝑓 (𝜔 , 𝒙 , 𝒚 )
𝑧
𝑘
𝑘 × 𝑘
C = (
c , c ,
c , c ,
) (7.1)
𝑐
𝑖
𝑗
𝜅
𝜏
𝐶
𝑇
𝑉
(𝜋)
𝐶
(𝛼)
𝜋
𝑛
̂ = −𝑝
𝑐
𝑝
= 𝑐
⁄
𝑛
𝑝
𝑝
= ∑
, = ∑
(7.3)
𝑝
𝑝
𝑖
𝑗
= ∑ , = ∑ (7.4)[− ; ]
−
0
̂ =n ∑ c − ∑ c c n − ∑ c c
(7.5)
𝜅̂
𝑧
= ̂
ar̂ ( ̂) = − ∑ n( − )( ) (7.7)
𝑧
𝜅̂
𝜅̂
𝜅
ar̂ ( ̂) =n( − A B − C) (7.8)
A = n ∑ ( − ( )( − ̂)) ,
B = ( − ̂) ∑ ( )
, C = ( ̂ − ( − ̂))
(7.9)
= | ̂ − |
√ ar̂ ( ̂) (7.10)
𝜅̂
𝐶
𝜎
𝜅
𝐶
𝜎
𝜅
𝜎
𝐶
𝐶 =
𝜎
𝜎
𝜅
0 100 200 300 400 500 600 700 0,00 0,10 0,20 0,30 0,40 0,50 0,60 0,70 0,80 0,90 1,000,1 1 10 100 1000 10000 Núm
e ro m é di o de v e tore s de supor te K appa ( 𝜅 )
Sigma (σ²)
Accuracy Heuristic SVs
𝜅
𝜅
𝐶
𝜎
𝐶
𝜎
𝐻 ≅ 39 ,52
𝐶
0
𝐶
1 100 10000 1000000 0,80 0,85 0,90 0,95 1,000.1 1 10 50
75
100 200 300 H
500 100 0 150 0 200 0 500 0 C K appa ( 𝜅 )
Sigma (σ²)
0,80-0,85 0,85-0,90 0,90-0,95 0,95-1,00
1 100 10000 1000000 0 200 400 600
0.1 1 10 50 75
100 200 300 H
500 100 0 150 0 200 0 500 0 C Núm e ro m é di o de v e tore s de s upor te
Sigma (σ²)
0 100 200 300 400 500 0,50 0,60 0,70 0,80 0,90 1,00
0,00001 0,001 0,1 10 1000
M áqui nas de V e tore s de S upor te A v al iadas K appa ( 𝜅 ) C 0 1000 2000 3000 4000 5000 6000 7000 8000 9000 0,50 0,55 0,60 0,65 0,70 0,75 0,80 0,85 0,90 0,95 1,00
0,0000001 0,00001 0,001 0,1 10
Núm e ro m é di o de V e tore s de S upor te A v al iados K appa ( 𝜅 ) C
Função kernel Estratégia de Decisão
Validação Número de Vetores de Suporte
Kappa ± (0.95 C.I.) Total Médio¹
Linear
DDAG 0,9268 ± 0,006
27.602
1.527,34
1-vs-1 0,9300 ± 0,006 5.483,00
Quadrática
DDAG 0,9536 ± 0,005
37.341
1.912,67
1-vs-1 0,9542 ± 0,004 5.638,00
Gaussiana
DDAG 0,9586 ± 0,004
52.220
2.518,67
1-vs-1 0,9583 ± 0,004 6.188,00
𝑐(𝑐 − )/2 =
35
(𝑐 − ) = 26
𝜅
𝜅 = 0,9248
𝜅 = 0,9268
Algoritmo Inicialização Validação Neurônios na
camada oculta
Kappa ± (0.95 C.I.)
RProp Uniforme 0,9112 ± 0,006 500
𝜅̂
=
0,9586 𝑣𝑎𝑟
̂ (𝜅̂
) = 5,098 × 0
𝜅̂
= 0,9248 𝑣𝑎𝑟
̂ (𝜅̂
) = 9,02 × 0
= | ̂ − ̂ |
√ ar̂ ( ̂ ) ar̂ ( ̂ ) (8.1)
0,75 0,80 0,85 0,90 0,95
0 100 200 300 400 500 600 700 800
K
appa
(
𝜅
)
Número de neurônios na camada oculta
Nguyen-Widrow
Arara
Cisne
Cobra
Foca
Gato
Jaguatirica
Leopardo
Macaco
Pato
Perereca
Treinamento Validação
Rotulação Classificação Kappa Variância Kappa Variância
SVM HMM 0,94686 1,112E-04 0,81922 2,960E-03
SVM HCRF 0,98368 3,539E-05 0,83317 2,787E-03
ANN HMM 0,94818 1,085E-04 0,80352 3,126E-03
𝒙 = 〈ℎ , ℎ , ℎ , ℎ , 𝑓〉
ℎ ∈ , ℎ 46
ℎ , ℎ ∈ ℝ − ℎ , ℎ
ℎ , 𝑓 ∈ ℝ −𝜋 ℎ , 𝑓 𝜋
(8.2)
ℎ
ℎ
ℎ
ℎ
𝑓
ℍ
𝒙
ℍ
𝐶
Função kernel Estratégia de
Decisão
Validação Número de Vetores de Suporte
Kappa ± (0.95 C.I.) Total Médio
Linear
DDAG 0,2390 ± 0,0074
1035
45
1-vs-1 0,2404 ± 0,0074 1.035
Quadrática
DDAG 0,4737 ± 0,0085
339509
8.069
1-vs-1 0,4790 ± 0,0085 339.509
Gaussiana
DDAG 0,3401 ± 0,0042
375372
8.707
1-vs-1 0,3417 ± 0,0042 375.372
0,10 0,15 0,20 0,25 0,30
0,001 0,01 0,1 1 10 100
K appa ( 𝜅 ) C 0,10 0,15 0,20 0,25 0,30
0 500 1000 1500 2000
K
appa
(
𝜅
)
𝒙
𝒙
𝜔
𝒙
0,00 0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50Linear Quadrática Gaussiana
0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000 K appa ( 𝜅 ) Núm e ro de V e tore s de Sup orte (cus to)
𝑝(𝒙 ) = ∏ 𝑝(𝒙 )
(8.3)
𝑝
𝑝
…[−𝜋; 𝜋]
𝑓 ( )(𝜔, 𝒚, 𝒚 , 𝒙) = { } 𝜔 ∈ 𝛺
𝑓 , ( ) (𝜔, 𝒚, 𝒚 , 𝒙) = {𝒚 } {𝒚 } 𝑖, 𝑗 ∈ 𝑆
𝑓 , , ( ) (𝜔, 𝒚, 𝒚 , 𝒙 ) = {𝒚 } {(𝒙) }
𝑖 ∈ 𝑆 𝑜 ∈ ℍ 𝒙 ∈
𝑓 , ( ) (𝜔, 𝒚, 𝒚 , 𝒙 ) = {𝒚 } 𝑖 ∈ 𝑆𝒙 ∈ ℝ
𝑓 , ( ) (𝜔, 𝒚, 𝒚 , 𝒙) = {𝒚 }(𝒙 ) 𝑖 ∈ 𝑆𝒙 ∈ ℝ
𝑓 , ( ) (𝜔, 𝒚, 𝒚 , 𝒙) = {𝒚 }(𝒙 ) 𝑖 ∈ 𝑆𝒙 ∈ ℝ
Ω
𝑆
𝜔
𝑓( )
𝜔
𝑓 , ( )
𝑖
𝑗
𝑓 , , ( )𝑜
𝑑
𝑖
𝑓 , ( )𝑖
𝑓 , ( ) 𝑓 , ( )
𝑑
𝑖
𝑨
𝑩
𝜆 ( )= log 𝛼 𝜔 ∈ 𝛺
𝜆 , ( ) = log 𝐴 , 𝑖, 𝑗 ∈ 𝑆
𝜆 , , ( ) = log (𝑜) 𝑖 ∈ 𝑆 𝑜 ∈ ℍ 𝒙 ∈
𝜆 , ( ) = −2 (log 2𝜋𝜎 𝜇𝜎 , , )
𝑖 ∈ 𝑆 𝒙 ∈ ℝ
𝜆( ) , = 𝜇 , 𝜎 ,
𝑖 ∈ 𝑆 𝒙 ∈ ℝ
𝜆( ) , = −2𝜎
,
𝑖 ∈ 𝑆 𝒙 ∈ ℝ
(8.5)
𝜇
,𝜎
,𝑖
𝑑
(𝑜)
𝑖
Rotulação Classificação
Treinamento Validação
Kappa ± (0.95 C.I.) Kappa ± (0.95 C.I.)
SVM (quadrática)
HMM 0,8971 ± 0,0179 0,8071 ± 0,0222
HCRF 0,9218 ± 0,0156 0,8441 ± 0,0204
SVM (linear)
HMM 0,8886 ± 0,0186 0,7967 ± 0,0227
HCRF 0,9263 ± 0,0153 0,8198 ± 0,0217
ANN
HMM 0,8610 ± 0,0205 0,7473 ± 0,0771
HCRF 0,9330 ± 0,0148 0,7727 ± 0,0743
Nenhum (somente trajetória)
HMM 0,6411 ± 0,0287 0,5308 ± 0,0898
HCRF 0,6638 ± 0,0283 0,5524 ± 0,0897
= | ̂ − ̂ |
√ ar̂ ( ̂ ) ar̂ ( ̂ )=
|0,80 − 0,844 |
√0,0 35 0,0 240 = 2,0 4 3 (8.6)
𝑝 = 0,04393
𝛼 = 0,05
= | ̂ − ̂ |
√ ar̂ ( ̂ ) ar̂ ( ̂ )
= |0, 96 − 0,8 9 |
= | ̂ − ̂ | √ ar̂ ( ̂ ) ar̂ ( ̂ )
= |0, 4932 − 0, 46|
√0,0 49 0,0 435 = ,225 3 (8.8)