• Nenhum resultado encontrado

UNIVERSIDADE FEDERAL DE SÃO CARLOS CENTRO DE CIÊNCIAS EXATAS E DE TECNOLOGIA PROGRAMA DE PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO

N/A
N/A
Protected

Academic year: 2019

Share "UNIVERSIDADE FEDERAL DE SÃO CARLOS CENTRO DE CIÊNCIAS EXATAS E DE TECNOLOGIA PROGRAMA DE PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO"

Copied!
218
0
0

Texto

(1)

DISSERTAÇÃO DE MESTRADO

UNIVERSIDADE FEDERAL DE SÃO CARLOS

CENTRO DE CIÊNCIAS EXATAS E DE TECNOLOGIA

PROGRAMA DE PÓS-GRADUAÇÃO EM

CIÊNCIA DA COMPUTAÇÃO

Reconhecimento de gestos da Língua Brasileira de

Sinais através de Máquinas de Vetores de Suporte e

Campos Aleatórios Condicionais Ocultos

ALUNO: César Roberto de Souza

ORIENTADOR:

Prof. Dr. Ednaldo Brigante Pizzolato

São Carlos

Abril/2013

CAIXA POSTAL 676 FONE/FAX: (16) 3351-8233 13565-905 - SÃO CARLOS - SP

(2)
(3)
(4)

Ficha catalográfica elaborada pelo DePT da Biblioteca Comunitária da UFSCar

S729rg

Souza, César Roberto de.

Reconhecimento de gestos da língua brasileira de sinais através de máquinas de vetores de suporte e campos aleatórios condicionais ocultos / César Roberto de Souza. -- São Carlos : UFSCar, 2013.

218 p.

Dissertação (Mestrado) -- Universidade Federal de São Carlos, 2013.

1. Processamento de imagens. 2. Reconhecimento de padrões. 3. Visão computacional. 4. Linguagem por sinais. I. Título.

(5)
(6)
(7)
(8)
(9)
(10)
(11)
(12)
(13)
(14)
(15)
(16)
(17)
(18)

ℝ2

ℝ2

ℝ𝑑

(19)
(20)
(21)
(22)
(23)
(24)
(25)
(26)
(27)
(28)
(29)
(30)
(31)
(32)
(33)

(34)

(35)

(36)
(37)
(38)
(39)
(40)
(41)
(42)
(43)

𝑡

𝑡

(44)
(45)
(46)
(47)
(48)
(49)
(50)
(51)
(52)
(53)
(54)
(55)
(56)
(57)
(58)
(59)
(60)
(61)

𝑆 = (𝐶𝑀, 𝑃𝐴, 𝑀, 𝐷𝑀, 𝑂𝑀, 𝑅𝐶, 𝑁𝑀)

𝐶𝑀 ∈ Λ

Λ

𝑃𝐴 ∈ Ω

Ω

𝑀 = (𝑑, 𝑢, 𝑡)

𝑑 ∈ 𝐷 u ∈ 𝑈

𝑡 ∈ 𝑇

𝐷

𝑈

𝑇

𝑂𝑀 ∈ 𝑃

𝑃

(62)

𝑁𝑀 ∈ 𝐸

𝐸

𝐷𝑀 ∈ { 𝑑𝑜𝑚𝑖𝑛𝑎𝑛𝑡𝑒, 𝑎𝑚𝑏𝑎𝑠 }

(63)
(64)
(65)
(66)

𝑑 ∈ 𝐷

u ∈ 𝑈

𝑡 ∈ 𝑇

𝐷 = { Unidirecional, Bidirecional, Multidirecional }

(67)

𝑃 = { 𝑐𝑖𝑚𝑎, 𝑏𝑎𝑖𝑥𝑜, 𝑐𝑜𝑟𝑝𝑜, 𝑓𝑟𝑒𝑛𝑡𝑒, 𝑒𝑠𝑞𝑢𝑒𝑟𝑑𝑎, 𝑑𝑖𝑟𝑒𝑖𝑡𝑎 }

𝐶

(68)
(69)
(70)
(71)

𝑑

𝑑

(72)
(73)
(74)
(75)
(76)
(77)
(78)
(79)

𝑥

𝐼

( , ) = d ( d( )) − d ( d( )) (4.1)

𝑑

(𝑥)

𝑥

𝐼

𝒖

(80)
(81)
(82)
(83)

ii( , ) = ∑ ∑ i(u, )

(84)

𝑖

𝑖𝑖

s( , ) = s( , − ) i( , )

ii( , ) = ii( − , ) s( , ) (4.3)

ii( , ) = i( , ) ii( − , ) ii( , − ) − ii( − , − ) (4.4)

𝑠(𝑥, − ) = 𝑖𝑖(− , 𝑦) = 0

(𝑥

, 𝑦

)

(𝑥

, 𝑦

)

∑ ∑ i( , )

(85)
(86)
(87)
(88)

𝐼(𝑥, 𝑦)

(89)

𝐼(𝑥, 𝑦)

=

=

(90)

𝐼(𝑥, 𝑦)

M = ∑ ∑ ( , ) Segundo momento ara coordenada

M = ∑ ∑ ( , ) Segundo momento ara coordenada

(4.8)

= ( a

2

2

c )

(4.9)

a = MM

− =

M

M − c =

M

M − (4.10)

𝑙

𝑤

l = √(a c) √ 2 (a − c)

= √(a c) − √ 2 (a − c)

(91)

=2 arctan (a − c) 2 (4.12)

𝑥, 𝑦

𝑧

(92)
(93)

d (u, ) = ∑ ∑( ( , ) − t( − u, − ))

d (u, ) = ∑ ∑|( ( , ) − t( − u, − ))|

d (u, ) = ∑ ∑|H ( ( , ) − t( − u, − )) H |

(4.13)

𝑓

𝑡

𝐻

d (u, ) = ∑ ∑( ( , ) − t( − u, − ))

(94)

∑ ∑ 𝑡

(𝑥 − 𝑢, 𝑦 − 𝑢)

∑ ∑ 𝑓

(𝑥, 𝑦)

c(u, ) = ∑ ∑ ( , )t( − u, − ) (4.15)

𝑐(𝑢, 𝑣)

∑ ∑ 𝑓

(𝑥, 𝑦)

(u, ) = ∑ ∑ ( ( , ) − ̅ , )(t( − u, − ) − t̅)

√∑ ∑ ( ( , ) − ̅ , ) ∑ ∑ (t( − u, − ) − t̅)

(4.16)

𝑡̅

𝑓̅

,

𝑓

𝑡

(𝑥, 𝑦) ≡ 𝑡(−𝑥, −𝑦)

( t )(u, ) = ∬ ( , )t ( − u, − ) d d

, (4.17)

{ t} = { } {t}

(95)
(96)
(97)
(98)
(99)
(100)
(101)

𝑓: ℝ

→ 𝕐

𝕐

𝒚 ∈ 𝕐

𝒚 = 〈𝑦

, … , 𝑦

𝑦

∈ 𝒚

[𝑎; 𝑏]

(102)

𝑓

𝜽 ∈ ℝ

𝑤

( ; ) = ̂ (5.1)

𝑓

𝜽

(𝒙) = 𝒚̂

𝜽

𝒙

𝒚̂

𝒚

(103)

𝑯

𝑯

𝑯

𝑱

( ) = (5.2)

𝐽

𝜆

𝜹

𝒆

𝑛

𝓓 = {𝒙

, 𝒚

}

𝜽 = 〈𝜃

, … , 𝜃

(104)

= ( ( ; ) ( ; ) ( ; ) ( ; ) ) (5.3)

𝒙

𝑱

𝜹

𝜽

𝑱

𝑱

𝑯

𝑯 ≊ 𝑱

𝑱

𝑓

𝜽

𝜆

𝜆

𝜆

(105)

𝑯

𝑤

𝑯

𝑯

𝑯

𝑯

𝑤 × 𝑤

𝑶(𝑤

)

(106)

=

{

− ( ), se

( )

0

( ), se ( ) 0

0, caso restante

(5.4)

( )

𝑡

( )

𝜃

( )=

{

( ), se ( ) ( ) 0

( ), se ( ) ( ) 0

( ), caso restante

(5.5)

0 𝜂

𝜂

𝜂

𝜂

( )

(107)

Algoritmo. Retropropagação Resiliente

Inicialização

( )

0,

( )

0, i, … ,

Repita

Calcule o vetor gradiente

( )

Para todos os pesos e vieses

da rede, faça:

Se

( )

( )

0

então:

( )

min (

( )

,

)

( )

−sign (

( )

)

( )

( )

( )

( )

( )

( )

Senão, se

( ) ( )

0

então:

( )

ma (

( )

,

)

( )

0

Senão,

( )

−sign (

(108)
(109)

( ) = sgn( ) (5.6)

𝑠𝑔𝑛( )

𝑠𝑔𝑛(0) =

Algoritmo. Perceptron em sua forma primal

Dado um conjunto de

dados linearmente separáveis

S

e

uma taxa de aprendizado

∈ ℝ

0

,

0,

0

R ma

Repita

Para

i =

até

Se

(

)

0

então

R

Fim-se

Fim-para

Até que nenhum erro seja cometido dentro do laço para

Retorne

(

,

)

em que k é o número de erros cometidos

(110)

𝜽

𝒙

𝑦

∈ {− , }

𝛼

= ∑ (5.7)

𝑦

𝛼

𝒙

𝑆

𝜶

Algoritmo. Perceptron em sua forma dual

Dado um conjunto de

dados linearmente separáveis

S

0

,

0,

R ma

Repita

Para

i =

até

Se

((∑

)

)

0

então

R

Fim-se

Fim-para

Até que nenhum erro seja cometido dentro do laço para

(111)

( ) = sgn( ) = sgn ((∑ ℓ

) )

= sgn (∑ ℓ ( )

)

(112)

𝑋

𝑋

𝑆

𝑆

(113)
(114)

( ) = = 0 (5.9)

( ) = sgn( ( )) = sgn( ) (5.10)

𝑠𝑔𝑛(0) =

(115)

‖𝜽‖

𝜉

min

, , 2‖ ‖ C (∑

)

su eito a { ( ) − 0

(5.11)

𝐶

𝐶

𝑎

𝜽 𝜉 𝑏

ma ∑ −2∑ aa ( )

,

su eito a {

0 C, i = , … , n

= 0

(116)

𝐶

𝑥

𝛼

0

𝛼

= 0

( ) = sgn ( ∑

) (5.13)

𝑆𝑉

(m, n) =C(m, n)

2 = {

2

2 ∑ (

m − i )

, m n

, m n

C(m, n) = {2 ∑ ( m − i ), m n

2 , m n

(5.14)

𝑛 → ∞

𝑃 →

(117)

( ) = sgn ( ∑ 〈 ( ), ( )〉

) (5.15)

𝜑

𝜑

( , ) = 〈 ( ), ( )〉 (5.16)

𝜑(𝒙)

( , ) = Linear

( , ) = ( c) Polinomial Grau polinomial d,

Constante de homogeneidade c

(118)

( ) = sgn ( ∑ ( , )

) (5.17)

(119)

𝐶

𝑘

𝐶

𝐶

𝐶

𝑛

{𝒙

}

𝐶

= 𝑛 ∑ 𝑘(𝑥

, 𝑥

)

(120)

𝑐

𝑐

𝑘

𝜔

𝜔

(𝑥)

𝑐

𝑋

(121)

𝑐

𝑐

𝑐(𝑐 − )/2

𝑐(𝑐 − )/2

𝑐

𝑐(𝑐 − )/2

(122)

𝑐

𝑐

(𝑐 − )/2

(123)
(124)

𝑖

𝒙 = 〈𝑥

, 𝑥

, , 𝑥

𝒚 = 〈𝑦

, 𝑦

, , 𝑦

𝑦

𝑺

( , ) = ∏ ( | ) ( | )

(5.18)

𝒚

𝑝(𝒙)

𝒙

(125)

𝚲

= (n, m, , , ), (5.20)

𝑛

𝑚

𝑨

𝑛 × 𝑛

𝑨 = { 𝑎

}

𝑎

𝑖

𝑗

𝑖, 𝑗 𝑛

𝑩

𝑛 × 𝑚

𝑩 = {𝒃

(𝑜) }

𝒃

𝑜 ∈ 𝚲

𝑗

𝑗 𝑛

𝝅

𝝅 = {𝝅

} 𝑖 𝑛

𝑛

𝑺

𝑚

𝚲

𝑛

𝑚

𝑩

= ( , , ) (5.21)

𝒃

𝑑

𝑥

𝒙

(126)

𝜆

𝒙 =

〈𝑥

, 𝑥

, , 𝑥

𝑇

𝑝(𝒙; 𝜆)

𝜆

𝒙 = 〈𝑥

, 𝑥

, , 𝑥

𝒚 = 〈𝑦

, 𝑦

, , 𝑦

〉,

𝑦 ∈ 𝑆

𝒙

𝒙 = 〈𝑥

, 𝑥

, , 𝑥

(127)

𝜆

𝑝(𝒙|𝜆)

𝒙

(128)
(129)

𝜆

𝜔

𝜖 Ω

𝑖 𝑐

𝑐

𝜆

𝜔

𝑝(𝜔

|𝑥)

𝑦̂

𝒙

𝑝(𝜔

)

𝜔

( | ) = ( ) ( | )

∑ ( | ) (5.22)

𝑝(𝜔

)

𝜔

̂ = argma

∈ ( | ) (5.23)

𝑃(𝜔

|𝒙)

𝜔

Ω

𝜔 𝑦̂

𝜆

𝑝(𝒙, 𝒚)

𝒙

(130)

𝑝(𝒙)

(131)
(132)

𝑽

𝑿 𝒀

𝑽 = 𝑿 ∪ 𝒀

𝑿

𝒀

𝑿

ℎ: 𝑿 → 𝒀

𝒗 ∈ 𝑽

𝓥

𝒗

𝑿

𝒙

𝑖

𝑥

𝒙

𝓥

(133)

𝒙

𝑪 ⊂ 𝑿

𝒙

𝒀

𝑪 ⊂ 𝑽

( , ) =( , ) (5.24)

𝐹 = {𝛹

}

𝐹

𝛹

: 𝕍 → ℝ

𝛹

( , ) = e {∑ ( , )} (5.25)

𝜽

𝑪

∈ ℝ

{𝑓

}

𝑓: 𝕍 → ℝ

𝑪

𝒙

𝒚

𝑍

= ∑ ∏ ( , ) , (5.26)

𝑍

𝑽

𝒀

𝑿

ℎ: 𝑿 → 𝒀

𝑝(𝒙, 𝒚)

(134)

𝒀

𝑿

𝐺 = (𝑉, 𝐸)

𝒀 = (𝒀

) 𝑣 ∈ 𝓥

𝒀

𝐺

(𝑿, 𝒀)

𝑿

𝒀

𝑝(𝒀

|𝑿, 𝒀

, 𝑤 ≠ 𝑣) = 𝑝(𝒀

|𝑿, 𝒀

, 𝑤 ~𝑣)

𝑤 ~ 𝑣

𝑤

𝑣

𝐺

𝒙 ∈ 𝑿

𝒚

( | ) =∑ ( , ) ( , )

=

∏ ( , )

∑ ∏ ( , ), (5.27)

𝑍(𝒙) = ∑ ∏ 𝛹

𝒚

(𝒙

,

𝒚

)

( | ) = ( ) ∏ ( , ) (5.28)

𝐺

𝒞 = {𝐶

, 𝐶

, … , 𝐶

}

𝐶

𝐶

{𝑓

(𝒙

,

𝒚

) }

𝜽

∈ ℜ

( )

( | ) = ( ) ∏ ∏ ( , ; )

∈ ∈ 𝒞

(135)

𝑍(𝒙)

( ) = ∑ ∏ ∏ ( , ; )

∈ 𝒞 (5.30)

( , ; ) = e {∑ ( , ) ( )

} (5.31)

𝑦

𝑥

∈ 𝒙

{ } { }

𝑥 = 𝑥’ 0

( , ) = e {∑ ∑ { } { }

,

∑ ∑ ∑ { } { }

} (5.32)

𝜽 = {𝜆, 𝜇}

𝝀

= log 𝑨

𝝁

= log 𝑩

{𝑓

}

𝑓

(𝑦, 𝑦

, 𝑥) =

{ } { }

(𝑖, 𝑗)

𝑓

(𝑦, 𝑦

, 𝑥) =

{ } { }

(𝑖, 𝑜)

( , ) = e {∑ ( , , )

(136)

𝒚

( | ) =∑ ( , ) ( , )

=

e {∑ ( , , )}

∑ e {∑ ( , , )}, (5.34)

( | ) = ( ) e {∑ ( , , )

} (5.35)

(137)

𝑁

= {

( )

,

( )

}, i

(5.36)

𝒙

( )

𝒙

( )

= 〈𝑥

( )

, 𝑥

( )

, … , 𝑥

( )

𝒚

( )

𝒚

( )

= 〈𝑥

( )

, 𝑥

( )

, … , 𝑥

( )

𝑦

( )

𝒚

( )

𝑥

( )

𝒙

( )

ℓ( ) = ∑ log ( | )

(5.37)

ℓ(𝜽)

ℓ( ) = ∑ ∑ ∑ ( ( ), ( ) , ( ))

− ∑ log ( ( ))

(5.38)

(138)

ℓ( ) = ∑ ∑ ∑ ( ( ), ( ), ( ))

− ∑ log ( ( ))

− ∑2

(5.39)

ℓ(𝜽)

𝝀 ∈ 𝜽

𝒈 = 〈

,

, … ,

〉 𝑘 𝐾

ℓ = ∑ ∑ ( ( ), ( ), ( )) − ∑ ∑ ∑ ( , , ( )) , ( , | ( )) − (5.40)

ℓ( ) = ∑ ∑ ∑ ( , )

( )

∈ ∈ 𝒞

− log ( ) (5.41)

= ∑ ( , ) − ∑ ∑ ( , ) ( | ) (5.42)

(139)

𝒙

𝜔

∈ Ω

𝑝(𝜔

|𝒙)

𝑐

𝜆

𝑖 𝑐

(140)

𝑍(𝒙)

𝝎

( ) = ∑ ∑ ∏ ∏ ( , , ; )

∈ 𝒞 (5.45)

𝛹

( , , ; ) = e {∑ ( , , ) ( )

} (5.46)

𝒚

𝒚

𝑝(𝜔|𝒙)

( | ) = ∑ ( , | ) (5.47)

𝒚

𝒚

𝒙

𝜔

( | , ) =∑ ∏∏ ∈ 𝒞∏∈ ( ( , , , , ; ; ) )

∈ 𝒞 (5.48)

𝑍(𝜔, 𝒙)

( , ) = ∑ ∏ ∏ ( , , ; )

(141)

( | , ) = ( , ) ∏ ∏ ( , , ; ) ∈ ∈ 𝒞 (5.50) ( | ) = ∑ ( ( ) ∏ ∏ ( , , ; ) ∈ ∈ 𝒞 ) = ( ) ∑ ∏ ∏ ( , , ; ) ∈ ∈ 𝒞 (5.51) ( | ) = ( ) ∑ ∏ ∏ ( , , ; ) ∈ ∈ 𝒞

= ( , ) ( ) (5.52)

𝑍(𝝎, 𝒙)

(142)

𝑁

= {

( )

,

( )

}, i

(5.53)

𝒙

( )

𝒙

( )

= 〈𝑥

( )

, 𝑥

( )

, … , 𝑥

( )

𝜔

( )

𝒙

( )

ℓ(𝜽) = ∑ 𝑙𝑜𝑔 𝑝(𝜔( )|𝒙( ))

= ∑ 𝑙𝑜𝑔𝑍(𝜔𝑍(𝒙( )( ), 𝒙) ( ))

= ∑ log ( ( ), ( ))

− ∑ log ( ( ))

(5.54)

ℓ( ) = ∑ log ( ( ), ( ))

− ∑ log ( ( ))

− ∑2

(5.55)

ℓ(𝜽)

𝝀 ∈ 𝜽

𝒈 = 〈

,

, … ,

〉 𝑘 𝐾

= ∑ ∑ 𝑝(𝒚 |𝜔, 𝒙)

𝒚

𝑓 (𝜔, 𝒙 , 𝒚)

∑ ∑ ∑ 𝑝(𝒚 , 𝜔 |𝒙 )𝑓 (𝜔 , 𝒙 , 𝒚 )

(143)
(144)
(145)
(146)
(147)
(148)
(149)
(150)

𝑧

(151)
(152)
(153)
(154)
(155)
(156)
(157)

𝑘

𝑘 × 𝑘

C = (

c , c ,

c , c ,

) (7.1)

𝑐

𝑖

𝑗

𝜅

𝜏

𝐶

𝑇

𝑉

(𝜋)

𝐶

(𝛼)

𝜋

𝑛

̂ = −

(158)

𝑝

𝑐

𝑝

= 𝑐

𝑛

𝑝

𝑝

= ∑

, = ∑

(7.3)

𝑝

𝑝

𝑖

𝑗

= ∑ , = ∑ (7.4)

[− ; ]

0

̂ =n ∑ c − ∑ c c n − ∑ c c

(7.5)

𝜅̂

𝑧

= ̂

(159)

ar̂ ( ̂) = − ∑ n( − )( ) (7.7)

𝑧

𝜅̂

𝜅̂

𝜅

ar̂ ( ̂) =n( − A B − C) (7.8)

A = n ∑ ( − ( )( − ̂)) ,

B = ( − ̂) ∑ ( )

, C = ( ̂ − ( − ̂))

(7.9)

= | ̂ − |

√ ar̂ ( ̂) (7.10)

𝜅̂

(160)
(161)
(162)
(163)

𝐶

𝜎

𝜅

(164)

𝐶

𝜎

𝜅

𝜎

𝐶

𝐶 =

𝜎

𝜎

𝜅

0 100 200 300 400 500 600 700 0,00 0,10 0,20 0,30 0,40 0,50 0,60 0,70 0,80 0,90 1,00

0,1 1 10 100 1000 10000 Núm

e ro m é di o de v e tore s de supor te K appa ( 𝜅 )

Sigma (σ²)

Accuracy Heuristic SVs

(165)

𝜅

𝜅

𝐶

𝜎

𝐶

𝜎

𝐻 ≅ 39 ,52

𝐶

0

𝐶

1 100 10000 1000000 0,80 0,85 0,90 0,95 1,00

0.1 1 10 50

75

100 200 300 H

500 100 0 150 0 200 0 500 0 C K appa ( 𝜅 )

Sigma (σ²)

0,80-0,85 0,85-0,90 0,90-0,95 0,95-1,00

1 100 10000 1000000 0 200 400 600

0.1 1 10 50 75

100 200 300 H

500 100 0 150 0 200 0 500 0 C Núm e ro m é di o de v e tore s de s upor te

Sigma (σ²)

(166)

0 100 200 300 400 500 0,50 0,60 0,70 0,80 0,90 1,00

0,00001 0,001 0,1 10 1000

M áqui nas de V e tore s de S upor te A v al iadas K appa ( 𝜅 ) C 0 1000 2000 3000 4000 5000 6000 7000 8000 9000 0,50 0,55 0,60 0,65 0,70 0,75 0,80 0,85 0,90 0,95 1,00

0,0000001 0,00001 0,001 0,1 10

Núm e ro m é di o de V e tore s de S upor te A v al iados K appa ( 𝜅 ) C

(167)

Função kernel Estratégia de Decisão

Validação Número de Vetores de Suporte

Kappa ± (0.95 C.I.) Total Médio¹

Linear

DDAG 0,9268 ± 0,006

27.602

1.527,34

1-vs-1 0,9300 ± 0,006 5.483,00

Quadrática

DDAG 0,9536 ± 0,005

37.341

1.912,67

1-vs-1 0,9542 ± 0,004 5.638,00

Gaussiana

DDAG 0,9586 ± 0,004

52.220

2.518,67

1-vs-1 0,9583 ± 0,004 6.188,00

𝑐(𝑐 − )/2 =

35

(𝑐 − ) = 26

𝜅

𝜅 = 0,9248

𝜅 = 0,9268

Algoritmo Inicialização Validação Neurônios na

camada oculta

Kappa ± (0.95 C.I.)

RProp Uniforme 0,9112 ± 0,006 500

(168)

𝜅̂

=

0,9586 𝑣𝑎𝑟

̂ (𝜅̂

) = 5,098 × 0

𝜅̂

= 0,9248 𝑣𝑎𝑟

̂ (𝜅̂

) = 9,02 × 0

= | ̂ − ̂ |

√ ar̂ ( ̂ ) ar̂ ( ̂ ) (8.1)

0,75 0,80 0,85 0,90 0,95

0 100 200 300 400 500 600 700 800

K

appa

(

𝜅

)

Número de neurônios na camada oculta

Nguyen-Widrow

(169)
(170)

Arara

Cisne

Cobra

Foca

Gato

Jaguatirica

Leopardo

Macaco

Pato

Perereca

(171)

Treinamento Validação

Rotulação Classificação Kappa Variância Kappa Variância

SVM HMM 0,94686 1,112E-04 0,81922 2,960E-03

SVM HCRF 0,98368 3,539E-05 0,83317 2,787E-03

ANN HMM 0,94818 1,085E-04 0,80352 3,126E-03

(172)
(173)

𝒙 = 〈ℎ , ℎ , ℎ , ℎ , 𝑓〉

ℎ ∈ , ℎ 46

ℎ , ℎ ∈ ℝ − ℎ , ℎ

ℎ , 𝑓 ∈ ℝ −𝜋 ℎ , 𝑓 𝜋

(8.2)

𝑓

𝒙

(174)

𝐶

Função kernel Estratégia de

Decisão

Validação Número de Vetores de Suporte

Kappa ± (0.95 C.I.) Total Médio

Linear

DDAG 0,2390 ± 0,0074

1035

45

1-vs-1 0,2404 ± 0,0074 1.035

Quadrática

DDAG 0,4737 ± 0,0085

339509

8.069

1-vs-1 0,4790 ± 0,0085 339.509

Gaussiana

DDAG 0,3401 ± 0,0042

375372

8.707

1-vs-1 0,3417 ± 0,0042 375.372

(175)

0,10 0,15 0,20 0,25 0,30

0,001 0,01 0,1 1 10 100

K appa ( 𝜅 ) C 0,10 0,15 0,20 0,25 0,30

0 500 1000 1500 2000

K

appa

(

𝜅

)

(176)

𝒙

𝒙

𝜔

𝒙

0,00 0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50

Linear Quadrática Gaussiana

0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000 K appa ( 𝜅 ) Núm e ro de V e tore s de Sup orte (cus to)

(177)

𝑝(𝒙 ) = ∏ 𝑝(𝒙 )

(8.3)

𝑝

𝑝

[−𝜋; 𝜋]

𝑓 ( )(𝜔, 𝒚, 𝒚 , 𝒙) = { } 𝜔 ∈ 𝛺

𝑓 , ( ) (𝜔, 𝒚, 𝒚 , 𝒙) = {𝒚 } {𝒚 } 𝑖, 𝑗 ∈ 𝑆

𝑓 , , ( ) (𝜔, 𝒚, 𝒚 , 𝒙 ) = {𝒚 } {(𝒙) }

𝑖 ∈ 𝑆 𝑜 ∈ ℍ 𝒙

𝑓 , ( ) (𝜔, 𝒚, 𝒚 , 𝒙 ) = {𝒚 } 𝑖 ∈ 𝑆𝒙 ∈ ℝ

𝑓 , ( ) (𝜔, 𝒚, 𝒚 , 𝒙) = {𝒚 }(𝒙 ) 𝑖 ∈ 𝑆𝒙 ∈ ℝ

𝑓 , ( ) (𝜔, 𝒚, 𝒚 , 𝒙) = {𝒚 }(𝒙 ) 𝑖 ∈ 𝑆𝒙 ∈ ℝ

(178)

Ω

𝑆

𝜔

𝑓( )

𝜔

𝑓 , ( )

𝑖

𝑗

𝑓 , , ( )

𝑜

𝑑

𝑖

𝑓 , ( )

𝑖

𝑓 , ( ) 𝑓 , ( )

𝑑

𝑖

𝑨

𝑩

𝜆 ( )= log 𝛼 𝜔 ∈ 𝛺

𝜆 , ( ) = log 𝐴 , 𝑖, 𝑗 ∈ 𝑆

𝜆 , , ( ) = log (𝑜) 𝑖 ∈ 𝑆 𝑜 ∈ ℍ 𝒙

𝜆 , ( ) = −2 (log 2𝜋𝜎 𝜇𝜎 , , )

𝑖 ∈ 𝑆 𝒙 ∈ ℝ

𝜆( ) , = 𝜇 , 𝜎 ,

𝑖 ∈ 𝑆 𝒙 ∈ ℝ

𝜆( ) , = −2𝜎

,

𝑖 ∈ 𝑆 𝒙 ∈ ℝ

(8.5)

𝜇

,

𝜎

,

𝑖

𝑑

(𝑜)

𝑖

(179)

Rotulação Classificação

Treinamento Validação

Kappa ± (0.95 C.I.) Kappa ± (0.95 C.I.)

SVM (quadrática)

HMM 0,8971 ± 0,0179 0,8071 ± 0,0222

HCRF 0,9218 ± 0,0156 0,8441 ± 0,0204

SVM (linear)

HMM 0,8886 ± 0,0186 0,7967 ± 0,0227

HCRF 0,9263 ± 0,0153 0,8198 ± 0,0217

ANN

HMM 0,8610 ± 0,0205 0,7473 ± 0,0771

HCRF 0,9330 ± 0,0148 0,7727 ± 0,0743

Nenhum (somente trajetória)

HMM 0,6411 ± 0,0287 0,5308 ± 0,0898

HCRF 0,6638 ± 0,0283 0,5524 ± 0,0897

= | ̂ − ̂ |

√ ar̂ ( ̂ ) ar̂ ( ̂ )=

|0,80 − 0,844 |

√0,0 35 0,0 240 = 2,0 4 3 (8.6)

𝑝 = 0,04393

𝛼 = 0,05

= | ̂ − ̂ |

√ ar̂ ( ̂ ) ar̂ ( ̂ )

= |0, 96 − 0,8 9 |

(180)

= | ̂ − ̂ | √ ar̂ ( ̂ ) ar̂ ( ̂ )

= |0, 4932 − 0, 46|

√0,0 49 0,0 435 = ,225 3 (8.8)

𝑝 0,2

𝑝 0 0

(181)
(182)
(183)
(184)
(185)
(186)
(187)
(188)
(189)
(190)
(191)
(192)
(193)
(194)
(195)
(196)
(197)
(198)
(199)
(200)

Referências

Documentos relacionados

Desse modo, a escola e a mídia são significadas como um lugar de consolidação de imagens sobre a língua, através do ensino de língua portuguesa, estabilizando-as a

Este trabalho tem como objetivo contribuir para o estudo de espécies de Myrtaceae, com dados de anatomia e desenvolvimento floral, para fins taxonômicos, filogenéticos e

No Brasil, a falta de uma fiscalização mais rigorosa é uma das razões que possibilitam que certas empresas utilizem os estágios como forma de dispor de uma mão-de-obra

A presente dissertação é desenvolvida no âmbito do Mestrado Profissional em Gestão e Avaliação da Educação (PPGP) do Centro de Políticas Públicas e Avaliação

Dessa forma, diante das questões apontadas no segundo capítulo, com os entraves enfrentados pela Gerência de Pós-compra da UFJF, como a falta de aplicação de

MELO NETO e FROES (1999, p.81) transcreveram a opinião de um empresário sobre responsabilidade social: “Há algumas décadas, na Europa, expandiu-se seu uso para fins.. sociais,

Os gerentes precisam decidir se atribuirão apenas os custos privados, ou se todos os custos sejam atribuídos (custo total). Depois, precisam decidir usar uma abordagem por função

Janaína Oliveira, que esteve presente em Ouagadougou nas últimas três edições do FESPACO (2011, 2013, 2015) e participou de todos os fóruns de debate promovidos