• Nenhum resultado encontrado

A sequˆencia de procedimentos realizados neste projeto s˜ao demonstrados pela Figura 32. A primeira etapa foi definida pela selec¸˜ao das bases de dados utilizadas como informac¸˜ao para as duas redes neurais. Este processo ´e definido como inicial, pois a caracter´ıstica dos dados infere diretamente em como a rede deve ser moldada para que as informac¸˜oes corretas sejam aprendidas. Em sequˆencia, a Etapa 2 integra os principais passos pelo qual o trabalho foi proposto. Inicialmente, para cada abordagem foi selecionada a estrutura neural aplicada, como definida na Sec¸˜ao 4.4. Posteriormente, o pr´e-processamento dos dados foi realizado de acordo com a necessidade de cada treinamento. Bem como ocorre em experimentos que envolvem redes neurais que se utilizam de imagens digitais, ´e comum que as amostras estejam em mesma resoluc¸˜ao. Para o objetivo de estimac¸˜ao et´aria n˜ao foi necess´ario modificar as dimens˜oes dos dados, j´a que foram obtidos com tamanho padronizado de 200x200 p´ıxeis. J´a para o modelo de segmentac¸˜ao de pele os dados foram adquiridos em resoluc¸˜oes diversas, se fazendo necess´ario o redimensionamento das imagens para uma resoluc¸˜ao padr˜ao, no caso, 256x256 p´ıxeis. Para mais, foram realizados procedimentos de data augmentation, processo em que a quantidade de amostras pode ser consideravelmente aumentada com diferentes operac¸˜oes realizadas nas imagens originais. Este processo est´a detalhado na descric¸˜ao dos experimentos na sequˆencia desta sec¸˜ao. Encerrando a segunda etapa, o treinamento, validac¸˜ao e teste de cada modelo. Nesse processo as caracter´ısticas de cada dataset s˜ao extra´ıdas resultando na tomada de decis˜ao dos modelos e consequentemente a avaliac¸˜ao dos resultados de acordo com cada m´etrica determinada. Por fim, ocorre a divulgac¸˜ao dos resultados caso a validac¸˜ao satisfac¸a a proposta do projeto, do contr´ario, novos treinamentos s˜ao realizados em busca do aprimoramento.

Para a avaliac¸˜ao da proposta de identificac¸˜ao et´aria foram determinados trˆes experimentos:

• Experimento 1: Classificac¸˜ao de idade entre 7 faixas, 1-10, 11-15, 16-18, 19-25, 26-40, 41-60, 61-acima;

• Experimento 1.1: Classificac¸˜ao de idade entre 4 faixas, 1-13, 14-17, 18-35, 36-acima; • Experimento 1.2: Classificac¸˜ao de idade entre 2 faixas, 1-17, 18-acima.

J´a para a avaliac¸˜ao da proposta de segmentac¸˜ao de pele, dois experimentos foram realizados:

• Experimento 2: Segmentac¸˜ao utilizando apenas amostras faciais presentes no SFA Skin Dataset;

Pratheepan Dataset.

As divis˜oes et´arias em cada experimento foram formuladas com base nos trabalhos correlatos apresentados na Sec¸˜ao 3.7 e nos casos legislativos descritos no Cap´ıtulo 1. Em relac¸˜ao a estimac¸˜ao de idade, para cada experimento proposto foi necess´ario realizar uma an´alise minuciosa do UTK Face Dataset para cada divis˜ao realizada. Mais precisamente, `a medida em que novos conjuntos de idade s˜ao englobados em uma mesma classe, automaticamente um desbalanceamento ´e criado como demonstrado nas Tabelas 5 e 6. Na Tabela 5, que faz referˆencia ao Experimento 1, pode-se observar menor representatividade das classes 11-15 e 16-18, enquanto a Tabela 6, pertencente ao Experimento 1.1, evidencia menor quantidade de amostras para a classe 14-17. Em problemas de classificac¸˜ao ´e importante que cada classe possua uma representatividade balanceada de amostras para que o modelo neural atinja maior performance. Al´em disso, quando a classe minorit´aria ´e de interesse, ´e fundamental que possua quantidade de dados pr´oxima das classes mais numerosas (MASKO; HENSMAN, 2015).

Tabela 5 – Distribuic¸˜ao de imagens por cada faixa et´aria no Experimento 1. Experimento 1 Classes Node amostras 1-10 3.207 11-15 610 16-18 667 19-25 3.142 26-40 9.363 41-60 4.311 61-r 2.397 Total 23697

Fonte: Autoria pr´opria.

Tabela 6 – Distribuic¸˜ao de imagens por cada faixa et´aria no Experimento 1.1. Experimento 1.1 Classes Node amostras 1-13 3.483 14-17 739 18-35 10.874 36-r 8.601 Total 23697

Para o Experimento 1, o balanceamento foi realizado aplicando data augmentation nas classes com menos amostras. Mais precisamente, o n´umero de imagens das classes 11-15 e 16-18 foi dobrado realizando flip horizontal, tamb´em conhecido como espelhamento (Figura 28). Para evitar realizar muitas modificac¸˜oes nas imagens originais, um total de 7.098 imagens foram utilizadas, sendo 4.998 (70%) para treinamento, com 714 para cada classe, 1.400 (20%) separadas para validar o processo de treino, sendo 200 amostras como suporte para cada classe e 700 (10%) para teste. No Experimento 1.1, a divis˜ao das classes buscou compreender a capacidade da rede em diferenciar os indiv´ıduos classificados como vulner´aveis perante a lei (de 1 a 13 anos de idade) dos menores de 14 at´e 17 anos. Da mesma forma, a classe 14- 17 foi balanceada utilizando espelhamento horizontal e rotac¸˜ao de 135◦. Foi determinado um total de 12.975 imagens, onde 11.384 (87%) foram utilizadas para treinamento, com 2.846 amostras em cada classe, 1.264 (10%) para validac¸˜ao do treinamento, sendo 316 amostras como suporte para cada classe e 327 (3%) para teste. Por fim, o Experimento 1.2 buscou simplificar a complexidade de decis˜ao da rede e determinar apenas a classificac¸˜ao entre menores e maiores de idade. Para isso, o balanceamento bin´ario do dataset foi composto por um total de 8.540 imagens, sendo 7.186 (84%) utilizadas para treinamento, com 3.593 amostras para cada classe, 1.000 (11%) para validac¸˜ao, com suporte de 500 amostras para cada classe e 254 (5%) para teste.

Figura 28 – Exemplo de flip horizontal. (a) imagem original, (b) imagem espelhada. Fonte: Autoria pr´opria.

Para os testes relacionados `a identificac¸˜ao de pele, o principal objetivo foi avaliar e destacar os comportamentos da rede de segmentac¸˜ao quando aplicadas diferentes bases de dados. Como destacado na Sec¸˜ao 4.3, o SFA Skin Dataset fornece m´ascaras de segmentac¸˜ao em n´ıveis de cores (Figura 29(a)). Como o treinamento da rede necessita de m´ascaras bin´arias, para a realizac¸˜ao do Experimento 2 foi efetuado um procedimento chamado limiarizac¸˜ao (conhecido pelo inglˆes threshold), mais precisamente a limiarizac¸˜ao Otsu proposta por Otsu (1979), cujo resultado pode ser visto pela Figura 29(b). Em complemento, para aumentar o n´umero de amostras presentes foram realizadas rotac¸˜oes de 90◦, 180◦ e 270◦ (Figura 30).

No total, foram 8018 imagens, divididas igualmente entre originais e m´ascaras, sendo 7.400 (92%) para treinamento, 600 (7%) para validac¸˜ao e 18 (1%) para teste. A execuc¸˜ao do Experimento 2.1 tamb´em exigiu data augmentation, sendo necess´ario realizar diversas rotac¸˜oes nas imagens e m´ascaras originais em busca de uma representatividade maior de informac¸˜ao. Mais precisamente, al´em das angulac¸˜oes retas de 90◦, 180◦ e 270◦, giros de 35◦ foram realizados nas vers˜oes originais e j´a modificadas pelo data augmentation. No total, foram 15 vers˜oes diferentes das imagens originais. Na Figura 31, tem-se ilustrado um exemplo das operac¸˜oes, sendo a primeira imagem a original e suas diversas rotac¸˜oes. No total, foram 2.256 imagens divididas entre originais e m´ascaras, sendo 1.640 (72%) para treinamento, 600 (26%) para validac¸˜ao e 16 (2%) para teste.

Figura 29 – Exemplo de limiarizac¸˜ao realizada nas m´ascaras de segmentac¸˜ao do SFA Skin Dataset. Fonte: Autoria pr´opria.

Figura 30 – Data augmentation no SFA Skin Dataset. (a) 90◦, (b) 180◦e (c) 270◦. Fonte: Autoria pr´opria.

Para realizar a avaliac¸˜ao dos resultados obtidos pelos experimentos descritos, foram utilizadas como m´etricas a acur´acia (ACC) e a F-medida (F-score). A primeira representa a taxa de acerto global, ou seja, a proporc¸˜ao de predic¸˜oes corretas em relac¸˜ao ao tamanho do conjunto total de dados como mostrado pela Equac¸˜ao 11. A segunda configura a m´edia harmˆonica entre precis˜ao (Prec) e sensibilidade (Sen), como apresentado na Equac¸˜ao 12. A precis˜ao determina a porcentagem de amostras que foram classificadas como sendo da classe positiva que de fato a comp˜oe. Por sua vez, a sensitividade (tamb´em conhecida pelo inglˆes

Figura 31 – Rotac¸˜oes para data augmentation no Pratheepan Dataset. Fonte: Autoria pr´opria.

recall) indica a proporc¸˜ao de amostras da classe positiva identificada corretamente, mostrando o qu˜ao bom o classificador ´e realizando a tarefa de reconhecer a classe positiva. Essa fus˜ao de m´etricas torna a f-score uma validac¸˜ao confi´avel at´e mesmo para conjuntos de dados desbalanceados. Como legenda das equac¸˜oes, vp refere-se aos verdadeiros positivos, vn aos

verdadeiros negativos, fpaos falsos positivos e fnaos falsos negativos (SILVA et al., 2012).

ACC= vp+ vn vp+ vn+ fp+ fn

(11)

F-medida= 2 ∗ Prec∗ Sen

Prec+ Sen (12)

Em relac¸˜ao a todo processo de treinamento dos testes propostos, tem-se o uso fundamental de parˆametros, func¸˜oes de perda e otimizadores que auxiliam a rede neural na obtenc¸˜ao da melhor performance de classificac¸˜ao e segmentac¸˜ao. Para os experimentos 1, 1.1 e 1.2 a func¸˜ao de perda respons´avel por atualizar os pesos da rede em cada retropropagac¸˜ao foi a categorical crossentropy, sendo a binary crossentropy escolhida para os experimentos 2 e 2.1. Em todos os testes foi determinado o Adam como otimizador, proposto por Kingma e Ba (2014). As taxas de aprendizado das estruturas neurais alternaram-se entre 10−3 e 10−4, conforme detalhado em cada experimento no Cap´ıtulo 5. Completando os parˆametros, o tamanho do lote (quantidade por ´epoca) de imagens que alimentaram a rede para os experimentos 1, 1.1 e 1.2 foi de 32, enquanto 16 foi usado para os experimentos 2 e 2.1. Por fim, os modelos neurais utilizados para realizac¸˜ao dos testes de estimac¸˜ao de idade (experimentos 1, 1.1 e 1.2) passaram por um processo de ajuste fino (tamb´em conhecido pelo inglˆes fine tuning), m´etodo que tem como objetivo aumentar a performance de generalizac¸˜ao da rede durante a fase de treinamento. Como t´ecnica desse ajuste, foi implementada uma camada de Dropout, proposta por Hinton et al. (2012), antes da camada de sa´ıda completamente conectada.

Al´em das m´etricas para verificac¸˜ao da performance de treinamento e validac¸˜ao da rede neural artificial, foi realizada a an´alise de concordˆancia entre os classificadores de cada experimento relacionado `a estimac¸˜ao de idade. O coeficiente Kappa foi proposto inicialmente

por Cohen (1960) e direcionado para an´alises de classificac¸˜ao nominal por Landis e Koch (1977). Atrav´es da Equac¸˜ao 13, possibilita medir se houve concordˆancia ou se a performance de classificac¸˜ao foi aleat´oria. Po faz referˆencia `a taxa de acerto da classificac¸˜ao, enquanto Pe

representa a probabilidade de atribuic¸˜ao aleat´oria entre as classes existentes. Para interpretar o n´ıvel de concordˆancia, Landis e Koch (1977) propˆos a Tabela 7.

k= Po− Pe 1 − Pe

(13)

Tabela 7 – Tabela de interpretac¸˜ao para o coeficiente Kappa. Valor de Kappa Concordˆancia

Menor que 0 Insignificante Entre 0 e 0,2 Fraca Entre 0,21 e 0,4 Razo´avel Entre 0,41 e 0,6 Moderada Entre 0,61 e 0,8 Forte

Entre 0,81 e 1 Quase perfeita Fonte: Adaptado (LANDIS; KOCH, 1977).

Figura 32 – Sequˆencia de m´etodos adotados Fonte: Autoria pr´opria.

5 RESULTADOS E DISCUSS ˜OES

Como abordado no Cap´ıtulo 4, neste est˜ao discutidos os resultados obtidos por cada experimento proposto, seguindo a ordem em que foram apresentados. Ao final, todos os resultados est˜ao resumidos em uma tabela geral.

Documentos relacionados