• Nenhum resultado encontrado

RL: Um novo método para classificação multirrótulo baseado

N/A
N/A
Protected

Academic year: 2021

Share "RL: Um novo método para classificação multirrótulo baseado"

Copied!
9
0
0

Texto

(1)

RL: Um novo m´etodo para classificac¸˜ao multirr´otulo baseado

em selec¸˜ao aleat´oria de r´otulos

Patr´ıcia Pachiega, Flavia C. Bernardini, Bianca Zadrosni 1Instituto de Ciˆencia e Tecnologia – Polo Universit´ario de Rio das Ostras

Universidade Federal Fluminense – (UFF) Rio das Ostras – RJ – Brasil

fcbernardini@puro.uff.br, XXX, YYY, ZZZ

Abstract. Em muitos problemas do mundo real, um classificador dever ser ca-paz de predizer n˜ao somente um mas v´arios r´otulos a um caso, como por exem-plo predic¸˜ao de falhas em equipamentos — um equipamento pode apresentar, em algumas situac¸˜oes, mais de uma falha em um mesmo instante de tempo. Para este tipo de problema, s˜ao utilizados m´etodos para aprendizado multirr´otulo. Uma abordagem utilizada para o aprendizado multirr´otulo ´e transformar o pro-blema multirr´otulo em v´arios propro-blemas de classificac¸˜ao de r´otulo ´unico. H´a v´arios m´etodos propostos na literatura baseados nessa abordagem, entretanto o poder de predic¸˜ao desses m´etodos ainda necessitam ser melhorados, devido a problemas de dispers˜ao de exemplos e de r´otulos nos dom´ınios. Assim, h´a a necessidade de propostas de novos m´etodos para aprendizado multirr´otulo. Neste trabalho, propomos o m´etodo RL (Random Label) baseado na aborda-gem de transformac¸˜ao do problema multirr´otulo em problemas multiclasse, e na abordagem de combinac¸˜ao dos classificadores para novas predic¸˜oes. Foram utilizados conjuntos de dados naturais para avaliac¸˜ao do m´etodo, que foi com-parado a dois m´etodos propostos na literatura — BR e LP. Os resultados foram considerados promissores.

Resumo. xxx

1. Introduc¸˜ao

Um dos principais objetivos de aprendizado de m´aquina ´e aprender conceitos e padr˜oes a partir de dados. Os classificadores constru´ıdos pelos atuais algoritmos de aprendizado de m´aquina rotulam os exemplos com apenas uma classe, e/ou oferecem probabilidades de um exemplo pertencer `as classes do dom´ınio em quest˜ao. Entretanto, existem problemas nos quais um exemplo ´e rotulado com mais de uma classe, como por exemplo, rotula-mento de textos, v´ıdeos ou imagens, onde ´e necess´ario que se utilize m´etodos espec´ıficos para fornecer esse tipo de classificac¸˜ao. Uma maneira de resolver esse tipo de problema ´e decompor o problema multirr´otulo original em m´ultiplos subproblemas de aprendizado bin´arios ou multiclasse, construindo um classificador para cada classe e combinando as sa´ıdas dos classificadores criados para obtenc¸˜ao da classificac¸˜ao final. Existem diferen-tes argumentos para motivar a utilizac¸˜ao desta abordagem para a soluc¸˜ao de problemas multirr´otulo, dentre esses motivos podemos citar alguns: h´a algoritmos de aprendizado bastante estudados e aceitos pela comunidade de aprendizado de m´aquina para soluc¸˜ao de problemas bin´arios; em geral, os algoritmos n˜ao s˜ao adequados a problemas com grande

(2)

n´umero de classes ou apresentam dificuldade em lidar com grandes volumes de dados de treinamento; e o uso de t´ecnicas baseadas nesta abordagem podem reduzir a complexi-dade computacional, grac¸as `a divis˜ao do problema inicial em subproblemas mais simples. Ainda, deve ser observado que, para problemas de aprendizado supervisionado padr˜ao, ou seja, problemas nos quais o atributo classe possui somente um valor associado a cada exemplo, melhores resultados podem ser obtidos utilizando m´etodos de construc¸˜ao de ensemblesde classificadores [Dietterich 2002].

Neste trabalho propomos um m´etodo de combinac¸˜ao de classificadores que di-vide o problema de aprendizado multirr´otulo em diversos problemas multiclasse. A van-tagem desse m´etodo est´a na simplicidade do processo de transformac¸˜ao do problema, associado `a complementaridade dos classificadores constru´ıdos. O m´etodo proposto foi implementado utilizando a biblioteca Mulan1[Tsoumakas et al. 2010b], que ´e baseado na ferramenta Weka [Witten and Frank 2005]. Foram utilizados conjuntos de dados naturais, disponibilizados juntamente com a biblioteca Mulan para avaliac¸˜ao do m´etodo proposto.

Este artigo est´a organizado da seguinte forma: Na Sec¸˜ao 2 s˜ao descritos concei-tos e definic¸˜oes de aprendizado multirr´otulo. Na Sec¸˜ao 3 s˜ao descriconcei-tos dois m´etodos de aprendizado multirr´otulo propostos na literatura, que s˜ao os mais pr´oximos do algoritmo por n´os proposto — BR e LP —, assim como ´e descrito o m´etodo RL proposto neste trabalho. Na Sec¸˜ao 4 s˜ao descritos os experimentos realizados, incluindo uma descric¸˜ao dos conjuntos de dados, assim como s˜ao descritos e analisados os resultados obtidos. Por fim, na Sec¸˜ao 5 ´e realizada a conclus˜ao e s˜ao mencionados poss´ıveis trabalhos futuros.

2. Aprendizado Multi-R´otulo

A grande maioria dos problemas de classificac¸˜ao apresentados na literatura2s˜ao proble-mas de classificac¸˜ao de r´otulo ´unico. Neste tipo de problema, cada exemplo ´e associ-ado a uma ´unica classe pertencente a um conjunto finito de classes. Entretanto, existe um grande n´umero de problemas em que um determinado exemplo pode ser associ-ado a mais de uma classe. Tais problemas recebem o nome de problemas multi-r´otulo. Um exemplo para essa situac¸˜ao ´e a classificac¸˜ao de um texto que pertence simultane-amente a mais de uma classe, como medicina e inform´atica, ou pertence `a economia, pol´ıtica e sa´ude. Outros exemplos s˜ao classificac¸˜ao de imagens, textos, prote´ınas, ge-noma, dentre outros [Tsoumakas et al. 2010a]. Tais problemas tˆem sido bastante estuda-dos pela comunidade de aprendizado de m´aquina. Exemplos de trabalhos que abordam problemas multirr´otulo s˜ao [?, Shen et al. 2004, Sebastiani 2002, Dimou et al. 2009, ?, ?, ?, Calembo et al. 2011]. Poss´ıveis aplicac¸˜oes na ´area de aprendizado multi-r´otulo s˜ao classificac¸˜ao de imagens, textos, prote´ınas, genoma, entre outros.

2.1. Caracter´ısticas e Estat´ısticas dos Conjuntos de Dados Multi-R´otulo

Em alguns conjuntos de dados, o n´umero de r´otulos de cada exemplo ´e pequeno, se comparado ao n´umero total de r´otulos poss´ıveis |L|. Esse n´umero pode ser um parˆametro que influencia a performance de diferentes m´etodos multi-r´otulo. Para ava-liar o quanto essa medida pode impactar, s˜ao definidas duas medidas de um conjunto

1Dispon´ıvel em http://mulan.sourceforge.net

2Muitos dos algoritmos propostos de aprendizado supervisionado est˜ao descritos

(3)

de dados: cardinalidade Card e densidade Dens de r´otulo de um conjunto de da-dos [Tsoumakas et al. 2010a]. Cardinalidade de um conjunto de dada-dos S ´e a m´edia do n´umero de r´otulos dos exemplos pertencentes a S, definida pela Equac¸˜ao 1. J´a a den-sidade de um conjunto S ´e o n´umero m´edio de r´otulos dos exemplos pertencentes a S dividido pelo n´umero de r´otulos |L|, definida pela Equac¸˜ao 2.

Card = 1 N N X i=1 |Yi| (1) Dens = 1 N N X i=1 |Yi| |L| (2)

A cardinalidade de r´otulo ´e independente do n´umero de r´otulos |L| no problema de classificac¸˜ao, e ´e utilizado para quantificar o n´umero de r´otulos alternativos que ca-racterizam os exemplos de um conjunto de dados multi-r´otulo utilizado para treinamento. J´a a densidade de r´otulo considera o n´umero de r´otulos do dom´ınio D. Dois conjuntos de dados com a mesma cardinalidade de r´otulo mas com grande diferenc¸a no n´umero de r´otulos — e portanto grande diferenc¸a na medida de densidade de r´otulo — podem n˜ao exibir as mesmas propriedades e, assim, causar comportamentos diferentes nos m´etodos de aprendizado multi-r´otulo. O n´umero r´otulos distintos ´e tamb´em importante para mui-tos m´etodos baseados em algoritmos de transformac¸˜ao. Sendo assim, ´e importante avaliar tais medidas quando se utiliza m´etodos de aprendizado multi-r´otulo.

2.2. Medidas de Avaliac¸˜ao

Para avaliar os classificadores multirr´otulo, diferentes classes de medidas podem ser uti-lizadas [Tsoumakas et al. 2010a]. Nesse trabalho utilizamos medidas baseadas em exem-plos, pois essas medidas avaliam o comportamento dos modelos multirr´otulo do ponto de vista de classificac¸˜ao de cada exemplo. As medidas utilizadas s˜ao Hamming Loss (Ham), precis˜ao (P rec), recall (Rec), acur´acia (Acc), medida F (F M easure) e subset accuracy (SubsetAcc), definidas pelas Equac¸˜oes 3 a 8, respectivamente. Em relac¸˜ao `a medida Hamming Loss, deve ser observado que essa medida calcula uma distˆancia de Hamming entre a classificac¸˜ao correta e a classificac¸˜ao predita pela m´aquina. Na Equac¸˜ao 3, ∆ representa a diferenc¸a sim´etrica entre dois conjuntos. Quando Ham ´e considerada como medida de avaliac¸˜ao, quanto menor o valor, melhor ´e a performance do algoritmo, tendo zero como valor ideal. Para as demais medidas, valores maiores indicam melhor per-formance. Na Equac¸˜ao 8, I(verdadeiro) = 1 e I(verdadeiro) = 0. Deve ser observado que a medida SubsetAcc ´e uma medida bastante conservadora, pois requer que o con-junto de r´otulos preditos seja exatamente igual ao concon-junto de r´otulos verdadeiros. Pode ser notado, na definic¸˜ao da medida F M easure — Equac¸˜ao 7 — ´e uma combinac¸˜ao das m´etricas P rec e Rec, e portanto avalia um modelo multirr´otulo como uma ponderac¸˜ao entre essas m´etricas.

Hamm(h, S) = 1 N N X i=1 |Yi∆Zi| |L| (3)

(4)

P rec(h, S) = 1 N N X i=1 |Y i ∩ Zi| |Zi| (4) Rec(h, S) = 1 N N X i=1 |Y i ∩ Zi| |Yi| (5) Acc(h, S) = 1 N N X i=1 |Yi∩ Zi| |Yi∪ Zi| (6) F M easure(h, S) = 1 N N X i=1 |Yi∩ Zi| |Zi| + |Yi| (7) SubsetAcc(h, S) = 1 N N X i=1 I(Zi = Yi) (8)

Deve ser observado que cada uma das medidas de avaliac¸˜ao descritas pode ser utilizada como uma m´etrica eval calculada em cada iterac¸˜ao da t´ecnica de k-fold cross-validation, para estimar o poder de predic¸˜ao de um classificador multirr´otulo constru´ıdo por m´etodos de construc¸˜ao de classificadores multirr´otulo.

3. M´etodos de Classificac¸˜ao Multirr´otulo

Alguns m´etodos para classificac¸˜ao de problemas multirr´otulo atuam na transformac¸˜ao do conjunto de dados para transformar o problema em um problema bin´ario, como e o caso do algoritmo BR, ou em um problema multiclasse, como ´e o caso do algoritmo LP [Tsoumakas et al. 2010a]. Ambos os algoritmos, por serem mais simples, foram uti-lizados como comparativos ao m´etodo proposto neste trabalho, e s˜ao descritos a seguir. 3.1. M´etodo BR — Binary Relevance

Uma poss´ıvel soluc¸˜ao para este tipo de problema ´e a decomposic¸˜ao do problema multi-r´otulo em v´arios subproblemas bin´arios. Um m´etodo popular que realiza a decomposic¸˜ao em v´arios problemas bin´arios ´e denominado Binary Relevance — BR. No m´etodo BR, ´e constru´ıdo um classificador para cada classe com um mesmo algoritmo de aprendizado de m´aquina supervisionado. Para isso, inicialmente o conjunto de dados de treinamento, cu-jos exemplos de treinamento possuem mais de um r´otulo, ´e transformado em |L| conjuntos de dados Sl, sendo cada conjunto de dados referente a um r´otulo l. Dado um algoritmo de aprendizado para problemas de classificac¸˜ao de somente um r´otulo, ´e constru´ıdo um clas-sificador para cada conjunto de dados Sl. Para classificar um exemplo novo, o exemplo ´e fornecido a cada um dos classificadores referentes a cada r´otulo. Caso o classificador prediga que o exemplo ´e positivo, o conjunto de r´otulos de sa´ıda recebe o r´otulo ao qual o classificador se refere.

(5)

3.2. M´etodo LP — Label Powerset

O m´etodo LP, proposto em [Read 2008], ´e um m´etodo simples de transformac¸˜ao do pro-blema. Ele considera cada conjunto de r´otulos que existe em um conjunto de treinamento multirr´otulo como uma das classes de uma nova tarefa de classificac¸˜ao de r´otulo ´unico. Por exemplo, dados trˆes r´otulos λ1, λ2 e λ3 e um conjunto de treinamento multirr´otulo S, o exemplo x1 ∈ S que seja rotulado com os r´otulos λ1, λ2 passa a ser rotulado, com essa transformac¸˜ao, por λ1,2; o exemplo x2 ∈ S que seja rotulado com os r´otulos λ1, λ3 passa a ser rotulado, com essa transformac¸˜ao, por λ2,3; o exemplo x3 ∈ S que seja rotulado com o r´otulo λ1continua sendo rotulado somente λ1; e assim sucessivamente. Com esse novo conjunto de dados transformado S0, um classificador multiclasse h ´e induzido. Dado um novo exemplo x a ser rotulado, o classificador h rotula x com a classe mais prov´avel, que ´e um conjunto de r´otulos. Supondo que h pode oferecer, al´em do r´otulo mais prov´avel, uma distribuic¸˜ao de probabilidade para todas as classes poss´ıveis de classificac¸˜ao, ent˜ao o m´etodo LP pode oferecer um ranking dos r´otulos originais. Supondo que a hip´otese h oferece como distribuic¸˜ao de probabilidade nas classes λ1,2 = 0.7, λ2,3= 0.2 e λ1 = 0.1, a probabilidade de x ser rotulado por λ1 = 0.7 × 1 + 0.2 × 0 + 0.1 × 1 = 0.8, a propabi-lidade de ser rotulado por λ2 = 0.7 × 1 + 0.2 × 1 + 0.1 × 0 = 0.9, e a propabilidade de ser rotulado por λ3 = 0.7 × 0 + 0.2 × 1 + 0.1 × 0 = 0.2. Da´ı, um valor limite para rotular um novo exemplo pode ser definido.

3.3. M´etodo RL — Random Label

Uma ferramenta livre desenvolvida para auxiliar o processo de minerac¸˜ao de dados, incluindo ferramentas implementadas para tarefas de classificac¸˜ao, aprendizado super-visionado, e outras, ´e a Weka [Witten and Frank 2005]. Est˜ao presentes nessa fer-ramenta implementac¸˜oes de m´etodos de minerac¸˜ao de dados, al´em de outras ferra-mentas. Essa ferramenta possui a interessante vantagem de ter sido implementada na linguagem Java, permitindo portabilidade. A biblioteca Mulan (Multi-label Lear-ning) [Tsoumakas et al. 2010b] foi proposta para atender as necessidades dos problemas de aprendizado multi-r´otulo. A base da biblioteca Mulan ´e a ferramenta Weka. Essa biblioteca foi utilizada como base para implementac¸˜ao do m´etodo RL.

4. Experimentos Realizados e Resultados Obtidos

Nesta sec¸˜ao, apresentamos uma descric¸˜ao dos experimentos realizados e dos resultados obtidos. Os experimentos foram realizados utilizando o m´etodo EBR e o m´etodo BR. Foram utilizados diferentes algoritmos de aprendizado de m´aquina para induc¸˜ao dos clas-sificadores bin´arios. Foram utilizadas quatro bases de dados3: Emotions, Genbase, Scene e a Yeast. Na Tabela 1 s˜ao descritas as caracter´ısticas dessas bases de dados, onde #Exs. ´e o n´umero de exemplos do conjunto de dados; #At. Disc e #At. Cont. s˜ao, respectiva-mente, o n´umero de atributos discretos e cont´ınuos presentes na base de dados; # R´otulos ´e o n´umero de r´otulos poss´ıveis |L| do conjunto de dados; Card ´e a medida de cardina-lidade de r´otulo do conjunto de dados — Eq. 1 — ; e Dens ´e a medida de densidade de r´otulo do conjunto de dados — Eq. 2.

RESULTADOS:

3Esses e outros conjuntos de dados est˜ao dispon´ıveis no site da biblioteca Mulan — http://mulan.

(6)

Nome #Exs. #At. Disc. #At. Cont # R´otulos Card Dens Emotions 593 0 72 6 1.869 0.311 Genbase 662 1186 0 27 1.252 0.046 Scene 2407 0 294 6 1.074 0.179 Yeast 2417 0 103 14 4.237 0.303 XXX Preencher YYY Preencher

Tabela 1. Caracter´ısticas dos conjuntos de dados

CD 1 2 3 4 5 RLT01 RLT02 RLT05 RLT04 RLT03

Figura 1. Teste de Hip ´otese H2 — Medida Acc

H0: N e 10N tem comportamentos semelhantes? Wilcoxon - Medida FMeasure, SubsetAcc, OneError e RankingLoss - Hip´otese pode ser descartada. N ´e melhor que 10N com 95% de confianc¸a - j´a para medida AUCMicro, 10N ´e melhor que N com 95% de confianc¸a. Observar que AUCMicro ´e a ´unica medida em que vence. Pensar porque somente para esse caso ´e melhor, e por isso quando 10N ´e mais apropriado.

H1: 1 e N apresentam comportamento semelhante? - Wilcoxon - Rejeita com ”N”melhor - Hamming, AUCMic, RankingLoss e OneError

H2: 0.1, 0.2, 0.3, 0.4 e 0.5 apresentam comportamentos semelhantes (usando 1 e N)? Rejeita H2 utilizando teste de hip´oteses Nemenyi - Accuracy — Figura 7(a) — , FMeasure — Figura 7(b) —, SubsetAcc — Figura 7(c) —, F1Micro — Figura 4 —, F1Macro — Figura 5 —, OneError (90% de confianc¸a) — Figura 7(d): 0.1, 0.2 e 0.3 vencem na maioria dos casos

H3: LP, BR e RL apresentam comportamentos semelhantes? Acc, F1Macro, F1Micro, : N˜ao rejeita hip´otese H3; AUCMicro: Pode ser rejeitada — Figura 8; FMe-asure: hip´otese nula rejeitada — Figura 9; Hamming: rejeita — Figura 10; OneError: Rejeita hip´otese nula — Figura 11; Ranking Loss: rejeita — Figura 12; SubsetAcc: re-jeita — Figura 13.

5. Conclus˜oes e Trabalhos Futuros

Neste trabalho, foi proposto um m´etodo para construc¸˜ao de classificadores multi-r´otulo baseado em combinac¸˜ao de classificadores bin´arios, denominado EBR. O m´etodo EBR ´e

CD 1 2 3 4 5 RLT01 RLT02 RLT05 RLT04 RLT03

(7)

CD 1 2 3 4 5 RLT02 RLT01 RLT05 RLT04 RLT03

Figura 3. Teste de Hip ´otese H2 — Medida SubsetAcc

CD 1 2 3 4 5 RLT01 RLT02 RLT05 RLT04 RLT03

Figura 4. Teste de Hip ´otese H2 — Medida F 1M icro

CD 1 2 3 4 5 RLT01 RLT02 RLT05 RLT04 RLT03

Figura 5. Teste de Hip ´otese H2 — Medida F 1M acro

CD 1 2 3 4 5 RL-T02 RL-T01 RL-T05 RL-T03 RL-T04

Figura 6. Teste de Hip ´otese H2 — Medida OneError (90% de confianc¸a)

CD 1 2 3 4 5 RLT01 RLT02 RLT05 RLT04 RLT03

(a) Medida Acc

CD 1 2 3 4 5 RLT01 RLT02 RLT05 RLT04 RLT03 (b) Medida F CD 1 2 3 4 5 RLT02 RLT01 RLT05 RLT04 RLT03 (c) Medida SubsetAcc CD 1 2 3 4 5 RL-T02 RL-T01 RL-T05 RL-T03 RL-T04 (d) Medida OneError – 90% de confianc¸a

(8)

CD 1 2 3 4 RL-T01-N RL-T02-N LP BR

Figura 8. Teste de Hip ´otese H3 — Medida AU CM icro

CD 1 2 3 4 LP BR RL-T01-N RL-T02-N

Figura 9. Teste de Hip ´otese H3 — Medida F

CD 1 2 3 4 BR LP RL-T01-N RL-T02-N

Figura 10. Teste de Hip ´otese H3 — Medida Ham

CD CD 1 2 3 4 RL-T02-N RL-T01-N LP BR

Figura 11. Teste de Hip ´otese H3 — Medida OneErr

CD CD 1 2 3 4 RL-T02-N RL-T01-N LP BR

Figura 12. Teste de Hip ´otese H3 — Medida Rank

CD 1 2 3 4 LP BR RL-T01-N RL-T02-N

(9)

uma extens˜ao do m´etodo BR. O m´etodo foi implementado utilizando as bibliotecas Mulan e Weka, na linguagem Java. Foram utilizados 4 (quatro) conjuntos de dados naturais para avaliar o m´etodo proposto. Pudemos observar nos resultados obtidos dos experimentos realizados que o EBR apresenta uma melhora em relac¸˜ao ao m´etodo BR em algumas situac¸˜oes.

Uma parte do funcionamento b´asico do m´etodo EBR ´e calcular a m´edia das proba-bilidades dos classificadores para cada classe. Sendo assim, classificadores que decidem com maior probabilidade uma classe possui o mesmo peso de decis˜ao que decide por uma classe com probabilidade baixa. Sendo assim, como continuac¸˜ao deste trabalho, pre-tendemos explorar o m´etodo de combinac¸˜ao das decis˜oes dos classificadores individuais. Ainda, pretendemos avaliar o m´etodo em uma quantidade maior de conjuntos de dados.

Referˆencias

Calembo, K. N., Bernardini, F. C., and Martins, C. B. (2011). Proposta de um m´etodo de combinac¸˜ao de classificadores para construc¸˜ao de classificadores multi-r´otulo. In Conferˆencia Latinoamericana de Inform´atica — CLEI’2011.

Dietterich, T. G. (2002). Ensemble learning. In Arbib, M., editor, The Handbook of Brain Theory and Neural Networks, Second Edition. MIT Press.

Dimou, A., Tsoumakas, G., Mezaris, V., Kompatsiaris, I., and Vlahavas, I. (2009). An empirical study of multi-label learning methods for video annotation. In 7th Internati-onal Workshop on Content-Based Multimedia Indexing, IEEE, pages 19–24.

Read, J. (2008). A pruned problem transformation method for multi-label classification. In Proc. 2008 New Zealand Computer Science Research Student Conference (NZCSRS 2008), pages 143–150.

Sebastiani, F. (2002). Machine learning in automated text categorization. ACM Compu-ting Surveys, 34(1):1–47.

Shen, X., Boutell, M., Luo, J., and Brown, C. (2004). Multi-label machine learning and its application to semantic scene classification. In Proceedings of the 2004 International Symposium on Electronic Imaging – EI 2004, pages 18–22.

Tsoumakas, G., Katakis, I., and Vlahavas, I. (2010a). Data Mining and Knowledge Dis-covery Handbook, chapter Mining Multi-label Data. Springer, 2nd edition.

Tsoumakas, G., Vilcek, J., Spyromitros, E., and Vlahavas, I. (2010b). Mulan: A java library for multi-label learning. Journal of Machine Learning Research, 12:2411– 2414.

Witten, I. H. and Frank, E. (2005). Data Mining: Practical Machine Learning Tools and Techniques. Morgan Kaufmann, 2nd edition.

Referências

Documentos relacionados

No caso do ensino médio, etapa final da educação básica brasileira, essa articulação adquire uma especificidade quando o artigo 36, parágrafo 2º da Lei nº

Este trabalho tem como objetivo geral avaliar a quantidade de água pluvial que pode ser aproveitada após infiltrar em um pavimento permeável de concreto

- Se o estagiário, ou alguém com contacto direto, tiver sintomas sugestivos de infeção respiratória (febre, tosse, expetoração e/ou falta de ar) NÃO DEVE frequentar

A tabela a seguir resume as frequências em que os pacientes apresentaram pelo menos uma reação adversa não solicitada, foi registrada dentro de 28 dias após a vacinação de

Ainda segundo Gil (2002), como a revisão bibliográfica esclarece os pressupostos teóricos que dão fundamentação à pesquisa e às contribuições oferecidas por

Local de realização da avaliação: Centro de Aperfeiçoamento dos Profissionais da Educação - EAPE , endereço : SGAS 907 - Brasília/DF. Estamos à disposição

Podem treinar tropas (fornecidas pelo cliente) ou levá-las para combate. Geralmente, organizam-se de forma ad-hoc, que respondem a solicitações de Estados; 2)

Resumidamente a forma de comercialização dos apartamentos FLAT e operação de locação dos apartamentos do HOTEL para uma bandeira hoteleira proposta a seguir objetiva a