• Nenhum resultado encontrado

ANÁLISE BAYESIANA EM DADOS DE ATRIBUTOS COM ERROS DE CLASSIFICAÇÃO

N/A
N/A
Protected

Academic year: 2021

Share "ANÁLISE BAYESIANA EM DADOS DE ATRIBUTOS COM ERROS DE CLASSIFICAÇÃO"

Copied!
8
0
0

Texto

(1)

ANÁLISE BAYESIANA EM DADOS DE ATRIBUTOS COM

ERROS DE CLASSIFICAÇÃO

Linda Lee Ho

Departamento de Engenharia de Produção - Escola Politécnica - USP - e-mail: linda@ime.usp.br

Roberto da Costa Quinino

Departamento de Engenharia de Produção - Escola Politécnica - USP - e-mail: robertcq@usp.br

Abstract

Conform and non-conform products may be classified with errors in a manufacturer. In this case, the maximum likelihood and the exact bayesian estimators of the parameters are quite complicated. An approximated bayesian estimator via weighted resampling algorithm is an alternative proposed and implemented by the software Minitab.

Área: Qualidade

Key-Words: Dichotomous data; classification error; bayesian inference; weighted resampling algorithm.

I - INTRODUÇÃO

Um aspecto fundamental que permeia as atividades do engenheiro de produção no planejamento da qualidade é a necessidade da estimação da proporção de produtos conformes. Esta estimação é freqüente após a recepção de matérias primas ou no controle de processos. Todo o procedimento é normalmente realizado supondo-se que o sistema de classificação dos produtos é perfeito.

Burke, J. R. at alli (1995) argumenta que os erros estão longe de serem considerados desprezíveis em muitas tarefas de classificação. Mesmo sob condições ideais de classificação, técnicos altamente experientes podem cometer erros cujas proporções podem superar 25% [ Jacobson, H. J. (1952)]. Tudo isto pode comprometer seriamente o processo de estimação da proporção de conformes e consequentemente o controle da qualidade.

Gaba & Winkler (1992) apresentam um modelo bayesiano para estimar a proporção de interesse com a presença de erros de classificação. Neste modelo, pode-se destacar dois grandes inconvenientes numa aplicação prática. O primeiro concentra-se no fato de que os autores assumem que toda a informação disponível da proporção de interesse e dos erros de classificação pode ser representada, antes da realização do experimento, através de uma particular função densidade conjunta de probabilidade ( distribuição a priori). O outro é a implementação computacional, que envolve o uso de integrais sem solução analítica e cálculo de fatoriais, cuja dificuldade computacional é intensificada com aumento do tamanho amostral.

A proposta deste trabalho é utilizar o algoritmo de reamostragem ponderada, para os resultados encontrados em Gaba & Winkler (1992), de forma a facilitar a implementação computacional e flexibilizar a escolha da distribuição a priori. Com isto, a

(2)

estimação da proporção de produtos conformes, considerando a presença de erros de classificação, poderá ser introduzida em uma indústria de maneira simples e operacional. II - ANÁLISE ESTATÍSTICA

Considere uma amostra aleatória de tamanho n retirada de uma população. Cada membro da amostra é classificado como pertencente a um dos grupos: conforme ou não-conforme, sendo p a probabilidade de pertencer ao grupo conforme.

Se a classificação for perfeita, o processo observado é Bernoulli de parâmetro p e por conseguinte, o estimador de máxima verossimilhança de p é a proporção amostral. Além disto, uma análise bayesiana conjugada pode ser facilmente realizada envolvendo uma distribuição a priori e a posteriori Beta.

Suponha entretanto que a classificação seja imperfeita. Seja e1 a probabilidade de um elemento do grupo conforme ser classificado erradamente como não-conforme e e2 a probabilidade de um elemento não-conforme ser classificado como conforme. As probabilidades de um elemento ser registrado como conforme ou não-conforme, podem ser respectivamente escritas como:

p(1 - e p)e pe p)(1 - e 1 2 1 2 ) ( ( ) + − = + − = − 1 1 1 q q (2.1) ou seja, a classificação de um elemento conforme segue um processo de Bernoulli com parâmetro q, conforme (2.1), ao invés de p.

Numa amostra aleatória de n elementos, supondo que r elementos são registrados como conforme e os restantes (n - r) como não-conformes, a função de verossimilhança será:

[

] [

]

L(r / n, p,e ,e1 2)= p(1 - e1) (+ −1 p)e2 r pe1+ −(1 p)(1 - e2)n-r (2.2) Em situações reais os valores de e1 e e2 são desconhecidos. Em conseqüência disso a função de verossimilhança é função de três parâmetros: p e, , 1 e2. Neste caso o estimador de máxima verossimilhança não é único, ou seja, a função de verossimilhança é maximizada para todos os pontos (p e , , 1 e2) tal que p(1−e1)+ −(1 p e) 2 =r n/ .

Toda incerteza introduzida pelos erros de classificação pode ser vista mais claramente reescrevendo a expressão (2.2), utilizando o binômio de Newton:

L r n p e e r j n r p e e e e n j t j t n r t r j j t t n r j r ( / , , 1, 2) ( ) 1 ( 1) 2( 2) 0 0 1 1 1 =    −    − − − − − + − − − = − =

t p (2.3) Na expressão (2.3), o j-ésimo termo pode ser interpretado como o número de elementos não conformes que são erroneamente registrados como conformes e t como o número de não-conformes corretamente registrados. Assim, j dos r elementos registrados conformes foram de fato mal classificados, assim como (n r− −t) dos (n r) registrados como não-conformes.

Geralmente, os valores de j e t não são conhecidos, e isto complica o problema de inferência. Se j e t fossem conhecidos, a expressão (2.3) seria fatorável em p e , , 1 e2

como produto de três funções de verossimilhanças de Bernoulli. Sem tais conhecimentos perde-se esta propriedade tornando o problema bem mais complexo.

(3)

Uma alternativa é utilizar uma análise bayesiana para evitar os problemas da maximização da função de verossimilhança. Gaba &Winkler (1992) apresentam uma análise bayesiana onde sugerem uma distribuição a priori conjunta de p e , e 1 e2 expressa da seguinte maneira: f p e e c h p e e p f e f e ( , , ) ( , , , , , ) ( , , ) ( / , ) ( / , ) ( / , ) 1 2 1 1 2 2 1 2 1 1 1 2 2 2 = × α β α β α β α β α β α β β β β f (2.4) onde fβ(p/

α β

, ), fβ(e1/

α β

1, 1) e fβ (e2 /

α β

2, 2) denotam funções densidade Beta respectivamente de p e , e 1 e2 de parâmetros (

α β

, ), (

α β

1, 1) e (

α β

2, 2) respectivamente, c( ,

α β α β α β

, 1, 1, 2, 2) é uma constante de proporcionalidade e julgamentos a priori sobre as relações entre os parâmetros são incorporados em h(p, e , e1 2).

As idéias desenvolvidas por Gokhale & Press (1982) e Shachter (1986) podem ser úteis para representar as relações entre os parâmetros p e, , 1 e2. Se considerar h(p, e e1, 2)=1, então a expressão ( 2.4 ) é um produto de funções densidades Beta. As

distribuições Betas são capazes de representar inúmeros tipos de informações com respeito a uma proporção e usadas, freqüentemente em modelos bayesianos envolvendo proporções [Berger (1985)].

A função densidade conjunta a posteriori de e e1, 2 e p é proporcional ao produto da função de verossimilhança pela função densidade conjunta a priori que pode ser expressa como [Gaba &Winkler (1992)]

f p e e( , ,1 2 / , )r nL r n p e e( / , , ,1 2)× f p e e( , ,1 2)

utilizando as expressões (2.3) e (2.4) com a propriedade de que f ( p e, 1 ,e2 /r n, ) 0 1 0 1 0 1 1 =    , temos f p e e r n w f p e ejt r n j t t n r j r ( , ,1 2 / , ) ( , ,1 2 / , , , ), 0 0 = = − =

(2.5) onde w a a jt jt jt t n r j r = = − =   0 0 , com a r j n r t B B B c jt =  −  ( , ) ( , ) ( , ) ( , , , , , ) , * * * * * * * * * * * *

α β

α β

α β

α β α β α β

1 1 2 2 1 1 2 2

sendo B(

α β

*, * ), B(

α β

1*, 1* ) e B(

α β

2*, 2* ) respectivamente os valores de funções Beta calculadas nos pares de pontos (

α β

*, *), (

α β

1*, 1* ) e (

α β

2*, 2* ),

e f p e e r n j t c h p e e f p f e f e ( , , / , , , ) ( , , , , , ) ( , , ) ( / , ) ( / , ) ( / , ), * * * * * * * * * * * * 1 2 1 1 2 2 1 2 1 1 1 2 2 2 = ×

α β α β α β

α β

α β

α β

β β β

(4)

com

α

α

α

α

α

α

β

β

β

β

β

β

* * * * * * , , , , , . = − − = + − − = + = + + = + − = + +n j t n r t j j t r j t 1 1 2 2 1 1 2 2

Pode-se observar que a função densidade conjunta a posteriori é uma mistura de distribuições, da mesma forma que a função densidade conjunta a priori. O peso wj t é a probabilidade a posteriori que j dos r registrados como conformes são não-conformes e t dos (n- r) registrados como não-conformes são conformes.

Visto que o objetivo primordial é fazer inferências sobre p, a função densidade marginal a posteriori de p é de particular interesse sendo obtida integrando a expressão (2.5) em relação a e1 e e2 , cujo resultado é dado por:

f p r n w fjt p t n r j r ( / , )= ( / *, *) = − =

0 0 β α β (2.6) que pode ser reescrita como:

f p r n v fs p n s s s n ( / , )= ( / + − , + ), =

β α β 0 (2.7) onde / vs wjt j t j t s = + =

( , )

pode ser interpretado como a probabilidade a posteriori de que há realmente s elementos não-conformes na amostra. A esperança e a variância a posteriori de p, são dadas, respectivamente, por: E p r n v n s n s s n ( / , )= + − + +   =

0

α

α β

(2.8)

[

] [

]

V p r n( / , ) = E p( 2 / ,r nE p r n( / , ) 2, (2.9) onde E p r n v n s n s n n s s n ( / , ) ( )( ) ( )( ) 2 0 1 1 = + + ++ − + + −+ + =

α β

α

α

α β

Neste trabalho, a esperança a posteriori de p será utilizada como estimador bayesiano de p. Deve-se observar que a função densidade marginal a posteriori de p proporciona uma representação completa da incerteza sobre p segundo a amostra e a informação a priori. O modelo bayesiano produz, não somente uma estimação de p, mas também uma distribuição de probabilidade para p. Isto, a partir de um ponto de vista de tomada de decisão, é especialmente valioso, uma vez que permite ao engenheiro de produção considerar formalmente os riscos de vários cursos de ação.

III - ALGORITMO DE REAMOSTRAGEM PONDERADA (RP)

Nas aplicações em geral, uma das limitações dos métodos bayesianos está relacionada à resolução de integrais que, muitas vezes, não apresentam soluções analíticas e

(5)

consequentemente exigem o uso de sofisticados métodos de integração numérica ou técnicas de aproximação analítica [Tierney & Kardane (1986)]. Tudo isto, pode causar problemas para o engenheiro de produção, cujo trabalho é procurar a padronização e a implementação de rotinas computacionais simples e eficientes.

A implementação computacional do modelo proposto por Gaba &Winkler (1992) envolve determinação de pesos de betas, bastante complexos, com envolvimento de integrais sem solução analítica, cuja dificuldade computacional é intensificada com aumento do tamanho amostral. Além disso o modelo exige que a informação a priori seja representada pela expressão (2.5). Estes são fatos que comprometem a operacionalização do modelo.

Neste sentido, o algoritmo de reamostragem ponderada proposto por Rubin (1988) pode ser um instrumento extremamente eficiente para resolver o problema de forma aproximada e suficiente para uma tomada de decisão. Ele permite uma implementação computacional simples e eficiente além de facilitar uma análise de sensibilidade em relação à mudança da função densidade conjunta a priori dos parâmetros e e p1, 2, . Para exemplificar, suponha que se queira gerar uma amostra de uma função densidade de probabilidade g x( ). Suponha ainda que seja difícil gerá-la diretamente a partir de g, mas que exista uma outra distribuição h x( ), que possui aproximadamente a mesma distribuição de g x( ) e que seja mais fácil de gerar.

Rubin (1988) sugere um algoritmo para gerar uma amostra aproximada de g x( ) cujas etapas são:

a) fixe um valor inteiro m m, >0 .

b) gere uma amostra (x1 , x , .. .. , x 2 m ) de h x( ); c) calcule pesos amostrais dados por:

w x g x h x i i i ( ) ( ) ( ) = , i =1, 2, ...., m ; (3.1) d) gere agora uma amostra aleatória x x1*, 2*,...xm*, de x1 , x , ... x2 m com pesos respectivamente proporcionais a w x( 1), w(x2),..., (w xm). Segundo Rubin (1988), a amostra x x1*, 2*,...xm* possui aproximadamente a mesma distribuição de g x( ).

O método sugerido por Rubin (1988) pode ser diretamente aplicado na inferência bayesiana. Para o presente estudo, basta que se considere a distribuição conjunta a priori f p e e( , 1, 2 ) como h x( ), a distribuição conjunta a posteriori f p e e( , 1, 2 / , )r n como g x( ) e os pesos amostrais dados por:

w p e e f p e e r n f p e e L r n p e e i m i i i i i i i i i i i i ( , , ) ( , , / , ) ( , , ) ( / , , , ) , .. , 1 2 1 2 1 2 1 2 1 = ∝ , = (3.2) Assim, a partir de uma amostra da função densidade conjunta a priori f p e e( , ,1 2), pode-se gerar uma amostra aproximada da função densidade conjunta a posteriori f p e e( , ,1 2,/ , )r n e a partir daqui obter as respectivas densidades marginais. O estimador bayesiano aproximado para p será a média da função densidade marginal a posteriori de p. IV - APLICAÇÃO NUMÉRICA

Uma empresa de produtos eletrônicos deseja avaliar uma grande remessa de circuitos integrados. Os responsáveis pelo setor de planejamento e produção consideram primordial estimar a proporção (p) de circuitos conformes. Sabe-se, através de experiências práticas, que a classificação de circuitos integrados pode apresentar erros [Burke, J. R. at alli (1995)].

(6)

Em uma amostra de 50 circuitos integrados (n), 39 (r) foram julgados conformes. Após um brainstorm não estruturado, a equipe de Engenharia considerou que os erros de classificação e1, classificar um circuito como conforme sendo na realidade não-conforme,

e2, classificar um circuito como não-conforme sendo conforme, podem ter um impacto significativo na estimativa de p, e devem ser formalmente considerados. Além disso, concluíram também que a distribuição Beta representa satisfatoriamente a informação a priori dos parâmetros e e1, 2 e p e estes, por sua vez, podem ser considerados independentes. Adotou-se então uma função densidade conjunta a priori f p e e( , 1, 2), como descrito na expressão (2.5), com constantes α β α β α , , 1 , 1 , 2 , β2 desconhecidas e h(p, , e1 e2 )=1.

Para os cálculos das referidas constantes desconhecidas pode-se aplicar o Método Delfhos [Winkler(1967)] conjuntamente com o método gráfico [Spetzler & Holstein(1974)]. Os valores

α

=11,

β

=9,

α

1 =2,

β

1 =48,

α

2 =10 e

β

2 =10 são os resultados da aplicação destes métodos pela equipe de engenharia. Com a função densidade conjunta a priori determinada, pode-se calcular a estimativa de p através do método bayesiano exato. Estudos de sensibilidade em relação à mudança da função densidade conjunta a priori podem ser feitos através do algoritmo de reamostragem ponderada. Este algoritmo, será usado neste trabalho, com a mesma informação a priori que o método bayesiano exato. O objetivo é verificar seu desempenho em relação a um valor exato e conhecido.

Para elaboração dos programas foi utilizado o software MINITAB para o método bayesiano exato e o algoritmo RP. Estes encontram-se disponíveis para os interessados através de solicitação direta com os autores.

Para um melhor discernimento, uma comparação entre médias e variâncias a posteriori de p, obtidas pelo algoritmo RP e a análise bayesiana exata (ABE), variando valores dos parâmetros da distribuição a priori, está apresentada na tabela 4.1. Os valores de

α

=11,

β

=9,

α

1 =2,

β

1 =48,

α

2 =10 e

β

2 =10 obtidos pela equipe de engenharia foram denominados caso básico. Pode-se observar que a média e variância a posteriori de p obtidas pelos métodos ABE e RP são extremamente próximas. Observa-se também que tanto no caso básico como os demais casos, a estimativa de p, média a posteriori de p, é bastante diferente da proporção amostral (0,78) quando não se considera os erros de classificação.

DISTRIBUIÇÃO

PARÂMETROS MÉDIA A POSTERIORI DE P

VARIÂNCIA A POSTERIORI DE P

A PRIORI α β α1 β1 α2 β2 ABE RP ABE RP

CASO BÁSICO 11 9 2 48 10 10 0,5650 0,5661 0,0087 0,0088 CASO 1 11 9 2 48 2 2 0,5667 0,5672 0,0103 0,0099 CASO 2 1 1 2 48 10 10 0,5458 0,5429 0,0327 0,0332 CASO 3 1 1 1 1 1 1 0,5000 0,5033 0,0859 0,0847 Tabela 4.1: Comparação dos métodos ABE e RP ( m=5000) através de simulação

O caso 3 da Tabela 4.2, merece uma discussão especial. Trata-se de adotar uma função densidade a priori f p e e( , 1, 2)=1. Esta é uma tentativa comum de representar total ausência de informações sobre os parâmetros e é conhecida na literatura como função

(7)

densidade a priori não informativa. A sua importância está relacionada a situações onde há ausência de informações. Também é utilizada como padrão comparativo no estudo de sensibilidade do modelo em relação a uma função densidade a priori informativa. As implicações de tal função não informativa na situação discutida neste trabalho merecem bastante cuidado. Se considerar a função densidade a priori expressa como f p e e( , 1, 2)=1, tem como conseqüência, que a média a posteriori de p será 0.5 independente do resultado amostral e todos pontos ( ,p e e1, 2) tal que p(1−e1)+ −(1 p e) 2 =r n/ poderão ser considerados como estimadores de máxima verossimilhança generalizado (moda a posteriori).

Estes fatos, mostram o quanto é importante uma informação inicial relevante para o problema aqui discutido. Felizmente, na maioria das situações onde se procura inferir sobre determinada proporção, é possível obter alguma informação relevante, antes que os dados da pesquisa sejam obtidos.

V - CONCLUSÃO E CONSIDERAÇÕES FINAIS

Em dados dicotômicos, os erros de classificação podem causar um significativo impacto nas inferências e consequentemente estimativas enganosas. A consideração formal dos erros de classificação através do procedimento tradicional da maximização da função de verossimilhança não é eficaz, uma vez que ela é maximizada para um conjunto infinito de pontos abrangendo, inclusive, resultados totalmente antagônicos.

O procedimento bayesiano, utilizado neste trabalho, permitiu considerar o impacto dos erros de uma maneira formal. Os julgamentos prévios, incorporados em uma distribuição a priori, proporcionou a informação necessária para evitar problemas de identificação, como o ocorrido na maximização da função de verossimilhança.

Como um grande inconveniente ao método, destaca-se que a derivação da função densidade marginal a posteriori da proporção de interesse (que é um dado básico para o processo de inferência), mostrou-se complexa e válida somente para a particular função densidade conjunta a priori. Além disso, os estimadores bayesianos obtidos apresentaram necessidade de implementação computacional, uma vez que não existem software específicos para o problema em questão.

O estudo de sensibilidade em relação à mudança da função densidade conjunta a priori mostrou-se de difícil tratamento. Em um primeiro momento, a livre escolha da informação a priori poderia convergir para situações onde são necessárias sofisticadas técnicas de integração numérica, ou até mesmo métodos especiais de aproximação. Estes fatos, no entanto, poderiam inviabilizar um sistema de padronização de rotinas para uma pesquisa futura.

A solução para este problema, apresentada neste trabalho, foi através da utilização do Algoritmo RP. Este possibilitou a elaboração de uma rotina de trabalho, de fácil implementação computacional, além de muito eficiente para o estudo da sensibilidade do modelo frente à alteração da informação a priori. Evidentemente, o algoritmo RP também pode ser utilizado para aquelas situações onde a derivação da distribuição posteriori seja complexa, demorada, e inviabilize uma tomada de decisão rápida.

Neste trabalho, evidenciou-se que todo o processo descrito pela parte computacional pode ser resolvido através de implementação computacional simples. Por isso, não se justifica, desprezar os erros de classificação em nome da operacionalidade e padronização. Conclui-se então que a metodologia bayesiana conjugada com o algoritmo RP é uma alternativa operacional e padronizada para o Engenheiro da Produção. Com este método, ele pode enfrentar o problema da análise de dados dicotômicos com erros de classificação de forma bem mais eficiente.

(8)

REFERÊNCIAS BIBLIOGRÁFICAS:

1 - Albert, J.H.: “Teaching bayesian statistics using sampling methods and minitab”. The American Statistician, 47 , p.182-91, 1993.

2 - Berger, J. O.: “Statistical decision theory and bayesian analysis”. New York, Springer-Verlag, 1985.

3 - Burke, J. R. at alli.: “The effect of inspector errors on the true fraction non-conforming: an industrial experiment”. Quality Engineering, 7(3), 543-550, 1995.

4 - Case, K. E.: “The effect of inspector errors on average outgoing quality”. Journal of Quality Techonology, 7(1) , 28-33, 1975.

5 - Fishburn, P. C.: “The axioms of subjective probability”. Statistical Science, 1(3), p.335-58, 1986.

6 - Gaba, A. & Winkler, R. L.: “Implications of errors in survey data: a bayesian model”. Management Science, 38(7), p.913-25, 1992.

7 - Gelfand, A. E. & Smith, A. F. M.: “Sampling-based approaches to calculating marginal densities”. Journal of The American Statistical Association”, 85, p.398-409, 1990.

8 - Gelfand, A. E. & Smith, A. F. M.: “Bayesian statistics without tears: a sampling-resampling perspective”. The American Statistician, 46, 84-8, 1992.

9 - Gokhale, D. & Press, S. J.: “Assessment a prior distribution for the correlation coefficient in a bivariate normal distribution”. Journal of Royal Statistical Society. Series A. 145, 237-49, 1982.

10 - Kotz, S.; Johnson, N. L.;Kemp, A. W.: “Univariate discrete distributions”. New York. 2nd ed., John Wiley & Sons, Inc., 1992.

11 - Peterson, R. A. & Kerin, R. A.: “The quality of self-report data: review and synthesis”. In B. M. Ennis and K. J. Roering(eds), Review of Marketing, American Marketing Association, Chicago, p.5-20, 1981.

12 - Rubin, D. B.: “Using the SIR algorithm to simulate posterior distributions”. In Bayesian Statistics 3, Eds. J. M. Bernado, M. H. De Groot, D.V. Lindley, and A. F. M. Smith, New York: Oxford University Press, 1988.

13 - Shachter, R.: “Evaluating influence diagrams”. Operations Research, 34, p.871-82, 1986.

14 - Spetzler, C. A. & Staël Von Holstein, C. -A. S.: “Probability encoding in decision analysis”. Management Science, 22 , p.340-58, 1975.

15 - Tierney, L. & Kardane, J. A.: “Accurate approximations for posterior moments and marginal densities”. Journal of the American Statistical Association, 81 , p.82-6, 1986.

16 - Winkler, R. L.: “The assessment of prior distributions in bayesian analysis”. Journal of the American Statistical Association , 74 , p.776-800, 1967.

Referências

Documentos relacionados

De seguida, vamos adaptar a nossa demonstrac¸ ˜ao da f ´ormula de M ¨untz, partindo de outras transformadas aritm ´eticas diferentes da transformada de M ¨obius, para dedu-

 Condições insalubres no ambiente de trabalho  Superexploração do trabalho feminino e infantil  Ausência completa de qualquer assistência

Com o objetivo de compreender como se efetivou a participação das educadoras - Maria Zuíla e Silva Moraes; Minerva Diaz de Sá Barreto - na criação dos diversos

Mãos para fora, protegendo uma escrita seca de corpo molhado Anfíbio esse lugar.. Ela não obedece a gravidade sobe e toma todo o corpo folhas e

Para a coleta de dados foram utilizadas como instrumento de pesquisa as fichas de avaliação facial e corporal usados no setor de fisioterapia dermatofuncional, que continham

Se você vai para o mundo da fantasia e não está consciente de que está lá, você está se alienando da realidade (fugindo da realidade), você não está no aqui e

TABELA 4 ESPECIFICAÇÃO DA ATIVIDADE (Campo 18) Descrição Cód • Descrever a Especificação no Campo 27 da ART (Descrição/ Informações Complementares) TABELA 5 COMPLEMENTO

a) O polícia disse um palavrão, após ter saído da casa de Adrian. Corrige as falsas.. A mãe também está com gripe. “Quase que não consegui ficar calado quando vi que não