• Nenhum resultado encontrado

02 - Notas de Aula - Resumo de Estatística Inferencial

N/A
N/A
Protected

Academic year: 2021

Share "02 - Notas de Aula - Resumo de Estatística Inferencial"

Copied!
9
0
0

Texto

(1)

Notas de Aula 02 – Resumo de Estatística Inferencial

1. Introdução

Estatística Inferencial é a área da estatística que visa prover técnicas para caracterizar ou tomar decisões sobre uma população usando informação de uma amostra extraída desta população. Tais informações são obtidas da amostra por meio de técnicas da estatística descritiva, como as medidas de tendência central e de dispersão, que passam a ser parâmetros para a realização da inferência, na estatística inferencial. Na prática, a maior parte do trabalho com estatística está justamente na sua etapa inferencial, e várias técnicas sofisticadas foram desenvolvidas para facilitar o raciocínio inferencial.

O termo inferência, de modo geral, tem como significado o ato de passar de uma proposição, argumento ou julgamento considerado verdadeiro para outra proposição cuja verdade decorre da primeira. Ou seja, por meio de uma determinada informação induz-se uma conclusão. Em estatística, o termo tem um significado mais específico que seria: tomando como base amostras estatísticas, efetuar generalizações. A maneira como estas generalizações são feitas envolve o casamento de dois conceitos importantes: dados e probabilidades. É através da descrição do dados e do uso da probabilidade que é possível realizar tal tarefa e obter conclusões interessantes sobre fenômenos sociais importantes, por exemplo.

2. Conceitos e Resultados

Para realizar inferência, é fundamental o uso do conceito de probabilidade, principalmente o conceito de espaço amostral, experimento e eventos, que veremos a seguir antes de nos dedicarmos à estatística inferencial propriamente dita, quando iniciaremos falando das distribuições de probabilidade.

2.1 Conceitos de Probabilidade

Existem várias maneiras técnicas de definir probabilidade, mas uma definição útil em estatística é que a probabilidade nos diz quantas vezes é provável que algo aconteça quando um experimento é repetido. Por exemplo, a probabilidade de que o lançamento de uma moeda (sorteio “cara ou coroa”) resultará em “cara” pode ser estimado executando uma certa quantidade de lançamentos e observando quantas vezes resultam em “cara” e quantas em “coroa”. A partir deste exemplo simples, introduziremos um pouco de nomenclatura de probabilidade: o lançamento de uma moeda é chamado de experimento; as especificações dos resultados como “cara” e “coroa” são chamadas d e eventos; o conjunto de todos os possíveis eventos, S = {cara, coroa}, é chamado de espaço amostral.

Expressamos a probabilidade de um evento como um número real entre 0 e 1, onde 0 significa que o evento não tem nenhuma chance de ocorrer, enquanto 1 significa a certeza de sua ocorrência. Por exemplo, se a moeda do exemplo supracitado não for uma moeda viciada (aquela que tende para um certo resultado), a probabilidade do evento “cara” é 0,5 e a probabilidade do evento “coroa” é a

(2)

mesma, 0,5. Expressamos isto como P(cara) = P(coroa) = 0,5. Neste exemplo, podemos notar alguns importantes fatos: A probabilidade do espaço amostral é sempre 1, ou seja, se somadas as probabilidades de todos os eventos do espaço amostral, o resultado sempre será 1. P(S) = 1; E a probabilidade de um evento e seu complemento é sempre 1, pois complemento de um evento é conjunto formado por todos os outros eventos do espaço amostral.

O exemplo dado apresenta apenas dois possíveis eventos no espaço amostral, mas podemos ter fenômenos onde o espaço amostral possui infinitos eventos, entretanto, é importante ressaltar que a soma da probabilidade da ocorrência de todos os eventos é sempre 1. Cada fenômeno se comportará de maneira diferente no que diz respeito a quais eventos são mais prováveis de acontecer, ou seja, como estará distribuída a probabilidade ao longo de seu espaço amostral. Há um recurso matemático que serve justamente para descrever este comportamento das probabilidades, chamado distribuição de probabilidade, que forma a base da Estatística Inferencial, conforme veremos a seguir.

2.2 Distribuições de Probabilidade

A prática de estatística inferencial frequentemente apóia-se em suposições sobre a maneira como os dados estão distribuídos, tanto que é comum realizar transformações com os dados para fazer com que se encaixem melhor em alguma distribuição conhecida.

Uma distribuição de probabilidade teórica é definida por uma fórmula que especifica quais valores podem ser assumidos por pontos de dados dentro da distribuição e o quão comum cada valor será (ou, no caso de distribuições contínuas, o quão comum um dado intervalo de valores será). Tais distribuições são geralmente representadas em gráficos e a familiar curva Gaussiana é a forma da distribuição normal, por exemplo.

Estas distribuições de probabilidades teóricas são úteis em estatística inferencial porque suas propriedades e características são conhecidas. Se a distribuição real de um dado conjunto de dados for próxima daquela de uma distribuição de probabilidade teórica, muitos cálculos podem ser realizados neste conjunto de dados usando pressupostos extraídos da distribuição teórica.

Distribuições de probabilidade podem ser classificadas em contínuas, quando os dados podem ter qualquer valor dentro de um dado intervalo, ou discretas, quando os dados podem obter apenas determinados valores. Um exemplo de distribuição para dados discretos é a distribuição Binomial, entretanto, por questões de espaço e de escopo, neste texto veremos apenas um exemplo de distribuição para dados contínuos, a distribuição normal.

2.2.1 Distribuição Normal

Muitas variáveis contínuas, desde aquelas relacionadas a processos industriais até resultados de testes de QI, comportam-se de acordo com uma distribuição normal, e essa é uma das razões pelas quais esta é a distribuição de probabilidade mais usada em estatística inferencial. Uma segunda razão é que, mesmo quando os dados não estão normalmente distribuídos, ou seja, não atendem uma distribuição normal, a distribuição amostral das médias amostrais aproxima-se de uma distribuição normal, conforme veremos mais a frente com o teorema central do limite.

(3)

É necessário ressaltar, entretanto, que há uma infinidade de distribuições normais, todas com a mesma forma básica, mas diferenciando-se através dos parâmetros média, µ e o desvio padrão, σ, que definem seu formato e posição no plano cartesiano, de acordo com a Figura 1.

Uma distribuição normal com µ = 0 e σ = 1 é conhecida como a distribuição normal padrão, ou distribuição Z. Qualquer distribuição normal pode ser transformada numa distribuição normal padrão convertendo os valores originais para Z-scores. Processo que veremos mais a frente. T o d a s a s d i s t r i b u i ç õ e s n o r m a i s , independentemente dos valores de µ e σ compartilham algumas características, as quais incluem: simetria; unimodalidade (uma única moda); um intervalo contínuo de -∞ a +∞; uma área total sob a curva igual a 1 (que é a probabilidade de todo o espaço amostral); Média, mediana e moda terão o mesmo valor.

Por conveniência, sempre descrevemos uma distribuição normal em termos de unidades de desvio padrão (σ) ao invés dos valores de fato da distribuição, isto nos permite comparar ou aplicar a mesma descrição a distribuições com valores de µ e σ variados. Com isto, alguns fatos interessantes sobre como os dados estão distribuídos em uma distribuição normal podem ser expostos:

- Cerca de 68% dos dados estão dentro de uma distância de um desvio padrão da média; - Cerca de 95% dos dados estão dentro de uma distância de dois desvios padrão da média; - Cerca de 99% dos dados estão dentro de uma distância de três desvios padrão da média;

O conhecimento destas propriedades de uma distribuição normal oferece subsídios para julgar se um valor é típico ou atípico se comparado a outros valores da população. Tais comparações podem ser facilitadas convertendo os valores para Z-scores.

Um Z-score é a distância desde um ponto de dado até a média, expresso em unidades de desvio padrão. A fórmula para calcular um Z-score para um valor de um conjunto de dados de uma população com média e desvio padrão conhecidos é a seguinte:

Z=x−μσ Eq. 1

Por exemplo, se a variável x for normalmente distribuída com uma média 100 e desvio padrão 5, ou seja, x ~ N(100, 5), então, o valor 105 teria um Z-score de 1. Isto nos diz que o valor 105 está localizado 1 desvio padrão acima da média da população. Isto nos permite classificar o valor 105 como acima da média, mas não chega a destacar-se na população, já que cerca de 16% da população possuem Z-scores ainda maiores. Já um valor de 110, que resultaria num Z-score de 2, deve ter seu destaque, já que espera-se que apenas 2,5% da população possuam Z-score maior.

Uma grande vantagem de Z-scores é que eles facilitam a comparação de scores de populações com diferentes médias e desvios padrão, já que a transformação leva em conta uma razão envolvendo o desvio padrão, o que acaba trazendo ambas populações para a mesma métrica.

(4)

2.3 Populações e Amostras

O conceito de populações e amostras é crucial para entender estatística inferencial. O processo de definir a população e selecionar o método de amostragem apropriado pode ser um tanto complexo e requer mais estudo do que é possível cobrir aqui. Discutiremos apenas as principais questões e conceitos.

A população de interesse (geralmente chamada apenas de “população”) consiste de todas as pessoas ou outras entidades (por exemplo, veículos, livros, cães) que o pesquisador gostaria de estudar se dispusesse de recursos suficientes para tal. Sob outro ângulo, a população é o conjunto de todas as entidades sobre as quais o pesquisador pretende generalizar seus resultados. Definir a população de interesse é o primeiro passo da extração de uma amostra. A seguir, veremos alguns métodos de amostragem.

2.3.1 Amostragem não probabilística

Existem várias maneiras de extrair uma amostra a partir de uma população. Infelizmente, as mais convenientes são baseadas em amostragem não probabilística, o que as deixa sujeitas a uma amostragem viciada. Isto significa que há uma grande chance de as amostras obtidas por estes métodos não serem representativas da população de interesse, assim, quaisquer conclusões sobre a população a partir de cálculos realizados com estas amostras serão questionáveis. Abaixo apresentamos dois exemplos de métodos de amostragem não probabilística.

- Amostragem por voluntários: Este é um método comum de amostragem não probabilística quando as entidades da população são seres humanos. O pesquisador anuncia seu estudo em busca de voluntários e aceita aqueles que respondem ao anúncio. É uma maneira conveniente de conseguir uma amostra mas, infelizmente, as pessoas que se voluntariam a um estudo não podem ser supostas como representativas da população. Entretanto é uma forma interessante de coletar informações para os estágios iniciais de um estudo.

- Amostragem por quota: Neste método o coletor de dados é instruído selecionar um certo número ou proporção de entidades de categorias distintas. Por exemplo, numa pesquisa de mercado, realizar questionário com uma amostra contendo 25 homens e 25 mulheres, ou 10 pessoas de cada classe, A, B ou C. Este tipo de amostragem pode ser uma pequena melhoria em relação a amostragem por voluntários, pelo fato de garantir a representação de diferentes grupos demográficos dentro da amostra, entretanto, ainda não há garantia de que a amostra será representativa da população. Por exemplo, vamos supor que as classes B e C sejam muito mais populosas que a classe A, entretanto, ao incluir a mesma quantidade de pessoas das três classes numa amostra, estamos enviesando nossa amostragem para as respostas da classe A, já que na população, esta classe é bem menos representativa.

2.3.2 Amostragem probabilística

Em amostragem probabilística, cada membro da população tem uma probabilidade conhecida de ser selecionado para a amostra. Embora envolva métodos mais complexos de executar do que a amostragem não probabilística, este tipo de amostragem é preferível por obter amostras mais representativas da população de interesse, garantindo a generalização dos resultados.

(5)

- Amostragem Aleatória Simples (AAS): É o método de amostragem probabilística mais simples. Neste método, todas as amostras de um dado tamanho têm a mesma probabilidade de serem selecionadas. Vamos supor que queremos extrair uma amostra aleatória de 50 alunos de uma certa escola. Inicialmente obtemos uma lista dos alunos da escola e em seguida selecionamos 50 alunos desta lista de maneira aleatória, utilizando um gerador de números aleatórios, por exemplo. Pelo fato da lista representar uma enumeração de toda a população e a escolha dos alunos a serem incluídos na amostra ser completamente aleatória, cada alunos tem a mesma probabilidade de ser selecionado para a amostra, da mesma forma, toda combinação de 50 alunos também tem a mesma chance de formar uma amostra.

Na maioria dos casos, AAS tem as propriedades estatísticas mais desejáveis entre todos os métodos de amostragem, mas pode ser impossível ou de custo proibitivo para ser executada em alguns contextos, quando, por exemplo, não é possível obter uma lista de todas as entidades da população ou não é possível ter acesso a qualquer uma das entidades selecionadas. Assim, outros métodos de amostragem probabilística foram desenvolvidos para os casos onde AAS não é aplicável.

- Amostragem Sistemática: É similar à AAS, porém, ao invés de aleatória a escolha dos elementos que irão compor as amostras é sistemática. Inicialmente decidimos o tamanho da amostra que queremos extrair e computamos o número n, dividindo o tamanho da população pelo número de elementos que queremos na amostra. Suponha que temos uma população de 500 e queremos uma amostra de 25; neste caso, n = 20.

Definido n, selecionamos um número inicial na lista enumerada da população entre 1 e n, a entidade correspondente a este número e todas as outras seguintes a cada n são selecionadas para a amostra. Por exemplo, se o tamanho da amostra é 25 e n = 20 e começarmos com o número 5, serão selecionados para amostra os números 5, 25, 45, 65, e etc. Ou seja, neste caso, os elementos são determinados por 5 + 20i, onde i varia de 0 a 24.

Esta técnica é interessante no caso em que a população cresce com o tempo e portanto não há uma lista pré-determinada desta população. Neste caso, a cada n novos elementos compondo a população, o último (n-ésimo) é selecionado. Um cuidado necessário neste tipo de amostragem é garantir que os dados não sejam cíclicos de maneira que somente elementos de um determinado tipo ou com uma característica em particular sejam selecionados.

- Amostragens Aleatórias Complexas: Nesta categoria enquadram-se vários métodos de amostragens probabilísticas de maior complexidade, entre eles estão Amostragem Estratificada e Amostragem por Agrupamento, os quais não serão tratadas aqui por questões de escopo.

2.4 O Teorema Central do Limite

O teorema central do limite diz que, conforme o tamanho da amostra aumenta, independentemente da forma da distribuição da população da qual extraiu-se a amostra, a distribuição amostral da média da amostra X aproxima-se cada vez mais de uma distribuição normal. Este teorema é importantíssimo para a estatística inferencial pois nos permite realizar inferências baseadas nas propriedades da distribuição normal, mesmo se a amostra for extraída de uma população que não é normalmente distribuída.

(6)

Seja X1, … Xn uma amostra aleatória de alguma população com média µ e variância σ2. Então,

para n grande, temos ¯X∼N (μ , σ2

n )

Ou seja, para amostras aleatórias simples, retiradas de uma população com média média µ e variância σ2 finita, a distribuição amostral da média X se aproximará de uma distribuição normal

com média µ e variância σ2/n. Novamente, isto é verdade mesmo se a distribuição de observações

individuais da população não for normal, entretanto, se a distribuição for normal então X terá distribuição normal para qualquer tamanho de amostra. A demonstração completa desse teorema exigiria recursos dos quais não dispomos, portanto não será dada. Graficamente seria possível ver a distribuição das médias amostrais tomar a forma de uma Gaussiana conforme o tamanho da amostra cresce.

O mais importante é entender que este teorema permite-nos aproximar qualquer população de uma distribuição normal, por meio da distribuição das médias amostrais e com isso trazer todo o conhecimento das propriedades da distribuição normal para a análise.

Uma das importantes técnicas de estatística inferencial que aplica-se a dados normalmente distribuídos, e que portanto torna-se especialmente útil devido ao teorema central do limite, é o Teste de Hipóteses, que veremos a seguir.

2.5 Teste de Hipótese

Teste de hipótese é fundamental para estatística inferencial porque ele nos permite usar métodos estatísticos para tomar decisões sobre problemas reais em diversas áreas do conhecimento. Alguns passos são necessários para realizar um teste de hipótese:

1. Desenvolver uma hipótese de pesquisa que possa ser testada matematicamente; 2. Declarar formalmente as hipóteses nula e alternativa;

3. Decidir sobre um teste estatístico apropriado, obter os dados e realizar os cálculos; 4. Tomar a decisão baseada nos resultados.

Tomemos por exemplo a avaliação de um novo medicamento para tratar pressão alta (hipertensão). O fabricante quer estabelecer que o medicamento funciona melhor do que um certo tratamento já disponível para a doença, então a hipótese de pesquisa poderia ser algo como: “Pacientes com hipertensão tratados com a nova droga X terão maior redução de pressão sanguínea do que pacientes com hipertensão tratados com a droga atualmente disponível Y.” Se tomarmos µ1 como a

redução média da pressão sanguínea do grupo tratado com a droga X e µ2 para a redução média da

pressão sanguínea do grupo tratado com a droga Y, então, podemos declarar nossas hipóteses nula e alternativa da seguinte maneira:

H0:μ1≤μ2

HA:μ1>μ2

H0é chamada de hipótese nula. Neste exemplo, a hipótese nula diz que a droga X não é melhor que

(7)

que às vezes é escrita como H1, é chamada de hipótese alternativa. Neste exemplo, a hipótese

alternativa nos diz que a droga X é mais eficiente do que o tratamento padrão (droga Y) já que os pacientes tratados com a droga X demonstram, em média, maior redução de pressão sanguínea do que aqueles tratados com a droga Y. Note que as hipóteses nula e alternativas precisam ser mutuamente exclusivas (nenhum resultado pode satisfazer ambas as hipóteses) e exaustivas (todos os resultados possíveis devem satisfazer uma das duas hipóteses).

Neste exemplo, a hipótese alternativa é unilateral: nós declaramos que µ1 precisa ser maior que µ2

para que a hipótese nula seja rejeitada. Existem problemas cuja hipótese alternativa é bilateral, quando, por exemplo, estamos interessados em saber se as duas médias são diferentes, seja com µ1

maior que µ2 ou o contrário. Hipóteses bilaterais são inclusive mais comuns em testes estatísticos.

Ao fim do teste de hipótese, teremos um dos dois resultados: - Rejeitar a hipótese nula;

- Falhar ao rejeitar a hipótese nula (não rejeitar);

Note que se falharmos em rejeitar a hipótese nula, isto não significa que teremos provado que a mesma é verdadeira, apenas saberemos que nosso estudo não encontrou evidência suficiente para rejeitá-la.

Rejeitar a hipótese nula é às vezes chamado de “encontrar significância” ou “encontrar resultados significantes” porque nossa análise não apenas dirá que há diferença entre as médias, por exemplo, mas também que esta diferença é significante.

O processo de teste estatístico envolve encontrar um nível de probabilidade ou p-valor que definirá quando os resultados obtidos de uma amostra serão considerados fortes o bastante para suportar a rejeição da hipótese nula. Na prática, desde o início do século 20 valor mínimo para o p-valor mais comumente usado foi 0,05. A este nível damos o nome de nível de significância. Trata-se de um ponto de corte um tanto arbitrário e mais recentemente tem-se usado 0,01 ou até mesmo 0,001. Para rejeitar uma hipótese nula, precisamos simplesmente que p-valor seja menor que o nível escolhido, porém, quanto menor for o p-valor encontrado mais significante é o resultado.

Contudo, por menor que seja o p-valor encontrado, as conclusões obtidas continuarão sendo probabilísticas, e não absolutas, assim, a possibilidade de erro é inerente ao processo. Neste aspecto, estatísticos definiram dois tipos de erro podem acontecer ao tomar decisões utilizando estatística inferencial, conforme Tabela 1, e estabeleceram os níveis considerados aceitáveis para cada um dos tipos de erro conforme veremos a seguir.

Resultado Correto Resultado Obtido Descrição

H0 verdadeira Falha o rejeitar H0 Decisão correta

Rejeição de H0 Erro tipo I ou tipo α

HA verdadeira Falha o rejeitar H0 Erro tipo II ou tipo β

Rejeição de H0 Decisão correta

A primeira e última linhas da tabela representam as decisões tomadas corretamente: H0éverdadeira

(8)

representam os possíveis erros, o primeiro deles, o erro de tipo I, também conhecido como α, representa o erro cometido quando a hipótese nula é verdadeira mas é rejeitada no estudo. O erro de tipo II, ou β, representa o erro cometido quando a hipótese nula é falsa mas não é rejeitada no estudo.

O nível de aceitabilidade do erro de tipo I é convencionalmente 0,05, como dito anteriormente. Neste caso, dizemos que α = 0,05, o que significa que aceitamos uma probabilidade de 5% de ocorrer um erro do tipo I. Ou seja, 5% de chance de rejeitar a hipótese nula de maneira errônea. O erro do tipo II é considerado menos sério, normalmente, e por isso recebe níveis mais altos como por exemplo β = 0,1. O que significa que teríamos uma chance de 10% de falhar ao rejeitar a hipótese nula quando deveríamos ter rejeitado. Para contextualizar, em nosso exemplo anterior, digamos que a droga X seja de fato melhor que a droga Y, neste caso, um erro do tipo II seria como dizer que não temos resultados significantes o suficiente para estabelecer a droga X como uma droga melhor que a droga Y para reduzir a pressão em pacientes hipertensos.

2.6 Intervalos de confiança

Quando calculamos uma única estatística, tal como a média, para descrever uma amostra, estamos realizando uma estimativa pontual, porque o valor da medida representa um único ponto no eixo numérico. Embora a média amostral seja a melhor estimativa não viciada da média populacional, sabemos que se extrairmos uma outra amostra, sua média seria provavelmente diferente. Isto nos leva a perguntar quanto uma estimativa pontual tende a variar ao acaso, e por esta razão, tornou-se uma boa prática em várias áreas do conhecimento, reportar além da estimativa pontual, a estimativa intervalar. Em contraste a uma estimativa pontual, que é um único número, a estimativa intervalar é um intervalo de valores.

Uma estimativa intervalar comum é o intervalo de confiança, que é o intervalo entre dois valores que representam os limites de confiança máximo e mínimo para uma estatística. A fórmula usada para calcular o intervalo de confiança depende da estatística usada. O intervalo de confiança é calculado usando um nível de significância predeterminado, frequentemente chamado de α, que mais frequentemente, conforme vimos, recebe o valor de 0,05. O coeficiente de significância é calculado como (1 - α) ou, como uma porcentagem, 100(1 - α )%. Assim, se α = 0,05, o coeficiente de confiança é 0,95 ou 95%. Este último uso é o mais comum, sendo frequente falarmos em “intervalo de confiança de 95%” para nos referirmos aos intervalos com o coeficiente de significância de 95%.

Intervalos de confiança são baseados na ideia de que se um estudo fosse repetido infinitas vezes, cada vez extraindo da mesma população uma amostra diferente mas do mesmo tamanho, e um intervalo de confiança baseado em cada amostra fosse construído, x % das vezes o intervalo de confiança conteria o verdadeiro valor do parâmetro que o estudo procura estimar, onde x é o coeficiente de significância, ou seja, o tamanho do intervalo de confiança.

O intervalo de confiança nos traz uma informação importante sobre a precisão de uma estimativa pontual. Por exemplo, suponha que temos duas amostras de estudantes e, em ambos os casos, o QI (Quociente de Inteligência) médio do grupo é de 100 (inteligência mediana). Em um caso, entretanto, o intervalo de confiança de 95% é (95, 105), ou seja de 95 a 105, e no outro caso o intervalo de confiança é de (80, 120). Já que o primeiro intervalo de confiança é menos abrangente

(9)

do que o segundo, a estimativa da média é mais precisa para a primeira amostra. O intervalo mais abrangente da segunda amostra nos serve de indicativo de que aqueles estudantes foram extraídos de uma população com maior variabilidade no QI do que os da primeira amostra.

3. Conclusão

Neste texto introduzimos os principais conceitos da estatística inferencial, passando pelo conceito de Distribuição Normal, o Teorema Central do Limite e de Teste de Hipótese, que aliás é a principal ferramenta da estatística inferencial aplicada a várias áreas da ciência. Os testes de hipóteses são úteis para qualquer estudo experimental quantitativo, dando credibilidade aos resultados do estudo.

Devido ao propósito do texto de sintetizar o assunto, alguns temas e conceitos importantes precisaram ser omitidos como a distribuição de probabilidade binomial, usada para dados discretos, e o conceito de intervalo de confiança e uma discussão mais aprofundada sobre alguns aspectos do teste de hipótese.

Referências

Documentos relacionados

Este presente artigo é o resultado de um estudo de caso que buscou apresentar o surgimento da atividade turística dentro da favela de Paraisópolis, uma

Changes in the gut microbiota appears to be a key element in the pathogenesis of hepatic and gastrointestinal disorders, including non-alcoholic fatty liver disease, alcoholic

Os testes de desequilíbrio de resistência DC dentro de um par e de desequilíbrio de resistência DC entre pares se tornarão uma preocupação ainda maior à medida que mais

O segundo Beneficiário será designado pelo Segurado na Proposta de Adesão, podendo ser substituído a qualquer tempo, mediante solicitação formal assinada pelo próprio Segurado, para

O valor da reputação dos pseudônimos é igual a 0,8 devido aos fal- sos positivos do mecanismo auxiliar, que acabam por fazer com que a reputação mesmo dos usuários que enviam

(2011) em estudo que avaliou a qualidade da dieta em indivíduos exposto e não exposto a um programa de reeducação alimentar mostrou que pessoas com

Mestrado em Administração e Gestão Pública, começo por fazer uma breve apresentação histórica do surgimento de estruturas da Administração Central com competências em matéria

A presente investigação teve como objetivo geral o estudo dos fatores de risco e de proteção internos e externos utilizados perante a violência social, nomeadamente o bullying