Blog da Minitab

Entendendo Análise de Variância (ANOVA) e o teste F

Written by Minitab Blog Editor | 1/abr/2019 14:10:25

*Alguns dos links relacionados podem conter informações em outros idiomas

 

A análise de variância (ANOVA) pode determinar se as médias de três ou mais grupos são diferentes. A ANOVA usa testes F para testar estatisticamente a igualdade entre médias. Neste post, mostrarei como a ANOVA e os testes F funcionam, usando um exemplo de ANOVA com um fator.

Mas espere um minuto... você já parou para pensar por que você usaria uma análise de variância para determinar se as médias são diferentes? Também mostrarei como as variâncias fornecem informações sobre as médias.

Como em meus posts sobre o entendimento de testes-t, vou me concentrar em conceitos e gráficos ao invés de equações para explicar os testes F de ANOVA.

O que são as estatísticas F e o teste F?

Os testes-F recebem seu nome da sua estatística de teste, F, que recebeu seu nome em homenagem a Sir Ronald Fisher. A estatística F é simplesmente uma razão de duas variâncias. As variâncias são uma medida de dispersão, ou até que ponto os dados estão dispersos em relação à sua média. Valores maiores representam maior dispersão.

A variância é o quadrado do desvio padrão. Para nós humanos, os desvios padrão são mais fáceis de entender do que as variâncias pois estão nas mesmas unidades que os dados, e não nas unidades quadradas. No entanto, muitas análises realmente usam variâncias em seus cálculos.

As estatísticas F são baseadas na razão de quadrados médios. O termo quadrados médios pode soar confuso, mas é simplesmente uma estimativa da variância populacional que explica os graus de liberdade (DF) usados para calcular essa estimativa.

Apesar de ser uma razão entre variâncias, você pode usar os testes F em uma várias situações. Obviamente o teste F pode avaliar a igualdade entre variâncias. No entanto, alterando as variâncias incluídas na razão, o teste F torna-se um teste muito flexível. Por exemplo, você pode usar estatísticas F e testes F para testar a significância global de um modelo de regressão, comparar os ajustes de diferentes modelos, testar termos de regressão específicos e testar igualdade entre médias.

Usando o teste F na ANOVA com um fator

Usar o teste F para determinar se as médias de grupo são iguais é apenas uma questão de incluir as variâncias corretas na razão. Na ANOVA com um fator, a estatística F é essa razão:

F = variação entre médias da amostra / variação dentro das amostras

A melhor maneira de entender essa razão é analisar um exemplo de ANOVA com um fator.

Vamos analisar quatro amostras de plástico para determinar se elas têm diferentes forças médias. Você pode baixar os dados amostrais se quiser acompanhar.(Se você não tiver o Minitab, poderá fazer o download de uma avaliação gratuita por 30 dias

No Minitab, escolha Estat> ANOVA> Um fator... Na caixa de diálogo, escolha "Força" como a resposta e "Amostra" como o fator. Aperte OK e a janela de sessão do Minitab exibirá a seguinte saída:

Numerador: Variação entre as médias amostrais

A ANOVA com um fator calculou uma média para cada uma das quatro amostras de plástico. As médias do grupo são: 11,203, 8,938, 10,683 e 8,838 Essas médias de grupo estão distribuídas em torno da média global para todas as 40 observações, que é 9,915. Se as médias dos grupos estão aglomeradas próximas à média global, suas variâncias é baixa. No entanto, se as médias do grupo estiverem mais afastadas da média global, a variância delas será maior.

Claramente, se queremos mostrar que as médias dos grupos são diferentes, quanto mais distantes estas médias estiverem umas das outras é de grande ajuda. Em outras palavras, queremos maior variabilidade entre as médias.

Imagine que realizamos duas ANOVAs com um fator, em que cada análise possui quatro grupos. O gráfico abaixo mostra o espalhamento das médias. Cada ponto representa a média de um grupo inteiro. Quanto mais os pontos estiverem espalhados, maior o valor da variabilidade no numerador da estatística-F.

Qual valor usamos para medir a variância entre as médias amostrais para o exemplo da resistência do plástico? Na saída da ANOVA com um fator, usaremos o quadrado médio ajustado (QM Aj) para o Fator, que é 14.540. Não tente interpretar esse número porque ele não fará sentido. É a soma dos desvios quadrados divididos pelo GL do fator. Apenas tenha em mente que quanto mais distante a média do grupo está, maior esse número se torna.

Denominador: Variação dentro das amostras

Também precisamos de uma estimativa da variabilidade dentro de cada amostra. Para calcular essa variância, precisamos calcular o quão distante cada observação está em relação à média do grupo, para todas as 40 observações. Tecnicamente é a soma dos desvios ao quadrado da diferença de cada observação em relação à média do grupo, dividido pelo s GL do erro.

Se as observações para cada grupo estiverem próximas da média deste grupo, a variação dentro das amostras será baixa. No entanto, se as observações para cada grupo estiverem mais longe da média de cada grupo, a variação dentro das amostras será maior.

No gráfico, o painel à esquerda mostra baixa variação nas amostras, enquanto o painel à direita mostra alta variação. Quanto mais dispersas as observações estiverem em relação á média do grupo, maior será o valor no denominador da estatística-F.

Se nosso objetivo for mostrar que as médias são diferentes, será bom que a variância dentro dos grupos seja baixa. Você pode pensar na variância dentro do grupo como o ruído de fundo que pode obscurecer a diferença entre as médias.

Para este exemplo de ANOVA com um fator, o valor que usaremos para a variância dentro das amostras é o QM Aj para o erro, que é 4,402. É chamado de “erro” porque é a variabilidade que não é explicada pelo fator.

A estatística F: Variação entre médias amostrais / Variação dentro das amostras

A estatística F é a estatística de teste para testes F. Em geral, uma estatística F é uma razão de duas quantidades que se espera que sejam aproximadamente iguais sob a hipótese nula, que por sua vez produz uma estatística F de valor aproximadamente 1.

A estatística F incorpora ambas as medidas de variabilidade discutidas acima. Vamos dar uma olhada em como essas medidas podem funcionar juntas para produzir valores F baixos e altos. Veja os gráficos abaixo e compare a largura do espalhamento das médias do grupo com a largura do espalhamento dentro de cada grupo.

O gráfico com o baixo valor-F mostra um caso em que as médias dos grupos estão próximas (baixa variabilidade) em relação à variabilidade dentro de cada grupo. O gráfico com o alto valor-F mostra um caso em que a variabilidade das médias dos grupos é grande em relação à variabilidade intragrupo. Para rejeitar a hipótese nula de que as médias do grupo são iguais, precisamos de um valor F alto.

Para nosso exemplo de força do plástico, usaremos o fator QM Aj para o numerador (14,540) e o erro QM Aj para o denominador (4,402), o que nos dá um valor F de 3,30.

O nosso valor F é alto o suficiente? Um único valor F é difícil de interpretar sozinho. Precisamos colocar nosso valor F em um contexto maior antes que possamos interpretá-lo. Para fazer isso, usaremos a distribuição F para calcular as probabilidades.

Distribuições F e Teste de hipóteses

Para a ANOVA com um fator, a razão entre a variabilidade entre os grupos e a variabilidade intragrupo segue uma distribuição F quando a hipótese nula é verdadeira.

Quando você faz uma ANOVA com um fator para um único estudo, obtém um único valor-F. No entanto, se extraíssemos várias amostras aleatórias do mesmo tamanho da mesma população e fizéssemos o mesmo ANOVA com um fator, obteríamos muitos valores F e poderíamos plotar uma distribuição de todos eles. Esse tipo de distribuição é conhecido como distribuição de amostragem.

Como a distribuição F assume que a hipótese nula é verdadeira, podemos colocar o valor F de nosso estudo na distribuição F para determinar quão consistentes são nossos resultados com a hipótese nula e calcular probabilidades.

A probabilidade que queremos calcular é a probabilidade de observar uma estatística F que é pelo menos tão alta quanto o valor que nosso estudo obteve. Essa probabilidade nos permite determinar quão comum ou raro nosso valor F é, sob a suposição de que a hipótese nula é verdadeira. Se a probabilidade for baixa o suficiente, podemos concluir que nossos dados são inconsistentes com a hipótese nula. A evidência nos dados amostrais é forte o suficiente para rejeitar a hipótese nula para toda a população.

Essa probabilidade que estamos calculando também é conhecida como valor-p!

Para plotar a distribuição F para nosso exemplo de força do plástico, utilizarei os gráficos de distribuição de probabilidade do Minitab. Para representar graficamente a distribuição F que é apropriada para nosso planejamento e tamanho de amostra específicos, precisaremos especificar o número correto de GL. Olhando para a saída do ANOVA com um fator, podemos ver que temos 3 GL para o numerador e 36 GL para o denominador.

 

O gráfico exibe a distribuição dos valores F que obteríamos se a hipótese nula fosse verdadeira e repetíssemos nosso estudo várias vezes. A área sombreada representa a probabilidade de observar um valor F que é pelo menos tão grande quanto o valor F obtido em nosso estudo. Os valores F caem dentro dessa região sombreada cerca de 3,1% do tempo quando a hipótese nula é verdadeira. Essa probabilidade é baixa o suficiente para rejeitar a hipótese nula usando nível de significância de 0,05. Podemos concluir que nem todas as médias do grupo são iguais.

Aprenda a interpretar corretamente o valor-p.

Avaliar médias usando a variação

O ANOVA usa o teste F para determinar se a variabilidade entre as médias do grupo é maior que a variabilidade das observações dentro dos grupos. Se essa proporção for suficientemente grande, você poderá concluir que nem todas as médias são iguais.

Isso nos traz de volta ao porque analisamos a variação para fazer julgamentos sobre as médias. Pense na questão: "As médias dos grupos são diferentes?" Você está implicitamente perguntando sobre a variabilidade das médias. Afinal, se as médias dos grupos não variam, ou não variam mais do que o acaso permite, então você não pode dizer que as médias são diferentes. E é por isso que você usa análise de variância para testar as médias.