Upload
vitor-vieira-vasconcelos
View
251
Download
0
Embed Size (px)
Citation preview
CORRELAÇÃO
Vitor Vieira Vasconcelos
BH1350 – Métodos e Técnicas de Análise da Informação para o PlanejamentoJulho de 2015
Inferência Estatística: Método científico para tirarconclusões sobre os parâmetros da população a partirda coleta, tratamento e análise dos dados de umaamostra recolhida dessa população. Estatísticas da Amostra para Estimar Parâmetros da População
Inferência Estatística se resumindo a uma equação:
Revisão
Saídai = (Modeloi) + erroi
Média como um modelo estatístico
Uma representação simplificada de umacaracterística do mundo real:
A média do consumo per capita de água naRegião Sudeste
A altura média dos edifícios em São Caetano
O PIB médio dos municípios localizados no arcodo desmatamento
Este modelo é preciso? O quão diferente nossos dados reais são do
modelo criado?
Média (2,6)
Desvios(erro do modelo)
Nr.
de h
abita
ntes
Domicílio
Conceitos:
- Variância
- Desvio Padrão
Média com boa aderência aos dados
Médias iguais, mas desvios padrão diferentes
Média com pobre aderência aos dados
Nr.
de h
abita
ntes
Domicílio
Nr.
de h
abita
ntes
Domicílio
Para além de Médias… Modelos Lineares São modelos baseados sobre uma linha reta,
utilizados para representar a relação entre variáveis
Ou seja, geralmente estamos tentando resumir as RELAÇÕES observadas a partir de nossos dados observados em termos de uma linha reta.
Cons
umo
de Á
gua
per
Capi
ta (m
3/di
a/an
o)
Renda per Capita (R$)
RELAÇÃO ENTRE CONSUMO DE ÁGUA E
RENDA
CORRELAÇÃO
É uma medida do relacionamento linear entre duas variáveis
Duas variáveis podem estar:
(a) Positivamente relacionadas quando maior a renda, maioro consumo de água
(b) Negativamente relacionadas quanto maior a renda, menor o consumo de água
(c) Não há relação entre as variáveis
Representando Relacionamentos Graficamente
Diagrama de Dispersão
DIAGRAMA DE DISPERSÃO: Gráfico que coloca o escore de cada observação em uma variável contra seu escore em outra
Importante começar por ele!
Diagrama de Dispersão
Nos diz se a relação entre variáveis é linear, se existempeculiaridades nos dados que valem a pena observar (outliers) e
dá uma ideia da força do relacionamento entre as variáveis.
Exemplo de Correlação Não-Linear: Renda e proporção de domicílios próprios.
Como medimos relacionamentos?
Veremos duas medidas para expressarestatisticamente os relacionamentos entre variáveis:
1. Covariância
2. Coeficientes de correlação
COVARIÂNCIA
Uma maneira de verificar de duas variáveisestão associadas é ver se elas variam
conjuntamente. Ou seja, ver se as mudanças em uma variável correspondem
a mudanças similares na outra variável
RELEMBRANDO O CONCEITO DE VARIÂNCIA:
COVARIÂNCIA
Em outras palavras:
Quando uma variável se desvia de sua média, esperamos que a outra variável se desvie da sua
média de maneira similar (ou de maneiradiretamente oposta).
RELEMBRANDO O CONCEITO DE VARIÂNCIA:
Padrão similar nas diferenças de ambas as variáveis
Municípios
Renda per capita/
Consumo de águaper capita
(Renda)
(Consumo)
Como calcular a semelhança entre o padrão das diferenças das 2 variáveis?
Multiplicando a diferença de uma variável pela diferençacorrespondente da segunda variável!
Se ambos os erros são positivos ou negativos, isso nos dará um valor positivo(desvios na mesma direção)
Se um erro for positivo e outro negativo, isso nos dará um valor negativo(desvios em direções opostas)
COVARIÂNCIA
CovariânciaMédia das Diferenças Combinadas
É uma medida de como duas variáveis variamconjuntamente.
Se a covariância entre duas variáveis é igual a zero, significa que elas sãoindependentes.
COVARIÂNCIA
CovariânciaCovariância Positiva: Quando uma variável se desvia da média, a outra variável se desvia na mesma direção.
Covariância Negativa: Quando uma variável se desvia da média, a outra variável se desvia na direção oposta.
COVARIÂNCIA
CovariânciaUM PROBLEMA!!!
A covariância depende das escalas de medida. Não éuma medida padronizada.
Ou seja, não podemos dizer se a covariância éparticularmente grande ou pequena em relação a outro
conjunto de dados a não ser que ambos os conjuntosfossem mensurados nas mesmas medidas.
Padronização & Coeficiente de Correlação
Para superar o problema da dependência das escalas de medida, precisamos converter a variância em um
conjunto padrão de unidades Padronização
Precisamos de uma unidade de medida na qual qualquerescala de mensuração possa ser convertida
Unidades de Desvio Padrão(medida da média dos desvios a partir da média)
Padronização & Coeficiente de Correlação
O COEFICIENTE DE CORRELAÇÃO
é uma covariância padronizada
COEFICIENTE DE CORRELAÇÃO DE PEARSON
Coeficiente de Correlação
Padronizando a covariância, encontramos um valor que deve estar entre -1 e +1
r = +1 duas variáveis estão perfeitamentecorrelacionadas de forma positiva (se uma aumenta, a outraaumenta proporcionalmente)
r = -1 relacionamento negativo perfeito (se umaaumenta, a outra diminui em valor proporcional
r = 0 indica ausência de relacionamento linear
Mas… Como saber se a correlação não se deve a um
erro amostral, ao acaso? Como saber se a correlação é
estatisticamente significativa?
Uma breve revisão sobre
TESTES DE HIPÓTESE
Para testar a significância de uma medida de correlação, estabelecemos uma hipótese(nula) de nenhuma correlação existe napopulação.
HIPÓTESES
Hipótese Experimental (H1) Geralmentecorresponde a uma “previsão” feita pela pesquisador(existe uma correlação na população)
Hipótese Nula (H0) O efeito previsto não existe(não existe uma correlação na população)
Tornou-se convenção na análise estatística iniciar o estudo peloteste da hipótese nula.
Para confirmar ou rejeitar nossashipóteses:
Calculamos a probabilidade de que o efeitoobservado (no nosso caso, a correlação) ocorreupor acaso: À medida que a probabilidade do “acaso” diminui, confirmamos que a hipóteseexperimental é correta e que a hipótese nula podeser rejeitada.
E quando podemos considerar que um resultado égenuíno, ou seja, não é fruto do acaso?
Há sempre um risco de considerarmos umefeito verdadeiro, quando, de fato, não oé (ERRO TIPO I). Para Ronald Fisher,somente quando a probabilidade de algoacontecer por acaso é igual ou menor a 5%(<0,05), podemos aceitar que é umresultado estatisticamente significativo.
O valor da probabilidade de cometer umerro do tipo I num teste de hipóteses éconhecido como NÍVEL DE SIGNIFICÂNCIA eé representado pela letra α
Os níveis de significância mais utilizados são de 5%, 1% e 0,1%
Para estabelecer se um modelo (no caso, a medida de correlação) é uma representação razoável do que estáacontecendo, geralmente calculamos uma ESTATÍSTICA TESTE
É uma estatística que tem propriedades conhecidas, jásabemos a frequência com que diferentes valores destaestatística ocorrem.
Sabemos suas distribuições e isso nos permite, uma vezcalculada a estatística teste, calcular um valor tão grandecomo o que temos. Se temos uma estatística teste de 100, por exemplo, poderíamos então calcular a probabilidadede obter um valor tão grande.
Estatísticas teste
Estatísticas teste
Existem várias estatísticas testes (t, F…).
Entretanto, a maioria delas representa o seguinte:
A forma exata desta equação muda de teste pra teste.
Se nosso modelo é bom, esperamos que a variância explicadapor ele seja maior do que a variância que ele não pode explicar.
Quanto maior a estatística teste, menor a probabilidadede que nossos resultados sejam fruto do acaso.
Quando esta probabilidade cai para abaixo de 0,05(Critério de Fisher), aceitamos isso como uma confiançasuficiente para assumir que a estatística teste é assimgrande porque nosso modelo explica um montantesuficiente de variações para refletir o que realmenteestá acontecendo no mundo real (a população)
Estatísticas teste
Quanto maior a estatística teste, menor a probabilidadede que nossos resultados sejam fruto do acaso.
Ou seja,
Rejeitamos nossa hipótese nula e aceitamos nossahipótese experimental
Estatísticas teste
Teste de Significância do r de Pearson
Para testar a significância do r, calculamos uma estatísticateste conhecida como “razão t”, com graus de liberdadeigual a N-2.
Olhar na tabela o valor crítico de t, com graus de liberdade“N-2” e α=0,05
Se tcalculado > tcrítico, podemos rejeitar a hipótese nula de queρ=0.
Teste de Significância do r de Pearson
Para testar a significância do r, calculamos uma estatísticateste conhecida como “razão t”, com graus de liberdadeigual a N-2.
Olhar na tabela o valor crítico de t, com graus de liberdade“N-2” e α=0,05
Se tcalculado > tcrítico, podemos rejeitar a hipótese nula de queρ=0.
O que o modelo “explica”
O que o modelo NÃO “explica”
N maior, estatística maior
Hipótese Direcional: “Existe uma correlaçãopopulacional positiva”
TESTE DE HIPÓTESE UNILATERAL
Hipótese Não Direcional: “Existe uma correlaçãopopulacional positiva ou negativa”
TESTE DE HIPÓTESE BILATERAL
Testes Uni e Bilaterais
Testes Uni e Bilaterais
Valor-p (p-value): Probabilidade de se obter uma estatística teste igual ou maisextrema que aquela observada em uma amostra, sob hipótese nula. Ou seja, pode-se rejeitar a hipótese nula a 5% caso o valor-p seja menor do que 0,05.
Valor-p ≠ nível de significância (α). O nível de significância é estabelecido antes da coleta dos dados. Já o valor-p é obtido de uma amostra.
1. Escolhemos as hipóteses nula (Ho) e alternativa (H1)
2. Decidimos qual será a estatística utilizada para testar a hipótese nula (no nosso exemplo, a estatística t)
3. Estipulamos o nível de significância (α), ou seja, um valor para o erro do tipo I. Com este valor, construímosa região crítica, que servirá de regra para rejeitar ounão a hipótese nula.
4. Calculamos o valor da estatística teste
5. Quanto o valor calculado da estatística NÃO pertence àregião crítica estabelecida pelo nível de significância, NÃO rejeitamos a hipótese nula. Caso contrário, rejeitamos a hipótese nula.
Passo-a-Passo: Teste de Hipótese
Exigências para o uso do coeficiente de correlação r de Pearson
1. Relação Linear entre X e Y
2. Dados intervalares
3. Amostragem Aleatória (assim podemos aplicaro teste de significância)
4. Características normalmente distribuídas(importante quando se testa significância emamostras pequenas - N<30)
Um alerta sobre interpretação: CAUSALIDADE
Coeficientes de correlação NÃO dão indicaçãoda causalidade
1. O problema da terceira variável
Em qualquer correlação bivariada, a causalidadeentre duas variáveis não pode ser dada porcerto, porque podem ter outras variáveis, medidas ou não, afetando os resultados
Um alerta sobre interpretação: CAUSALIDADE
Coeficientes de correlação NÃO dão indicaçãoda causalidade
2. Direção da causalidadeCoeficientes de correlação nada dizem sobre qualvariável causa a alteração na outra. Mesmo se pudéssemos ignorar o problema da terceira variável, e pudéssemos assumir que as duas variáveiscorrelacionadas eram as únicas importantes, o coeficiente de correlação não indica em qual direção a causalidade opera.
Um alerta sobre interpretação: CAUSALIDADE
Coeficientes de correlação NÃO dão indicaçãoda causalidade
2. Direção da causalidade
Utilizando o R2 para Interpretação
Embora não possamos tirar conclusões diretassobre causalidade, podemos levar o coeficiente de correlação um passo a frente elevando-o aoquadrado Coeficiente de Determinação, R2
O Coeficiente de Determinação é uma medidada quantidade de variação em uma variável queé explicada pela outra.
Quanto da variabilidade do consumo de água per capita pode ser “explicada” pela renda per capita?
CORRELAÇÃO BIVARIADACoeficientes
1. COEFICIENTE DE CORRELAÇÃO DE PEARSON
2. COEFICIENTE DE CORRELAÇÃO DE SPEARMAN NÃO PARAMÉTRICO – Podeser usada quando dados violarem suposiçõesparamétricas, tais como dados não normais, dados ordinais.
3. TAU DE KENDALL NÃO PARAMÉTRICO. Adequado para conjunto pequeno de dados com muitos escores “empatados”
CORRELAÇÃO PARCIALAté o momento tratamos da CORRELAÇÃO BIVARIADA: correlação entre 2 variáveis. Exemplos: coeficiente de correlação de Pearson (r) e o de Spearman
Mas…
Nossa interpretação da relação entre duasvariáveis muda de alguma maneira aoolharmos para o contexto mais amplo de outros fatores relacionados???
CORRELAÇÃO PARCIAL
Em muitos casos, é importante ver o relacionamento entre duas variáveis quando o efeito de outras variáveis são constantes.
CORRELAÇÃO PARCIAL: determina o relacionamento entre variáveis“controlando” o efeito de uma ou maisvariáveis.
1. No SPSS, abra o arquivo“Agua2010_SNIS.sav”
1. Vá em Gráficos > Construtor de Gráficos> Diagrama de Dispersão
Selecione as variáveis
Consumo de Água per capita (população total)
Renda per capita
Diagrama de Dispersão
Diagrama de Dispersão
Como é o relacionamento entre as variáveis selecionadas?
- Linear?
- Forte/Fraco?
- Positivo/Negativo?
ATIVIDADE 4Utilizando os dados do seu trabalho de curso, conduza as seguintes análises no SPSS:
1. Construa e interprete diagrama(s) de dispersão a partir de variáveis de interesse.
2. Calcule e interprete a correlação entre variáveisde interesse. É significativa? O que isso significa?
O exercício deverá ser compreendido como uma versãopreliminar de parte do trabalho final da disciplina. Interprete. Aproveite para entender melhor o problemainvestigado.