Matemática Financeira e Informática de Gestão



Baixar 2,63 Mb.
Página22/32
Encontro01.07.2018
Tamanho2,63 Mb.
1   ...   18   19   20   21   22   23   24   25   ...   32

Associação entre variáveis


Até este ponto, assumimos a existência de apenas uma variável estatística. No entanto, no geral usamos várias variáveis estatísticas na caracterização de um indivíduo (no exemplo da pessoa usamos a cor da pele, do cabelo, etc.). Algumas variáveis estatísticas são independentes (e.g., a cor do cabelo e o peso) enquanto que outras, sem deixarem de ser aleatórias, são dependentes (e.g., a altura e o peso: os indivíduos mais altos são, em média, os mais pesados). No sentido de poder realizar operações algébricas com variáveis aleatórias (já o fizemos com uma variável aleatória e constantes), vamos ver como se modeliza a associação entre variáveis estatística (Nota: A definição de independência de variáveis é dada em Estatística I).

Variável discreta: Frequências relativas / probabilidades cruzadas (de classes)


A informação será semelhante à situação em que apenas temos uma variável estatística discreta (ou dividida em classes), mas agora serão classes conjuntas. Colocamos as percentagens de indivíduos em cada quadro de forma que o total some 100%. Por exemplo, podemos cruzar a cor da pele com a cor de cabelo (duas variáveis qualitativas):


Pele \ Cabelo

Louro

Castanho

Escuro

Clara

5%

3%

1%

Morena

9%

45%

15%

Mulata

0%

2%

12%

Escura

0%

1%

7%

Outro exemplo em que dividimos duas variáveis contínuas em classes é o cruzamento da altura com o peso:



Altura \ peso

]0.0; 40.0]

]40.0; 80.0]

]80.0; 120.0]

Total

]0.5; 1.0]

10.6%

0.2%

0.0%

10.8%

]1.0; 1.5]

13.9%

40.0%

0.1%

54.0%

]1.5; 2.0]

0.3%

25.8%

9.1%

35.2%

Total

24.8%

66.0%

9.2%

100.0%

Nas tabelas que cruzam duas variáveis, a soma horizontal das frequências / probabilidades quantifica a percentagem de indivíduos que pertencem à correspondente classe das alturas enquanto que a soma vertical quantifica a percentagem de indivíduos que pertencem à correspondente classe dos pesos. Cada uma das linhas (e das colunas) traduz uma função distribuição de uma variável condicionada a um determinado valor da outra variável. Esta função distribuição tem que ser corrigida para somar 100%. Por exemplo, a função distribuição do peso para as pessoas que têm altura no intervalo ]1.5; 2.0] obtêm-se dividindo os da linha correspondente por 35.2%:




Peso 

]0.0; 40.0]

]40.0; 80.0]

]80.0; 120.0]

]1.5; 2.0]

0.85%

73.30%

25.85%



Variáveis contínuas: Covariância e coeficiente de correlação linear


A covariância é uma medida que condensa num só número a associação entre duas variáveis estatísticas. A covariância entre estas duas variáveis, (x, y) ou cov(x, y), vem definida pela expressão seguinte.

Os indivíduos podem representar apenas instantes de tempo diferentes, caso em quem podemos trocar o índice i por t. Por exemplo, a covariância entre a taxa EURIBOR (desconhecidas) em dois dias consecutivos.

Notar que a variância é um caso particular desta expressão: 2 = (x, x).

O valor da covariância é crescente com a variância das variáveis estatísticas de onde a sua interpretação económica ser difícil. Pode ser um valor negativo, zero ou positivo.



No sentido de retirar à covariância o “efeito de escala” das variâncias das variáveis, divide-se pelos desvios padrão das variáveis resultando no coeficiente de correlação linear de Pearson, (x, y), ((x) representa o desvio padrão da variável estatística x):



Costuma-se designar por o coeficiente de correlação linear populacional (entre as variáveis aleatórias X e Y) e por r o coeficiente de correlação amostral (entre as características x e y observadas nos indivíduos de uma amostra)

O valor do coeficiente de correlação linear de Pearson pertence ao intervalo [–1; 1]. Se for próximo de zero, traduz que não existe relação linear entre as variáveis. Se for próximo de +1, traduz a existência de uma relação linear positiva forte (por exemplo, quanto maior a altura, maior será, em média, o peso) enquanto que se for próximo de –1, a relação linear continua forte mas negativa (por exemplo, quanto maior o peso, menor será, em média, a esperança de vida).

O valor do coeficiente de correlação de Pearson tem ainda outro significado. O seu valor ao quadrado, conhecido por R2, quantifica quanto eu posso reduzir na variância de uma variável por conhecer a concretização da outra variável. Por exemplo, na população a variância do peso é 400, (o desvio padrão é 20 kg). Se eu souber que o entre a altura e o peso é 0.7, se eu conhecer a altura da pessoa, reduzo a variância do peso para 51% (i.e., o desvio padrão diminui para 14.28kg).

Contrariamente ao coeficiente de correlação linear que mede a associação entre duas variáveis, o R2 pode a modelos lineares com uma variável explicadas e várias variáveis explicativa (a aprofundar em Métodos Econométricos e de Previsão).





1   ...   18   19   20   21   22   23   24   25   ...   32


©livred.info 2017
enviar mensagem

    Página principal