Diferenças entre edições de "Variância"
(Teste) |
|||
Linha 5: | Linha 5: | ||
==Definição== | ==Definição== | ||
Se μ = E(''X'') é o [[valor esperado]] (média) da variável aleatória ''X'', então a variância é | Se μ = E(''X'') é o [[valor esperado]] (média) da variável aleatória ''X'', então a variância é | ||
+ | |||
:<tex>\operatorname{var}(X)=\operatorname{E}((X-\mu)^2).</tex> | :<tex>\operatorname{var}(X)=\operatorname{E}((X-\mu)^2).</tex> | ||
+ | |||
Isto é, é o valor esperado do quadrado do desvio de ''X'' da sua própria média. Em linguagem comum isto pode ser expresso como "A média do quadrado da distância de cada ponto até a média". É assim a "média do quadrado dos desvios". A variância da variável aleatória "X" é geralmente designada por <tex>\operatorname{var}(X)</tex>, <tex>\sigma_X^2</tex>, ou simplesmente <tex>\sigma^2</tex>. | Isto é, é o valor esperado do quadrado do desvio de ''X'' da sua própria média. Em linguagem comum isto pode ser expresso como "A média do quadrado da distância de cada ponto até a média". É assim a "média do quadrado dos desvios". A variância da variável aleatória "X" é geralmente designada por <tex>\operatorname{var}(X)</tex>, <tex>\sigma_X^2</tex>, ou simplesmente <tex>\sigma^2</tex>. | ||
Linha 15: | Linha 17: | ||
== Propriedades == | == Propriedades == | ||
+ | Se a variância é definida, podemos concluir que ela nunca é negativa, porque os quadrados são sempre positivos ou nulos. | ||
− | |||
A unidade de variância é o quadrado da unidade de observação. Por exemplo, a variância de um conjunto de alturas medidas em centimetros será dada em centimetros quadrados. Este facto é inconveniente e levou muitos estatísticos a usar a raiz quadrada da variância, conhecida como o [[desvio padrão]], como um sumário da dispersão. | A unidade de variância é o quadrado da unidade de observação. Por exemplo, a variância de um conjunto de alturas medidas em centimetros será dada em centimetros quadrados. Este facto é inconveniente e levou muitos estatísticos a usar a raiz quadrada da variância, conhecida como o [[desvio padrão]], como um sumário da dispersão. | ||
Pode ser provado facilmente a partir da definição que a variância não depende do valor médio <tex>\mu</tex>. Isto é, se a variável é "deslocada" por uma quantidade ''b'' ao tomarmos ''X''+''b'', a variância da variável aleatória resultante permanece inalterada. Por contraste, se a variável for multiplicada por um factor de escala ''a'', a variância é então multiplicada por ''a<sup>2</sup>''. Mais formalmente, se ''a'' e ''b'' forem constantes reais e ''X'' uma [[variável aleatória]] cuja variância está definida, então: | Pode ser provado facilmente a partir da definição que a variância não depende do valor médio <tex>\mu</tex>. Isto é, se a variável é "deslocada" por uma quantidade ''b'' ao tomarmos ''X''+''b'', a variância da variável aleatória resultante permanece inalterada. Por contraste, se a variável for multiplicada por um factor de escala ''a'', a variância é então multiplicada por ''a<sup>2</sup>''. Mais formalmente, se ''a'' e ''b'' forem constantes reais e ''X'' uma [[variável aleatória]] cuja variância está definida, então: | ||
+ | |||
:<tex>\operatorname{var}(aX+b)=a^2\operatorname{var}(X)</tex> | :<tex>\operatorname{var}(aX+b)=a^2\operatorname{var}(X)</tex> | ||
+ | |||
Outra fórmula para a variância que se deduz de forma simples a partir da definição acima é: | Outra fórmula para a variância que se deduz de forma simples a partir da definição acima é: | ||
Linha 37: | Linha 41: | ||
A variância da população de uma população ''y<sub>i</sub>'' onde ''i = 1, 2, ...., N'' é dada por | A variância da população de uma população ''y<sub>i</sub>'' onde ''i = 1, 2, ...., N'' é dada por | ||
− | :<tex>\sigma^2 = \frac{1}{N} \sum_{i=1}^N | + | |
− | + | ||
+ | :<tex>\sigma^2 = \frac{1}{N} \sum_{i=1}^N \left( y_i - \mu \right) ^ 2,</tex> | ||
+ | |||
onde <tex>\mu</tex> é a média da população. Na prática, quando lidando com grandes populações, é quase sempre impossível achar o valor exacto da variância da população, devido ao tempo, custo e outras restrições aos recursos. | onde <tex>\mu</tex> é a média da população. Na prática, quando lidando com grandes populações, é quase sempre impossível achar o valor exacto da variância da população, devido ao tempo, custo e outras restrições aos recursos. | ||
Linha 44: | Linha 50: | ||
Quando estimando a variância da população usando ''n'' amostras aleatórias ''x<sub>i</sub>'' onde ''i = 1, 2, ..., n'', a fórmula seguinte é um [[estimador]] não enviesado: | Quando estimando a variância da população usando ''n'' amostras aleatórias ''x<sub>i</sub>'' onde ''i = 1, 2, ..., n'', a fórmula seguinte é um [[estimador]] não enviesado: | ||
− | :<tex>s^2 = \frac{1}{n-1} \sum_{i=1}^n | + | |
− | + | :<tex>s^2 = \frac{1}{n-1} \sum_{i=1}^n \left( x_i - \overline{x} \right) ^ 2,</tex> | |
+ | |||
onde <tex>\overline{x}</tex> é a média da amostra. | onde <tex>\overline{x}</tex> é a média da amostra. | ||
Linha 54: | Linha 61: | ||
== Generalizações == | == Generalizações == | ||
− | |||
− | |||
Se ''X'' é uma variável aleatória vectorial, com valores em ''R''<sup>''n''</sup>, e considerado como um vector coluna, então a generalização natural da variância é E[(''X'' − μ)(''X'' − μ)<sup>T</sup>], onde μ = E(''X'') e ''X''<sup>T</sup> é a transposta de ''X'', e logo um vector-linha. A variância é uma [[matriz positiva definida|matriz quadrada não-negativa definida]], referida geralmente como a [[matriz covariância]]. | Se ''X'' é uma variável aleatória vectorial, com valores em ''R''<sup>''n''</sup>, e considerado como um vector coluna, então a generalização natural da variância é E[(''X'' − μ)(''X'' − μ)<sup>T</sup>], onde μ = E(''X'') e ''X''<sup>T</sup> é a transposta de ''X'', e logo um vector-linha. A variância é uma [[matriz positiva definida|matriz quadrada não-negativa definida]], referida geralmente como a [[matriz covariância]]. | ||
Linha 61: | Linha 66: | ||
== História do conceito == | == História do conceito == | ||
− | O termo ''variância'' foi introduzido por | + | O termo ''variância'' foi introduzido por Ronald Fisher num ensaio de 1918 intitulado de ''The Correlation Between Relatives on the Supposition of Mendelian Inheritance''. |
− | O conceito de variância é análogo ao conceito de | + | O conceito de variância é análogo ao conceito de momento de inércia em mecânica clássica. |
<!-- TODO: explain why --> | <!-- TODO: explain why --> | ||
Linha 73: | Linha 78: | ||
* [[Obliquidade]] | * [[Obliquidade]] | ||
* [[Curtose]] | * [[Curtose]] | ||
+ | |||
+ | |||
{{Wikipedia|Variância}} | {{Wikipedia|Variância}} | ||
[[Categoria:Estatística]] | [[Categoria:Estatística]] |
Revisão das 14h38min de 20 de outubro de 2008
Na teoria da probabilidade e na estatística, a variância de uma variável aleatória é uma medida da sua dispersão estatística, indicando quão longe em geral os seus valores se encontram do valor esperado.
A variância de uma variável aleatória real é o seu segundo momento central e também o seu segundo cumulante (os cumulantes só diferem dos momentos centrais a partir do 4º grau, inclusive).
Índice
Definição
Se μ = E(X) é o valor esperado (média) da variável aleatória X, então a variância é
Isto é, é o valor esperado do quadrado do desvio de X da sua própria média. Em linguagem comum isto pode ser expresso como "A média do quadrado da distância de cada ponto até a média". É assim a "média do quadrado dos desvios". A variância da variável aleatória "X" é geralmente designada por , , ou simplesmente .
Notar que a definição acima pode ser usada quer para variáveis aleatórias discretas, quer para contínuas.
Muitas distribuições, tais como a distribuição Cauchy, não têm variância porque o integral relevante diverge. Em particular, se uma distribuição não tem valores esperados, ela também não tem variância. O contrário não é verdadeiro: há distribuições para as quais existe valor esperado mas não existe variância.
Propriedades
Se a variância é definida, podemos concluir que ela nunca é negativa, porque os quadrados são sempre positivos ou nulos.
A unidade de variância é o quadrado da unidade de observação. Por exemplo, a variância de um conjunto de alturas medidas em centimetros será dada em centimetros quadrados. Este facto é inconveniente e levou muitos estatísticos a usar a raiz quadrada da variância, conhecida como o desvio padrão, como um sumário da dispersão.
Pode ser provado facilmente a partir da definição que a variância não depende do valor médio . Isto é, se a variável é "deslocada" por uma quantidade b ao tomarmos X+b, a variância da variável aleatória resultante permanece inalterada. Por contraste, se a variável for multiplicada por um factor de escala a, a variância é então multiplicada por a2. Mais formalmente, se a e b forem constantes reais e X uma variável aleatória cuja variância está definida, então:
Outra fórmula para a variância que se deduz de forma simples a partir da definição acima é:
Na prática usa-se muito frequentemente esta fórmula para calcular mais rapidamente a variância.
Uma razão para o uso da variância em preferência a outras medidas de dispersão é que a variância da soma (ou diferença) de variáveis aleatórias independentes é a soma das suas variâncias. Uma condição não tão estricta, chamada de incorrelação (uncorrelatedness) também é suficiente. Em geral,
-
Aqui é a covariância, a qual é zero para variáveis aleatórias não correlacionadas.
Variância da população e variância da amostra
Em estatística, o conceito de variância também pode ser usado para descrever um conjunto de observações. Quando o conjunto das observações é uma população, é chamada de variância da população. Se o conjunto das observações é (apenas) uma amostra estatística, chamamos-lhe de variância amostral (ou variância da amostra).
A variância da população de uma população yi onde i = 1, 2, ...., N é dada por
onde é a média da população. Na prática, quando lidando com grandes populações, é quase sempre impossível achar o valor exacto da variância da população, devido ao tempo, custo e outras restrições aos recursos.
Um método comum de estimar a variância da população é através da tomada de amostras. Quando estimando a variância da população usando n amostras aleatórias xi onde i = 1, 2, ..., n, a fórmula seguinte é um estimador não enviesado:
onde é a média da amostra.Notar que o denominador n-1 acima contrasta com a equação para a variância da população. Uma fonte de confusão comum é que o termo variância da amostra e a notação s2 pode referir-se quer ao estimador não enviesado da variância da população acima como também àquilo que é em termos estrictos, a variância da amostra, calculada usando n em vez de n-1.
Intuitivamente, o cálculo da variância pela divisão por n em vez de n-1 dá uma sub-estimativa da variância da população. Isto porque usamos a média da amostra como uma estimativa da média da população , o que não conhecemos. Na prática, porém, para grandes n, esta distinção é geralmente muito pequena.
Generalizações
Se X é uma variável aleatória vectorial, com valores em Rn, e considerado como um vector coluna, então a generalização natural da variância é E[(X − μ)(X − μ)T], onde μ = E(X) e XT é a transposta de X, e logo um vector-linha. A variância é uma matriz quadrada não-negativa definida, referida geralmente como a matriz covariância.
Se X é uma variável aleatória de valores complexos, então a sua variância é E[(X − μ)(X − μ)*], onde X* é o conjugado complexo de X. Esta variância, assim como no caso real, é uma matriz quadrada não-negativa definida, cuja diagonal são números reais não-negativos.
História do conceito
O termo variância foi introduzido por Ronald Fisher num ensaio de 1918 intitulado de The Correlation Between Relatives on the Supposition of Mendelian Inheritance.
O conceito de variância é análogo ao conceito de momento de inércia em mecânica clássica.
Ver Também
Esta página usa conteúdo da Wikipedia. O artigo original estava em Variância. Tal como o Think Finance neste artigo, o texto da Wikipedia está disponível segundo a GNU Free Documentation License.