Diferencia entre los conceptos de Desviación Estándar y Varianza

Escrito por Rae Williams ; última actualización: February 01, 2018
Hemera Technologies/AbleStock.com/Getty Images

La desviación estándar y la varianza son medidas estadísticas de dispersión para evaluar qué tan lejos están los puntos de datos individuales de la media, o promedio de un conjunto de datos. Saber qué tan lejos del promedio está cada punto de datos permite sacar conclusiones más precisas sobre un conjunto de datos, población o muestra, porque puedes elegir afloramientos y valores extremos y observar cómo afectan los resultados.

Calcular la varianza

La varianza se define como la media de los cuadrados de sus diferencias individuales con la media. Para calcular la varianza dentro de un conjunto de datos, primero calcula la media sumando todos los tus puntos de datos y luego divide el total por el número de puntos de datos que estás utilizando. Luego, la media se resta de cada punto de datos individualmente, el resultado se eleva al cuadrado y ahora se obtiene la media de estos valores.

Calcular la desviación estándar

La desviación estándar se calcula simplemente tomando la raíz cuadrada del valor que se obtiene cuando se calcula la varianza. Programas como Microsoft Excel y SPSS calculan la varianza y la desviación estándar por tí y son muy útiles cuando se trabaja con grandes conjuntos de datos, ya que tienden a ser más precisos que calcular la desviación estándar a mano.

Diferencia conceptual entre la desviación estándar y la varianza

La varianza de un conjunto de datos mide la dispersión matemática de los datos con respecto a la media. Sin embargo, aunque este valor es teóricamente correcto, es difícil darle un sentido en el mundo real porque los valores utilizados para calcularlo se elevaron al cuadrado. La desviación estándar, siendo la raíz cuadrada de la varianza tiene un valor que está en las mismas unidades que los valores originales, lo que hace mucho más fácil el trabajar con ella y es más fácil de interpretar junto con el concepto de la curva normal.

Desviación estándar, varianza y curva normal

Una curva normal es una representación gráfica teórica de un conjunto de datos donde los valores se distribuyen uniformemente en el eje x, y la mayoría de los valores caen bastante cerca de la media. En la curva normal, una desviación estándar alejada de la media en cualquier dirección representará el 68 por ciento de la población que se está midiendo. En términos de varianza, menor varianza en los datos o población causará que más del 68 por ciento de los datos caiga dentro de la primera desviación estándar, mientras una mayor varianza tiene el efecto contrario.

×