viernes, 13 de mayo de 2016

UNIDAD 2: REGRESIÓN Y CORRELACIÓN


REGRESIÓN Y CORRELACIÓN

1. CONCEPTO
2. REGRESIÓN Y CORRELACIÓN LINEAL
3. REGRESIÓN Y CORRELACIÓN PARABÓLICA


REGRESIÓN Y CORRELACIÓN LINEAL 
La regresión y la correlación son dos técnicas estrechamente relacionadas y comprenden una forma de estimación.
En forma más especifica el análisis de correlación y regresión comprende el análisis de los datos muéstrales para saber qué es y cómo se relacionan entre si dos o más variables en una población. El análisis de correlación produce un número que resume el grado de la correlación entre dos variables; y el análisis de regresión da lugar a una ecuación matemática que describe dicha relación.
El análisis de correlación general mente resulta útil para un trabajo de exploración cuando un investigador o analista trata de determinar que variables son potenciales importantes, el interés radica básicamente en la fuerza de la relación. La correlación mide la fuerza de una entre variables; la regresión da lugar a una ecuación que describe dicha relación en términos matemáticos
Los datos necesarios para análisis de regresión y correlación provienen de observaciones de variables relacionadas.
REGRESIÓN LINEAL
La regresión lineal simple comprende el intento de desarrollar una línea recta o ecuación matemática lineal que describe la reacción entre dos variables.
La regresión puede utilizadas de diversas formas. Se emplean en situaciones en la que las dos variables miden aproximadamente lo mismo, pero en las que una variable es relativamente costosa, o, por el contrario, es poco interesante trabajar con ella, mientras que con la otra variable no ocurre lo mismo.
La finalidad de una ecuación de regresión seria estimar los valores de una variable con base en los valores conocidos de la otra.
Otra forma de emplear una ecuación de regresión es para explicar los valores de una variable en término de otra. Es decir se puede intuir una relación de causa y efecto entre dos variables. El análisis de regresión únicamente indica qué relación matemática podría haber, de existir una. Ni con regresión ni con la correlación se pude establecer si una variable tiene “causa “ciertos valores de otra variable.
ECUACIÓN LINEAL
Dos características importantes de una ecuación lineal
·         La independencia de la recta
·         La localización de la recta en algún punto. Una ecuación lineal tiene la forma
y = a + bx
En la que a y b son valores que se determina a partir de los datos de la muestra; a indica la altura de la recta en x= 0, y b señala su pendiente. La variable y es la que se habrá de predecir, y x es la variable predictora.
DETERMINACIÓN DE LA ECUACIÓN MATEMÁTICA
En la regresión, los valores de y son predichos a partir de valores de x dados o conocidos. La variable y recibe el nombre variable dependiente y la variable x, el de variable independiente.
MÉTODOS DE MÍNIMOS CUADRADOS
EL procedimiento más utilizado por adaptar una recta aun conjunto de punto se le que conoce como método de mínimos cuadrados. La recta resultante presenta 2 característica importantes
·         Es nula la suma desviaciones verticales en los puntos a partir de la recta
·         Es mínima la suma de los cuadrados de dicha desviaciones
(yi - yc)2
En el cual
Yi = valor esperado de y
Yc= valor calculado de y utilizando la ecuación de mínimos cuadrados con el valor correspondientes x para yi
Los valores de a y b para la recta es Yc = a + bx que minimiza la suma de los cuadrados de la desviación “ecuaciones normales “
y = na + (x)
xy= a (x) +b (x2)
En las que n es el número de pares de observaciones. Evaluando las cantidades x, y, etc. Se puede resolver estas dos ecuaciones simultáneamente para determinar a b. la ecuaciones puede despejarse. Se obtuvieron dos fórmulas aun para a y otra para b.
n(xy)- (x)(y)
b=
n(x2)-(x)2
y - b
x

a=

n
ANÁLISIS DE CORRELACIÓN
EL objetivo de un estudio de correlación es determinar la consistencia de una relación entre observaciones por partes. EL término “correlación “significa relación mutua, ye que indica el grado en el que los valores de una variable se relacionan con los valores de otra. Se considera tres técnicas de correlación uno para datos de medición, otro para datos jerarquizados y el último para clasificaciones nominales.
EL grado de relación entre dos variables continuas se resume mediante un coeficiente de correlación que se conoce como “r de Pearson “en honor del gran matemático Kart Pearson, quien ideo este método. Esta técnica es válida mientras si es posible establecer ciertos supuestos bastante estrictos. Tales supuestos son los siguientes:
·         Tanto x como y son variables continuas aleatorias. Es decir, a diferencia del análisis de referencia de regresión, no es aceptable seleccionar ciertos valores de x, y después medir y; tanto y como x deben de variar libremente.
·         La distribución conjunta de frecuencia es normal. Esto recibe el nombre de distribución normal di variada.
VENTAJAS:
·         Nos e requiere de supuestos con respectos a la fórmula de población
·         Solamente se necesita una medición nominal (categorías)
LIMITACIONES:
·         El límite superior de C es menor que 1.00 incluso Para un correlación perfecta.
·         El límite superior depende del tamaño de la tabla, por lo que no son comparables los coeficientes de contingencia de tablas de tamaño diferente
·         El coeficiente de contingencia no es directamente comprable con otras medidas de correlación, como la r de Pearson y la r de Spearman, o incluso con otras tablas de contingencia de tamaño diferente.
·         Cada casilla deberá tener una frecuencia esperada por lo menos 5.
·         C Max solamente se puede calcular a partir de tabla de valores al cuadrado

REGRESIÓN Y CORRELACIÓN PARABÓLICA
En estadística, la regresión no lineal es un problema de inferencia para un modelo tipo:
 y = f(x,\theta) + \varepsilon
basado en datos multidimensionales x,y, donde f es alguna función no lineal respecto a algunos parámetros desconocidos θ. Como mínimo, se pretende obtener los valores de los parámetros asociados con la mejor curva de ajuste (habitualmente, con el método de los mínimos cuadrados). Con el fin de determinar si el modelo es adecuado, puede ser necesario utilizar conceptos de inferencia estadística tales como intervalos de confianza para los parámetros así como pruebas de bondad de ajuste.
El objetivo de la regresión no lineal se puede clarificar al considerar el caso de la regresión polinomial, la cual es mejor no tratar como un caso de regresión no lineal. Cuando la función f toma la forma:
f(x) = a x^2 + bx + c
la función f es no lineal en función de x pero lineal en función de los parámetros desconocidos ab, yc. Este es el sentido del término "lineal" en el contexto de la regresión estadística. Los procedimientos computacionales para la regresión polinomial son procedimientos de regresión lineal (múltiple), en este caso con dos variables predictoras x y x^2. Sin embargo, en ocasiones se sugiere que la regresión no lineal es necesaria para ajustar polinomios. Las consecuencias prácticas de esta mala interpretación conducen a que un procedimiento de optimización no lineal sea usado cuando en realidad hay una solución disponible en términos de regresión lineal. Paquetes (software) estadísticos consideran, por lo general, más alternativas de regresión lineal que de regresión no lineal en sus procedimientos.

VÍDEO REGRESIÓN Y CORRELACIÓN 

MAPA MENTAL 

EJERCICIO
Un centro comercial sabe en función de la distancia, en kilómetros, a la que se sitúe de un núcleo de población, acuden los clientes, en cientos, que figuran en la tabla:
Nº de Clientes (X)Distancia (Y)
815
719
625
423
234
140
1. Calcular el coeficiente de correlación lineal.
2. Si el centro comercial se sitúa a 2 km, ¿cuántos clientes puede esperar?
3. Si desea recibir a 5 clientes, ¿a qué distancia del núcleo de población debe situarse?
xiyixi ·yixi2yi2
81512064225
71913349361
62515036625
4239216529
2346841 156
1404011 600
281566031704 496
medias
varianzas
desviaciones típicas
covarianza
coeficiente de correlación lineal
Correlación negativa muy fuerte.
recta de regresión
recta de regresión
recta de regresión
recta de regresión


2 comentarios: