viernes, 13 de mayo de 2016

UNIDAD 5: TEORÍA DE MUESTREO


TEORÍA DE MUESTREO 


1. TIPOS DE MUESTREO 

2. CALCULO DEL TAMAÑO DE LA MUESTRA 


1. TIPOS DE MUESTREO 



Muestreo probabilístico (aleatorio): En este tipo de muestreo, todos los individuos de la población pueden formar parte de la muestra, tienen probabilidad positiva de formar parte de la muestra. Por lo tanto es el tipo de muestreo que deberemos utilizar en nuestras investigaciones, por ser el riguroso y científico. 


Muestreo no probabilístico (no aleatorio): En este tipo de muestreo, puede haber clara influencia de la persona o personas que seleccionan la muestra o simplemente se realiza atendiendo a razones de comodidad. Salvo en situaciones muy concretas en la que los errores cometidos no son grandes, debido a la homogeneidad de la población, en general no es un tipo de muestreo riguroso y científico, dado que no todos los elementos de la población pueden formar parte de la muestra. Por ejemplo, si hacemos una encuesta telefónica por la mañana, las personas que no tienen teléfono o que están trabajando, no podrán formar parte de la muestra.

Muestreo aleatorio simple

En un muestreo aleatorio simple todos los individuos tienen la misma probabilidad de ser seleccionados. La selección de la muestra puede realizarse a través de cualquier mecanismo probabilístico en el que todos los elementos tengan las mismas opciones de salir. Por ejemplo uno de estos mecanismos es utilizar una tabla de números aleatorios, o también con un ordenador generar números aleatorios, comprendidos entre cero y uno, y multiplicarlos por el tamaño de la población, este es el que vamos a utilizar. 

Muestreo aleatorio estratificado

Es frecuente que cuando se realiza un estudio interese estudiar una serie de subpoblaciones (estratos) en la población, siendo importante que en la muestra haya representación de todos y cada uno de los estratos considerados. El muestreo aleatorio simple no nos garantiza que tal cosa ocurra. Para evitar esto, se saca una muestra de cada uno de los estratos. 
Hay dos conceptos básicos:

Estratificación: El criterio a seguir en la formación de los estratos será formarlos de tal manera que haya la máxima homogeneidad en relación a la variable a estudio dentro de cada estrato y la máxima heterogeneidad entre los estratos. 

Afijación: Reparto del tamaño de la muestra en los diferentes estratos o subpoblaciones. Existen varios criterios de afijación entre los que destacamos: 

1. Afijación igual: Todos los estratos tienen el mismo número de elementos en la muestra. 
2. Afijación proporcional: Cada estrato tiene un número de elementos en la muestra proporcional a su tamaño. 
3. Afijación Neyman: Cuando el reparto del tamaño de la muestra se hace de forma proporcional al valor de la dispersión en cada uno de los estratos.

Muestreo aleatorio sistemático

Es un tipo de muestreo aleatorio simple en el que los elementos se seleccionan según un patrón que se inicia con una elección aleatoria.

Considerando una población de N elementos, si queremos extraer una muestra de tamaño n, partimos de un número h=N/n, llamado coeficiente de elevación y tomamos un número al azar a comprendido entre 1 y h que se denomina arranque u origen. 

La muestra estará formada por los elementos: a, a+h, a+2h,....a+(n-1)h. 
De aqui se deduce que un elemento poblacional no podrá aparecer más de una vez en la muestra. La muestra será representativa de la población pero introduce algunos sesgos cuando la población está ordenada en función de determinados criterios.

Muestreo aleatorio por conglomerados o áreas

Mientras que en el muestreo aleatorio estratificado cada estrato presenta cierta homogeneidad, un conglomerado se considera una agrupación de elementos que presentan características similares a toda la población. 

Por ejemplo, para analizar los gastos familiares o para controlar el nivel de audiencia de los programas y cadenas de televisión, se utiliza un muestreo por conglomerados-familias que han sido elegidas aleatoriamente.

Las familias incluyen personas de todas las edades, muy representativas de las mismas edades y preferencias que la totalidad de la población. 

Una vez seleccionados aleatoriamente los conglomerados, se toman todos los elementos de cada uno para formar la muestra. En este tipo de muestreo lo que se elige al azar no son unos cuantos elementos de la población, sino unos grupos de elementos de la población previamente formados. Elegidos estos grupos o "conglomerados" en un número suficiente, se pasa posteriormente a la elección, también al azar, de los elementos que han de ser observados dentro de cada grupo, o bien, según se desee, a la observación de todos los elementos que componen los grupos elegidos. 

Por ejemplo, para analizar los gastos familiares o para controlar el nivel de audiencia de los programas y cadenas de televisión, se utiliza un muestreo por conglomerados-familias que han sido elegidas aleatoriamente. Las familias incluyen personas de todas las edades, muy representativas de las mismas edades y preferencias que la totalidad de la población. 

Una vez seleccionados aleatoriamente los conglomerados, se toman todos los elementos de cada uno para formar la muestra. En este tipo de muestreo lo que se elige al azar no son unos cuantos elementos de la población, sino unos grupos de elementos de la población previamente formados. Elegidos estos grupos o "conglomerados" en un número suficiente, se pasa posteriormente a la elección, también al azar, de los elementos que han de ser observados dentro de cada grupo, o bien, según se desee, a la observación de todos los elementos que componen los grupos elegidos. 

Muestreo no Probabilístico

Existen otros procedimientos para seleccionar las muestras, que son menos precisos que los citados y que resultan menos costosos. El procedimiento más utilizado es el muestreo no probabilístico, denominado opinático consistente en que el investigador selecciona la muestra que supone sea la más representativa, utilizando un criterio subjetivo y en función de la investigación que se vaya a realizar. 

Con el muestreo opinático la realización del trabajo de campo puede simplificarse enormemente pues se puede concentrar mucho la muestra. Sin embargo, al querer concentrar la muestra, se pueden cometer errores y sesgos debidos al investigador y, al tratarse de un muestreo subjetivo (según las preferencias del investigador), los resultados de la encuesta no tienen una fiabilidad estadística exacta. 

Un muestreo no probabilístico muy utilizado hoy en día por los institutos de opinión es el de itinerarios, consistente en facilitar al entrevistador el perfil de las personas que tiene que entrevistar en cada uno de los itinerarios en que se realizan las entrevistas. 

El muestreo denominado de cuotas, utiliza en sucesivos sondeos al mismo conjunto muestral (inicialmente seleccionado de forma aleatoria) y es el empleado para medir índices de audiencia de programas televisivos. 

En muestreo se entiende por población a la totalidad del universo que interesa considerar, y que es necesario que esté bien definido para que se sepa en todo momento que elementos lo componen. 

No obstante, cuando se realiza un trabajo puntual, conviene distinguir entre población teórica: conjunto de elementos a los cuales se quieren extrapolar los resultados, y población estudiada: conjunto de elementos accesibles en nuestro estudio. 

Censo: En ocasiones resulta posible estudiar cada uno de los elementos que componen la población, realizándose lo que se denomina un censo, es decir, el estudio de todos los elementos que componen la población. 

La realización de un censo no siempre es posible, por diferentes motivos: a) economía: el estudio de todos los elementos que componen una población, sobre todo si esta es grande, suele ser un problema costoso en tiempo, dinero, etc.; b) que las pruebas a las que hay que someter a los sujetos sean destructivas; c) que la población sea infinita o tan grande que exceda las posibilidades del investigador. 

Si la numeración de elementos, se realiza sobre la población accesible o estudiada, y no sobre la población teórica, entonces el proceso recibe el nombre de marco o espacio muestral. 

Concepto de muestreo

El muestreo es una herramienta de la investigación científica. Su función básica es determinar que parte de una realidad en estudio (población o universo) debe examinarse con la finalidad de hacer inferencias sobre dicha población. El error que se comete debido a hecho de que se obtienen conclusiones sobre cierta realidad a partir de la observación de sólo una parte de ella, se denomina error de muestreo. Obtener una muestra adecuada significa lograr una versión simplificada de la población, que reproduzca de algún modo sus rasgos básicos. 

Muestra: En todas las ocasiones en que no es posible o conveniente realizar un censo, lo que hacemos es trabajar con una muestra, entendiendo por tal una parte representativa de la población. Para que una muestra sea representativa, y por lo tanto útil, debe de reflejar las similitudes y diferencias encontradas en la población, ejemplificar las características de la misma. 

Cuando decimos que una muestra es representativa indicamos que reúne aproximadamente las características de la población que son importantes para la investigación. 

a. Población Los estadísticos usan la palabra población para referirse no sólo a personas si no a todos los elementos que han sido escogidos para su estudio. 
b. Muestra Los estadísticos emplean la palabra muestra para describir una porción escogida de la población. Matemáticamente, podemos describir muestras y poblaciones al emplear mediciones como la Media, Mediana, la moda, la desviación estándar. Cuando éstos términos describen una muestra se denominan estadísticas. 

Una estadística es una característica de una muestra, los estadísticos emplean letras latinas minúsculas para denotar estadísticas y muestras. 

Tipos de muestreo Los autores proponen diferentes criterios de clasificación de los diferentes tipos de muestreo, aunque en general pueden dividirse en dos grandes grupos: métodos de muestreo probabilísticos y métodos de muestreo no probabilísticos. 

Terminología 

• Población objeto: conjunto de individuos de los que se quiere obtener una información. 
• Unidades de muestreo: número de elementos de la población, no solapados, que se van a estudiar. Todo miembro de la población pertenecerá a una y sólo una unidad de muestreo. 
• Unidades de análisis: objeto o individuo del que hay que obtener la información. 
• Marco muestral: lista de unidades o elementos de muestreo. 
• Muestra: conjunto de unidades o elementos de análisis sacados del marco




2. CALCULO DEL TAMAÑO DE LA MUESTRA 
POBLACIÓN.- Llamado también universo o colectivo, es el conjunto de todos los elementos que tienen una característica común. Una población puede ser finita o infinita. Es población finita cuando está delimitada y conocemos el número que la integran, así por ejemplo: Estudiantes de la Universidad CUN. Es población infinita cuando a pesar de estar delimitada en el espacio, no se conoce el número de elementos que la integran, así por ejemplo: Todos los profesionales universitarios que están ejerciendo su carrera.

MUESTRA.- La muestra es un subconjunto de la población. Ejemplo: Estudiantes de 2do Semestre de la Universidad CUN.
Sus principales características son:
Representativa.- Se refiere a que todos y cada uno de los elementos de la población tengan la misma oportunidad de ser tomados en cuenta para formar dicha muestra.
Adecuada y válida.- Se refiere a que la muestra debe ser obtenida de tal manera que permita establecer un mínimo de error posible respecto de la población.
Para que una muestra sea fiable, es necesario que su tamaño sea obtenido mediante procesos matemáticos que eliminen la incidencia del error.

ELEMENTO O INDIVIDUO
Unidad mínima que compone una población. El elemento puede ser una entidad simple (una persona) o una entidad compleja (una familia), y se denomina unidad investigativa.

FÓRMULA  PARA CALCULAR EL TAMAÑO DE LA MUESTRA

Para calcular el tamaño de la muestra suele utilizarse la siguiente fórmula:
Monografias.com
Donde:
n = el tamaño de la muestra.
N = tamaño de la población.
Monografias.comDesviación estándar de la población que, generalmente cuando no se tiene su valor, suele utilizarse un valor constante de 0,5.
Z = Valor obtenido mediante niveles de confianza. Es un valor constante que, si no se tiene su valor, se lo toma en relación al 95% de confianza equivale a 1,96 (como más usual) o en relación al 99% de confianza equivale 2,58, valor que queda a criterio del investigador.
e = Límite aceptable de error muestral que, generalmente cuando no se tiene su valor, suele utilizarse un valor que varía entre el 1% (0,01) y 9% (0,09), valor que queda a criterio del encuestador.
La fórmula del tamaño de la muestra se obtiene de la fórmula para calcular la estimación del intervalo de confianza para la media, la cual es:
Monografias.com
De donde el error es:
Monografias.com
De esta fórmula del error de la estimación del intervalo de confianza para la media se despeja la n, para lo cual se sigue el siguiente proceso:
Elevando al cuadrado a ambos miembros de la fórmula se obtiene:
Monografias.com
Monografias.com
Multiplicando fracciones:
Monografias.com
Eliminando denominadores:
Monografias.com
Eliminando paréntesis:
Monografias.com
Transponiendo n a la izquierda:
Monografias.com
Factor común de n:
Monografias.com
Despejando n:
Monografias.com
Ordenando se obtiene la fórmula para calcular el tamaño de la muestra:
Monografias.com


VÍDEO:




MAPA MENTAL

EJERCICIO 

En una fábrica que consta de 600 trabajadores queremos tomar una muestra de 20. Sabemos que hay 200 trabajadores en la sección A, 150 en la B, 150 en la C y 100 en la D.
solución
solución
solución
solución












UNIDAD 4: DISTRIBUCIONES DE PROBABILIDAD


DISTRIBUCIONES DE PROBABILIDAD 


  • PARA VARIABLES DISCRETAS 
          1. DISTRIBUCIÓN BINOMIAL 
          2. DISTRIBUCIÓN DE POISSON 
  • PARA VARIABLES CONTINUAS 
          1. DISTRIBUCIÓN NORMAL 

DISTRIBUCIONES DE PROBABILIDAD 


En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable aleatoria es una función que asigna a cada suceso definido sobre la variable aleatoria la probabilidad de que dicho suceso ocurra. La distribución de probabilidad está definida sobre el conjunto de todos los sucesos, cada uno de los sucesos es el rango de valores de la variable aleatoria.
La distribución de probabilidad está completamente especificada por la función de distribución, cuyo valor en cada x real es la probabilidad de que la variable aleatoria sea menor o igual que x.
Dada una variables aleatoria \scriptstyle X, su función de distribución\scriptstyle F_X(x), es
F_X(x) = \mathrm{Prob}( X \le x ) = \mu_P\{\omega\in \Omega|X(\omega)\le x\}
Por simplicidad, cuando no hay lugar a confusión, suele omitirse el subíndice \scriptstyle X y se escribe, simplemente, \scriptstyle F(x). Donde en la fórmula anterior:
\mathrm{Prob}\,, es la probabilidad definida sobre un espacio de probabilidad y una medida unitaria sobre el espacio muestral 
\mu_P\, es la medida sobre la σ-álgebra de conjuntos asociada al espacio de probabilidad.
\Omega\, es el espacio muestral, o conjunto de todos los posibles sucesos aleatorios, sobre el que se define el espacio de probabilidad en cuestión.
X:\Omega\to \R es la variable aleatoria en cuestión, es decir, una función definida sobre el espacio muestral a los números reales.

PROPIEDADES

Como consecuencia casi inmediata de la definición, la función de distribución:
  • Es una función continua por la derecha.
  • Es una función monotona no decresiente.
Además, cumple
\lim_{x \to -\infty} F(x) = 0, \qquad \lim_{x \to +\infty} F(x) = 1
Para dos numeros reales  cualesquiera a y b tal que (a < b), los sucesos ( X \le a ) y ( a < X \le b ) son mutuamente excluyentes y su unión es el suceso ( X \le b ), por lo que tenemos entonces que:
P( X \le b ) = P( X \le a ) + P( a < X \le b )
P( a < X \le b ) = P( X \le b ) - P( X \le a )
y finalmente
P(a < X \le b ) = F(b) - F(a)
Por lo tanto una vez conocida la función de distribución F(x) para todos los valores de la variable aleatoria x conoceremos completamente la distribución de probabilidad de la variable.
Para realizar cálculos es más cómodo conocer la distribución de probabilidad, y sin embargo para ver una representación gráfica de la probabilidad es más práctico el uso de la función de densidad .
VARIABLES DISCRETAS 
Se denomina distribución de variable discreta a aquella cuya función de probabilidad sólo toma valores positivos en un conjunto de valores de X finito o infinito numerable. A dicha función se le llama función de masa de probabilidad. En este caso la distribución de probabilidad es la suma de la función de masa, por lo que tenemos entonces que:
F(x) = P( X \le x ) =  \sum_{k=-\infty}^x f(k)
Y, tal como corresponde a la definición de distribución de probabilidad, esta expresión representa la suma de todas las probabilidades desde  -\infty  hasta el valor x.
DISTRIBUCIÓN BINOMIAL 
En estadística, la distribución binomial es una distribución de probabilidad discreta que cuenta el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.
Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p, se escribe:
X \sim B(n, p)\,
La distribución binomial es la base del test binomial de significación estadistica
EJEMPLOS 
  • Las siguientes situaciones son ejemplos de experimentos que pueden modelizarse por esta distribución:Se lanza un dado diez veces y se cuenta el número X de tres obtenidos: entonces X ~ B(10, 1/6)
  • Se lanza una moneda dos veces y se cuenta el número X de caras obtenidas: entonces X ~ B(2, 1/2)

CARACTERÍSTICAS ANALÍTICAS
Su funcion de probabilidad es
\!f(x)={n \choose x}p^x(1-p)^{n-x} \,\!
donde x = \{0, 1, 2, \dots , n\},
siendo \!{n \choose x} = \frac{n!}{x!(n-x)!} \,\! las combinaciones de n \,\! en x \,\! (n \,\! elementos tomados de x \,\! en x \,\!)

Ejemplo

Supongamos que se lanza un dado (con 6 caras) 51 veces y queremos conocer la probabilidad de que el número 3 salga 20 veces. En este caso tenemos una X ~ B(51, 1/6) y la probabilidad sería P(X=20):
\!P(X=20)={51 \choose 20}(1/6)^{20}(1-1/6)^{51-20} \,\!

DISTRIBUCIÓN DE POISSON

En teoría de la probabilidad y estadística, la distribución de Poisson es una distribución de probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad de que ocurra un determinado número de eventos durante cierto período de tiempo. Concreta mente, se especializa en la probabilidad de ocurrencia de sucesos con probabilidades muy pequeñas, o sucesos "raros".
Fue descubierta por Simeon-Denis Poisson, que la dio a conocer en 1838 en su trabajo Recherches sur la probabilité des jugements en matières criminelles et matière civile (Investigación sobre la probabilidad de los juicios en materias criminales y civiles).
La función de masa o probabilidad de la distribución de Poisson es
F(k,\lambda)=\frac{e^{-\lambda} \lambda^k}{k!}
donde
  • k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de que el evento suceda precisamente k veces).
  • λ es un parámetro positivo que representa el número de veces que se espera que ocurra el fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribución de Poisson con λ = 10×4 = 40.
  • e es la base de los logaritmos naturales (e = 2,71828...)
Tanto el valor esperado como la varianza de una variable aleatoria con distribución de Poisson son iguales a λ. Los momentos de orden superior son polinomio de Touchard en λ cuyos coeficientes tienen una interpretación combinatoria De hecho, cuando el valor esperado de la distribución de Poisson es 1, entonces según la fórmula de Dobinski, el n-ésimo momento iguala al número de particiones de tamañon.
La moda de una variable aleatoria de distribución de Poisson con un λ no entero es igual a , el mayor de los enteros menores que λ (los símbolos \scriptstyle\lfloor\ \rfloor representan la función parte entera). Cuando λ es un entero positivo, las modas son λ y λ − 1.
La función generadora de momentos de la distribución de Poisson con valor esperado λ es
Las variables aleatorias de Poisson tienen la propiedad de ser infinitamente divisibles.
La divergencia Kullback-Leibler desde una variable aleatoria de Poisson de parámetro λ0 a otra de parámetro λ es
D_{\mathrm{KL}}(\lambda||\lambda_0) = \lambda \left( 1 - \frac{\lambda_0}{\lambda} + \frac{\lambda_0}{\lambda} \log \frac{\lambda_0}{\lambda} \right).
DISTRIBUCION NORMAL 


En estadística y probabilidad se llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales.
La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro estadístico. Esta curva se conoce como campana de Gauss y es el gráfico de una función gaussiana.
La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes.
De hecho, la estadística descriptiva sólo permite describir un fenómeno, sin explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso de la estadística en psicología y sociología sea conocido comométodo correlacional.
La distribución normal también es importante por su relación con la estimación por mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.
Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo de la normal son:
La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo, la distribución muestral de las medias muestrales es aproximadamente normal, cuando la distribución de la población de la cual se extrae la muestra no es normal. Además, la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una "normalidad" más o menos justificada de la variable aleatoria bajo estudio.
En probabilidad, la distribución normal aparece como el límite de varias distribuciones de probabilidad continuas discretas. 

La función de distribución de la distribución normal está definida como sigue:
 \begin{align}
\Phi_{\mu,\sigma^2}(x)
&{}=\int_{-\infty}^x\varphi_{\mu,\sigma^2}(u)\,du\\
&{}=\frac{1}{\sigma\sqrt{2\pi}}
\int_{-\infty}^x
e^{-\frac{(u - \mu)^2}{2\sigma^2}}\, du ,\quad x\in\mathbb{R}\\
\end{align}
Por tanto, la función de distribución de la normal estándar es:

\Phi(x) = \Phi_{0,1}(x)
= \frac{1}{\sqrt{2\pi}}
\int_{-\infty}^x
e^{-\frac{u^2}{2}}
\, du, \quad x\in\mathbb{R}.
Esta función de distribución puede expresarse en términos de una función especial llamada función error de la siguiente forma:

\Phi(x)
=\frac{1}{2} \Bigl[ 1 + \operatorname{erf} \Bigl( \frac{x}{\sqrt{2}} \Bigr) \Bigr],
\quad x\in\mathbb{R},
y la propia función de distribución puede, por consiguiente, expresarse así:

\Phi_{\mu,\sigma^2}(x)
=\frac{1}{2} \Bigl[ 1 + \operatorname{erf} \Bigl( \frac{x-\mu}{\sigma\sqrt{2}} \Bigr) \Bigr],
\quad x\in\mathbb{R}.
El complemento de la función de distribución de la normal estándar, 1 - \Phi(x), se denota con frecuencia Q(x), y es referida, a veces, como simplemente función Q, especialmente en textos de ingeniería.5 6 Esto representa la cola de probabilidad de la distribución gaussiana. También se usan ocasionalmente otras definiciones de la función Q, las cuales son todas ellas transformaciones simples de \Phi.7
La inversa de la función de distribución de la normal estándar  puede expresarse en términos de la inversa de la función de error:

\Phi^{-1}(p)
= \sqrt2
\;\operatorname{erf}^{-1} (2p - 1),
\quad p\in(0,1),
y la inversa de la función de distribución puede, por consiguiente, expresarse como:

\Phi_{\mu,\sigma^2}^{-1}(p)
= \mu + \sigma\Phi^{-1}(p)
= \mu + \sigma\sqrt2
\; \operatorname{erf}^{-1}(2p - 1),
\quad p\in(0,1).
Esta función cuantil se llama a veces la función probit. No hay una primitiva elemental para la función probit. Esto no quiere decir meramente que no se conoce, sino que se ha probado la inexistencia de tal función. Existen varios métodos exactos para aproximar la función cuantil mediante la distribución normal. 
Los valores Φ(x) pueden aproximarse con mucha precisión por distintos métodos, tales como integración numéricaseries de Taylorseries asintóticas y fracciones continuas.

VIDEO
MAPA MENTAL 
EJERCICIO 
Sea X una variable aleatoria discreta cuya función de probabilidad es:
xi
00,1
10,2
20,1
30,4
40,1
50,1
SOLUCION 
1Calcular, representar gráficamente la función de distribución
f(x)
2Calcular las siguientes probabilidades:
p (X < 4.5)
p (X < 4.5) = F (4.5) = 0.9
p (X ≥ 3)
p (X ≥ 3) = 1 - p(X < 3) = 1 - 0.4 = 0.6
p (3 ≤ X < 4.5)
p (3 ≤ X < 4.5) = p (X < 4.5) - p(X < 3) = 0.9 - 0.4 = 0.5