jueves, 1 de diciembre de 2016

Variables aleatorias y función de distribución de probabilidad 1.0

VARIABLE ALEATORIA 

Una variable aleatoria o variable estocástica es una función que asigna un valor, usualmente numérico, al resultado de un experimento aleatorio. Por ejemplo, los posibles resultados de tirar un dado dos veces: (1, 1), (1, 2), etc. o un número real (p.e., la temperatura máxima medida a lo largo del día en una ciudad concreta).
Los valores posibles de una variable aleatoria pueden representar los posibles resultados de un experimento aún no realizado, o los posibles valores de una cantidad cuyo valor actualmente existente es incierto (p.e., como resultado de medición incompleta o imprecisa). Intuitivamente, una variable aleatoria puede tomarse como una cantidad cuyo valor no es fijo pero puede tomar diferentes valores; una distribución de probabilidad se usa para describir la probabilidad de que se den los diferentes valores. En términos formales una variable aleatoria es una función definida sobre un espacio de probabilidad.
Se utilizan letras mayúsculas X, Y,... para designar variables aleatorias, y las respectivas minúsculas (x, y,...) para designar valores concretos de las mismas.
Variable aleatoria discreta
Una variable discreta es aquella que solo puede tomar un número finito de valores entre dos valores cualesquiera de una característica.
Ejemplos:
El número de hijos de una familia, la puntuación obtenida al lanzar un dado.
Variable aleatoria continúa
Una variable continua es aquella que puede tomar un número infinito de valores entre dos valores cualesquiera de una característica.
Ejemplos:

La altura de los alumnos de una clase, las horas de duración de una pila.


FUNCIÓN DE DISTRIBUCIÓN DE PROBABILIDAD
En la teoría de la probabilidad y en estadística, la Función de Distribución Acumulada (FDA, designada también a veces simplemente como FD) asociada a una variable aleatoria real: X (mayúscula) sujeta a cierta ley de distribución de probabilidad, es una función matemática de la variable real: x (minúscula); que describe la probabilidad de que X tenga un valor menor o igual que x.
Sea X una variable aleatoria discreta cuyos valores suponemos ordenados de menor a mayor. Llamaremos función de distribución de la variable X, y escribiremos F(x) a la función:
F(x) = p(X ≤ x)
La función de distribución asocia a cada valor de la variable aleatoria la probabilidad acumulada hasta ese valor.
Ejemplo:
Calcular la función de distribución de probabilidad de las puntuaciones obtenidas al lanzar un dado.
x          p i
x <1               0
1≤ x < 2          1/6
2≤ x < 3          2/6
3≤ x < 4          3/6
4≤ x < 5          4/6
5≤ x < 6          5/6
6≤ x                    1



Distribución normal en contexto 1.0

La distribución normal se conoce como la curva de Gauss o campana de Gauss, famoso matemático alemán del siglo 19.
Su origen viene de la observación de un estadístico francés del siglo 18, Abraham de Moivre, que, entre otras cosas, actuaba como consultor para temas de juegos. Observó, que al lanzar una moneda, la probabilidad de obtener “cara” (o “cruz”) en N tirada tenía una representación gráfica con una curva suave a medida que N se hacía grande. En el gráfico presentado a continuación, la altura de cada barra representa la probabilidad de que ocurra el evento (sale “cara” al lanzar una moneda) de N veces que lanzamos la moneda (hemos cogido, N=2; N=4; N=12). Si la moneda no está trucada, la probabilidad de que salga “cara” al lanzarla es del 50% (p=0,5). Este fenómeno sigue una distribución conocida como la Binomial.

La distribución normal fue presentada por primera vez por Abraham de Moivre en un artículo del año 1733,2 que fue reimpreso en la segunda edición de su The Doctrine of Chances, de 1738, en el contexto de cierta aproximación de la distribución binomial para grandes valores de n. Su resultado fue ampliado por Laplace en su libro Teoría analítica de las probabilidades (1812), y en la actualidad se llama Teorema de Moivre-Laplace.

ACTIVIDAD PÁGINA 247 - LIBRO DE ESTADÍSTICA.




DISTRIBUCIÓN NORMAL

La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una "normalidad" más o menos justificada de la variable aleatoria bajo estudio. En probabilidad, la distribución normal aparece como el límite de varias distribuciones de probabilidad continua y discreta.

La distribución de probabilidad conocida como distribución normal es, por la cantidad de fenómenos que explica, la más importante de las distribuciones estadísticas.
A la distribución normal también se la denomina con el nombre de campana de Gauss, pues al representar su función de probabilidad, ésta tiene forma de campana.
En el math-block sobre la distribución binomial se introduce el concepto de variable aleatoria, distinguiendo además dos tipos de variables, las discretas y las continuas. En este apartado seguimos con el estudio de distribuciones de probabilidad analizando la distribución de probabilidad continua más importante, la distribución normal.

A continuación veremos las características principales de una distribución de probabilidad normal, definiendo posteriormente la distribución normal estándar así como sus usos. Posteriormente, veremos cómo utilizar la distribución normal para estimar probabilidades binomiales.


USO DE TABLAS DE FUNCIÓN BINOMIAL.

Para usar las tablas de función binomial es necesario conocer:
• El número de veces que se realiza el experimento (n)
• La probabilidad del éxito (p
• El valor esperado (x)

La probabilidad se busca en la primera fila:(valores desde 0.01 hasta 0.5) el número de veces que se realiza el experimento en la primera columna (valores desde 2 al 10) y el número de éxitos a su lado (valores de 0 a n)
Las tablas no muestran valores para P>0.5 debido a que cuando P > 0.5, q <0.5 por lo que basta intercambiar los valores de éxito y fracaso.




Jennifer López Tovar

FUNCIÓN DE DISTRIBUCIÓN BINOMIAL

Función de probabilidad de la distribución binomial.

La probabilidad de la distribución binomial, también denominada función de la probabilidad de Bernoulli, es una distribución de probabilidad discreta, que toma valor (1) para la probabilidad de éxito y (0) para la probabilidad de fracaso.


Un experimento de Bernoulli se caracteriza por ser dicotómico, es decir, sólo son posibles dos resultados.

La función de probabilidad de la distribución binomial está dada por la expresión:


° P (Obtener "x" éxitos) = P (X = x) = (n/x) Px (1-p)ⁿ-x
° (n/x) = n!/x!(n-x)!
° P (X-x) = n!/x!(n-x)! Px (1-p)ⁿ-x

P= Es el éxito.
q= Es el fracaso.
ⁿ= El número de intentos o repeticiones.
x= Es el valor esperado.

Ej:

La probabilidad de que un alumno apruebe el curso es de 0.7. Al considerar un grupo de ocho alumnos ¿Cuál es la probabilidad de que cinco de ellos apremueben el curso?

Solución:

° Definir el éxito (P) y el fracaso (q)
        P= aprobar
        q= reprobar

°  Determinar las probabilidades de éxito y del fracaso. 
    p= 0.7
    q= 0.3

°  Determinar el resto de valores de función de probabilidad.
    Número de repeticiones.
    n= 8
    Valor esperado.
    x= 5

°  Sustituir en la función de distribución binomial.
       P (X-5) = 8!/5!(8-5)! (0.7) 5 (1-0.7) 8-5

°    Desarrollo de la operación:
      P (X-5)= 0.2541

Jennifer López Tovar

DISTRIBUCIÓN BINOMIAL

Es una distribución de probabilidad discreta que cuenta el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.

Un experimento sigue el modelo de la distribución binomial o de Bernoulli si:

1. En cada prueba del experimento sólo son posibles dos resultados: el suceso A (éxito) y su contrario suceso contrario.

2. La probabilidad del suceso A es constante, es decir, que no varía de una prueba a otra. Se representa por p.

3. El resultado obtenido en cada prueba es independiente de los resultados obtenidos anteriormente.

La distribución binomial se suele representar por B(n, p).

n es el número de pruebas de que consta el experimento.

p es la probabilidad de éxito.

La probabilidad de suceso contrario es 1− p, y la representamos por q.
Resultado de imagen para Distribución binomial

miércoles, 30 de noviembre de 2016

Uso de tablas, media y desviación típica de una distribución binomial.


¿Cómo utilizar la tabla de la distribución Binomial?


Supongamos que lanzamos al aire una moneda trucada. Con esta moneda la probabilidad de obtener cara es del 30%. La probabilidad que salga cruz será, pues, del 70%. Lanzamos la moneda 10 veces de manera consecutiva. Si queremos calcular la probabilidad de que observemos 6 caras o menos nos fijamos en la tabla: localizamos n=10, x=6, p=0.3 y buscamos la intersección: 0.9894


Distribución Normal en Contexto

La distribución normal fue estudiada por Gauss. Se trata de una variable aleatoria continua (la variable puede tomar cualquier valor real). La función de densidad tiene forma de campana.
Dos parámetros determinan una distribución normal: la media y la desviación típica. Cuanto mayor sea la desviación típica mayor es la dispersión de la variable.

La distribución normal es simétrica respecto de la media.


Cálculo de probabilidades en distribuciones normales
Los puntos en el eje de abscisas determinan los diferentes intervalos de los que se calculan (aproximadamente) las probabilidades.
Las diferentes opciones A1, A2, ..., A6 se corresponden con diferentes intervalos que se pueden definir con esos dos puntos. Tomados por parejas son complementarios en el sentido de que la suma de las probabilidades es 1, es decir, el total.
Podemos modificar los parámetros de la distribución normal y comprobar cómo varían las probabilidades.



sábado, 26 de noviembre de 2016

Variables Aleatorias y Función de Distribución de Probabilidad

Es la aplicación que asigna a cada valor de la variable aleatoria discreta X la probabilidad de que la variable tome dicho valor.

Ejemplo
Lanzamos dos monedas y definimos la variable aleatoria X, número de caras obtenidas. Siendo C obtener cara y X obtener cruz. La función de probabilidad de X es:

Es habitual expresar la función de probabilidad en una tabla de la forma :

Segundo Ejemplo



Video

lunes, 24 de octubre de 2016

MEDIDAS DE DISPERSIÓN 1.0

Las medidas de dispersión 

Son parámetros estadísticos que se calculan para conocer que tanto varían los datos recolectados con respecto a las medidas de tendencia central, en especial con respecto de la media aritmética 
  • Rango: Indica la distancia que existe entre el rango menor y el rango mayor, es la mendida de dispersión más simple y proporciona muy poca informaciónImage result for rango estadistica formula
  • Desviación Media: Es el promedio de los valores absolutos de las desviaciones de cada dato respecto a la media aritmética. en otras palabras la desviación media indica que tanta distancia hay en promedio entre los datos y la media aritmética
Image result for desviacion media formula
Existe una medida de dispersión que muestra con mayor precisión la varianza de los datos respecto a la media, para conocerla es necesario conocer la varianza 

  • Varianza: Es el promedio de los cuadrados de las desviaciones de los datos respecto de la media aritmética, 
Image result for varianza formula
  • Desviación estándar: Es la raíz cuadrada de la varianza, indica la forma en la que están distribuidos los datos conforme a la media aritmética 

Image result for desviacion estandar formula

PERMUTACIÓN U ORDENACIÓN SIN REPETICIÓN

PERMUTACIÓN U ORDENACIÓN SIN REPETICIÓN
La operación factorial es el resultado del producto de número enteros consecutivos cuyos valores se ordenan en forma descendiente hasta llegar a uno:
  n! = n
SIN AGRUPACIÓN:
La permutación sin agrupación de elementos se define como las distintas formas de ordenar dichos elementos, por lo que la única forma de diferenciarlas entre ellas es el orden de colocación de sus elementos:
El número de estas permutaciones será:
Pn = n!
EJEMPLO:
Se tienen los números del uno al siete, ¿Cuántos números diferentes pueden construirsesin que se repita alguno?
° SUSTITUCIÓN:
   Pn = n!
     n = 7
  Pn = 7! = (7)(6)(5)(4)(3)(2)(1)
   P7 = 5 040
CON AGRUPACIÓN:
Cuando se esea agrupar un conjunto de elementos totales, en grupos de elementos.
La cantidad de permutaciones u ordenaciones posibles se calcula con:
nPr = n!/(n -  r )!
EJEMPLO:
Seis alumnos participan en unconcurso de conocimientos. Solo los primeros tres lugares serán premiados. ¿Cuántos arreglos pueden hacerse para la premiación?
° SUSTITUCIÓN:
  nPr = n!/(n -  r )!
  n =  6
  r  =  3
 6P3 = 6! / (6 - 3 )!
 6P3 =  6! / (3)!
 6P3 =  120
 Es decir hay 120 formas diferentes de agrupar a seis alumnos en tres lugares de premiación.

PRINCIPIOS DE LA ADICIÓN

PRINCIPIOS DE LA ADICIÓN
Cuando se tiene un evento (A) que puede darse de (m) maneras diferentes, un evento (B) que puede darse de (n) formas diferentes y demás son eventos con distintas formas de manifestarse, además de que todos los eventos son imposibles de realizarse de manera simultánea, la disyunción "Evento (A) o (B) se dará de (M+N) maneras diferentes.
EJEMPLO:
La información que un maestro solicitó para la tarea puede encontrarse en cinco páginas web, o bien, en cuantro libros. ¿De cuantas formas diferentes puede adquirirse la información?
° DATOS:
A = Libros         m =  4
B = Web            n  =  5
° FORMULA:
  n(S)
° SUSTITUCIÓN:
  n(S) =  5+4
  n(S) =   9
 Es decir que hay nueve opciones distintas para obetener la información.

PRINCIPIOS DE LA MULTIPLICACIÓN:

1° PRINCIPIOS DE LA MULTIPLICACIÓN:
Cuando se tiene un experimento (A) que puede darse de (m) maneras diferentes, y un experimento (B) que puede darse de (n) formas diferentes, entonces, el número de maneras distintas en que pueden dar a suceder ambos sucesos es (m*n)
EJEMPLO:
Determinar las probablilidades que se pueden dar al lanzar un dado y una moneda.
° DATOS
 A = Lanzar la moneda            S =  (Aguila, Sol)            N(S) = m = 6
 B = Lanzar un dado                 S = (1, 2, 3, 4, 5, 6)         N(S) =  n  = 2
° FORMULA:
   (M*N)
° SUSTITUCIÓN:
 (M*N) =  (6) *  (2)
 MN= 12
Es decir, hay 12 puntos muestrales al lanzar una moneda y un dado.

domingo, 23 de octubre de 2016

TEOREMAS FUNDAMENTALES DE LA PROBABILIDAD

TEOREMA 1. Si f es un evento nulo o vacío, entonces la probabilidad de que ocurra f debe ser cero. p(f)=0


TEOREMA 2. La probabilidad del complemento de A, Ac debe ser, 

p(Ac)= 1 – p(A).


TEOREMA 3. Si un evento A Ì B, entonces la 

p(A) £ p(B).


TEOREMA 4. La p( A \ B )= p(A) – p(AÇB)



TEOREMA 5. Para dos eventos A y B, 

p(AÈB)=p(A) + p(B) – p(AÇB).

ESPACIOS MUESTRALES Y AXIOMAS DE LA PROBABILIDAD

Los espacios muestrales se clasifican en:
·         Espacio muestral discreto, son espacios muestrales cuyos elementos resultan de hacer conteos, siendo por lo general subconjuntos de los números enteros.
·         Espacio muestral continuo, son espacios muestrales cuyos elementos resultan de hacer mediciones, siendo por lo general intervalos en el conjunto de los números reales.

Eventos
Un evento es un subconjunto del espacio muestral de un experimento aleatorio. Los eventos normalmente se denotan con las letras mayúsculas A, B, C; y tienen la característica de ser subconjuntos de S ((A, B, C) Ì S). Los eventos pueden ser:

·                     Evento seguro, es aquel que tiene todos los posibles resultados. S = A  Þ #S = #A. Por ejemplo al tirar un dado un dado obtener una puntuación que sea menor que 7. 
·                   


                   Evento imposible, es aquel que no tiene un posible resultado. Por ejemplo al tirar un dado obtener una puntuación igual a 7.
·                  


   Eventos compatibles, dos eventos, A y B, son compatibles cuando tienen algún eventos elemental común. Ejemplo si A es sacar puntuación par al tirar un dado y B es obtener múltiplo de 3, A y B son compatibles porque el 6 es un evento elemental común.
·                

     Evento incompatibles, dos eventos, A y B, son incompatibles cuando no tienen ningún elemento en común. Ejemplo si A es sacar puntuación par al tirar un dado y B es obtener múltiplo de 5, A y B son incompatibles.
·                


     Eventos independientes, dos eventos, A y B, son independientes cuando la probabilidad de que suceda A no se ve afectada porque haya sucedido o no B. Ejemplo al lazar dos dados los resultados son independientes.
·              


       Eventos dependientes, dos eventos, A y B, son dependientes cuando la probabilidad de que suceda A se ve afectada porque haya sucedido o no B. Ejemplo extraer dos cartas de una baraja, sin reposición, son eventos dependientes.

·                  

   Evento contrario, el evento contrario a A es otro evento que se realiza cuando no se realiza A. Ejemplo son eventos contrarios sacar par e impar al lanzar un dado.

AXIOMAS
Los axiomas de probabilidad son las condiciones mínimas que deben verificarse para que una función definida sobre un conjunto de sucesos determine consistentemente sus probabilidades. Fueron formulados por Kolmogórov en 1933.

Axiomas de Kolmogórov:

Primer axioma:
La probabilidad de que ocurra un evento A cualquiera se encuentra entre cero y uno.
0 £ p(A) ³ 1
Ejemplo: La probabilidad de sacar par en un dado equilibrado es 0,5. P(A)=0,5

Segundo Axioma:
La probabilidad de que ocurra el espacio muestral d debe de ser 1.
                                                           p(d) = 1
Ejemplo: La probabilidad de sacar un número del 1 al 6 en un dado equilibrado es "1".

Tercer Axioma:
Si A y B son eventos mutuamente excluyentes, entonces la,
p(AÈB) = p(A) + p(B)
Ejemplo: La probabilidad de sacar en un dado "as" o sacar "número par" es la suma de las probabilidades individuales de dichos sucesos.

Según este axioma se puede calcular la probabilidad de un suceso compuesto de varias alternativas mutuamente excluyentes sumando las probabilidades de sus componentes.

Generalizando:
Si se tienen n eventos mutuamente excluyentes o exclusivos A1, A2, A3,.....An, entonces;
                              p(A1ÈA2È.........ÈAn) = p(A1) + p(A2) + .......+ p(An)
Ejemplo:
Para el experimento aleatorio de tirar un dado, el espacio muestral es W = {1, 2, 3, 4, 5, 6}. En este espacio el conjunto de sucesos es P(W) = {Æ, {1}, {2}, ...{1,2}, {1,3}, ...{1,2,3,4,5,6}}. Para establecer una probabilidad hay que asignar un número a todos esos sucesos.
Sin embargo si se ha asignado a los sucesos elementales p({1})= p({2})= ...= p({6})= 1/6, por la propiedad ii), p.e. la probabilidad del suceso {1, 3} es p({1,3})= p({1})+ p({3})=2/6.

Nota: El suceso {1} es: "el resultado de tirar el dado es la cara 1", el suceso {1, 3} es: "el resultado de tirar el dado es la cara 1, o la 3", el suceso {1, 3, 5} es: "el resultado de tirar el dado es una cara impar".

ENFOQUES DE LA PROBABILIDAD

Clásico
Los resultados de un experimento son igualmente viables, es decir, tienen teóricamente las mismas posibilidades de ocurrir.
En este caso la probabilidad de ocurrencia de un evento será:
Número de resultados en los que se presenta el evento / número total de resultados posibles

Por ejemplo, la probabilidad de que en una baraja francesa de 52 cartas salga el cinco de trébol es de 1/52.

*Ejemplo 2: P(de que salgan dos caras al tirar 2 monedas)
                            
    
P(de que salga una cara al tirar 2 monedas )
                       

*Ejemplo 3: P(de que salga un varón al tomar 2 bebés y observar su sexo)

                                               
   











Empírico
La probabilidad de que un evento suceda se determina observando eventos similares en el pasado. Este método utiliza la frecuencia relativa de las presentaciones pasadas de un evento como una probabilidad. Determinamos qué tan frecuente ha sucedido algo en el pasado y usamos esa cifra para predecir la probabilidad de que suceda de nuevo en el futuro.
En este caso la probabilidad de ocurrencia de un evento será:
Número de resultados esperados ocurridos en el pasado / número total de experimentos adelantados


Por ejemplo, la probabilidad de que Brasil gané el mundial de Suráfrica 2010 es de 5 mundiales ganados anteriormente / 18 mundiales que se han celebrado en total.

Subjetivo
Se puede definir como la probabilidad asignada a un evento por parte de un individuo, basada en la evidencia que se tenga disponible. Esa evidencia puede presentarse en forma de frecuencia relativa de presentación de eventos pasados o puede tratarse simplemente de una creencia meditada.

*Ejemplo 1
E: Tirar un dado
A = que salga el n° 3
S = {1, 2, 3, 4, 5, 6}
P(A) = 1/6

*Ejemplo 2
E: Retirar una carta de un mazo
A= que salga oro
P(A) = 10/40

APLICACIONES DE LA PROBABILIDAD

Una de las primeras aplicaciones de la probabilidad fue en las ciencias actuariales, que comprenden el estudio de seguros de vida, fondos de pensiones y problemas relacionados. Otro uso importante de la probabilidad está en la estadística, la cual penetra en una multitud de campos, tales como finanzas, economía, biología, psicología y las ciencias sociales en general. El cálculo de probabilidades también se emplea en la física y química modernas y en muchas ingenierías, como por ejemplo en la teoría de ajuste por mínimos cuadrados, en el estudio de problemas de aglomeración (problemas de tráfico), en la teoría de muestreo y en el control de calidad de productos manufacturados.


PROBABILIDAD

La probabilidad de un suceso es un número, comprendido entre 0 y 1, que indica las posibilidades que tiene de verificarse cuando se realiza un experimento aleatorio


COMBINACIONES

Un ejemplo de combinaciones de la vida cotidiana es:

  • La ropa.



  • Los colores:



Se llama combinaciones de m elementos tomados de n en n (m ≥ n) a todas las agrupaciones posibles que pueden hacerse con los m elementos de forma que:
  • ·         No entran todos los elementos.
  • ·         No importa el orden.
  • ·         No se repiten los elementos.

         
         También podemos calcular las combinaciones mediante factoriales
         
         Las combinaciones se denotan por



Un ejemplo: