La ciencia siendo una actividad humana, no es inmune a las modas y cambios de paradigmas. Las ideas bayesianas de inferencia con conocimiento de probabilidad a priori han vuelto a estar de moda en los investigadores tanto del mundo de la informática como en el mundo de la física. La clave del éxito del razonamiento bayesiano es no tener una muestra grande ni insesgada sino una apropiada asunción previa, como es formulada por los psicólogos cognitivos. La asunción previa es una hipótesis sobre como es la distribución de probabilidades (ddp) de un ensayo. Con la correcta ddp a priori, incluso con pocos datos, se puede hacer predicciones bayesianas con sentido. Por el contrario, una visión frecuentista hace menos asunciones a priori sobre la ddp. Lo que le da al método frecuentista una una robustez mayor respecto al bayesiano, pero es inpráctico a la hora de tomar decisiones en base a información limitada o incompleta, algo que los investigadores conviven todo el tiempo. Es decir una manera frecuentista de hacer las cosas reduciría el riesgo de prejuicio en la toma de decisiones, pero para el momento que se posea suficientes datos para sacar una conclusión el científico habrá muerto.
Inferencia Frecuentista:En este caso se basa en la inferencia de hipótesis. Si se supone tener dos hipótesis H_0 y H_1. Donde H_0 se lo llama hipótesis nula, es decir que dentro de mi intervalo de confianza acepto que no hay diferencia entre el evento y el el de referencia. Y H_1 es la hipótesis alternativa, donde asumo que mi evento está fuera del intervalo de confianza. A esto se lo conoce como contraste de hipótesis. Donde puede ocurrir dos tipos de errores.
- Falso negativo: O error de tipo I, es cuando se rechaza una hipótesis nula cuando debería aceptarse.
- Falso positivo: O error de tipo II, es cuando se acepta una hipótesis alternativa cuando debería rechazarse.
Para el caso de muestras pequeñas se usa la t-students para estimar el intervalo de confianza. Es una forma de frecuencista de subsanar la falta de información en un muestreo aleatorio.
Inferencia Bayesiana:
El teorema de Bayes o de causa expresa que dado un suceso A de referencia y otro suceso B de estudio, entonces si es conocida las probabilidades P(B/A), P(A), P(B); entonces:
P(A/B)=(P(B/A)*P(A))/P(B)
Es decir habiendo ocurrido el suceso B cual es la probabilidad que sea causado por el suceso A. En general se llama a P(A) la ddp a priori, a P(B/A) la verosimilitud y a P(B) denominador de Bayes. En la practica P(B) no es fácil de hallar por eso se obtiene una probabilidad de causa aproximada.
6 comentarios:
Gracias por este magnífico post. Admirando el tiempo y el esfuerzo que puso en su blog y la información detallada que usted ofrece.
oye y porque no utilisaste el teorema de la probabilidad total? de verdad que no hentendí lo que hescriviste jajajajajaja pero muy vueno el post, esta grossisimo niniop
deus
Yo tampoco entiendo como escribís tan mal...
Publicar un comentario