Probabilidad: Razonamiento bajo Incertidumbre
¿Cómo razonamos cuando no tenemos certeza absoluta?
Contenido
| Sección | Tema | Descripción |
|---|---|---|
| 01 | Introducción | ¿Por qué necesitamos probabilidad? El problema del razonamiento plausible |
| 02 | El Robot Pensante | Los desiderata de Jaynes: qué queremos de un sistema de razonamiento |
| 03 | Probabilidad como Lógica Extendida | La conexión profunda entre lógica y probabilidad |
| 04 | Interpretaciones de Probabilidad | Frecuentista vs Bayesiano vs Jaynes |
| 05 | Conceptos Básicos | Espacio muestral, eventos, medidas de probabilidad |
| 06 | Probabilidad Condicional y Marginal | P(A|B), marginalización, independencia |
| 07 | Las Reglas de Probabilidad | Regla del producto y suma; Jaynes vs Kolmogorov |
| 08 | Teorema de Bayes | La joya de la corona: actualización de creencias |
| 09 | Esperanza y Momentos | Valores esperados, varianza, covarianza |
| 11 | Distribuciones | Normal, Exponencial, Pareto, Cauchy y más |
| 12 | Estadística y Estimadores | MLE, método de momentos, estimación puntual |
| 13 | TLC y LGN | Teorema del Límite Central y Ley de los Grandes Números |
| 14 | Colas Largas (Fat Tails) | Cuando el TLC falla — Taleb y fenómenos extremos |
Laboratorio
| Archivo | Descripción |
|---|---|
| lab_probabilidad.py | Simulaciones en Python: TLC, LGN, fat tails. Genera imágenes para las notas. |
Para ejecutar el laboratorio:
cd clase/05_probabilidad
python lab_probabilidad.py
Ejercicios Prácticos: Fat Tails
Ejercicios interactivos para entender las colas largas usando datos reales y simulaciones.
| Ejercicio | Descripción | Datos |
|---|---|---|
| S&P 500 | Los eventos “imposibles” del mercado | Reales |
| VaR | Por qué el Value at Risk falla | Reales |
| Sintético | Anatomía de las colas largas | Simulados |
Setup con uv:
cd clase/05_probabilidad/ejercicios
# Crear entorno
uv venv && source .venv/bin/activate
# Instalar dependencias
uv pip install -r requirements.txt
# Ejecutar
python ejercicio_sp500.py
python ejercicio_var.py
python ejercicio_sintetico.py
Ver ejercicios/README.md para instrucciones completas.
Tareas
| # | Descripción | Puntos | Entrega |
|---|---|---|---|
| 10a | Curso DataCamp: Foundations of Probability in Python | 20 | 4 feb |
| 10b | Ejercicios de Probabilidad, Conceptos y Álgebra Booleana | 20 | 4 feb |
Lecturas
- Lecturas de Probabilidad (PDF) — E.T. Jaynes, Capítulos 1-2
Idea Central
“La teoría de probabilidad no es más que sentido común reducido a cálculo.” — Pierre-Simon Laplace
En esta sección exploraremos la probabilidad desde la perspectiva de E.T. Jaynes, quien argumenta que:
- La probabilidad es una extensión de la lógica para manejar incertidumbre
- Las reglas de probabilidad no son arbitrarias — son las únicas reglas consistentes
- Toda probabilidad es condicional en información de fondo
Este enfoque unifica las visiones “frecuentista” y “bayesiana” bajo un marco más fundamental.
Mapa Conceptual
LÓGICA DEDUCTIVA RAZONAMIENTO PLAUSIBLE
│ │
Certeza Incertidumbre
(T/F) (grados 0-1)
│ │
└──────────┬─────────────────┘
│
┌───────▼───────┐
│ DESIDERATA │
│ (requisitos) │
└───────┬───────┘
│
┌───────▼───────┐
│ REGLAS DE │
│ PROBABILIDAD │
└───────┬───────┘
│
┌───────▼───────┐
│ BAYES │
│ THEOREM │
└───────┬───────┘
│
┌───────────┴───────────┐
│ │
┌───▼───────┐ ┌───────▼───────┐
│DISTRIBU- │ │ ESTADÍSTICA │
│CIONES │ │ (MLE, etc.) │
└───┬───────┘ └───────┬───────┘
│ │
└───────────┬───────────┘
│
┌───────▼───────┐
│ TLC & LGN │
│ (convergencia)│
└───────┬───────┘
│
┌───────▼───────┐
│ FAT TAILS │
│ (¡cuidado!) │
└───────────────┘
Siguiente: Introducción →