Ejercicios: Wordle/Password con entropía (capstone)
Este capstone cierra el módulo con un ejercicio acumulativo:
- Wordle/Fallout hacking (con feedback): eliges un guess para maximizar reducción esperada de entropía.
- Password guessing (sin feedback): ordenas intentos usando priors (ranking) y comparas estrategias.
La idea es que veas la misma teoría aplicada en dos “regímenes”:
- con información rica por intento (Wordle),
- con información mínima por intento (password guessing).
Setup (datasets opcionales)
Recomendado (para priors realistas):
cd clase/06_teoria_de_la_informacion
python -m datasets.download_datasets
python -m datasets.prepare_lexicons
Si no hay internet, el ejercicio funciona con un fallback pequeño (offline).
Ejecutar el capstone
Desde clase/06_teoria_de_la_informacion/:
python ejercicios/capstone_wordle_password.py --mode wordle --random
python ejercicios/capstone_wordle_password.py --mode password
Referencia (inspiración)
Qué debes observar (objetivos)
- Entropía inicial: cuánta incertidumbre tienes al inicio (en bits).
- Ganancia esperada por guess (Wordle): qué guesses “parten” mejor el espacio de candidatos.
- Priors importan: el mejor guess cambia si tu distribución está sesgada.
- Sin feedback: el problema password se vuelve “ordenar intentos” y medir el costo esperado.
Enlace con el laboratorio (imágenes para explicar)
Si corriste:
python lab_informacion.py
Se generan imágenes como:
images/entropia_bernoulli.png(entropía vs concentración)images/cross_entropy_kl_identidad.png(cross-entropy = entropía + KL)images/wordle_top_info_gain.png(top guesses por IG)images/zipf_password_prior.png(prior Zipf para passwords por rank)
Estas se referencian en las notas del módulo.

Sin feedback, el problema se parece mucho a “ordenar intentos” por prior. Un prior Zipf (cola pesada en el rank) es una aproximación razonable: pocos passwords concentran mucha probabilidad.
Volver: ← Índice del módulo