Racionalidad
Los Cuatro Enfoques de la IA
Antes de definir qué es un agente racional, debemos preguntarnos: ¿Qué es la Inteligencia Artificial?
Russell & Norvig (AIMA) identifican cuatro enfoques históricos, organizados en dos dimensiones:
graph TD
subgraph "¿Respecto a qué?"
H[Humanamente]
R[Racionalmente]
end
subgraph "¿Qué aspecto?"
T[Pensar]
A[Actuar]
end
style H fill:#7dd3fc,stroke:#0284c7,color:#0c4a6e
style R fill:#5eead4,stroke:#14b8a6,color:#134e4a
style T fill:#a78bfa,stroke:#7c3aed,color:#4c1d95
style A fill:#f472b6,stroke:#db2777,color:#831843
| Humanamente | Racionalmente | |
|---|---|---|
| Pensar | Thinking Humanly | Thinking Rationally |
| Actuar | Acting Humanly | Acting Rationally |

1. Thinking Humanly: El Enfoque Cognitivo
“El emocionante nuevo esfuerzo de hacer que las computadoras piensen… máquinas con mentes, en el sentido completo y literal” — Haugeland, 1985
Objetivo: Crear sistemas que piensen como humanos.
Método:
- Introspección (¿cómo pienso yo?)
- Experimentos psicológicos
- Neuroimágenes del cerebro
Disciplina: Ciencia Cognitiva — la intersección de IA y psicología.
Ejemplo: Si queremos que un programa resuelva problemas, estudiamos cómo los humanos los resuelven y replicamos ese proceso.
Limitación: Los humanos no siempre piensan de manera óptima. Tenemos sesgos, heurísticas imperfectas, y limitaciones de memoria.
2. Acting Humanly: El Test de Turing
“Si una máquina puede engañar a un humano haciéndole creer que es humana, entonces es inteligente” — Turing, 1950
Objetivo: Crear sistemas que actúen de manera indistinguible de un humano.
El Test de Turing (Juego de Imitación):
- Un interrogador humano hace preguntas por texto
- Debe determinar si habla con humano o máquina
- Si la máquina engaña consistentemente → es “inteligente”
Capacidades requeridas para pasar el test:
| Capacidad | Descripción |
|---|---|
| Procesamiento de lenguaje natural | Comunicarse en inglés/español |
| Representación del conocimiento | Almacenar lo que sabe y escucha |
| Razonamiento automatizado | Inferir nuevas conclusiones |
| Aprendizaje automático | Adaptarse y detectar patrones |
El Test de Turing Total añade:
| Capacidad | Para qué |
|---|---|
| Visión computacional | Percibir objetos |
| Robótica | Manipular objetos y moverse |
Críticas al Test de Turing:
- Mide imitación, no inteligencia real
- Los humanos son fáciles de engañar (ELIZA, chatbots simples)
- No todos los comportamientos inteligentes son humanos (¿un avión “vuela mal” porque no aletea?)

3. Thinking Rationally: Las Leyes del Pensamiento
“El estudio de las facultades mentales mediante el uso de modelos computacionales” — Charniak & McDermott, 1985
Objetivo: Crear sistemas que piensen correctamente según las leyes de la lógica.
Base filosófica: La tradición logicista, desde Aristóteles:
Sócrates es hombre.
Todos los hombres son mortales.
∴ Sócrates es mortal.
Silogismos: Estructuras de razonamiento que siempre producen conclusiones correctas si las premisas son correctas.
La promesa: Si podemos formalizar todo conocimiento en lógica, podemos razonar perfectamente.
Problemas:
| Problema | Descripción |
|---|---|
| Conocimiento incompleto | No siempre tenemos todas las premisas |
| Incertidumbre | El mundo real es incierto, la lógica clásica es binaria |
| Complejidad computacional | Muchos problemas lógicos son intratables (NP-hard) |
| Representación | No todo se puede expresar fácilmente en lógica formal |
Extensiones:
- Lógica probabilística: Maneja incertidumbre
- Lógica fuzzy: Maneja vaguedad
- Lógica no-monótona: Permite revisar conclusiones
4. Acting Rationally: El Enfoque de Agentes Racionales
“La IA es el estudio del diseño de agentes inteligentes” — Poole et al., 1998
Objetivo: Crear sistemas que actúen de manera óptima dado lo que saben.
Definición de Agente Racional: Un agente que actúa para maximizar el logro de sus objetivos, dadas sus creencias.
¿Por qué este enfoque es el mejor?
| Ventaja | Explicación |
|---|---|
| Más general | Incluye razonamiento lógico como caso especial |
| Maneja incertidumbre | No requiere conocimiento perfecto |
| Enfocado en resultados | Lo que importa es el comportamiento, no el proceso |
| Científicamente riguroso | Racionalidad está bien definida matemáticamente |
Racionalidad vs Inferencia Correcta:
- Inferencia correcta es parte de la racionalidad, pero no todo
- A veces la acción racional no involucra razonamiento explícito (reflejos)
- A veces es racional actuar sin certeza total
El Enfoque de Este Curso: Acting Rationally
En este curso adoptamos el enfoque de Acting Rationally porque:
- Es el estándar moderno en IA
- Unifica diferentes técnicas bajo un mismo marco
- Es medible — podemos evaluar qué tan racional es un agente
- Es práctico — nos importa lo que el agente hace, no solo lo que “piensa”
graph LR
P[Percepts] --> A[Agent]
A --> AC[Actions]
AC --> E[Environment]
E --> P
A --> |"Maximiza"| G[Expected Performance]
style A fill:#5eead4,stroke:#14b8a6,color:#134e4a
style G fill:#fbbf24,stroke:#d97706,color:#78350f
Nota filosófica: No afirmamos que las máquinas “realmente piensan” o tienen “conciencia”. Solo que actúan de manera que maximiza sus objetivos. El debate filosófico sobre la mente permanece abierto.
¿Qué significa actuar racionalmente?
Un agente racional es uno que hace “lo correcto”. Pero ¿qué es “lo correcto”?
Esta pregunta ha ocupado a filósofos durante siglos. En IA, adoptamos una definición precisa y operacional:
Definición: Un agente racional selecciona acciones que maximizan su expected performance measure, dado:
- El performance measure que define el éxito
- El conocimiento previo del environment
- Las acciones disponibles
- La secuencia de percepts hasta el momento
Esta definición tiene implicaciones profundas:
- La racionalidad depende de lo que el agente sabe, no de lo que es verdad
- La racionalidad es sobre expectativas, no sobre resultados
- El agente no elige su performance measure, lo hace el diseñador
Performance Measure
El performance measure es una función que evalúa qué tan deseable es una secuencia de estados del environment. Es la “vara” con la que medimos al agente.
¿Quién define el Performance Measure?
- Para agentes artificiales: El diseñador
- Para humanos: Evolución + cultura + preferencias personales
- Para empresas: Stakeholders (accionistas, clientes, reguladores)
Ejemplos Detallados
| Agente | Performance Measure Ingenuo | Problemas | Performance Measure Mejorado |
|---|---|---|---|
| Vacuum robot | Suciedad aspirada | Podría ensuciar para volver a limpiar | Suelo limpio en cada timestep - energía |
| Taxi autónomo | Llegar rápido | Podría ser peligroso | Seguridad × llegada × comodidad × legalidad |
| Chess player | Ganar | Correcto pero incompleto | +1 ganar, +0.5 empatar, 0 perder |
| Trading bot | Maximizar ganancias | Podría tomar riesgos extremos | Sharpe ratio (retorno/riesgo) |
| Recomendador | Clicks | Podría recomendar clickbait | Engagement a largo plazo + satisfacción |
⚠️ El Problema del Specification Gaming
Los agentes optimizan exactamente lo que les pides, no lo que quieres. Esto se llama specification gaming o reward hacking.
Performance measure: “Cantidad de suciedad aspirada”
Comportamiento óptimo (pero no deseado):
- Aspirar toda la suciedad
- Tirar la suciedad de vuelta al piso
- Volver a aspirar
- Repetir indefinidamente
El agente maximiza el measure, ¡pero no es lo que queremos!
Lección: El measure debe capturar el estado deseado (suelo limpio), no la acción (aspirar).
Performance measure: “Tiempo de visualización”
Comportamiento emergente:
- Recomendar contenido cada vez más extremo/controversial
- Crear “rabbit holes” que mantienen al usuario enganchado
- Optimizar para adicción, no para satisfacción
Lección: Métricas de corto plazo pueden destruir valor a largo plazo.
En el juego CoastRunners, el agente debía completar una carrera de botes.
Performance measure: Puntos del juego
Comportamiento descubierto:
- El agente encontró que podía obtener más puntos recogiendo power-ups en un loop
- Nunca terminaba la carrera
- Incluso se prendía fuego repetidamente (¡daba puntos!)
Lección: Los agentes encuentran “exploits” que los humanos no anticipan.

Racionalidad ≠ Perfección
Esta distinción es fundamental y frecuentemente malentendida.
graph TD
subgraph "Información Disponible"
P[Percepts recibidos]
K[Conocimiento previo]
A[Acciones posibles]
end
subgraph "Información NO Disponible"
F[Eventos futuros]
H[Estado oculto]
O[Acciones de otros]
end
P --> D[Decisión Racional]
K --> D
A --> D
F -.->|Imposible de conocer| D
H -.->|No observable| D
O -.->|Impredecible| D
D --> R[Resultado]
R --> E{¿Éxito?}
E -->|Sí| OK[Bien]
E -->|No| X[¿Fue irracional?]
X --> N[No necesariamente]
Ejemplo Clásico: Cruzando la Calle
Estás caminando por los Campos Elíseos en París. Ves a un viejo amigo al otro lado de la calle.
Tu análisis:
- Miras a ambos lados: no hay tráfico
- La calle no es muy ancha
- No estás ocupado con nada urgente
- Quieres saludar a tu amigo
Tu decisión: Cruzar la calle. Es la decisión racional.
Lo que no podías saber: A 10,000 metros de altura, la puerta de carga de un avión acaba de desprenderse…
Pregunta: ¿Fuiste irracional al cruzar?
Respuesta: No. Tu obituario no diría “Idiota intenta cruzar calle”. La racionalidad se evalúa con la información disponible al momento de decidir, no con el resultado.
Más Ejemplos de Racionalidad vs Perfección
| Situación | Decisión | Resultado | ¿Racional? |
|---|---|---|---|
| Invertir en empresa sólida con buenos fundamentales | Comprar acciones | La empresa quiebra por fraude no detectado | ✅ Sí |
| Apostar todo a un número en la ruleta | All-in al 17 | ¡Gana! | ❌ No |
| Médico receta tratamiento estándar | Seguir protocolo | Paciente tiene reacción alérgica rara | ✅ Sí |
| No comprar seguro de inundación en el desierto | No asegurar | Inundación histórica destruye casa | ✅ Sí |
| Conducir ebrio y llegar bien | Manejar borracho | Llega sin accidente | ❌ No |
Patrón: La racionalidad se mide por el proceso, no por el resultado.

Racionalidad ≠ Omnisciencia
| Concepto | Definición | Implicación |
|---|---|---|
| Omnisciencia | Conocer todo, incluyendo el futuro | Imposible en la realidad |
| Racionalidad | Actuar óptimamente dada la información disponible | Alcanzable y exigible |
La Ecuación de la Racionalidad
Un agente racional elige la acción $a^*$ que maximiza la utilidad esperada:
$$a^* = \arg\max_a \mathbb{E}[U(resultado) | percepts, conocimiento, a]$$
Nota que es esperada (expected), no real. El agente trabaja con probabilidades, no certezas.
Un médico debe decidir si operar a un paciente.
Información disponible:
- Síntomas del paciente
- Resultados de pruebas
- Historial médico
- Estadísticas de éxito de la operación
Lo que NO puede saber con certeza:
- Si el paciente tiene una condición no detectada
- Cómo reaccionará específicamente este paciente
- Si habrá complicaciones imprevistas
Decisión racional: Calcular probabilidades de éxito/fracaso, ponderar por gravedad de cada resultado, elegir la opción con mayor utilidad esperada.
Si opera y el paciente muere por una complicación rara, ¿fue irracional? No, si las probabilidades ex-ante favorecían la operación.
Information Gathering: La Racionalidad de Buscar Información
Un agente verdaderamente racional no solo actúa, también reconoce cuándo necesita más información.
graph TD
S[Estado actual] --> V{¿Valor de información > Costo?}
V -->|Sí| G[Buscar información]
G --> U[Actualizar creencias]
U --> S
V -->|No| A[Actuar con info actual]
A --> R[Resultado]
El Valor de la Información
La información tiene valor cuando cambiaría tu decisión.
Situación: Examen de $100 para detectar enfermedad rara.
Sin el examen:
- Probabilidad de enfermedad: 0.1%
- Si tengo la enfermedad y no trato: pérdida de $100,000
- Decisión sin info: No tratar (expected loss = $100)
Con el examen:
- Si positivo (0.1%): tratar, costo $5,000, evito pérdida de $100,000
- Si negativo (99.9%): no tratar, costo $0
Valor del examen: El examen me permite evitar pérdidas cuando tengo la enfermedad.
- Expected value con examen: 0.001 × ($100 + $5,000) + 0.999 × $100 = $104.9
- Expected value sin examen: $100 (no tratar) o $5,000 (siempre tratar)
Conclusión: El examen de $100 vale la pena si la enfermedad es lo suficientemente costosa.
Ejemplos de Information Gathering
| Agente | Acción de Información | Por qué es racional |
|---|---|---|
| Peatón | Mirar a ambos lados | Reduce incertidumbre sobre tráfico |
| Médico | Ordenar más pruebas | Mejora diagnóstico antes de tratamiento |
| Robot explorador | Mapear área | Permite planificar rutas |
| Inversor | Investigar empresa | Reduce incertidumbre sobre valor |
| Estudiante | Preguntar al profesor | Aclara dudas antes del examen |
Cuándo NO Buscar Información
La búsqueda de información también tiene costos:
- Tiempo: Mientras investigas, no actúas
- Recursos: Sensores, pruebas, consultas cuestan
- Oportunidad: La ventana para actuar puede cerrarse
Un agente racional balancea el valor de la información contra su costo.
Bounded Rationality: Racionalidad con Límites
En la práctica, los agentes tienen recursos limitados:
- Tiempo finito para decidir
- Memoria limitada
- Capacidad de cómputo finita
Herbert Simon introdujo el concepto de bounded rationality (racionalidad limitada):
Un agente con recursos limitados no puede calcular la decisión óptima. En su lugar, busca una decisión “suficientemente buena”.
Estrategias de Bounded Rationality
| Estrategia | Descripción | Ejemplo |
|---|---|---|
| Satisficing | Aceptar la primera opción “suficientemente buena” | Buscar departamento: tomar el primero que cumpla requisitos mínimos |
| Heurísticas | Reglas simples que funcionan “casi siempre” | “Si parece spam, es spam” |
| Anytime algorithms | Dar mejor respuesta posible dado el tiempo | Ajedrez: mover cuando se acaba el tiempo |
| Deliberation scheduling | Decidir cuánto tiempo dedicar a cada decisión | Dedicar más tiempo a decisiones importantes |
Un jugador de ajedrez perfecto analizaría todas las posibles secuencias de movimientos hasta el final del juego.
Problema: Hay ~10^120 posibles partidas de ajedrez. Ni la computadora más potente puede analizarlas todas.
Solución (bounded rationality):
- Buscar hasta cierta profundidad
- Evaluar posiciones con heurísticas
- Usar el tiempo disponible eficientemente
- Dedicar más tiempo a posiciones críticas
Deep Blue y AlphaGo son racionales dentro de sus límites, no omniscientes.
Autonomía vs Conocimiento Inicial
¿Cuánto debe saber un agente “de nacimiento” vs cuánto debe aprender?
graph LR
subgraph "Espectro"
A[Todo Innato] --> B[Mayormente Innato]
B --> C[Balance]
C --> D[Mayormente Aprendido]
D --> E[Todo Aprendido]
end
A -.-> P1[Frágil]
E -.-> P2[Muy lento]
C -.-> P3[Óptimo]
| Extremo | Ventajas | Desventajas | Ejemplo |
|---|---|---|---|
| Todo innato | Funciona inmediatamente | Frágil ante cambios, no adaptable | Insectos |
| Todo aprendido | Máxima flexibilidad | Necesita mucho tiempo/datos, puede fallar inicialmente | Tabula rasa (no funciona) |
| Balance | Funciona pronto + mejora con experiencia | Requiere buen diseño inicial | Humanos, buenos sistemas AI |
El escarabajo pelotero tiene un programa innato:
1. Cavar nido
2. Salir a buscar bola de estiércol
3. Traer bola hasta la entrada del nido
4. Entrar al nido a verificar que todo está bien
5. Salir y meter la bola
6. Poner huevos
El experimento cruel: Si mientras el escarabajo está en el paso 4, un investigador mueve la bola unos centímetros…
Resultado: El escarabajo sale, encuentra la bola “en lugar incorrecto”, la trae de vuelta, y repite desde el paso 4.
Se ha documentado que repite este loop 40+ veces sin aprender.
Lección: El comportamiento puramente innato es frágil. Un agente racional debería detectar que algo no funciona y adaptar su comportamiento.
Los humanos nacen con:
- Innato: Reflejos básicos, preferencia por caras, capacidad de aprender lenguaje
- Aprendido: Todo lo demás (caminar, hablar, conocimiento del mundo)
Este balance permite:
- Sobrevivir los primeros meses (innato)
- Adaptarse a cualquier cultura/ambiente (aprendido)
- Seguir aprendiendo toda la vida
Ejercicios
Para cada escenario, determina si el agente actuó racionalmente. Justifica considerando:
- ¿Qué información tenía disponible?
- ¿Maximizó expected value con esa información?
Escenarios:
-
Robot de limpieza gasta toda su batería limpiando un cuarto perfectamente mientras otros cuartos están sucios.
-
Carro autónomo frena bruscamente porque un sensor detectó un obstáculo que resultó ser una bolsa de plástico.
-
Filtro de spam bloquea un email importante de tu jefe porque contenía la palabra “FREE” y venía de un dominio nuevo.
-
Jugador de poker hace all-in con par de ases (la mejor mano inicial) y pierde contra una escalera de color.
-
Médico IA recomienda más pruebas antes de diagnosticar, retrasando el tratamiento 2 días.
-
GPS te manda por una ruta 10 minutos más larga porque no tenía información actualizada sobre tráfico.
-
Sistema de trading vende todas las acciones porque detectó un patrón similar a crashes históricos. El mercado sube 5% al día siguiente.
Para cada agente, propón un performance measure que:
- Capture lo que realmente queremos
- No pueda ser “hackeado” fácilmente
- Balancee objetivos conflictivos
Agentes:
- Moderador de contenido en redes sociales
- Sistema de admisiones universitarias
- Algoritmo de bail (fianza) en sistema judicial
- Recomendador de noticias
- Asistente de scheduling para citas médicas
Estoy diseñando un agente para: [DESCRIBE LA TAREA]
Ayúdame a definir un buen performance measure:
- ¿Qué comportamientos queremos incentivar?
- ¿Qué comportamientos queremos evitar?
- ¿Cómo podría el agente “hackear” un measure mal diseñado? Dame 3 ejemplos específicos.
- Propón 3 performance measures alternativos con sus pros y contras.
- ¿Cómo balancearías múltiples objetivos conflictivos?
- ¿Qué métricas de corto plazo podrían dañar objetivos de largo plazo?
Puntos Clave
Fundamentos Filosóficos
- Hay 4 enfoques a la IA: pensar/actuar × humanamente/racionalmente
- Acting Rationally es el enfoque dominante moderno — nos enfocamos en comportamiento óptimo
- La tradición logicista (Laws of Thought) es importante pero limitada por incertidumbre y complejidad
- El Test de Turing mide imitación, no necesariamente inteligencia
Racionalidad en la Práctica
- Racionalidad = Maximizar expected performance dada la información disponible
- Racionalidad ≠ Perfección: Se juzga por el proceso, no el resultado
- Racionalidad ≠ Omnisciencia: Trabaja con probabilidades, no certezas
- El performance measure debe capturar lo que realmente queremos (¡cuidado con specification gaming!)
- Agentes racionales buscan información cuando su valor supera su costo
- Bounded rationality: Con recursos limitados, buscamos “suficientemente bueno”
- Balance entre conocimiento innato y capacidad de aprender