“Sentir no es un proceso pasivo”
Antonio Damasio
Practicar la mente de principiante obliga a reabrir preguntas que creías resueltas. Con ese espíritu he empezado un curso de Neurociencia en el CEU. No por curiosidad académica, sino para entender mejor cómo decidimos, especialmente ahora que la inteligencia artificial nos plantea el dilema: ¿cuánto podemos delegar sin perder lo esencialmente humano?
En una de las primeras clases apareció el denominado error de Descartes. Y, casi de forma automática, vino a mi cabeza el libro de Antonio Damasio con este título. La pregunta fue inevitable: ¿estamos, con la IA, cometiendo el mismo error, solo que en una nueva versión?
El error original
Descartes separó mente y cuerpo, razón y emoción. Durante siglos asumimos que pensar bien exigía eliminar cualquier interferencia emocional. La emoción era ruido. La razón, el único camino fiable hacia la verdad.
Hasta que Damasio desmontó esa idea con evidencia empírica. Estudió personas con daños cerebrales cuya capacidad intelectual permanecía intacta, pero que eran incapaces de tomar decisiones simples. No por falta de lógica, sino por ausencia de emoción.
Cuando la emoción desaparece, no emerge una razón más pura. Aparece el bloqueo. Decidir no es solo calcular. Siempre hay algo más: intuición entrenada, valores implícitos, percepción del riesgo. Eso que Damasio llamó marcadores somáticos: señales previas, difíciles de verbalizar, que nos orientan antes de poder justificar racionalmente una decisión.
¿Estamos creando el contexto para el error?
Aún no hemos cometido el error, pero muchas actuaciones parecen indicar que estamos creando las condiciones para que ocurra.
La inteligencia artificial se utiliza más rápido que la reflexión sobre sus límites. Se automatizan decisiones sin haber definido antes cuáles deberían seguir siendo humanas. No se trata de una falta de ética deliberada, sino de una omisión.
Cuando no se fijan fronteras claras, la responsabilidad se diluye. La tecnología decide, pero nadie responde. Ahí aparece el paralelismo con Descartes; no por la intención, sino el efecto. Separar decisión y responsabilidad, como antes se separó mente y cuerpo, puede acabar generando el mismo problema.
El riesgo de delegar sin criterio
En 2014, Amazon desarrolló una herramienta de IA para automatizar la selección de personal, entrenada con datos históricos para identificar patrones de éxito y recomendar candidatos.
El sistema funcionaba correctamente, pero pronto reveló un problema grave: discriminaba sistemáticamente a las mujeres. No por un fallo técnico, sino porque replicaba sesgos presentes en los datos de entrenamiento. Datos que reflejaban una realidad histórica desigual y cuya idoneidad nunca fue cuestionada.
Amazon intentó corregirlo, pero no pudo garantizar que el sistema no encontrara nuevas formas de discriminar y abandono el proyecto en el 2017.
El algoritmo no era malicioso. Hacia exactamente lo que se le pidió. El problema no fue la IA, sino que no se previó un modelo de decisión que definiera qué se delegaba, con qué datos y bajo qué criterios humanos.
La diferencia fundamental
La IA se parece a un GPS muy avanzado. Está actualizado, procesa datos en tiempo real y optimiza la ruta según el objetivo marcado: llegar lo antes posible.
Pero si el contexto cambia (una tormenta inesperada, un accidente, una señal ambigua) el GPS seguirá optimizando. No se preguntará si el objetivo sigue siendo válido.
Las personas si pueden hacerlo. Pueden decidir llegar más tarde, evitar un riesgo, priorizar la seguridad o simplemente confiar en una señal que no aparece en ningún mapa.
La diferencia no está en la calidad del dato, ni en la tecnología, sino en la capacidad de reinterpretar el objetivo cuando el contexto lo exige.
La pregunta que no podemos (ni debemos) delegar
La cuestión relevante no es si la inteligencia artificial tomará decisiones mejores que nosotros, sino si estamos diseñando sistemas que nos ayuden a decidir mejor o sistemas que nos permitan dejar de decidir. Porque delegar cálculo es progreso, pero delegar criterio es renuncia. Y ahí es donde empieza a gestarse, casi sin darnos cuenta, el mismo error que ya cometimos una vez.
La inteligencia artificial puede ayudarnos a decidir mejor, pero el criterio, la responsabilidad y el sentido siguen siendo exclusivamente humanos.

Buena cuestión Adolfo. Me quedo con tu frase de que «delegar cálculo es progreso, pero delegar criterio es renuncia.
Buena cosa esto de que Adolfo estudie por nosotros 🤣
impresionante
el tema clave es que la IA es «status quo» porque se basa en el «esto siempre se ha hecho así»
es como un sabio ciego sentado en una habitación y que sabe todo lo que ha pasado y solo sabe deducir
la IA no crea, y el futuro hay que crearlo si queremos que no sea una continuidad del presente
si hay una tormenta, que la hay y no para de haberla, la decisión es precisamente si mantenemos los objetivos o pivotamos