Desde el lanzamiento de ChatGPT y la inteligencia artificial (IA) generativa a finales de 2022, vivimos inmersos en una fiebre de atribución. Los medios de comunicación hablan frecuentemente de que “la IA ha descubierto”, “la IA ha creado”, “la IA ha decidido”. Pero esas frases encierran una peligrosa ilusión: la de ver no solo inteligencia, sino incluso conciencia donde no las hay. Como consecuencia de esta fiebre, cada mes de octubre, cuando se dan a conocer los ganadores de los premios Nobel, nunca faltan voces que preguntan ¿cuándo se premiará una inteligencia artificial?La idea puede parecer provocadora, incluso inspiradora, pero en el fondo encierra un error filosófico y moral profundo: una IA no es una persona, no es un agente moral y, por lo tanto, no puede asumir responsabilidad por sus actos. En ciencia, la autoría y el reconocimiento no se otorgan únicamente por producir resultados, sino por rendir cuentas de ellos. Firmar un artículo o aceptar un premio implica responder por los métodos empleados, por las decisiones tomadas y por las consecuencias derivadas. Un científico puede explicar por qué hizo lo que hizo, corregir sus errores, defender su interpretación o rectificarla de acuerdo con el método científico. Una inteligencia artificial, en cambio, no entiende lo que hace. No tiene intención ni conciencia. No puede mentir ni decir la verdad, solo generar datos o textos que nosotros interpretamos como significativos.Más informaciónEl ejemplo de AlphaFold, el sistema de inteligencia artificial desarrollado por DeepMind, es ilustrativo. Su capacidad para predecir la estructura tridimensional de las proteínas revolucionó la biología molecular y abrió la puerta a avances cruciales en medicina. Pero cuando en 2024 el comité del Nobel de Química reconoció este excelente resultado, el premio no fue para AlphaFold, a pesar de ser un instrumento formidable e imprescindible, sino para los científicos que desarrollaron los fundamentos del diseño computacional de proteínas y su aportación clave para la predicción del plegamiento proteico.Los miembros del comité actuaron no solo con sentido común, sino con sentido moral. Supieron distinguir entre el poder instrumental y la responsabilidad intelectual. Una máquina no puede recibir el Nobel por la misma razón que no puede ser juzgada ni absuelta: porque no es un agente moral.Como dijo Kant, y nos recordó Hannah Arendt, un agente moral no se define por lo que hace, sino por la conciencia con la que actúa. Y esa conciencia —esa capacidad de deliberar, de asumir consecuencias, de distinguir entre el bien y el mal— es lo que la IA no tiene y nunca tendrá. Cuando un científico comete un fraude o manipula datos, responde ante sus pares y ante la sociedad. Cuando una IA inventa datos, lo hace sin intención ni remordimiento. No miente: simplemente no sabe lo que dice. Su “error” no es moral, es estadístico.Confundir el funcionamiento de la IA con la verdadera inteligencia es un signo de nuestra época: una mezcla de deslumbramiento y cansancio. Tal vez nos seduce la idea de que las máquinas piensan porque estamos cansados de pensar nosotros, porque pensar requiere mucho esfuerzo. Delegamos en los algoritmos decisiones morales, diagnósticos médicos, contrataciones laborales, incluso sentencias judiciales, no porque sean más sabios, sino porque nos eximen del peso de la responsabilidad.Premiar a una IA sería llevar esa delegación hasta el extremo de abdicar de la autoría humana. Sería convertir la inteligencia en una función automática, desligada del juicio, de la experiencia, del riesgo. La ciencia, en su mejor versión, es lo contrario: un ejercicio de duda, un acto de coraje intelectual y responsabilidad. Los Premios Nobel, más allá de sus limitaciones, encarnan precisamente esos valores. Celebran no solo los descubrimientos, sino la búsqueda desinteresada del saber y el compromiso moral con la verdad. No premian a aquello que procesa miles de millones de datos a gran velocidad, sino a quien comprende profundamente. El mérito no está en la eficiencia, sino en la comprensión, y comprensión implica responsabilidad.Otorgar un Nobel a una IA sería confundir el instrumento con el autor, el resultado con la intención, el poder de cálculo con el pensamiento. No sería un triunfo de la ciencia, sino una derrota de la razón.Ramón López de Mántaras es profesor de investigación del Instituto de Investigación en Inteligencia Artificial (CSIC).

Shares: