Què ens converteix en agents morals?




Nuestros juicios están cargados de valores, identidad y responsabilidad. Las decisiones tienen consecuencias reales y comprometen al sujeto. Como sostiene Robert Brandom, afirmar algo es asumir un compromiso y quedar expuesto a la corrección. Obviamente, en los LLMs no hay valores propios ni compromiso ni responsabilidad con lo dicho. Parece muy ridículo regañar o castigar a Gemini cuando no nos dá la respuesta correcta. Los LLMs no son agentes morales

Aquí vale también girar la mirada hacia nosotros: ¿De dónde vienen nuestros valores y propósitos? ¿Qué es lo que nos convierte o nos legitima como agentes morales? Yo aquí suelo ser muy kantiano y me gusta apelar a la intención (lo que Kant llamaba «buena voluntad», gute wille): si una máquina realiza una acción con auténtica intención estará llevando a acabo una acción moral y, por tanto, será un agente moral sujeto a responsabilidad por las consecuencias de la acción. Y aquí hay una tajante diferencia entre el hombre y la IA: las máquinas no tienen intención, solo tienen objetivos. Sus objetivos pueden ser buenos, pero solo en la medida en que han sido configurados de forma externa por humanos.

Santiago Sánchez-Migallón Jiménez, Siete fracturas (II). La Epistemia, La máquina de von Neumann 29/12/2025

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

El derecho a mentir

The End.