Cibernètica i filosofia.




En 1964, se publicó la transcripción de la resonante conferencia de Martin Heidegger en la UNESCO, «El fin de la filosofía y la tarea del pensamiento». Para el filósofo alemán, la cibernética representa el fin de la filosofía. Ve en ella el advenimiento de un orden racional, controlable y mensurable, donde cualquier situación puede reducirse a un sistema que hay que optimiza, donde el individuo mismo se reduce a los datos que lo componen y no es más que un recurso explotable, donde sólo reina el pensamiento lógico, que él llama logística, con el único objetivo de optimizar estos sistemas. Desde esta perspectiva, resulta cada vez más complejo definir la tarea del pensamiento subjetivo. Aunque Heidegger se inscribe en una larga historia de pensamiento tecnocrítico, cuya genealogía no tiene el objetivo de ser trazada, esta conferencia tiene, hoy, una resonancia particular con el auge de las herramientas de «inteligencia artificial» (IA), en primer lugar, porque la noción de «IA» no se originó con OpenAI ni DeepMind, porque ya está profundamente arraigada en este movimiento cibernético de posguerra y, sobre todo, porque los avances tecnológicos actuales siguen haciendo sonar el implacable toque del fin de la actividad humana, de la filosofía y del pensamiento. 

La cibernética es una teoría de control y optimización de sistemas, desarrollada, en particular, por Warren McCulloch y Norbert Wiener en las décadas posteriores a la Segunda Guerra Mundial. El término procede del griego kubernetes, que significa timonel, y se asocia con nociones de dirección y mando. El objetivo de la cibernética era desarrollar técnicas para optimizar un sistema controlando las acciones de los agentes que lo componen. Esto se consigue produciendo señales que desencadenan las acciones de los agentes. Estas señales se mejoran, a su vez, en un bucle de retroalimentación a medida que el sistema aprende de sus errores, por refuerzo. La visión cibernética no busca, pues, la emancipación ni autonomía de los agentes, sino la optimización cuantitativa del sistema mediante la automatización de acciones eficaces. Aunque el campo de aplicación inicial de la cibernética, sobre todo, con Wiener, fue la defensa antiaérea, pronto, se trató de extender este enfoque a otros ámbitos de la sociedad. En su famoso libro, El uso humano de los seres humanos, Wiener planteó las graves cuestiones políticas y morales vinculadas con esta propagación y señaló, en particular, la alienación de los individuos. En concreto, a Wiener, le preocupaba el advenimiento de un paternalismo benevolente y tecnocrático en el que el valor intrínseco de los individuos quedara relegado en beneficio del buen funcionamiento del sistema. También, le preocupaba la ceguera que las herramientas tecnológicas podrían provocar en las personas. Wiener consideraba que este conjunto de artificios podría desviar nuestra atención de cuestiones políticas y de poder de las que procede y que establece. 

Antes de profundizar en estas cuestiones de poder, es esencial situar la cibernética en una genealogía moral más profunda, que es la del consecuencialismo y el utilitarismo. La cibernética se ocupa únicamente de los resultados de una acción en términos de si optimiza o no un sistema. Como todos los enfoques utilitaristas, la cibernética se basa en un análisis cuantitativo de este sistema (reducido a las señales que lo componen) y no de los agentes, cuya calidad se niega. Estos últimos son intercambiables y lo único que importa aquí es la consecuencia cuantitativa de una acción, cuyo impacto en el rendimiento global del sistema debe medirse. El enfoque utilitarista se basa en una serie de supuestos, que pueden resumirse así: el desarrollo tecnológico es neutro, científico y objetivo y nuestro principal objetivo es medir los resultados y fomentar los casos de uso positivos, al mismo tiempo que nos protegemos de los efectos negativos. Los postulados cibernético y utilitarista incluyen la creencia de que todo puede reducirse a datos, de que es posible aislar los efectos positivos de los negativos, de que, como mínimo, esto es optimizable, de que todo puede predecirse o considerarse un riesgo cuantitativo que hay que gestionar y de que, por lo tanto, no habría ninguna pérdida cualitativa irremediable.

Gilles Lecerf, La IA y el fin de la filosofía, legrandcontinent.eu 27/05/2023

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

Gonçal, un cafè sisplau

La ciència del mal (Simon Baron-Cohen).