Incertesa, miracles i algoritmes.







Me parece un gran error la estrategia de definir la inteligencia artificial desde los humanos: si los humanos tenemos derechos, las máquinas también; si pagamos impuestos, también, si contamos chistes, también. Porque estamos hablando de dos inteligencias completamente distintas. Mi hipótesis es que no va a haber una sustitución. Y también vale para la democracia: no la vamos a abandonar en manos de máquinas, sencillamente porque hacen cosas muy bien, pero no precisamente la política. Es una actividad hecha en medio de una gran ambigüedad. Y las máquinas funcionan bien allá donde las cosas se pueden medir y computerizar, pero no funcionan bien allá donde tienes contextos, ambigüedad, incertidumbre. En vez de pensar en la emulación de los humanos por parte de las máquinas o en temer que las máquinas nos sustituyan, lo que debemos pensar es qué cosas hacemos los humanos bien y qué cosas hacen ellas bien, y diseñar ecosistemas que saquen los mejores rendimientos de ambos.

El punto de inflexión se produce a partir del momento en que los humanos diseñamos máquinas que tienen vida propia, que ya no son meramente instrumentales. Cuando producimos inteligencia artificial entramos en un terreno bastante desconocido. El reparto del mundo que habíamos hecho, según el cual los humanos somos sujetos de derechos y obligaciones y diseñamos una tecnología meramente pasiva, que está sometida a nuestro control, es una idea que ya no funciona. Hay una ruptura. Lo comparo con el momento en que Darwin acaba con la idea del Dios diseñador de la creación: nos obligó a pensar de una manera diferente. Yo creo que cuando se habla de controlar la tecnología se está en una actitud predarwiniana en ese sentido. Evidentemente, los algoritmos, las máquinas, los robots, la inteligencia artificial, deben tener un diseño humano, tenemos que debatir sobre eso. Pero la idea de control, como la que hemos tenido clásicamente para tecnologías triviales, me parece que es completamente inadecuada. Lo que tenemos que hacer es establecer una especie de diálogo en el que humanos y máquinas negociemos escenarios aceptables, pensando en la igualdad, el impacto sobre el medio ambiente, los valores democráticos. La idea de controlar no va a funcionar cuando hablamos de máquinas que aprenden.

De la tecnología esperamos objetividad y en el momento en que nos falla aunque sea en un grado pequeño nos resulta mucho más intolerable que con un humano. El caso más claro es el de los accidentes de coches autónomos. Nos producen mucho más desasosiego que los que tenemos todos los días en las carreteras, pero con la tecnología nos incomoda muchísimo. Pero el accidente famoso del atropello en Arizona se hubiera producido exactamente igual si hubiera conducido un humano.

El big data, y toda la analítica predictiva, son muy conservadores porque se basan en el supuesto de que nuestro comportamiento futuro va a estar en continuidad con nuestro comportamiento pasado. Lo cual no es completamente falso, porque los humanos somos muy automáticos y muy conservadores, y repetimos; tenemos una resistencia a cambiar. Pero en la historia de la humanidad hay momentos de ruptura, de cambio, de transformación. Y si el algoritmo no es capaz de contemplar un escenario indeterminado, abierto, no permitirá ese elemento de innovación, de novedad, que hay en la historia. Como dice Shoshana Zuboff, nos robará el futuro. Cito a otra filósofa, Hannah Arendt, que dice que los seres humanos somos animales muy repetitivos y con grandes hábitos e inercias, pero también somos capaces de hacer milagros, de dar lugar a cosas nuevas, de hacer algo insólito. No todos los días, pero sí de vez en cuando. Revoluciones, transformaciones, innovaciones, ruptura con la tradición, cuestionamientos, etcétera. Y en un momento de la historia de la humanidad tan singular, en el que somos muy conscientes de que tenemos que hacer grandes cambios por la crisis climática, la transformación digital, la igualdad... En un momento así tendríamos que disponer de una tecnología que sea capaz de anticipar el futuro de verdad, desconocido, abierto, indeterminado, democrático. O bien, tenemos que considerar que esas tecnologías tienen unas determinadas limitaciones y trazar bien cuáles son esas limitaciones, cuál es el ámbito de aplicación de unos algoritmos, de unas tecnologías básicamente conservadoras. Y dejar espacios indeterminados y abiertos para la libre dimensión humana e imprevisible me parece una cuestión democrática fundamental. Los humanos somos seres imprevisibles: buena parte de nuestra libertad se la debemos a eso y las máquinas deben reflejar bien esto.

Javier Salas, entrevista a Daniel Innerarity: "Los algoritmos son conservadores y nuestra libertad depende de que nos dejen ser imprevisibles", El País 05/07/2022


Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

Gonçal, un cafè sisplau

Què és el conatus de Spinoza?