La manca de neutralitat dels algoritmes.


La intel·ligència artificial promet una major personalització i una relació més fàcil i integrada amb les màquines. Aplicada a camps com el transport, la salut, l’educació o la seguretat, es fa servir per vigilar el nostre benestar, alertar de possibles riscos i oferir serveis quan siguin sol·licitats. No obstant això, la implantació d’aquests algoritmes ha donat lloc a alguns esdeveniments escandalosos que han alertat sobre la fragilitat d’aquest sistema. Entre ells l’aparatós accident del vehicle semiautomàtic de Tesla, la difusió de notícies falses en xarxes com Facebook i Twitter, el fracassat experiment del bot Tai desenvolupat per Microsoft i alliberat a la plataforma Twitter per aprendre en interacció amb els usuaris (aquest va haver de ser retirat en menys de 24 hores a causa dels seus comentaris ofensius). L’etiquetatge de persones afroamericanes en Google Photos com a «simis», la constatació que Google és menys propens a mostrar demandes de feina de nivell alt a dones que a homes o que els delinqüents afroamericans són classificats més sovint com a reincidents potencials que els caucasians han mostrat, entre altres problemes, el poder discriminatori d’aquests algoritmes, la seva capacitat de comportaments emergents i la difícil cooperació amb els humans.

Aquests i altres problemes es deuen, d’una banda, a la naturalesa de l’aprenentatge automàtic, la seva dependència del big data, la seva gran complexitat i capacitat de previsió. D’altra banda, a la seva implementació social, on trobem problemes derivats de la concentració d’aquests procediments en unes poques companyies (Apple, Facebook, Google, IBM i Microsoft), la dificultat de garantir un accés igualitari als seus beneficis i la necessitat de crear estratègies de resiliència davant els canvis que es produeixen a mesura que aquests algoritmes van penetrant en l’estructura crítica de la societat.

La falta de neutralitat dels algoritmes es deu a la dependència del big data. Les bases de dades no són neutrals i presenten els prejudicis inherents al hardware amb què han estat recol·lectades, el propòsit per al qual han estat recollides i al paisatge desigual de dades ‒no hi ha la mateixa densitat de dades en totes les zones urbanes ni respecte a tots els estaments i fets socials. L’aplicació d’algoritmes entrenats amb aquestes dades pot difondre els prejudicis presents en la nostra cultura com un virus, i això pot donar lloc a cercles viciosos i a la marginalització de sectors de la societat. El tractament d’aquest problema passa per l’elaboració de bases de dades inclusives i un canvi d’enfocament en l’orientació d’aquests algoritmes cap al canvi social.

El crowdsourcing pot afavorir la creació de bases de dades més justes, col·laborar a valorar quines dades són sensibles en cada situació i procedir a la seva eliminació i a testejar la neutralitat de les aplicacions. En aquest sentit, un equip de les universitats de Columbia, Cornell i Saarland ha elaborat l’eina FairTest, que busca associacions injustes que es poden produir en un programa. D’altra banda, orientar els algoritmes cap al canvi social pot contribuir a la detecció i eliminació dels prejudicis presents en la nostra cultura. La Universitat de Boston, en col·laboració amb el Microsoft Research, ha portat a terme un projecte en què els algoritmes són utilitzats per a la detecció dels prejudicis recollits en la llengua anglesa, concretament les associacions injustes que es donen a la base de dades Word2vec, utilitzada en moltes aplicacions de classificació automàtica de text, traducció i cercadors. El fet d’eliminar els prejudicis d’aquesta base de dades no els elimina de la cultura, però n’evita la propagació per mitjà d’aplicacions que funcionen de manera recurrent.

Altres problemes es deuen a la manca de transparència, que deriva no només del fet que aquests algoritmes són considerats i protegits com a propietat de les companyies que els implementen, sinó de la seva complexitat. No obstant això, el desenvolupament de processos que faci aquests algoritmes explicatius és d’importància cabdal quan aquests s’apliquen a la presa de decisions mèdiques, judicials o militars, on poden vulnerar el dret que tenim a rebre una explicació satisfactòria respecte a una decisió que afecta la nostra vida. En aquest sentit, l’Agència de Recerca per a la Defensa Americana (DARPA) ha iniciat el programa Intel·ligència artificial explicativa (Explainable Artificial Intelligence). Aquest programa explora nous sistemes de coneixement profund que puguin incorporar una explicació del seu raonament, ressaltant les àrees d’una imatge considerades rellevants per a la seva classificació o revelant un exemple de la base de dades que mostri el resultat. També desenvolupen interfícies que facin el procés de l’aprenentatge profund amb les dades més explícites, mitjançant visualitzacions i explicacions en llenguatge natural. Un exemple d’aquests procediments el trobem en un dels experiments de Google. Deep Dream, dut a terme el 2015, va consistir a modificar un sistema de reconeixement d’imatges basat en aprenentatge profund perquè, en lloc d’identificar objectes continguts a les fotografies, els modifiqués. Aquest procés invers permet, a més de crear imatges oníriques, visualitzar les característiques que el programa selecciona per identificar les imatges, mitjançant un procés de desconstrucció que força el programa a treballar fora del seu marc funcional i revelar-ne el funcionament intern.

Finalment, la capacitat de previsió d’aquests sistemes els porta a un increment en la capacitat de control. Són coneguts els problemes de privacitat que deriven de l’ús de tecnologies en xarxa, però la intel·ligència artificial pot analitzar les nostres decisions anteriors i preveure les nostres possibles activitats futures; això dóna al sistema capacitat per influir en la conducta dels usuaris, la qual cosa reclama un ús responsable i el control social de la seva aplicació.

La probabilitat que la intel·ligència artificial produeixi una singularitat o un esdeveniment que canviaria el curs de la nostra evolució humana continua sent remota; però els algoritmes intel·ligents de l’aprenentatge automàtic s’estan disseminant en el nostre entorn i produint canvis socials significatius, per la qual cosa cal desenvolupar estratègies que permetin a tots els agents socials entendre els processos que aquests algoritmes generen i participar en la seva definició i implementació.

Sandra Álvaro, Conviure amb algoritmes intel·ligents, lab.cccb.org 03/05/2017

https://lab.cccb.org/ca/conviure-amb-algoritmes-intel·ligents/?fbclid=IwAR0I6oIK_1Q8DzSvCbPn3jUGa9N3ihTvytuAGHrxv5F9U4SgfmfKFtKyu6A

Comentaris

Entrades populars d'aquest blog

Percepció i selecció natural 2.

Gonçal, un cafè sisplau

"¡¡¡Tilonorrinco!!! ¡¡¡Espiditrompa!!!"