Fotografia de Los Mélez
Com cada any, després de “l’obligada” visita al Mobile World Congress, en Borja Ramon Beamonte, gestor TIC de la Fundació, reflexiona sobre el futur de la tecnologia en el món social.
Ara li toca a la intel·ligència artificial (AI). 4 minuts per llegir-lo i una bona estona convidats a la reflexió.
La Intel·ligència Artificial (IA) impressiona per la seva capacitat per a realitzar activitats complexes d’una manera tan eficient que supera qualsevol aproximació de les capacitats humanes. Com ara en tasques de reconeixement visual, per exemple. Per què la IA mostres aquests “súper poders”? Perquè utilitza patrons i característiques per identificar objectes, rostres o emocions en les imatges, gràcies a algoritmes d’aprenentatge profund i de processament d’imatges. És a dir, els transforma en zeros i uns, i fa operacions matemàtiques amb ells.
Tot comptant, doncs, que no poden “veure”, és força sorprenent la capacitat que tenen les màquines per a extreure informació, entendre i interpretar el món visual amb aquest nivell de precisió. Són capaces d’identificar rostres en una multitud amb enorme rapidesa i exactitud, identificar senyals de tumors en imatges diagnòstiques, o interpretar l’estat emocional o salut mental en base a expressions facials. La tecnologia subjacent funciona mitjançant “xarxes neuronals artificials”, que aprenen a partir de grans quantitats de dades etiquetades, ajustant els pesos de les connexions (el que “val cada píxel” de cada neurona) per millorar la precisió en les prediccions.
Aquestes habilitats poden ser utilitzades per a usos poc ètics, com passa amb totes les tecnologies. Poden permetre el control de persones sense que se n’assabentin, la denegació o encariment d’assegurances de salut o tractaments, la identificació d’elements descontents en entorns de protesta social o en conflictes laborals.
Existeix, però, un element encara més profund de preocupació generat per la IA, relatiu no només a l’ús que se li en dona, sinó al seu propi funcionament: quan incorpora el procés de recomanar o prendre la pròpia decisió. Les decisions preses per les màquines poden ser molt eficients o rendibles, efectives i operatives des de punts de vista racionals i econòmics, però això no significa que siguin les més adequades des d’un punt de vista moral. I aquí ens trobem un primer problema. El punt de vista moral de qui? Com determinem el que és “moralment acceptable”? Qui ho decideix?
Podem trobar una certa analogia en la història recent de la comunicació, quan fa a penes dues dècades neixen les xarxes socials. La comunicació corporativa revela la naturalesa de les organitzacions, i, fins l’aparició de les xarxes socials, ho podia fer de forma controlada i calculada, bàsicament unidireccional, abocant al mercat i al públic missatges construïts amb cura sobre allò que hom pretén ser.
Les xarxes ho van acabar d’una tirada, permetent exposar en cru les interioritats de les organitzacions, i fins i tot interactuar directament amb actors que no eren els previstos. Costa molt més mantenir amagades les interioritats si qualsevol amb un mòbil pot penjar material escrit o gràfic que es pot veure en temps real arreu del món. Aquesta exposició no sempre ha estat positiva o ben rebuda per les organitzacions, doncs, sovint, és fàcil que conèixer com són les coses generi problemes de reputació o acceptació.
De manera similar, les decisions preses per la IA poden ser un reflex del que fem les persones, de com funciona la societat, més que no pas del que creiem que fem o del que creiem que hauríem de fer. Tota persona és tres, oi, Jean? Qui creu ser, qui els altres creuen que és, i qui realment és. I està clar que, en termes morals, la conducta que manifestem les persones i les normes que ens proposem com a rectores del comportament no sempre coincideixen.
Un dilema ètic clàssic utilitzat en aquest context és el “dilema del tramvia” de la filòsofa Philippa Foot, plantejat fa tant com el 1967. Imaginem-nos que un tramvia es dirigeix sense control cap a cinc persones atrapades a la via. L’observador té la capacitat d’activar una palanca que desvia el vehicle cap a una altra via, on hi ha, però, un treballador que serà atropellat. Què hauria d’escollir? Què triaríem cadascun de nosaltres?
Aquest plantejament ha estat punt de partida d’articles, estudis i anàlisis d’escenaris referits a la IA, sobre tot dels mecanismes de seguretat de vehicles autònoms quan toca decidir quin és el “mal desitjable” (el mal menor) en cas que un accident sigui inevitable, però es pugui determinar un procés de decisió (en aquest cas, el fabricant pugui incloure en la programació) quines són les víctimes a evitar, inclòs un experiment en forma de videojoc iniciat el 2014 i encara en marxa.
Si pensem que les vicissituds de la mobilitat ens cauen lluny, podem traslladar sense gaire esforç les cruïlles ètiques a processos i situacions ben presents en l’atenció social, en la qual es presenta, si cap, reptes encara més grans. Com ara en eines intel·ligents que ajudin a prioritzar la distribució d’ajuts o recursos en situacions assistencials, a gestionar l’atenció a persones en cas d’emergències o crisis, o a valorar la inclusió en programes d’inserció en base a l’esforç o les fites aconseguides per les persones.
Els recursos són sempre finits, així que molt probablement parlem que, en la distribució de resultats, hi ha persones que es quedaran fora de la solució, que en rebran menys, o que la rebran més tard. Com formar la cua? Com construïm una màquina que ajudi a l’atenció sabent que un dels components del procés pot ser destriar qui tindrà solució i qui no? Amb quins criteris?
Actualment se n’han de tenir, de criteris, perquè aquestes problemàtiques existeixen, i són resoltes en l’actualitat pels actors implicats (agents socials, entitats, institucions…) de la millor manera que poden i saben. El sistema funciona. L’AI podrà ajudar a agilitar els processos que siguin objectius, mesurables, físics; els enginyers se n’ocupen, i –tal com hem vist en els exemples precedents– els resultats estan essent impressionants.
Però, per a una correcta implementació de la IA en l’entorn social –perquè les eines basades en algorismes utilitzin criteris ètics– la part crítica és la participació dels professionals i especialistes de l’àmbit social, els que la executen realment, no dels equips de suport tècnic, dels financers, dels gestors o dels directors. Només amb l’aportació dels qui coneixen la problemàtica de forma directa podrem garantir que la IA contribueixi positivament a millorar el món i no creï més problemes d’injustícia dels que intenta resoldre.