Foto de Los Mélez
Como cada año, después de la «obligada» visita al Mobile World Congress, Borja Ramon Beamonte, gestor TIC de la Fundación, reflexiona sobre el futuro de la tecnología en el mundo social.
Ahora le toca a la inteligencia artificial (AI). 4 minutos para leerlo y un buen rato invitados a la reflexión.
La Inteligencia Artificial (IA) impresiona por su capacidad para realizar actividades complejas de una forma tan eficiente que supera cualquier aproximación de las capacidades humanas. Tales como en tareas de reconocimiento visual, por ejemplo. ¿Por qué la IA muestras estos «súper poderes»? Porque utiliza patrones y características para identificar objetos, rostros o emociones en las imágenes, gracias a algoritmos de aprendizaje profundo y de procesamiento de imágenes. Es decir, los transforma en ceros y unos, y realiza operaciones matemáticas con ellos.
Contando, pues, que no pueden “ver”, es bastante sorprendente la capacidad que tienen las máquinas para extraer información, entender e interpretar el mundo visual con ese nivel de precisión. Son capaces de identificar rostros en una multitud con enorme rapidez y exactitud, identificar señales de tumores en imágenes diagnósticas, o interpretar el estado emocional o salud mental en base a expresiones faciales. La tecnología subyacente funciona mediante “redes neuronales artificiales”, que aprenden a partir de grandes cantidades de datos etiquetados, ajustando los pesos de las conexiones (lo que “vale cada píxel” de cada neurona) para mejorar la precisión en las predicciones.
Estas habilidades pueden ser utilizadas para usos poco éticos, como ocurre con todas las tecnologías. Pueden permitirse el control de personas sin que se enteren, la denegación o encarecimiento de seguros de salud o tratamientos, la identificación de elementos descontentos en entornos de protesta social o en conflictos laborales.
Sin embargo, existe un elemento aún más profundo de preocupación generado por la IA, relativo no sólo al uso que se le da, sino a su propio funcionamiento: cuando incorpora el proceso de recomendar o tomar la propia decisión. Las decisiones tomadas por las máquinas pueden ser muy eficientes o rentables, efectivas y operativas desde puntos de vista racionales y económicos, pero esto no significa que sean las más adecuadas desde un punto de vista moral. Y aquí encontramos un primer problema. ¿El punto de vista moral de quién? ¿Cómo determinamos lo que es “moralmente aceptable”? ¿Quién lo decide?
Podemos encontrar cierta analogía en la historia reciente de la comunicación, cuando hace apenas dos décadas nacen las redes sociales. La comunicación corporativa revela la naturaleza de las organizaciones, y, hasta la aparición de las redes sociales, podía hacerlo de forma controlada y calculada, básicamente unidireccional, abocando al mercado y al público mensajes construidos con cuidado sobre lo que se pretende ser.
Las redes lo terminaron de un tirón, permitiendo exponer en crudo las interioridades de las organizaciones, e incluso interactuar directamente con actores que no eran los previstos. Cuesta mucho más mantener escondidas las interioridades si cualquiera con un móvil puede colgar material escrito o gráfico que puede verse en tiempo real en todo el mundo. Esta exposición no siempre ha sido positiva o bien recibida por las organizaciones, pues, a menudo, es fácil que conocer cómo son las cosas genere problemas de reputación o aceptación.
De forma similar, las decisiones tomadas por la IA pueden ser un reflejo de lo que hacemos las personas, de cómo funciona la sociedad, más que de lo que creemos que hacemos o de lo que creemos que deberíamos hacer. Toda persona es tres, ¿verdad, Jean? Quien cree ser, quien los demás creen que es, y quien realmente es. Y está claro que, en términos morales, la conducta que manifiesta las personas y las normas que nos proponemos como rectoras del comportamiento no siempre coinciden.
Un dilema ético clásico utilizado en este contexto es el » dilema del tranvía » de la filósofa Philippa Foot, planteado hace tanto como en 1967. Imaginémonos que un tranvía se dirige sin control hacia cinco personas atrapadas en la vía. El observador tiene la capacidad de activar una palanca que desvía el vehículo hacia otra vía, donde se encuentra, sin embargo, un trabajador que será atropellado. ¿Qué debería elegir? ¿Qué elegiríamos cada uno de nosotros?
Este planteamiento ha sido punto de partida de artículos, estudios y análisis de escenarios referidos a la IA, sobre todo de los mecanismos de seguridad de vehículos autónomos cuando toca decidir cuál es el «mal deseable» (el mal menor) en caso de que uno accidente sea inevitable, pero se pueda determinar un proceso de decisión (en este caso, el fabricante pueda incluir en la programación) cuáles son las víctimas a evitar, incluido un experimento en forma de videojuego iniciado en 2014 y todavía en marcha.
Si pensamos que las vicisitudes de la movilidad nos caen lejos, podemos trasladar sin mucho esfuerzo los cruces éticos a procesos y situaciones bien presentes en la atención social, en la que se presenta, si cabe, retos aún mayores . Tales como herramientas inteligentes que ayuden a priorizar la distribución de ayudas o recursos en situaciones asistenciales, a gestionar la atención a personas en caso de emergencias o crisis, oa valorar la inclusión en programas de inserción en base al esfuerzo o los logros conseguidos por las personas.
Los recursos son siempre finitos, así que muy probablemente hablemos que, en la distribución de resultados, hay personas que se quedarán fuera de la solución, que recibirán menos, o que la recibirán más tarde. ¿Cómo formar la cola? ¿Cómo construimos una máquina que ayude a la atención sabiendo que uno de los componentes del proceso puede ser distinguir quién tendrá solución y quién no? ¿Con qué criterios?
Actualmente se deben tener criterios porque estas problemáticas existen, y son resueltas en la actualidad por los actores implicados (agentes sociales, entidades, instituciones…) de la mejor manera que pueden y saben. El sistema funciona. El AI podrá ayudar a agilizar los procesos que sean objetivos, medibles, físicos; los ingenieros se ocupan de ellos, y –como hemos visto en los ejemplos precedentes– los resultados están siendo impresionantes.
Pero, para una correcta implementación de la IA en el entorno social –para que las herramientas basadas en algoritmos utilicen criterios éticos– la parte crítica es la participación de los profesionales y especialistas del ámbito social, quienes la ejecutan realmente, no de los equipos de soporte técnico, de los financieros, de los gestores o de los directores. Sólo con la aportación de quienes conocen la problemática de forma directa podremos garantizar que la IA contribuya positivamente a mejorar el mundo y no cree más problemas de injusticia de los que intenta resolver.