¿Debemos dejar que la inteligencia artificial optimice la sociedad?

(Raúl Jiménez, Universitat de Barcelona; Licia Verde, Universitat de Barcelona y Rabih Zbib, Massachusetts Institute of TechnologyLa gran innovación del siglo XXI ha sido el advenimiento del big data y el aprendizaje automático profundo. Un ejemplo es la inteligencia artificial (IA). ¿Alguien podría haber imaginado en 1990 que una computadora derrotaría a cualquier humano en ajedrez o Go? El libro The Emperor’s New Mind, publicado ese mismo año por el matemático y ganador del premio Nobel Roger Penrose, argumentaba enérgicamente contra esta posibilidad. Hoy, cualquiera puede traducir otro idioma desde su móvil sobre la marcha.

Image description

Esta revolución tiene dos componentes. Primero, la disponibilidad de enormes cantidades de datos sobre todos los aspectos de nuestra sociedad: nuestra ubicación, la frecuencia de nuestras transacciones bancarias, nuestras preferencias cuando vemos películas… Segundo, la capacidad de la inteligencia artificial de dar sentido a estos datos.

Para entender el poder de la IA, imagínese tener un modelo para un fenómeno: si este es exacto, se pueden hacer predicciones con él. Por ejemplo, consideremos la teoría física de la relatividad general de Einstein. Si queremos construir una red GPS necesitamos aplicar esta teoría para desarrollar dicho dispositivo.

Por otro lado, considere el lector fenómenos para los cuales no tenemos un modelo eficaz, como las interacciones sociales y el lenguaje. Hasta el siglo XXI se creía que sin un modelo no se podía predecir nada. Sin embargo, la red neuronal resuelve esto buscando y utilizando patrones y correlaciones en los datos. A saber: no tenemos una idea clara de qué es el lenguaje, pero tenemos algoritmos casi perfectos para traducir idiomas. Tampoco tenemos una teoría sobre los gustos cinéfilos de la gente, pero los servicios de streaming nos aconsejan películas que nos pueden gustar.

Dada la capacidad de la IA para gestionar y dar sentido a cualquier cantidad de datos, ¿por qué no dejamos que la IA optimice la sociedad? ¿Suena a herejía? Un caso concreto: La gestión global de la pandemia de COVID-19 no ha sido óptima por los gobiernos del mundo.

Si bien casi todos reconocen la importancia primordial de los datos científicos, y algunos han intentado utilizarlos de la manera más eficiente, otros simplemente no han podido digerir lo que decían los datos. Incluso el país más exitoso en vacunar a sus ciudadanos, Israel, se ha visto afectado por una enorme mala gestión y errores en el manejo de la pandemia. Otros países tienen campañas de vacunación erráticas o populistas; ninguno ha podido optimizar su estrategia. Estamos jugando con vidas humanas. ¿Podría la IA haberlo gestionado mejor?

La manera en que la IA aprende los patrones y aprovecha las correlaciones encontradas en cantidades masivas de datos es minimizando un conjunto de aspectos y cantidades y maximizando otros. En lenguaje técnico, optimizando una función de coste (cost function). Por ejemplo, en el caso de un banco, la IA proporciona la manera óptima de maximizar el retorno de beneficios.

Ningún país ha intentado utilizar la IA para decidir quién debe vacunarse y cuándo. El uso de algoritmos no implica necesariamente mejor toma de decisiones. Uno mal diseñado siempre dará malos resultados: el probado en el Centro Médico de Stanford (EE. UU.) dejó fuera a los médicos que se enfrentaban a la pandemia en primera línea y puso por delante a algunos que trabajaban desde casa.

¿Pueden los algoritmos superar nuestros sesgos?

El siguiente paso sería argumentar que tal vez la IA no solo debería optimizar las respuestas de la sociedad a las pandemias, sino también otros aspectos de nuestras vidas. ¿Por qué no? Después de todo, en la mayoría de los casos, los políticos están tratando de optimizar sus opciones: ¿cuántas carreteras construir? ¿Cuánto pagar en el sistema nacional de salud o pensiones? ¿Cómo hacer la economía más verde?

Se podría argumentar que se trata de decisiones políticas en las que los datos y hechos “cuantitativos” y concretos no juegan ningún papel. En realidad, estas decisiones se toman maximizando una función de costes que inevitablemente será sesgada por factores humanos e intereses como el enriquecimiento del político y sus electores. Por ejemplo, la política del pork barrel, esa que se refiere a la contribución de dinero público que los miembros del Congreso y los Senadores de Estados Unidos tienen a disposición para financiar proyectos de interés local, y que frecuentemente se utiliza para ganar votos.

Idealmente, en una democracia (incluso robotizada), la función de costes debería optimizar el bienestar de la sociedad y todos sus miembros. Una ventaja de los algoritmos es que pueden remover los sesgos humanos del proceso de toma de decisiones. Entonces, ¿por qué no dar a los algoritmos la capacidad de gestionar y digerir los datos, proponiendo soluciones óptimas desde un punto de vista objetivo?

Con una reserva importante: sesgos y prejuicios pueden estar empotrados en el algoritmo mismo. Esconderse detrás de la IA no garantiza una toma de decisiones ética e igualitaria: la ética tiene que estar incorporada en el algoritmo.

¿Podemos llegar a pensar que todo el proceso de optimizar la sociedad lo pueda hacer, mucho más eficientemente, un algoritmo? ¿Es posible construir una IA ética? ¿Cómo? ¿Quién controla los algoritmos y la función de coste? ¿En qué casos y bajo qué condiciones los humanos podrían dejar completamente la toma de decisiones a los algoritmos? ¿Cuándo deben intervenir los humanos?

Estas son las cuestiones clave a las que se enfrenta la sociedad contemporánea: deberíamos responderlas lo antes posible mientras todavía controlamos al robot.

Raúl Jiménez, Profesor ICREA de Cosmologia y Fisica Teorica y Profesor Visitante en el Imperial College, Universitat de Barcelona; Licia Verde, Profesor ICREA de Cosmologia en el ICCUB de la Universidad de Barcelona, Universitat de Barcelona y Rabih Zbib, Director de Investigacion de Inteligencia Artificial y Procesamiento Natural del Lenguaje en Avature, Massachusetts Institute of Technology

Este artículo fue publicado originalmente en The Conversation. Lea el original.

The Conversation

Dejá tu Comentario: (máximo 1000 caracteres)

Comentarios: