Un mundo en el que los humanos son reemplazados por las máquinas, cuando no exterminados, es un escenario recurrente en las historias de ciencia ficción y popularizado por el cine, principalmente, como en la serie de las películas de Terminator. Pero los temores que generan esos universos distópicos parecen haberse acercado a la realidad ahora mismo.
Y las recientes declaraciones y reacciones de los máximos exponentes de la comunidad científica, especialmente de quienes están ligados al desarrollo de la IA (como Elon Musk, Sam Altman, consejero delegado de OpenAI, y Geoffrey Hinton, considerado el padrino de la IA), aventuran un futuro con tintes apocalípticos si no se hace un alto para reflexionar sobre las posibles consecuencias del uso sin control de la IA.
Quizás te interese leer: La inteligencia artificial irrumpe en el mercado laboral: cómo modificará el trabajo y qué oportunidades creará
Musk y más de 1.000 investigadores tecnológicos hicieron un llamamiento para pausar el desarrollo de inteligencias artificiales avanzadas al menos durante seis meses para frenar lo que llamaron “una peligrosa carrera que está llevando al desarrollo de modelos más impredecibles y con capacidades cada vez mayores”.
Hasta se llegó a afirmar que la IA es tan peligrosa como una guerra nuclear o una pandemia. ¿Es así realmente y la humanidad está al borde de la extinción, toda vez que no se controle el desarrollo de las inteligencias artificiales avanzadas?
“Todos estamos preocupados, porque si bien la IA no tiene vida propia sino que es programada por humanos, estos siguen teniendo demasiados sesgos y discriminaciones, y cuando eso se hace a gran escala repercute de forma grave en la humanidad”, afirmó Maricarmen Sequera, codirectora de Asociación de Tecnología, Educación, Desarrollo, Investigación y Comunicación (Tedic).
La experta consideró que este es un problema porque no se sabe cómo está construida algorítmicamente y porque llega a conclusiones considerando sólo ciertas bases de datos. “Los países del sur global, como Paraguay, no producen muchos datos, por lo que la IA puede llegar a conclusiones o generar sugerencias de soluciones sin un contexto de datos y sin incluir lo que debería producir un país como el nuestro”, advirtió.
Por su parte, Miguel Ángel Gaspar, director de Paraguay Ciberseguro, dijo que hoy la carrera es por los datos; y en las plataformas se comparten los datos comportamentales de las personas. “Eso es peligroso, no son solamente su nombre y apellido, sino sus gustos, por dónde va, qué mira, qué compra. Eso es lo que vuelve peligrosa a la IA”, aseveró.
Tal es el temor que EE.UU. y la Unión Europea (UE) anunciaron la redacción de un borrador de código de conducta común sobre IA, que se aplicaría voluntariamente por las empresas del sector. Al respecto, Gaspar expuso que el camino es ese, el de la regulación, y recalcó que sí hay un peligro latente en el mal uso de esta tecnología.
“Estoy de acuerdo con la carta que enviaron Elon Musk y los demás. Debemos parar unos meses para ver cuál fue el impacto en la gente y después seguir. Es necesario parar la pelota y no lo estamos haciendo”, añadió.
Además, hay un creciente resquemor acerca de los desplazamientos que va a generar la IA en los puestos de trabajo. “La población que hacía servicios básicos va a ser reemplazada y no va a tener la oportunidad de hacer upgrade porque no está capacitada para ello. Es responsabilidad del Estado ver a dónde van a ir las personas desplazadas”, señaló Sequera.
Gaspar indicó sobre el punto que no se debe temer a la IA, que hay que aprender a usar la herramienta y que los que van a ser desplazados no lo serán por la tecnología sino por otras personas que aprenderán a usarla para mejorar su trabajo.
“La diferencia con otras revoluciones tecnológicas es que en estas hay una interconectividad masiva y en tiempo real, y donde la cibernética ha podido recolectar tantos datos de la humanidad que tiene la capacidad de hacer perfiles masivos de comportamiento. No creo que vayamos a tener una Skynet que nos subyugue pero sí hay peligro por el lado de la manipulación de los datos. Pero hace falta regulación, y que los Estados se hagan cargo de los activos digitales de cada país”, indicó Gaspar.
A su vez, Sequera remarcó que lo que proponen como organización “no es que hay que apagar la IA. Hay que regular el uso no la tecnología en sí”.
Tu opinión enriquece este artículo: