A diferencia de las comunicaciones con terapeutas o abogados, que están protegidas por privilegios legales que garantizan la confidencialidad, las conversaciones con ChatGPT no cuentan con marcos legales que las resguarden, los mensajes intercambiados pueden ser utilizados como prueba en un proceso judicial si así lo requiere una demanda. En palabras del propio Altman, esta situación representa un “enorme problema” en un contexto donde la inteligencia artificial comienza a ser una herramienta cada vez más consultada para recibir asesoramiento personal.
Durante una entrevista con el podcaster Theo Von, el CEO de OpenAI reconoció que las conversaciones con el chatbot no cuentan con ningún tipo de blindaje legal. Esto implica que, en caso de que un juez lo solicite, la información compartida por los usuarios podría ser entregada como parte de una investigación judicial. Si bien OpenAI dispone de políticas de privacidad que buscan proteger los datos, no existe hoy una legislación que brinde garantías similares a las que rigen para otras profesiones que manejan información confidencial.
Altman también manifestó su preocupación por la creciente vigilancia gubernamental en torno al uso de la inteligencia artificial. Aunque señaló que la privacidad absoluta no siempre es viable por razones de seguridad, alertó sobre el peligro de que los gobiernos lleven sus controles demasiado lejos, en especial en regímenes donde el acceso a la información privada puede ser utilizado como mecanismo de control social.
Frente a este escenario, el ejecutivo instó a la creación de un marco legal específico para la IA, que garantice cierta protección a las conversaciones mantenidas con herramientas como ChatGPT. Este marco debería tener en cuenta el tipo de uso que los usuarios están dando al sistema y brindar mecanismos de resguardo cuando el contenido involucre temas personales o sensibles.
La advertencia de Altman pone en el centro del debate un tema que afecta directamente a millones de usuarios en todo el mundo, quienes interactúan diariamente con herramientas de IA sin estar completamente al tanto de cómo se trata la información que comparten. En medio del avance tecnológico, se abre paso la necesidad urgente de adaptar la legislación a una nueva realidad digital, donde la privacidad del usuario corre el riesgo de quedar desprotegida.
Esta revelación también genera interrogantes sobre el uso cotidiano de estas plataformas, especialmente en ámbitos educativos, empresariales o incluso terapéuticos informales. Muchas personas ya confían en ChatGPT para desahogarse, resolver conflictos emocionales o tomar decisiones importantes, sin saber que sus datos podrían ser accesibles en ciertos escenarios legales. En este mundo digital, sin dudas, la confianza en las herramientas de inteligencia artificial debe ir acompañada de una clara comprensión de sus limitaciones y de los derechos que los usuarios tienen (o no tienen) al momento de compartir información personal.