¡Bienvenid@s!

Lo que diga a ChatGPT podría usarse en su contra

Sam Altman, CEO de OpenAI, advierte que los chats con la IA no están protegidos legalmente y podrían ser usados como prueba judicial.

Lo que diga a ChatGPT podría usarse en su contra

Sam Altman, director ejecutivo de OpenAI, encendió las alarmas al advertir que los intercambios con ChatGPT no están amparados por ninguna norma de confidencialidad legal. En una entrevista reciente, el líder de la compañía que desarrolló esta inteligencia artificial explicó que millones de personas comparten información sensible sin saber que podría ser usada en su contra.

Durante el pódcast This Past Weekend, Altman subrayó que las personas tratan al chatbot como un terapeuta, coach o confidente. Sin embargo, aclaró que no existe protección jurídica sobre esos datos, a diferencia de la confidencialidad médico-paciente o abogado-cliente. “No hay privilegio legal en estas conversaciones. Si alguien exige los registros en un juicio, podríamos estar obligados a entregarlos”, explicó.

La declaración generó inquietud entre usuarios, juristas y expertos en protección de datos. Aunque OpenAI asegura tener políticas de privacidad, estas no equivalen a garantías legales sólidas, sobre todo en casos judiciales donde se solicite información como prueba. Altman incluso calificó este vacío normativo como “un desastre”.

El directivo insistió en que la solución no es restringir el uso de estas herramientas, sino abrir un debate global sobre cómo deben regularse. “Necesitamos leyes que reconozcan estas nuevas formas de interacción humana con la IA”, propuso, llamando a los legisladores a ponerse al día con los avances tecnológicos.

Mientras tanto, Altman pidió a los usuarios ser más conscientes de lo que comparten. En su opinión, las herramientas como ChatGPT deben usarse con criterio, especialmente cuando se trata de problemas legales, emocionales o médicos.