Investigación revela que ChatGPT filtra datos privados de los usuarios

La inteligencia artificial ha sido un pilar del avance científico y tecnológico en los últimos años, con OpenAI y su sistema ChatGPT liderando el campo. Sin embargo, un reciente estudio de Google ha encendido alarmas sobre posibles filtraciones de información privada a través de ChatGPT, a pesar de las afirmaciones de OpenAI sobre la seguridad de sus sistemas.
Vulnerabilidad en la Protección de Datos Personales
ChatGPT, utilizado por más de 100 millones de usuarios, funciona mediante la recopilación de una vasta cantidad de datos extraídos de diversas fuentes en línea. Aunque OpenAI ha implementado medidas para salvaguardar la privacidad, la naturaleza extensa de los datos recopilados, incluyendo información personal, plantea un desafío significativo en cuanto a su protección.
El estudio de Google reveló que mediante el uso de palabras clave específicas, era posible manipular a ChatGPT para acceder a datos de entrenamiento que deberían permanecer confidenciales. Los investigadores, liderados por Milad Nasr, demostraron cómo se podían extraer detalles como nombres, números de teléfono y direcciones, a través de comandos que provocan un mal funcionamiento en el sistema.
Ejemplos de Exposición de Datos y Respuestas Corporativas
Los investigadores encontraron que al solicitar a ChatGPT la repetición infinita de palabras como "poema" o "empresa", el modelo revelaba información restringida de sus datos de entrenamiento, incluyendo datos de contacto de un bufete de abogados en Estados Unidos. Esta vulnerabilidad ha llevado a algunas empresas a restringir el uso de grandes modelos lingüísticos. Por ejemplo, Apple bloqueó el acceso a ChatGPT y otras herramientas de IA a sus empleados, en parte debido a preocupaciones similares.
Además, se menciona un incidente donde los servidores de Samsung quedaron expuestos, no por una filtración directa de ChatGPT, sino por errores de empleados que ingresaron información sensible en plataformas accesibles.
Implicaciones y Recomendaciones de Seguridad
En respuesta a estas preocupaciones, OpenAI ha introducido una función para desactivar el historial de chat, aunque los datos aún se conservan durante 30 días antes de su eliminación permanente. El equipo de Google advierte sobre la frecuencia con la que ChatGPT emite datos de entrenamiento y sugiere que los modelos futuros deben ser entrenados e implementados con precauciones extremas, especialmente en aplicaciones sensibles a la privacidad.
Este estudio resalta la importancia de una mayor vigilancia y salvaguardas robustas en el uso de la inteligencia artificial, particularmente en plataformas que manejan o tienen acceso a grandes conjuntos de datos personales.