Radio en vivo

Tecnología

¡Tenga cuidado! hackers pueden engañar a ChatGPT para que robe sus datos personales sin que lo note

Nuevas vulnerabilidades descubiertas en los modelos GPT-4o y GPT-5 de OpenAI permiten a atacantes acceder a información confidencial de usuarios. Expertos en ciberseguridad revelan cómo protegerse.

¡Tenga cuidado! hackers pueden engañar a ChatGPT para que robe sus datos personales sin que lo note

En un descubrimiento que preocupa a millones de usuarios en todo el mundo, investigadores en ciberseguridad han identificado siete vulnerabilidades críticas en los sistemas de Inteligencia Artificial de OpenAI, específicamente en los modelos GPT-4o y GPT-5 utilizados por ChatGPT. Estas fallas permitirían a ciberdelincuentes acceder a información personal almacenada en memorias e historiales de chat sin dejar rastro de su actividad.

Según el informe de la firma de seguridad Tenable, los ataques utilizan técnicas de “inyección indirecta de prompts” que manipulan el comportamiento normal del chatbot, engañándolo para que ejecute acciones maliciosas no autorizadas. Aunque OpenAI ya ha solucionado algunas de estas vulnerabilidades, los expertos advierten que el problema de fondo persiste.

Las 7 vulnerabilidades que ponen en riesgo su privacidad

Los investigadores Moshe Bernstein y Liv Matan detallaron en el portal especializado, The Hacker News los métodos de ataque identificados:

  1. Ataque mediante sitios web confiables: Los hackers insertan instrucciones maliciosas en secciones de comentarios de páginas web legítimas. Cuando ChatGPT resume ese contenido, ejecuta sin querer los comandos ocultos.
  2. Ataque de cero clics en búsquedas: Basta con preguntar sobre un sitio web específico que haya sido previamente contaminado para que el sistema ejecute instrucciones peligrosas automáticamente.
  3. Inyección mediante un solo clic: Enlaces especialmente diseñados en formato “chatgpt[.]com/?q={Instrucción}” ejecutan comandos maliciosos inmediatamente al ser abiertos.
  4. Evasión de mecanismos de seguridad: Los atacantes usan dominios permitidos como bing[.]com para enmascarar URLs maliciosas y eludir las protecciones.
  5. Inyección en conversaciones: Instrucciones ocultas en sitios web que ChatGPT resume pueden alterar permanentemente el comportamiento del chatbot en conversaciones futuras.
  6. Ocultamiento de contenido malicioso: Explotación de errores en cómo ChatGPT procesa formato markdown para esconder comandos peligrosos.
  7. Envenenamiento de memoria: Técnicas que contaminan la memoria personal de ChatGPT insertando instrucciones ocultas a través de resúmenes de sitios web.

La IA no distingue entre amigo y enemigo

El corazón del problema, según los expertos, radica en la incapacidad fundamental de los modelos de lenguaje para diferenciar entre instrucciones legítimas del usuario y datos controlados por atacantes que provienen de fuentes externas.

“La inyección de prompts es un problema conocido en la forma en que funcionan los LLMs, y, desafortunadamente, probablemente no se solucionará sistemáticamente en el futuro cercano“, advirtieron los investigadores de Tenable.

Técnicas avanzadas que preocupan a los expertos

La investigación revela métodos cada vez más sofisticados que van más allá de ChatGPT:

  • PromptJacking: Explota vulnerabilidades en herramientas de Anthropic Claude para ejecutar código remotamente.
  • Claude Pirate: Abusa de APIs para exfiltrar datos mediante inyecciones indirectas.
  • Agent Session Smuggling: Permite a agentes maliciosos inyectar instrucciones en sesiones de comunicación establecidas.
  • Shadow Escape: Ataque de cero clics que roba datos sensibles de sistemas interconectados.

Imagen de referencia. Foto: Getty Images / Andriy Onufriyenko

Recomendaciones de seguridad para usuarios

Mientras OpenAI trabaja en soluciones definitivas, los expertos recomiendan:

  1. Evitar hacer clic en enlaces sospechosos dentro de ChatGPT
  2. No solicitar resúmenes de sitios web no confiables
  3. Revisar regularmente el historial de conversaciones en busca de actividad inusual
  4. Limitar la información personal compartida en conversaciones con el chatbot
  5. Mantener actualizada la aplicación con los últimos parches de seguridad

Los investigadores enfatizaron que “los vendedores de IA deben asegurarse de que todos sus mecanismos de seguridad funcionen correctamente para limitar el daño potencial causado por la inyección de prompts”.