Ciberdelincuentes engañan a Grok y logran difundir en X enlaces de phishing y malware
El uso de inteligencia artificial en...
El uso de inteligencia artificial en redes sociales ha revolucionado la forma en que las personas se informan e interactúan, pero también ha abierto la puerta a nuevas formas de ciberataques. Grok, el chatbot impulsado por IA e integrado en la red social X (antes Twitter), se convirtió recientemente en el protagonista de una sofisticada campaña de anuncios maliciosos que logró utilizar su propio sistema para propagar enlaces fraudulentos.
Expertos en seguridad de la compañía ESET alertaron que este tipo de ataques, conocidos como malvertising asistido por IA, representa una amenaza emergente que podría extenderse a otras plataformas con sistemas similares. La maniobra, bautizada como “Grokking”, demuestra que incluso los modelos más avanzados de inteligencia artificial pueden ser manipulados con el fin de difundir contenido dañino.
Lo preocupante no es solo el alcance masivo que logra la estafa, sino la confianza que los usuarios depositan en los bots de IA. La reputación de Grok como fuente confiable fue aprovechada por los delincuentes para distribuir enlaces de phishing y descargas de malware, logrando miles de interacciones en cuestión de horas.
Un nuevo tipo de ataque: el “AI-aided malvertising”ESET explicó que esta campaña logra evadir las barreras publicitarias de X mediante una táctica ingeniosa. En lugar de publicar enlaces directos a sitios fraudulentos, los atacantes difunden videos con contenido atractivo o clickbait. En la descripción del video, donde normalmente aparece el nombre de un medio o una web, insertan un enlace malicioso disfrazado de fuente legítima.
El truco está en que Grok, al analizar la publicación para ofrecer información contextual, identifica ese enlace y lo replica automáticamente. De esta manera, el bot multiplica la visibilidad del sitio fraudulento, expandiendo la estafa a gran escala sin que los moderadores o los filtros de la red social lo detecten a tiempo.
Según los investigadores, se trata de una variante de ataque por prompt injection, una técnica que consiste en introducir instrucciones ocultas dentro del contenido que una IA analiza. El modelo, al procesar esas instrucciones, termina ejecutando acciones que normalmente tiene bloqueadas, como compartir enlaces externos o difundir contenido no verificado.
La IA, de herramienta de protección a vector de ataqueDurante años, la inteligencia artificial se ha visto como una aliada para combatir los fraudes digitales. Sin embargo, esta campaña demuestra que también puede ser utilizada en sentido contrario. “El caso de Grokking evidencia una amenaza más sutil y potencialmente más peligrosa, porque aprovecha la confianza que los usuarios depositan en la IA”, advirtió Josep Albors, director de investigación y concienciación de ESET España.
El experto añadió que este tipo de ataques pueden replicarse fácilmente en cualquier entorno que integre modelos de lenguaje o asistentes virtuales, desde plataformas de mensajería hasta servicios de atención al cliente. “No es un problema exclusivo de X; cualquier sistema que interprete texto o contenido generado por usuarios puede ser manipulado si no tiene los controles adecuados”, indicó.
De hecho, los investigadores consideran que este podría ser el inicio de una nueva etapa en el cibercrimen, donde los atacantes utilicen la IA no solo como herramienta, sino también como vehículo para propagar amenazas.
Una llamada de atención para las plataformas digitalesEl impacto de esta campaña ha generado preocupación entre las compañías tecnológicas y expertos en ciberseguridad. Las redes sociales, que cada vez dependen más de la automatización y de sistemas inteligentes para filtrar información, podrían convertirse en objetivos más vulnerables si no actualizan sus protocolos de defensa.
ESET recomienda a las plataformas implementar capas adicionales de seguridad que permitan identificar y bloquear contenidos manipulados por IA antes de que lleguen al público. Además, los usuarios deben mantener una actitud crítica: evitar hacer clic en enlaces sospechosos, incluso si provienen de fuentes aparentemente confiables, y verificar siempre la autenticidad del contenido.
La manipulación de Grok marca un punto de inflexión en el uso de la inteligencia artificial dentro de las redes sociales. Lo que antes parecía una garantía de precisión y seguridad, hoy se transforma en un nuevo terreno de riesgo. En un contexto donde los ciberdelincuentes evolucionan con rapidez, la confianza ciega en la IA podría convertirse en su arma más poderosa.