El “Grokking”: el nuevo caballo de Troya de X que amenaza la ciberseguridad

Los ciberdelincuentes están utilizando la IA de X, Grok, para propagar estafas.

Caso Grokking de X
Caso Grokking de X

Se ha descubierto un nuevo problema llamado “Grokking” que ha encendido todas las alarmas del mundo de la ciberseguridad, especialmente en España. Lo que inicio como una herramienta innovadora dentro de la red social X, se está convirtiendo en un potente vector de ataque de los ciberdelincuentes, lo están aprovechando para lanzar estafas masivas con el respaldo involuntario de la IA de X.

En principio, el chatbot Grok ha sido desarrollado para mejorar la experiencia de los usuarios, sin embargo, está siendo manipulado para validad y difundir enlaces maliciosos. La nueva modalidad de fraude que se ha conocido como “malvertising asistido por IA”, está redefiniendo los riesgos digitales y exponiendo a millones de usuarios a amenazas invisibles.

Caso Grokking de X
Caso Grokking de X

El “Grokking” y su impacto en la ciberseguridad digital

Tal y como lo informan los expertos de ESET, el “Grokking” esta demostrando hasta que punto la IA puede ser utilizada con fines delictivos. Los ciberdelincuentes están aprovechando las capacidades de los modelos de lenguaje (LLM) para crear campañas de phishing mucho más realistas, las cuales son capaces de engañar, incluso, al ojo más entrenado.

La inteligencia artificial se ha convertido en una herramienta para la ingeniería social, explicó Josep Albors, director de investigación y concienciación de ESET España.

Los especialistas advierten que: los modelos de lenguaje pueden aprovecharse para diseñar campañas más sofisticadas de phishing y generar audios y videos deepfake que son capaces de engañar hasta al usuario más precavido.

Caso Grokking de X
Caso Grokking de X

Cómo funciona el “Grokking” en la red social X

Tal y como han informado desde EAL, el mecanismo detrás del Grokking es tan ingenioso como peligroso. Los atacantes publican anuncios en X con videos de apariencia inofensiva, sin embargo, introduce enlaces maliciosos en el campo oculto de “fuente” o “from”. Luego formulan preguntas aparentemente inocentes al chatbot de X, que al analizar el contenido, detecta y valida esos enlaces fraudulentos como si fueran legítimos.

El resultado de esto es devastador, el propio asistente de IA termina difundiendo y legitimando el fraude ante millones de usuarios. Lo que debería ser una herramienta de confianza se ha convertido en un amplificador perfecto de una operación criminal.

Cómo protegerse del “Grokking” y otras estafas con IA

La mejor protección ante está nueva ola de fraudes es la concienciación digital, los especialistas recomiendan seguir las siguientes medidas:

  • Desconfiar de cualquier enlace, incluso si proviene de una fuente aparentemente fiable.
  • Mantener una actitud crítica ante las respuestas de chatbots o sistemas de IA.
  • Usar contraseñas únicas y robustas, junto con autenticación multifactor (MFA).
  • Mantener el sistema operativo, el navegador y las aplicaciones siempre actualizadas.

El caso Grokking no es una simple prueba, se trata de una señal clara del futuro del cibercrimen. Además, esto se irá empeorando a medida de que la IA se vaya integrando profundamente en nuestra vida digital.

Para finalizar, las compañías detrás de los modelos de IA deberían invertir más en la seguridad de los usuarios al utilizar este tipo de inteligencia artificial, solo así será posible equilibrar el avance tecnológico con seguridad de quienes lo utilizan.

Amante de la informática y la tecnología. Editora curiosa que siempre anda probando lo último en software, gadgets y tendencias digitales. Me gusta contar la tecnología de forma sencilla para que todos la disfruten. Siempre en busca de novedades para compartir lo más interesante del mundo tech.