Extensiones de Chrome roban chat de IA a casi un millón de personas. Este grave fallo de seguridad afecta a los usuarios que utilizan herramientas para potenciar sus conversaciones con ChatGPT o DeepSeek en el navegador. La filtración masiva expone datos críticos y privados de miles de cuentas activas.
El malware en extensiones de IA ha logrado infiltrase en dispositivo mediante complementos que prometían funciones avanzadas gratuitas. Los investigadores de seguridad confirman que la información robada se envía directamente a servidores externos bajo control criminal. Esta situación pone en riesgo la privacidad de las empresas y usuarios particulares por igual.
Peligro por el robo de chats de IA en navegadores
La magnitud de este ataque es alarmante, afectando específicamente a los usuarios que buscan integrar modelos como GPT-5 o Claude en su flojo de trabajo diario. Las extensiones maliciosas operaban de forma silenciosa, ocultando su actividad tras una apariencia de utilidad técnica y profesional.
Las extensiones camuflaron astutamente sus actividades. Se solicitó el consentimiento de los usuarios para la recopilación de datos de uso supuestamente anónimos. En realidad, las extensiones accedían específicamente al contenido.
Los complementos identificados son Chat GPT para Chrome y AI Sidebar, los cuales suman casi 900.000 instalaciones. Estos programas no solo capturan el historial de los chats, sino también la navegación completa de los usuarios afectados. El objetivo principal era recolectar los datos confidenciales de IA para fines de espionaje o ataques dirigidos.
Estrategias de engaño y phishing dirigido
El método utilizado por los atacantes consistió en imitar extensiones legítimas mediante nombre y descripciones muy similares. Este fraude en Chrome Web Store permitió que una de las herramientas obtuviera incluso insignias de recomendación oficiales. La confianza del usuario fue la puerta de entrada para este robo de identidad digital.
Los expertos advierten sobre el poaching rápido, una tendencia en donde se recolecta información de sistemas inteligentes de forma masiva. Esta práctica permite a los atacantes obtener propiedad intelectual y secretos industriales que comparten habitualmente con los chatbots. El riesgo de sufrir ataques de phishing altamente personalizados ha crecido exponencialmente tras este incidente.
Para protegerse, es importante revisar los permisos de cada complemento y eliminar aquellos que no sean estrictamente necesarios. La seguridad en la interacción con inteligencia artificial depende ahora de una vigilancia constante sobre las herramientas de terceros. No basta con confiar en la tienda oficial, pues el malware evoluciona para evadir los controles.

Comentarios!