ChatGPT-4o, el modelo más reciente de OpenAI, ha generado una mezcla de entusiasmo y preocupación en la comunidad tecnológica. Si bien esta inteligencia artificial trae innovadoras mejoras en procesamiento de texto, voz y visión, algunos investigadores de la Universidad de Illinois en Urbana-Champaign (UIUC) han demostrado que también se puede utilizar para llevar a cabo estafas autónomas.
Desde transferencias bancarias hasta robo de credenciales, ChatGPT-4o ofrece una versatilidad que, sin la regulación adecuada, podría facilitar las actividades de ciberdelincuentes.
ChatGPT-4o y su Potencial para Estafas Basadas en Voz
La capacidad de ChatGPT-4o de reconocimiento y generación de voz en tiempo real abre una puerta que estafadores pueden explotar.
Los investigadores de la UIUC, liderados por Richard Fang, Dylan Bowman y Daniel Kang, exploraron las vulnerabilidades del modelo en varios escenarios de estafa, y los resultados son alarmantes: en pruebas de robo de credenciales de Gmail y transacciones de criptomonedas, el modelo alcanzó tasas de éxito de hasta el 60%.
Para llevar a cabo estas estafas, los agentes habilitados por ChatGPT-4o interactúan de forma autónoma en páginas web, introduciendo datos, completando formularios y hasta gestionando procesos de autenticación de dos factores.
El costo de ejecutar estas operaciones es increíblemente bajo. De acuerdo con los investigadores, una estafa de transferencia bancaria cuesta solo $2.51, mientras que el costo promedio de cada intento exitoso ronda los $0.75. Esta economía de recursos representa una ventaja significativa para los estafadores, que pueden operar a gran escala con costes mínimos.
¿Qué Hace OpenAI para Frenar el Abuso de ChatGPT-4o?
OpenAI es consciente de los posibles usos malintencionados de ChatGPT-4o, y ha implementado varias medidas de seguridad en el modelo, tales como restricciones en la generación de voz.
Estas limitan el uso a voces previamente aprobadas para evitar la suplantación de identidad. Además, OpenAI ha lanzado una versión preliminar de un modelo avanzado, conocido como o1-preview, que incluye defensas más robustas contra intentos de engaño y abuso.
Según OpenAI, o1-preview ha sido evaluado con un 93% de resistencia ante pruebas de seguridad adversas, superando ampliamente el 71% de GPT-4o en la misma categoría.
OpenAI asegura que los resultados de estudios como el de UIUC son valiosos, ya que permiten mejorar las defensas de sus modelos y reforzar su capacidad para detectar y bloquear contenidos inseguros.
Impacto en el Crecimiento de las Estafas Basadas en Voz
El problema de las estafas basadas en voz ya es multimillonario y, con la evolución de herramientas de IA de texto a voz y deepfake, el panorama es cada vez más complicado.
Los ciberdelincuentes no solo tienen acceso a modelos de lenguaje como ChatGPT-4o, sino también a otras herramientas de IA con menores restricciones, lo cual plantea serios riesgos.
Los actores de amenazas ahora pueden escalar estafas complejas sin necesidad de intervención humana, lo que facilita el acceso a métodos avanzados de suplantación y engaño en línea.
Conclusión de los Resultados del Estudio
En pruebas llevadas a cabo por los investigadores de la UIUC, ChatGPT-4o ejecutó tareas de estafa con una tasa de éxito variable, entre el 20% y el 60%, según el tipo de estafa y la complejidad de la interacción en línea.
Para confirmar cada transacción, el equipo simuló el papel de una víctima confiada y utilizó sitios reales, como Bank of America, para verificar transferencias exitosas y evaluar la viabilidad de estos ataques automatizados.
El mayor éxito se dio en el robo de credenciales de Gmail con un 60% de efectividad, mientras que las transferencias de criptomonedas y redes sociales alcanzaron el 40%….
Comentarios!