Google IA esta produciendo millones de respuestas falsas al día

La IA de Google falla en una de cada diez consultas.

IA de Google
IA de Google

Google tiene un problema bastante serio con la precisión de su IA. Según ha informado The New York Times, aproximadamente 1 de cada 10 consultas respondidas por la IA de Google contiene información falsa. Con cerca de cinco billones de búsquedas anuales, eso se traduce en más de 57 millones de respuestas incorrectas cada hora, casi un millón por minuto; estas cifras provienen de la startup Oumi.

Estos resultados cuestionan de forma directa la fiabilidad de los resúmenes automáticos de IA que Google muestra antes de los resultados tradicionales de las búsquedas. Por lo tanto, millones de usuarios asumen que dicha respuesta destacada es la más precisa y verificada, pero al parecer, esto no es así. Oumi determinó que Gemini 2 acertaba el 85% de las veces en octubre, mientras que Gemini 3 mejoró hasta el 91% en febrero.

IA de Google

Qué dicen las pruebas sobre la fiabilidad de la IA de Google

Como era de esperarse, Google ha rechazado la investigación clasificándola como defectuosa, según su portavoz, no refleja el comportamiento de las búsquedas reales. Sin embargo, las pruebas dentro de la compañía revelan datos igual de preocupantes, según Google, Gemini 3 presenta un 28% de alucinamientos cuando realiza trabajos de forma autónoma. Por otra parte, la metodología de Oumi también contiene limitaciones reconocidas, ya que todo este estudio se realizó mediante herramientas basadas en IA.

Las pruebas internas de Google indican que Gemini 3, cuando opera independientemente de la Búsqueda, presenta alucinaciones el 28 por ciento del tiempo.

Otro detalles bastante impórtate es que las fuentes que frecuentemente aparecen en los resúmenes y con los que Google intenta respaldar las respuestas, no corroboran las afirmaciones de Gemini. En ocasiones, un resumen incorrecto aparece junto con un enlace que contiene la información correcta, pero en otras ocasiones, es viceversa.

La IA de Google puede ser manipulada con contenido falso

Los investigadores también ha demostrado que el sistema es bastante vulnerable a la manipulación directa. Un periodista de la BBC publicó de forma deliberada una entrada en el blog con información falsa y al día siguiente, Google lo había incorporado dicha información falsa en sus resúmenes automáticos.

El experimento expone la debilidad en la verificación del buscador, ya que cualquier contenido indexado puede convertirse rápidamente en una fuente de respuestas de IA sin ningún tipo de filtro que verifique su veracidad.

Las propias tecnológicas reconocen estas limitaciones, aunque lo hacen en términos de servicio que casi nadie consulta. Microsoft clasifica Copilot como herramienta de entretenimiento, no apta para decisiones importantes. Google recomienda verificar las respuestas de su IA, y xAI admite que sus sistemas pueden producir alucinaciones.

Salir de la versión móvil