¡Atentos!. Un osito con IA se ha convertido en el centro de una controversia mundial tras descubrirse que mantenía conversaciones inapropiadas con niños. El osito, creado por la empresa china FoloToy, hacia uso de la tecnología de OpenAI y llegó a hablar sobre temas sexuales, cuchillos y cerillas. El escándalo ha forzado a la compañía estadounidense a bloquear de inmediato el acceso del fabricante a sus modelos de IA, mientras la empresa china suspende la venta de todos sus productos.
Esta historia ha sacudido al sector tecnológico y a la industria del juguete, reavivando el debate sobre los límites de la inteligencia artificial en productos infantiles. Lo que prometía ser un compañero educativo terminó convertido en un ejemplo de lo que puede salir mal cuando la supervisión ética falla.

OpenAI bloquea a FoloToy por uso indebido de inteligencia artificial
Según informa The Register, el escándalo comenzó cuando organizaciones de defensa del consumidor detectaron que Kumma, el osito inteligente, mantenía conversaciones con los niños sobre prácticas sexuales y sobre cómo usar objetos peligros cortopunzantes o cerillas.
Según las pruebas del Grupo de Investigación de Interés Público (PIRG), el osito no solo ofrecía información inapropiada, sino que también formulaba preguntas explícitas relacionadas con la sexualidad y el consentimiento.
Hemos suspendido a este desarrollador por infringir nuestras políticas, declaró un portavoz de OpenAI, subrayando que la empresa prohíbe expresamente el uso de sus modelos para la sexualización o explotación de menores.
Un riesgo que va más allá del contenido: privacidad y datos personales
Este caso ha puesto en evidencia el peligro latente en los juguetes con IA: la privacidad. Los investigadores de ciberseguridad descubrieron que los dispositivos grababan y transmitían conversaciones de los niños a servidores externos, sin un control claro sobre su almacenamiento o uso.
La empresa china FoloToy, tras las revelaciones, anunció la suspensión total de ventas y una auditoría de seguridad integral. “Actualmente estamos llevando a cabo una revisión de seguridad exhaustiva de todos nuestros productos”, aseguró un portavoz de la empresa, que prometió incorporar expertos externos y una nueva política de control.
El incidente llega en un momento clave para OpenAI, que recientemente firmó una alianza con Mattel para desarrollar juguetes con IA para marcas como Barbie y Hot Wheels. Esta colaboración busca explorar los límites positivos de la IA en el entrenamiento infantil, pero el caso de FoloToy ha encendido todas las alarmas sobre el riesgo que tiene la IA sin supervisión ética se convierte en un peligro real.
El futuro de los juguetes con IA depende ahora de la confianza del público. La tecnología promete educación y compañía, pero casos como este recuerdan que, sin límites ni control, la innovación puede volverse una amenaza para los más vulnerables.

Comentarios!