Anthropic acusa a empresas chinas de copiar ilegalmente a Claude

Anthropic denuncia robo de tecnología por parte de IA china DeepSeek.

Anthropic acusa a China
Anthropic acusa a China

El conflicto por la supremacía tecnológica ha escalado tras la denuncia formal de la compañía Anthropic contra varias startups de China. La compañía estadounidense sostiene que se ejecutó un robo masivo de tecnología mediante la creación de miles de cuentas falsas para extraer datos críticos.

El incidente revela una estrategia coordinada para reducir la brecha de innovación entre potencias mediante la explotación de modelos de lenguaje. De acuerdo a los informes técnicos, un poco más de 16 millones de conversaciones fueron extraídas del sistema para fortalecer algoritmos que compiten directamente en el mercado global.

Anthropic acusa a China

El impacto de la destilación ilegal en la inteligencia artificial

La técnica utilizada para este presunto fraude se conoce como destilación de modelos, se trata de un proceso que permite entrenar IAs menos potentes usando las respuestas de una IA superior. Por lo tanto, Anthropic señala que firmas como DeepSeek, Moonshot y MiniMax han utilizado este método para copiar las capacidades avanzadas sin la necesidad de invertir en una investigación original.

La IA DeepSeek se centra en el pensamiento lógico y en la creación de contenidos que puedan eludir las medidas de censura. Moonshot en la programación, el análisis de datos y el razonamiento agente. MiniMax en la extracción de habilidades en el área de uso de herramientas y orquestación de tareas. – Anthropic.

Este procedimiento se realiza a través de redes proxy y cuentas simuladas, los laboratorios asiáticos habrían evadido las restricciones geográficas que impiden el uso de la IA Claude en territorio chino. Dicha infraestructura permitió a los atacantes accedieran a las capacidades de razonamiento lógico y programación, elementos que son extremadamente costosos de desarrollar desde cero.

Riesgos para la seguridad y el control de datos

Las redes de servidores internacionales que son utilizadas para estos fines, no solo representa una pérdida económica, sino que también un desafío a la seguridad nacional de Estados Unidos. La compañía Anthropic advierte que, al copiar sus modelos, las empresas podrían haberse saltado los filtros éticos y de seguridad, los cuales están diseñados para prevenir el mal uso de la tecnología.

La preocupación de este hecho radica en que estos modelos de IA que son derivados se utilicen para fines que los desarrolladores originales prohibieron explícitamente. Se menciona la posibilidad de que actores estatales utilicen estos conocimientos para optimizar ciberataques o el desarrollo de armamento, aprovechando la potencia de cálculo estadounidense de forma encubierta.

Dependencia de hardware y competencia desleal

Por otro lado, este escándalo resalta la continua dependencia de las empresas chinas respecto a los chips de alto rendimiento. A pesar de los avances locales, la necesidad de recurrir a la extracción de datos de Claude demuestra que el hardware occidental sigue siendo una pieza clave para el entrenamiento de sistemas complejos.

Curiosamente, estas acusaciones llegan en un momento donde las propias empresas de EE. UU. enfrentan críticas por el uso de datos públicos sin consentimiento. Sin embargo, la compañía defiende que su caso es distinto, pues se trata de un ataque directo a su propiedad intelectual protegida mediante el uso de identidades falsas.

Este escenario actual plantea la necesidad de implementar controles de exportación más estrictos y sistemas de monitoreo de tráfico más robustos; la batalla por la IA generativa ya no se libra solo en los laboratorios, sino en la capacidad de proteger los activos digitales de incursiones externas sistemáticas.

Salir de la versión móvil