Abril 13, 2026

Anthropic acaba de acusar a DeepSeek y a otras empresas chinas de “destilar” Claude

Claude de Anthropic

25/02/2026 – Miguel Angel Ducci – CEO, Founder & Editor.-

Claude de Anthropic

Anthropic acusa a DeepSeek, Moonshot y MiniMax de extraer datos de Claude mediante destilación

En un texto publicado este lunes por  Anthropic  la compañía afirma haber detectado “campañas a escala industrial” destinadas a extraer capacidades de Claude. Según su versión, las actividades atribuidas a DeepSeek, Moonshot y MiniMax habrían implicado más de 16 millones de consultas, interacciones de pregunta y respuesta, y se habrían canalizado a través de unas 24.000 cuentas fraudulentas, en violación de sus términos de servicio y de sus restricciones regionales de acceso.

La carrera y la sospecha.

El anuncio de la firma liderada por Darío Amodei se produce en un contexto de tensión creciente alrededor del progreso de la IA china. Recordemos que DeepSeek alteró el panorama de Silicon Valley hace un año con el lanzamiento de R1, un modelo competitivo que se presentó como desarrollado a una fracción del coste de alternativas estadounidenses. El impacto fue inmediato en los mercados y reavivó el debate político en Washington sobre la ventaja tecnológica frente a China.

Destilar no siempre es trampa. La propia Anthropic reconoce que la destilación es una técnica habitual en el sector. Consiste, en términos simples, en entrenar un modelo menos capaz utilizando las respuestas generadas por uno más potente, algo que los grandes laboratorios emplean para crear versiones más pequeñas y económicas de sus propios sistemas. El problema, según la compañía, aparece cuando esa práctica se utiliza para “adquirir capacidades poderosas de otros laboratorios en una fracción del tiempo y a una fracción del costo” que supondría desarrollarlas de forma independiente. En ese caso, la destilación dejaría de ser una optimización interna para convertirse, siempre según Anthropic, en una forma de aprovechar el trabajo ajeno.

Patrón reconocible. 

Los tres laboratorios habrían utilizado cuentas fraudulentas y servicios proxy para acceder a Claude a gran escala mientras intentaban evitar los sistemas de detección. La compañía detalla infraestructuras, lo que llama “hydra cluster”, redes extensas de cuentas que distribuyen el tráfico entre su API y plataformas en la nube de terceros, de modo que cuando una cuenta era bloqueada, otra ocupaba su lugar. Anthropic sostiene que lo que diferenciaba estas actividades de un uso normal no era una consulta aislada, sino la repetición masiva y coordinada de solicitudes orientadas a extraer capacidades muy concretas del modelo.

Tres campañas. 

Aunque Anthropic presenta las campañas como parte de una misma dinámica, distingue matices relevantes. DeepSeek habría focalizado sus más de 150.000 consultas en extraer capacidades de razonamiento y en generar alternativas seguras a preguntas políticamente sensibles. Moonshot, con más de 3,4 millones de consultas, se habría orientado hacia el desarrollo de agentes capaces de usar herramientas y manipular entornos informáticos. MiniMax concentraría el mayor volumen, más de 13 millones de consultas, y según el relato de Anthropic, reaccionó en cuestión de horas ante el lanzamiento de un nuevo sistema, redirigiendo su tráfico para intentar extraer capacidades de su sistema más reciente.

Anthropic promete reforzar sus defensas.

El comunicado oficial dijo que al rastrear la correlación de direcciones IP, comparar solicitudes de metadatos y características de infraestructura, y realizar referencias cruzadas con otros pares en la industria de la IA que han observado un comportamiento anómalo similar, tienen “alta confianza” en que pueden vincular estos ataques de destilación a las tres empresas chinas específicas mencionadas anteriormente.

De hecho, este no es el primer caso en la industria. A principios del año pasado, OpenAI realizó acusaciones similares, alegando que sus competidores utilizaban tecnología de destilación para replicar las capacidades de su modelo y, posteriormente, bloquearon un gran número de cuentas sospechosas. En respuesta, Anthropic prometió mejorar completamente los mecanismos de defensa de su sistema, dificultando la ejecución de futuros ataques de destilación y facilitando su detección.

Sin embargo, este incidente también tiene un toque de ironía: mientras Anthropic acusa ruidosamente a otros de “robar datos”, ellos mismos enfrentan actualmente críticas de múltiples editores musicales por litigio por infracción. Se le acusó de utilizar ilegalmente letras de canciones con derechos de autor para entrenar a Claude.

Te puede interesar: Trump ordena a todas las agencias federales que dejen de utilizar Anthropic