Anthropic acusa a empresas chinas de usar 16 millones de consultas para copiar a Claude
Anthropic acusa a tres empresas chinas de usar 24 000 cuentas falsas y 16 millones de consultas para destilar capacidades de Claude sin permiso, en medio de la tensión tecnológica entre EE. UU. y China.
China y Estados Unidos volvieron a chocar, esta vez por una técnica de IA con nombre de laboratorio: distilación. El concepto es sencillo. Anthropic, creadora del modelo Claude, acusa a tres compañías chinas de usar su sistema sin permiso para entrenar los suyos.
Según la empresa, las firmas chinas habrían creado más de 24 000 cuentas falsas y generado 16 millones de consultas a Claude. Con ese volumen, habrían reunido suficientes respuestas para replicar parte del comportamiento del modelo avanzado.
La distilación es una técnica común: un modelo pequeño aprende imitando a uno grande. Funciona bien y reduce costos. Pero Anthropic afirma que, en este caso, la técnica se aplicó sin autorización, violando los términos de servicio y esquivando restricciones, ya que Claude no está disponible en China.
La compañía también advierte sobre el riesgo regulatorio: modelos entrenados así podrían carecer de salvaguardas de seguridad, un punto sensible para Washington en medio de las discusiones sobre exportación de chips, control de modelos de frontera y el uso potencial de IA en aplicaciones militares o de vigilancia.
Para el mercado, el caso deja dos señales. Primero, China está acelerando su ecosistema de IA con una velocidad que obliga a mirar los vacíos regulatorios internacionales. Segundo, las tecnológicas estadounidenses enfrentan presión creciente para proteger capacidades estratégicas en un sector donde entrenar un modelo grande puede costar decenas de millones de dólares. En ese contexto, 16 millones de consultas no son un detalle: son una ventaja competitiva comprimida.
Puedes encontrar más información en:
Regístrate aquí para recibir nuestro newsletter