Abril 13, 2026

Google y OpenAI presentan un escrito legal apoyando a Anthropic

OpenAI,& Google defendiendo a Anthropic. Imagen generada por Etercuanticum IA.

“El enemigo de mi enemigo es mi amigo”

Kameron Drake Miguel Angel Ducci – CEO, Founder & Editor El Ciudadano Digital-

Cuando los rivales se unen: ingenieros de Google y OpenAI salen en defensa de Anthropic

En Silicon Valley, la regla no escrita es simple: competir hasta el límite, pero esta semana ocurrió algo inusual.

Ingenieros e investigadores vinculados a Google y OpenAI —dos de los mayores rivales en la carrera por la inteligencia artificial, han salido públicamente en defensa de Anthropic, una empresa que compite directamente con ambos.

Lo hicieron mediante un escrito legal presentado ante un tribunal federal de Estados Unidos, un amicus curiae firmado por 37 científicos e ingenieros de la industria de IA. Su objetivo: respaldar a Anthropic en su batalla contra el gobierno estadounidense, que recientemente clasificó a la compañía como “Riesgo en la cadena de suministro para la seguridad nacional”.

Que competidores directos tomen partido en un conflicto legal es raro. Que lo hagan en una industria donde se juegan cientos de miles de millones de dólares es todavía más extraordinario.


Un conflicto que va más allá de una empresa

La disputa comenzó cuando el gobierno federal utilizó una autoridad legal vinculada a seguridad nacional para bloquear colaboraciones entre grandes compañías y Anthropic. La clasificación implica que organizaciones que trabajan con contratos federales o infraestructura crítica podrían evitar o cancelar acuerdos con la empresa, una decisión con consecuencias potencialmente devastadoras en un sector donde las alianzas son clave.

Anthropic respondió con dos demandas legales, argumentando que la designación carece de base técnica y que representa un uso arbitrario del poder gubernamental. Pero lo que podría haber sido una disputa corporativa se ha transformado en algo más grande: una discusión sobre quién define las reglas del desarrollo de la inteligencia artificial.


Las “líneas rojas” que detonaron la crisis

Según los firmantes del documento judicial, el conflicto se originó en gran parte por la postura pública de Anthropic sobre los riesgos de la IA.

La empresa ha sido una de las voces más firmes en la industria al establecer “líneas rojas” tecnológicas, especialmente en dos áreas:

  • el uso de inteligencia artificial para vigilancia masiva
  • el desarrollo de armas autónomas completamente automatizadas

En su escrito, los científicos advierten que penalizar a una empresa por sostener estas posiciones podría tener efectos escalofriantes en toda la industria.

“La acción del gobierno representa un uso arbitrario e impropio del poder, con serias implicaciones para el ecosistema de innovación en inteligencia artificial”, afirma el documento.


El peso de los nombres

Entre los 37 firmantes hay ingenieros y líderes técnicos de alto nivel del ecosistema de IA. El nombre más notable es Jeff Dean, científico jefe de Google y una de las figuras más influyentes en la historia del aprendizaje profundo. Dean ha liderado proyectos fundamentales en infraestructura de IA, desde TensorFlow hasta modelos de lenguaje de gran escala.

También aparecen profesionales de OpenAI y Google, entre ellos:

  • Grant Birkinbine — ingeniero de seguridad en OpenAI
  • Sanjeev Dhanda — ingeniero de software en Google
  • Leo Gao — investigador técnico en OpenAI
  • Zach Parent — ingeniero en OpenAI
  • Kathy Korevec — directora de producto en Google Labs
  • Ian McKenzie — ingeniero investigador en Google

Que empleados de empresas rivales respalden públicamente a un competidor es casi inaudito en la política corporativa de Silicon Valley. Pero para muchos en la industria, el problema no es Anthropic, es el precedente.


Sam Altman rompe el silencio

Incluso Sam Altman, CEO de OpenAI, criticó la decisión del gobierno y en una publicación en X el 28 de febrero, Altman escribió:

Para ser claro, creo que es una muy mala decisión del Departamento de Guerra y espero que se retracten. Y si criticarla fuertemente tiene consecuencias, que así sea”.

Altman reconoció la ironía de la situación. OpenAI mantiene acuerdos de colaboración con el Pentágono, mientras que la relación entre Anthropic y el Departamento de Defensa se ha deteriorado rápidamente.

El resultado, según Altman, puede parecer:

“desprolijo y oportunista”.


La verdadera batalla: quién gobierna la IA

Más allá del destino de Anthropic, el caso apunta a una pregunta mucho mayor:

¿Quién controla la evolución de la inteligencia artificial: las empresas que la construyen o los gobiernos que intentan regularla?

La respuesta podría definir la próxima década tecnológica. Si el gobierno gana, podría establecer un precedente para limitar o excluir empresas de IA bajo argumentos de seguridad nacional. Si Anthropic gana, el fallo podría restringir el alcance de esas herramientas regulatorias, reforzando la autonomía del sector tecnológico.

En una industria que avanza más rápido que cualquier regulación existente, la decisión judicial podría convertirse en uno de los primeros grandes precedentes legales de la era de la IA. Y el hecho de que rivales históricos se alineen en el mismo lado del debate sugiere algo profundo: La lucha ya no es solo por construir la mejor inteligencia artificial, sino definir las reglas del juego.


Fuentes y contexto

  • U.S. Courts – explicación legal de amicus curiae
  • Congressional Research Service – regulación tecnológica y seguridad nacional
  • Publicaciones de política de IA de Anthropic
  • Declaraciones públicas de Sam Altman (X, 28 febrero 2026)