OpenAI y Anthropic han tomado una postura en contra de las demandas del Pentágono para el uso irrestricto de tecnologías de IA. Anthropic, que desarrolló el modelo de IA Claude, se negó a cumplir con el ultimátum del Pentágono de eliminar las restricciones contractuales contra la vigilancia masiva y las armas autónomas, arriesgando un contrato de 200 millones de dólares. En respuesta, el Pentágono etiquetó a Anthropic como un "riesgo de seguridad en la cadena de suministro", prohibiendo efectivamente el uso de su tecnología en el ámbito militar. En un giro sorprendente, OpenAI, inicialmente alineado con la postura ética de Anthropic, firmó un contrato con el Pentágono bajo condiciones similares pero sin las salvaguardas adicionales de Anthropic. Este movimiento resalta la dinámica compleja entre las empresas de IA y los contratos gubernamentales, ya que OpenAI aseguró la posición que dejó Anthropic, planteando preguntas sobre el equilibrio entre los principios éticos y las oportunidades de negocio.