OpenAI y Anthropic han tomado una postura en contra de las demandas del Pentágono para el uso irrestricto de tecnologías de IA. Anthropic, que desarrolló el modelo de IA Claude, se negó a cumplir con el ultimátum del Pentágono de eliminar las restricciones contractuales contra la vigilancia masiva y las armas autónomas, arriesgando un contrato de 200 millones de dólares. En respuesta, el Pentágono etiquetó a Anthropic como un "riesgo de seguridad en la cadena de suministro", prohibiendo efectivamente el uso de su tecnología en el ámbito militar.
En un giro sorprendente, OpenAI, inicialmente alineado con la postura ética de Anthropic, firmó un contrato con el Pentágono bajo condiciones similares pero sin las salvaguardas adicionales de Anthropic. Este movimiento resalta la dinámica compleja entre las empresas de IA y los contratos gubernamentales, ya que OpenAI aseguró la posición que dejó Anthropic, planteando preguntas sobre el equilibrio entre los principios éticos y las oportunidades de negocio.
OpenAI y Anthropic se enfrentan al Pentágono por la ética de la IA
Aviso legal: El contenido de Phemex News es únicamente informativo.No garantizamos la calidad, precisión ni integridad de la información procedente de artículos de terceros.El contenido de esta página no constituye asesoramiento financiero ni de inversión.Le recomendamos encarecidamente que realice su propia investigación y consulte con un asesor financiero cualificado antes de tomar cualquier decisión de inversión.
