Anthropic ha eliminado una promesa clave de seguridad de su política de escalado responsable, optando por no pausar el entrenamiento de IA incluso si las medidas de mitigación de riesgos están incompletas. Este cambio, destacado por el Director Científico Jared Kaplan, refleja la impracticabilidad de las pausas unilaterales en un panorama competitivo de IA. De manera similar, OpenAI ha modificado su declaración de misión, omitiendo el término "de manera segura" para enfatizar la garantía de que la IA beneficie a la humanidad, alineándose con las expectativas de inversores y legisladores.
Estos cambios se producen mientras Anthropic asegura una ronda de financiación de 30 mil millones de dólares, valorando la empresa en 380 mil millones, mientras OpenAI busca hasta 100 mil millones en financiamiento con el respaldo de Amazon, Microsoft y Nvidia. Además, la negativa de Anthropic a proporcionar acceso completo a su modelo de IA Claude al Pentágono ha generado tensiones con el Secretario de Defensa de EE. UU., Pete Hegseth, planteando dudas sobre sus contratos de defensa.
Anthropic y OpenAI revisan el lenguaje de seguridad en medio de la carrera de la IA
Aviso legal: El contenido de Phemex News es únicamente informativo.No garantizamos la calidad, precisión ni integridad de la información procedente de artículos de terceros.El contenido de esta página no constituye asesoramiento financiero ni de inversión.Le recomendamos encarecidamente que realice su propia investigación y consulte con un asesor financiero cualificado antes de tomar cualquier decisión de inversión.
