OpenAI et Anthropic ont pris position contre les exigences du Pentagone pour une utilisation sans restriction des technologies d'IA. Anthropic, qui a développé le modèle d'IA Claude, a refusé de se conformer à l'ultimatum du Pentagone visant à supprimer les restrictions contractuelles contre la surveillance de masse et les armes autonomes, risquant ainsi un contrat de 200 millions de dollars. En réponse, le Pentagone a qualifié Anthropic de « risque pour la sécurité de la chaîne d'approvisionnement », interdisant effectivement l'utilisation de sa technologie à des fins militaires.
Dans un retournement surprenant, OpenAI, initialement aligné sur la position éthique d'Anthropic, a signé un contrat avec le Pentagone dans des conditions similaires mais sans les garanties supplémentaires d'Anthropic. Cette décision met en lumière la dynamique complexe entre les entreprises d'IA et les contrats gouvernementaux, OpenAI ayant pris la place laissée par Anthropic, soulevant des questions sur l'équilibre entre principes éthiques et opportunités commerciales.
OpenAI et Anthropic s'affrontent avec le Pentagone sur l'éthique de l'IA
Avertissement : Le contenu proposé sur Phemex News est à titre informatif uniquement. Nous ne garantissons pas la qualité, l'exactitude ou l'exhaustivité des informations provenant d'articles tiers. Ce contenu ne constitue pas un conseil financier ou d'investissement. Nous vous recommandons vivement d'effectuer vos propres recherches et de consulter un conseiller financier qualifié avant toute décision d'investissement.
