OpenAI e Anthropic tomaram uma posição contra as exigências do Pentágono para o uso irrestrito de tecnologias de IA. A Anthropic, que desenvolveu o modelo de IA Claude, recusou-se a cumprir o ultimato do Pentágono para remover as restrições contratuais contra vigilância em massa e armas autônomas, arriscando um contrato de 200 milhões de dólares. Em resposta, o Pentágono rotulou a Anthropic como um "risco de segurança da cadeia de suprimentos", efetivamente proibindo o uso de sua tecnologia para fins militares.
Em uma reviravolta surpreendente, a OpenAI, inicialmente alinhada com a postura ética da Anthropic, assinou um contrato com o Pentágono sob condições semelhantes, mas sem as salvaguardas adicionais da Anthropic. Essa ação destaca a dinâmica complexa entre empresas de IA e contratos governamentais, já que a OpenAI assumiu a posição deixada pela Anthropic, levantando questões sobre o equilíbrio entre princípios éticos e oportunidades de negócios.
OpenAI e Anthropic entram em conflito com o Pentágono sobre ética em IA
Aviso Legal: O conteúdo disponibilizado no Phemex News é apenas para fins informativos. Não garantimos a qualidade, precisão ou integridade das informações provenientes de artigos de terceiros. Este conteúdo não constitui aconselhamento financeiro ou de investimento. Recomendamos fortemente que você realize suas próprias pesquisas e consulte um consultor financeiro qualificado antes de tomar decisões de investimento.
