Vitalik Buterin ha elogiado públicamente a la empresa de inteligencia artificial Anthropic por su compromiso ético de no desarrollar armas totalmente autónomas y de evitar la vigilancia masiva en Estados Unidos. Buterin destacó la determinación de Anthropic para mantener estos principios a pesar de la presión de entidades gubernamentales. Él aboga por limitar las aplicaciones de IA de alto riesgo al acceso de código abierto, sugiriendo que incluso una mejora del 10 % en esta área podría mitigar los riesgos asociados con armas autónomas y violaciones de la privacidad. Este reconocimiento sigue a informes que indican que el Pentágono amenazó con terminar su asociación con Anthropic, poniendo en riesgo un contrato de 200 millones de dólares, después de que la empresa se negara a suministrar tecnología de IA para uso militar sin supervisión humana.