OpenAI und Anthropic haben sich gegen die Forderungen des Pentagons nach uneingeschränkter Nutzung von KI-Technologien gestellt. Anthropic, das das KI-Modell Claude entwickelt hat, weigerte sich, dem Ultimatum des Pentagons nachzukommen, vertragliche Beschränkungen gegen Massenüberwachung und autonome Waffen aufzuheben, und riskierte damit einen Vertrag über 200 Millionen Dollar. Als Reaktion darauf bezeichnete das Pentagon Anthropic als "Risiko für die Sicherheit der Lieferkette" und sperrte dessen Technologie effektiv für den militärischen Einsatz.
In einer überraschenden Wendung unterzeichnete OpenAI, das zunächst mit der ethischen Haltung von Anthropic übereinstimmte, einen Vertrag mit dem Pentagon unter ähnlichen Bedingungen, jedoch ohne die zusätzlichen Schutzmaßnahmen von Anthropic. Dieser Schritt verdeutlicht die komplexen Dynamiken zwischen KI-Unternehmen und Regierungsverträgen, da OpenAI die von Anthropic hinterlassene Position einnahm und damit Fragen zum Gleichgewicht zwischen ethischen Prinzipien und Geschäftsmöglichkeiten aufwirft.
OpenAI und Anthropic geraten mit dem Pentagon wegen KI-Ethik aneinander
Haftungsausschluss: Die auf Phemex News bereitgestellten Inhalte dienen nur zu Informationszwecken.Wir garantieren nicht die Qualität, Genauigkeit oder Vollständigkeit der Informationen aus Drittquellen.Die Inhalte auf dieser Seite stellen keine Finanz- oder Anlageberatung dar.Wir empfehlen dringend, eigene Recherchen durchzuführen und einen qualifizierten Finanzberater zu konsultieren, bevor Sie Anlageentscheidungen treffen.
