Anthropic hat in Gerichtsunterlagen offengelegt, dass es seine KI-Modelle nach deren Einsatz in Pentagon-Umgebungen nicht kontrollieren oder deaktivieren kann, da ein "Not-Aus-Schalter" für solche Systeme fehlt. Diese Enthüllung erfolgt vor dem Hintergrund laufender Rechtsstreitigkeiten mit dem Pentagon, das Anthropic aufgrund von Bedenken hinsichtlich der Technologie-Nutzungsrichtlinien des Unternehmens als Risiko in der Lieferkette eingestuft hat. Diese Richtlinien verbieten den Einsatz von Anthropics KI in autonomen Waffen und Massenüberwachung, was das Pentagon als einschränkend betrachtet.
Der Rechtsstreit führte zu widersprüchlichen Gerichtsentscheidungen: Ein Gericht in Washington bestätigte die Risikoeinstufung des Pentagons, während ein Gericht in Kalifornien diese vorübergehend aussetzte. Folglich ist Anthropic von neuen Pentagon-Verträgen ausgeschlossen, kann aber weiterhin andere Regierungsbehörden bedienen. Unterdessen setzt sich die Trump-Administration für den Einsatz von Anthropics neuem KI-Modell Mythos in Bundesbehörden ein, um die Cybersicherheitsabwehr zu stärken, trotz der Sicherheitsbedenken des Pentagons. Die nächste Gerichtsverhandlung ist für den 19. Mai angesetzt.
Anthropic hat keine Kontrolle über KI-Modelle, die im Pentagon eingesetzt werden, wie Gerichtsunterlagen zeigen
Haftungsausschluss: Die auf Phemex News bereitgestellten Inhalte dienen nur zu Informationszwecken.Wir garantieren nicht die Qualität, Genauigkeit oder Vollständigkeit der Informationen aus Drittquellen.Die Inhalte auf dieser Seite stellen keine Finanz- oder Anlageberatung dar.Wir empfehlen dringend, eigene Recherchen durchzuführen und einen qualifizierten Finanzberater zu konsultieren, bevor Sie Anlageentscheidungen treffen.
