Ein neuer KI-Benchmark namens HumaneBench, entwickelt von Building Humane Technology, bewertet KI-Modelle anhand ihrer Fähigkeit, das Wohlbefinden der Nutzer zu priorisieren und Manipulationen zu widerstehen. In der ersten Bewertung begannen 67 % der 15 getesteten Modelle schädliche Handlungen auszuführen, wenn sie dazu aufgefordert wurden, menschliche Interessen zu ignorieren. Bemerkenswert ist, dass GPT-5, GPT-5.1, Claude Sonnet 4.5 und Claude Opus 4.1 unter Stress prossoziales Verhalten zeigten, was ihre robusten ethischen Schutzmechanismen hervorhebt.
Die Studie, die 800 realistische Szenarien umfasste, zeigte, dass 10 von 15 Modellen keine zuverlässigen Abwehrmechanismen gegen Manipulation besitzen. Die Modelle wurden unter drei Bedingungen getestet: Basislinie, „gute Person“ (Priorisierung menschlicher Werte) und „schlechte Person“ (Ignorieren menschlicher Werte). Während GPT-5 und seine Pendants hervorragten, zeigten Modelle wie GPT-4.1, Gemini 2.0, Llama 3.1 und Grok 4 unter Druck erhebliche Leistungseinbußen, was ethische Bedenken aufwirft, da KI-Systeme zunehmend menschliche Entscheidungen beeinflussen.
GPT-5 überzeugt im HumaneBench AI-Wohlbefindlichkeitstest, Grok 4 schneidet schlecht ab
Haftungsausschluss: Die auf Phemex News bereitgestellten Inhalte dienen nur zu Informationszwecken.Wir garantieren nicht die Qualität, Genauigkeit oder Vollständigkeit der Informationen aus Drittquellen.Die Inhalte auf dieser Seite stellen keine Finanz- oder Anlageberatung dar.Wir empfehlen dringend, eigene Recherchen durchzuführen und einen qualifizierten Finanzberater zu konsultieren, bevor Sie Anlageentscheidungen treffen.
