Meta hat Llama 4 vorgestellt, eine Suite von drei offenen multimodalen Modellen, die darauf ausgelegt sind, Text-, Bild- und Videoaufgaben in 200 Sprachen zu bewältigen. Die Modelle, genannt Scout und Maverick, verfügen jeweils über 170 Milliarden effektive Parameter und einen Kontext von 10 Millionen Tokens, während das kommende Modell Behemoth mit 2,88 Billionen effektiven Parametern aufwartet. Diese Modelle sind über Cloud-Plattformen wie AWS und Hugging Face zugänglich und beinhalten Sicherheitsfunktionen wie Llama Guard und Code Shield.
Trotz ihrer Fähigkeiten haben die Modelle Einschränkungen, darunter potenzielle Sicherheitslücken im Code. Maverick erzielt beispielsweise 40 % auf LiveCodeBench, deutlich weniger als die 85 % von GPT-5. Zudem wurden die Modelle mit kontroversen Datensätzen trainiert, was ethische Bedenken aufwerfen könnte.
Meta startet Llama 4 mit fortschrittlichen multimodalen Modellen
Haftungsausschluss: Die auf Phemex News bereitgestellten Inhalte dienen nur zu Informationszwecken.Wir garantieren nicht die Qualität, Genauigkeit oder Vollständigkeit der Informationen aus Drittquellen.Die Inhalte auf dieser Seite stellen keine Finanz- oder Anlageberatung dar.Wir empfehlen dringend, eigene Recherchen durchzuführen und einen qualifizierten Finanzberater zu konsultieren, bevor Sie Anlageentscheidungen treffen.