
Bittensors Subnetz 3, genannt Templar, hat gerade das bisher größte dezentralisierte Pre-Training eines Large Language Models (LLM) abgeschlossen. Das Modell namens Covenant-72B umfasst 72 Milliarden Parameter und wurde von über 70 unabhängigen Teilnehmern mit handelsüblichen GPUs und Standardinternetverbindungen trainiert. Es kam kein zentrales Rechenzentrum, keine Firmen-Whitelist und kein Infrastruktur-Budget im Millionenbereich zum Einsatz. Das Resultat erreichte einen Wert von 67,1 im MMLU-Benchmark, vergleichbar mit Metas Llama 2 70B, einem Modell aus einem der finanzstärksten KI-Labore weltweit.
Der native Token von Bittensor, TAO, reagierte entsprechend und stieg im März 2026 um rund 90 %. Aktuell handelt TAO bei etwa 313 $ mit einer Marktkapitalisierung von rund 3,4 Milliarden $. Jensen Huang, CEO von Nvidia, bezeichnete Bittensors Ansatz im All-In Podcast als „moderne Version von folding@home“. In der Folge schnellte der KI-Token-Sektor um 40,9 % an einem Tag nach oben.
Im Folgenden wird erläutert, was Covenant-72B erreicht hat, wie Bittensors Subnetz-Architektur dies ermöglicht und welche Bedeutung dies für TAO-Halter in Zukunft hat.
Was Covenant-72B tatsächlich erreicht hat
Das Training eines 72-Milliarden-Parameter-Sprachmodells ist teuer. Marktführer wie OpenAI, Google oder Anthropic investieren hierfür zig Millionen Dollar in Rechenzentren mit spezialisierten GPU-Clustern. Covenant-72B ging einen anderen Weg: Das Templar-Protokoll koordinierte über 70 Miner auf der ganzen Welt, die jeweils ihre GPU-Kapazitäten über Standardinternet bereitstellten, um insgesamt rund 1,1 Billionen Token zu verarbeiten.
Die technische Innovation, die dies ermöglichte, heißt SparseLoCo. Dieses Verfahren reduzierte die Kommunikationslast zwischen den Knoten um das 146-Fache durch Sparsifizierung, 2-Bit-Quantisierung und Fehlerfeedback. Dadurch waren keine teuren Hochgeschwindigkeitsverbindungen notwendig. Ein Bewertungssystem namens Gauntlet prüfte die Ergebnisse der Teilnehmer mittels Loss-Evaluierung und OpenSkill-Ranking; sämtliche Bewertungen wurden auf der Bittensor-Blockchain festgehalten. Knoten mit hochwertigen Beiträgen erhielten mehr TAO, leistungsschwächere wurden entsprechend bestraft.
Das Ergebnis: ein komplett quelloffenes Modell, dessen Gewichte und Checkpoints unter Apache-Lizenz veröffentlicht wurden. Ein arXiv-Papier vom März 2026 bestätigte den MMLU-Score von 67,1 (Zero-Shot), der LLaMA-2-70B und den LLM360 K2-Benchmark übertrifft. Zwar erreichen GPT-4-Klassen-Modelle noch deutlich höhere Werte, doch der entscheidende Punkt ist: Ein dezentrales, erlaubnisfreies Netzwerk anonymer Mitwirkender konnte ein Modell auf Augenhöhe mit milliardenschweren Laboren erschaffen.
Wie Bittensors Subnetz-Architektur funktioniert
Bittensor ist kein einzelnes KI-Modell, sondern ein Netzwerk spezialisierter Subnetze, die jeweils auf bestimmte maschinelle Lernaufgaben ausgerichtet sind. Man kann es sich als Marktplatz vorstellen, auf dem verschiedene KI-Dienste um Belohnungen für die Qualität ihrer Ergebnisse konkurrieren. Subnetz 1 übernimmt Text-Prompting, Subnetz 3 (Templar) das verteilte Modelltraining wie bei Covenant-72B. Weitere Subnetze sind auf Bildgenerierung, Sportvorhersagen, Cybersicherheit u. a. spezialisiert.
Jedes Subnetz besteht aus Minern (die KI-Ergebnisse liefern) und Validatoren (die deren Qualität bewerten). Das ökonomische Herzstück ist der Yuma Consensus Mechanismus, der TAO-Belohnungen proportional zur erbrachten Leistung verteilt. Miner konkurrieren um die besten Resultate, Validatoren staken TAO, um diese zu bewerten. Minderwertige Arbeit wird sanktioniert, gute Resultate werden belohnt. Es gibt keine zentrale Instanz, die entscheidet, wer teilnehmen darf oder welche Standards gelten.
Aktuell sind 128 Subnetze aktiv; eine Erweiterung auf 256 ist für 2026 geplant. Subnetz-Tokens, die mit gestaktem TAO besichert und über automatisierte Marktplätze bepreist werden, ermöglichen gezielte Wetten auf bestimmte Fähigkeiten im Ökosystem. Nach dem Launch von Covenant-72B stieg der kombinierte Marktwert aller Bittensor-Tokens auf etwa $1,5 Milliarden, wobei der Templar-Subnetz-Token innerhalb von sieben Tagen um 194 % zulegte.
Warum Jensens Huangs Unterstützung wichtig ist
Jensen Huang leitet einen 3-Billionen-$-Konzern, dessen GPUs nahezu alle KI-Modelle antreiben. Wenn er Bittensor im Gespräch mit Chamath Palihapitiya mit folding@home vergleicht, ist das bemerkenswert. Er betonte, dass sowohl proprietäre als auch quelloffene KI-Modelle wichtig seien: „Diese beiden Dinge sind nicht A oder B, sondern A und B.“
Diese Sichtweise bestätigt, dass dezentrale Open-Source-KI eine ernstzunehmende Ergänzung zu zentralisierten Ansätzen darstellt. Nvidia profitiert, wenn irgendjemand GPUs kauft – und Huang sieht ausdrücklich eine Zukunft, in der beide Welten koexistieren. Für TAO-Besitzer ist das Signal klar: Dezentrale KI ist keine Randerscheinung, sondern Teil der Produktionslandschaft.
Die Marktreaktion folgte prompt: TAO stieg innerhalb weniger Stunden um 17 %, und auch der gesamte KI-Token-Sektor legte zu.
Wie TAO im Vergleich zu zentralisierten KI-Anbietern steht
Die Gegenüberstellung von Bittensor und zentralisierten KI-Laboren wie OpenAI, Google DeepMind oder Anthropic ist bewusst kein direkter Vergleich.
| Kriterium | Zentrale Labore | Bittensor (Covenant-72B) |
|---|---|---|
| Trainingskosten | $50M-$100M+ pro Spitzenmodell | Verteilte Kosten, kein einzelner Träger |
| Infrastruktur | Eigene GPU-Cluster, Rechenzentren | Handelsübliche GPUs, Standard-Internet |
| Zugang | Geschlossene Modelle, nur API-Nutzung | Open Source, Apache-Lizenz |
| MMLU-Benchmark | GPT-4-Klasse: 86+ | 67,1 (Zero-Shot) |
| Governance | Unternehmensentscheidungen | Protokollgetriebene Anreize, erlaubnisfrei |
| Trainingsdauer | Wochen mit Groß-Cluster | Länger, mit Verbesserungen pro Iteration |
Aktuell liefern zentralisierte Labore bessere Rohleistungen. Produktionssysteme setzen weiterhin auf GPT-4 & Co. Doch zentrale KI birgt Konzentrationsrisiken, die auch institutionelle Investoren zunehmend wahrnehmen. Wenige Unternehmen kontrollieren die leistungsstärksten Modelle, Trainingsdaten und Zugangsregeln. Bittensor bietet eine Alternative mit öffentlicher Zugänglichkeit, Open Source und ohne zentrale Kontrollinstanz.
Realistisch betrachtet befindet sich Bittensor etwa dort, wo Linux 1995 stand: Kommerzielle Lösungen waren überlegen, doch das offene, verteilte Modell veränderte schließlich die ganze Branche.
Was die Kursentwicklung von TAO beeinflusst
Der 90%ige Anstieg von TAO im März ist auf mehrere Faktoren zurückzuführen:
Covenant-72B-Launch (10. März): Der Abschluss des größten dezentralisierten LLM-Trainings wurde verkündet. Das arXiv-Papier stärkte die Glaubwürdigkeit auch außerhalb der Kryptoszene. TAO stieg in den beiden Folgewochen um 54,8 %.
Jensen Huangs Statement (18.–19. März): Der Podcast-Clip verbreitete sich schnell in KI- und Kryptokreisen – 17 % Kursplus in 48 Stunden.
Ökosystem-Wachstum und institutionelles Interesse: Grayscales Bittensor Trust wurde Anfang 2026 für professionelle Anleger geöffnet, und die Erweiterung auf 256 Subnetze angekündigt. Eine mögliche Umwandlung des Trusts in einen Spot-TAO-ETF wird diskutiert.
Das Ökosystem erreichte eine Marktkapitalisierung von 1,5 Milliarden $ – auch weil Trader Subnetz-Tokens als gehebelte Wetten auf das TAO-Narrativ sehen. Bittensor ist aktuell die drittgrößte KI-Kryptowährung nach Marktkapitalisierung, hinter Chainlink und NEAR.
TAO notiert dennoch rund 59 % unter dem Allzeithoch von 757,60 $. Das zeigt: Es gibt Potenzial, aber auch erhebliche Abwärtsrisiken bei Stimmungsumschwung.
Häufig gestellte Fragen
Was ist Bittensors Covenant-72B-Modell?
Covenant-72B ist ein 72-Milliarden-Parameter-Sprachmodell, komplett dezentral im Bittensor-Netzwerk von über 70 unabhängigen Teilnehmern auf handelsüblicher Hardware trainiert. Es erreichte 67,1 im MMLU-Benchmark, vergleichbar mit Meta Llama 2 70B. Alle Modellgewichte sind Open Source (Apache-Lizenz).
Ist Bittensor 2026 eine gute Investition?
TAO profitiert von der Aufmerksamkeit durch das Covenant-72B-Meilenstein, Jensens Huangs Erwähnung und institutionellen Zugang via Grayscale Trust. Der Token ist jedoch volatil und liegt 59 % unter Allzeithoch. Er bietet Marktexposure auf dezentrale KI-Infrastruktur, sollte aber als risikobehafteter Vermögenswert betrachtet werden.
Wie verdienen Teilnehmer mit Bittensor Geld?
Miner stellen Rechenleistung für Subnetze bereit und erhalten TAO-Belohnungen, die sich nach der Qualität der Beiträge richten. Validatoren staken TAO, um Miner zu bewerten und erhalten einen Anteil an den Emissionen. Subnetz-Betreiber erhalten einen Prozentsatz aller im Subnetz verteilten TAO. Das gesamte System basiert auf protokollgesteuerten Anreizen ohne zentrale Gebührenstruktur.
Kann Bittensor mit OpenAI und Google konkurrieren?
Leistungsmäßig sind zentrale Labore aktuell überlegen. Bittensors Stärke ist die Struktur: Erlaubnisfreie, quelloffene KI-Entwicklung ohne zentrale Kontrolle. Langfristig könnte dezentrales Training eine wichtige Ergänzung zu zentralen Ansätzen werden – wie Open-Source-Software heute in vielen Bereichen unverzichtbar ist.
Fazit
Covenant-72B zeigt erstmals, dass dezentrales KI-Training Modelle hervorbringen kann, die mit zentralisierten Laboren mithalten. 67,1 im MMLU-Benchmark ist zwar kein Spitzenwert, wurde aber ohne Rechenzentrum, Firmenbudget oder zentrale Steuerung erreicht. Der Fokus verschiebt sich damit von „Kann dezentrale KI funktionieren?“ zu „Wie schnell verbessert sie sich?“
TAO bei 313 $ mit 3,4 Mrd. $ Marktkapitalisierung reflektiert Optimismus, aber auch Risiken. Ausbau auf 256 Subnetze, mögliche ETF-Umwandlung und technische Fortschritte stehen für 2026 an. TAO ist stark narrativgetrieben, Schwankungen sind möglich. Die weitere Entwicklung hängt maßgeblich davon ab, wie gut Bittensor zur Leistung zentraler Anbieter aufschließt. Zeitplan für Subnetz-Expansion und ETF-News sind als wichtigste Indikatoren zu beobachten.
Dieser Artikel dient ausschließlich zu Informationszwecken und stellt keine Finanz- oder Anlageberatung dar. Der Handel mit Kryptowährungen ist mit hohen Risiken verbunden. Führen Sie immer Ihre eigene Recherche durch, bevor Sie Handelsentscheidungen treffen.






