Dezentrales Spekulatives Decodieren (DSD) hat sich als bahnbrechendes Framework zur Verbesserung der Inferenz großer Sprachmodelle (LLM) in verteilten Netzwerken etabliert. In Parallax integriert, adressiert DSD die Herausforderung der Kommunikationslatenz zwischen Knoten, die traditionell die Token-Generierung verlangsamt. Durch die Umwandlung von Latenz in zusätzliche Rechenbandbreite erreicht DSD eine 2,6-fache Steigerung des Durchsatzes und eine 37%ige Reduzierung der Kommunikation, ohne dabei die Genauigkeit zu beeinträchtigen. DSD führt zwei zentrale Innovationen ein: Batch Settlements Decoding und Adaptive Verification. Batch Settlements Decoding reduziert Synchronisationsengpässe, indem mehrere Tokens in einem einzigen Verifikationszyklus gebündelt werden, während Adaptive Verification die Token-Validierung basierend auf deren Wichtigkeit optimiert und so die Geschwindigkeit um 15-20% steigert, ohne Qualitätsverlust. Diese Fortschritte ermöglichen einen höheren Durchsatz und eine geringere Abhängigkeit von WAN-Latenz, wodurch DSD zu einem leistungsstarken Werkzeug für Aufgaben wie Agenten-Reasoning und Code-Generierung über entfernte Cluster hinweg wird.