SubQuery hat auf dem Web3 Summit in Berlin sein dezentrales Hosting für KI-Inferenz vorgestellt, mit dem Ziel, die Entwicklung von Web3-Anwendungen zu verbessern. COO James Bayly präsentierte das LLama-Modell, das in einem dezentralen Netzwerk von Node-Betreibern läuft. Diese Initiative soll Entwicklern dezentrale Datenindexer und RPCs bereitstellen und damit eine Alternative zu zentralisierten Diensten bieten.
Der Fokus des neuen Dienstes von SubQuery liegt auf KI-Inferenz, wobei vortrainierte Modelle für Vorhersagen genutzt werden und gleichzeitig ein Open-Source-Ansatz verfolgt wird. Dieser Schritt soll die Dominanz zentralisierter KI-Anbieter wie OpenAI und Google Cloud AI herausfordern. Durch die Nutzung eines dezentralen Netzwerks gewährleistet SubQuery Datenschutz und fördert ein gemeinschaftsorientiertes Ökosystem, das skalierbare KI-Dienste für die Web3-Landschaft ermöglicht.
SubQuery startet dezentrales KI-Hosting auf dem Berlin Web3 Summit
Haftungsausschluss: Die auf Phemex News bereitgestellten Inhalte dienen nur zu Informationszwecken.Wir garantieren nicht die Qualität, Genauigkeit oder Vollständigkeit der Informationen aus Drittquellen.Die Inhalte auf dieser Seite stellen keine Finanz- oder Anlageberatung dar.Wir empfehlen dringend, eigene Recherchen durchzuführen und einen qualifizierten Finanzberater zu konsultieren, bevor Sie Anlageentscheidungen treffen.