Eine kürzliche Untersuchung der Abfrageverteilung großer Sprachmodelle (LLMs) wie ChatGPT hat eine erhebliche Variabilität in deren Antworten aufgedeckt. Die Studie zeigt, dass sich die Zusammensetzung der Unterabfragen im Laufe der Zeit ändert, was zu unterschiedlichen Ergebnissen führt. Außerdem ist die Einbeziehung von Jahreszeitstempeln größtenteils verschwunden, und die von diesen Modellen verwendeten Quellen wechseln häufig, wobei 32 neue Quellen hinzugefügt und 44 entfernt wurden. Darüber hinaus rotieren die in den Antworten genannten Unternehmen bei jeder Abfrage, was die Annahme einer Stabilität der von KI generierten Suchergebnisse infrage stellt.
Studie zeigt Variabilität in LLM-Antworten aufgrund von Query-Fan-out
Haftungsausschluss: Die auf Phemex News bereitgestellten Inhalte dienen nur zu Informationszwecken.Wir garantieren nicht die Qualität, Genauigkeit oder Vollständigkeit der Informationen aus Drittquellen.Die Inhalte auf dieser Seite stellen keine Finanz- oder Anlageberatung dar.Wir empfehlen dringend, eigene Recherchen durchzuführen und einen qualifizierten Finanzberater zu konsultieren, bevor Sie Anlageentscheidungen treffen.
