Mem0, une plateforme de mémoire IA personnalisée, a dévoilé ses dernières recherches sur un algorithme de mémoire à long terme qui surpasse la fonctionnalité de mémoire d'OpenAI de 26 % en précision, selon les données expérimentales sur le benchmark LOCOMO. L'algorithme réduit également de manière significative la latence d'inférence P95 de 91 % et diminue la consommation de tokens de 90 %, répondant ainsi au problème de l'oubli des agents IA lors d'interactions prolongées. L'approche de Mem0 repose sur un pipeline en deux étapes : une phase d'extraction qui recueille les faits clés des conversations et des archives historiques, et une phase de mise à jour qui affine ces faits à l'aide d'une base de données vectorielle. Cela garantit un référentiel de mémoire concis et cohérent. Une version améliorée, Mem0ᵍ, utilise une base de données graphique pour cartographier des relations complexes. Le système complète la récupération de la mémoire et la génération de réponses en 0,71 seconde, contre près de 10 secondes pour les méthodes traditionnelles. La recherche a été acceptée par la Conférence européenne sur l'intelligence artificielle et est disponible sur GitHub.