Lire la suite
Sur un projet récent d'agent de support client, j'ai dû gérer trois types de mémoire distincts : la mémoire de session pour le contexte immédiat, une mémoire sémantique via RAG pour retrouver les bonnes infos produit, et une mémoire procédurale pour les workflows récurrents.
Le piège classique : tout mettre dans le contexte de la conversation. Résultat — des tokens qui explosent, des latences qui grimpent, et un agent qui devient incohérent au bout de quelques échanges.
La bonne architecture, c'est de traiter chaque type de mémoire séparément et de ne charger que ce dont l'agent a besoin au bon moment. Dans n8n, ça se traduit par des nodes de retrieval conditionnels et une gestion fine du prompt final.
La complexité d'un agent IA ne se voit pas dans la démo — elle se révèle à 3h du matin quand la prod décroche.
#n8n #AIAgents #LLM #Automatisation