En associant les technologies de CodeceptJS, qui simulent les actions utilisateur sur une interface graphique, avec la suite AWS, nous avons développé un outil interne permettant d’extraire des métriques temporelles sur des scénarios utilisateurs.
Pour garantir des comparaisons pertinentes, nos environnements de test ont été peuplés d’un million de documents et de tâches sur un scope similaire de paramétrage. Les tests simulent 100 utilisateurs connectés exécutant simultanément différents scénarios métier.
Il s’agit d’un projet AWS composé des ressources suivantes :
Chaque invocation Lambda correspond à l'exécution d’un scénario par un utilisateur.
Pour former une campagne de tests, il faut donc invoquer plusieurs fois la lambda (invocations parallèles notamment) pour représenter un nombre d’utilisateurs et un nombre de scénarios.
Cette multitude d'invocations est gérée par un script Shell.
Un scénario utilisateur regroupe des actions comme la connexion, l’ouverture ou modification d’un document, suivies de la déconnexion. Le temps d’exécution est mesuré en millisecondes.
Dans le cadre de cette étude, visant à comparer les temps de réponse entre les versions 2.7 et 2025.0, deux scénarios spécifiques ont été développés :
Ces tests ont mis en évidence une réduction par deux des temps de réponse entre les versions 2.7 et 2025.0, confirmant les gains de performance significatifs dans des environnements strictement équivalents.