Comment un consultant Itecor a conçu un framework de tests E2E complet, connecté à Jira, GitHub et BrowserStack, en un temps record.
POINT DE DEPART
Un test exploratoire devenu un véritable framework
Tout débute par une curiosité simple : tester le connecteur MCP Playwright avec Claude. En quelques prompts, Alexandre Thibaud, consultant test chez itecor, se retrouve avec un framework d’automatisation E2E complet, intégrant cinq outils reconnus du marché et généré à 95 % par l’intelligence artificielle.
Il ne s’agit pas d’un récit sur une quelconque « magie » de l’IA, mais de l’histoire d’un professionnel du test qui a su formuler les bonnes questions, guider un modèle de langage avec méthode et obtenir un résultat exploitable en contexte projet, réutilisable d’un client à l’autre.
L'ARCHITECTURE
Cinq outils, une chaîne intégrée de bout en bout
Le framework repose sur une intégration étroite entre plusieurs outils standards de l’écosystème QA, chacun chargé d’un rôle précis, depuis l’exécution des tests jusqu’au reporting.
Outils principaux
Playwright
Tests E2E automatisés
GitHub Actions
Pipeline CI/CD
BrowserStack
Exécution cloud multi-OS
Jira et Xray
Gestion des tests et des campagnes
Confluence
Reporting et notifications
Flux d’intégration
- Jira déclenche le pipeline GitHub
- Les tests s’exécutent sur BrowserStack
- Les résultats sont remontés dans Xray et Jira
- Le dashboard Confluence est mis à jour et un e-mail récapitulatif est envoyé
Ce qui est remarquable, c’est la cohérence du résultat. À l’issue d’une exécution, le responsable qualité dispose d’une vision complète : un dashboard Confluence actualisé automatiquement, un message de synthèse avec un lien direct vers l’exécution Jira, et l’accès aux replays vidéo BrowserStack. Le tout sans intervention manuelle.
LA METHODE
Comment l’IA a construit le framework, étape par étape
Le processus est structuré et progressif. Alexandre n’a jamais demandé à l’IA de « générer des tests » de manière vague. Chaque étape a été guidée par des instructions précises et contextualisées.
À partir d’un prompt détaillé, Claude a analysé un site e-commerce de démonstration et proposé dix cas de test couvrant l’authentification, le catalogue et le tunnel de commande, avec un niveau de détail suffisant pour une automatisation directe.
Plutôt que de repartir à zéro, l’IA a analysé l’existant, identifié des zones fonctionnelles non couvertes (paiement, footer, wishlist, scénarios combinatoires) et généré de nouveaux tests validés ensuite par le consultant.
À chaque étape, une consigne simple a fait la différence : « Si tu as des questions ou des points à éclaircir, pose-les avant de commencer. » Ce réflexe a limité les allers-retours et amélioré sensiblement la qualité des livrables.
Principe clé
RESULTATS
Des indicateurs parlants pour les responsables QA
Framework en chiffres
*Comparé à une semaine sur un projet équivalent sans IA
Sur un framework déjà existant, l’adaptation à un nouveau projet se fait désormais en quelques heures.
COUVERTURE FONCTIONNELLE
Ce que le framework teste concrètement
La couverture n’est pas anecdotique. Sur un site e-commerce de référence, le framework couvre l’ensemble du parcours utilisateur avec une profondeur réelle.
CE QU'ON NE VOUS DIT PAS TOUJOURS
Les conditions réelles d’un projet IA réussi
La compétence métier reste essentielle
Sans maîtrise des bonnes pratiques (Page Object Model, gestion des données, modularité), l’IA ne produit rien de durable. Elle renforce l’expertise, elle ne la remplace pas.
La relecture humaine est incontournable
Chaque test a été revu. Les scénarios métier ont été validés étape par étape pour garantir la pertinence des assertions.
La qualité du prompt détermine la qualité du résultat
Un prompt vague produit un résultat vague. Les instructions sur la structure du code, la gestion des données et les contraintes techniques ont été données explicitement dès le départ.
L’itération est le vrai moteur
Le framework final est le résultat de multiples cycles génération, test, correction, puis reformulation.
La maintenabilité est traitée, pas éludée
Le framework repose sur un modèle Page Object et bénéficie des capacités de correction assistée de Playwright, notamment via un agent capable de proposer des ajustements après une évolution de l’interface, sous validation humaine.
Dans ce cas précis, Claude (modèle Sonnet) s’est montré plus adapté que ChatGPT ou Gemini pour ce type de tâche. Le choix de l’outil doit être réalisé en amont et testé sur des cas proches du contexte client. En environnement contraint, changer d’IA en cours de projet reste coûteux.
Sur la question du choix de l'outil IA
REUTIILISABILITE
Un template prêt à l’emploi pour vos projets
Le framework a été conçu comme un template générique, disponible sur GitHub, sans tests spécifiques métier. Il permet à une nouvelle équipe de se connecter rapidement à Jira, Xray, Confluence et BrowserStack.
Adapter le template à une nouvelle application consiste principalement à ajuster l’URL cible et à générer de nouveaux tests en fournissant le bon contexte fonctionnel à l’IA.
L’effort est estimé à quelques heures pour un projet similaire.
Le template comprend
- Une structure Playwright complète (Page Object Model)
- Un pipeline GitHub
- Actions paramétrables
- Les scripts d’intégration Xray (JUnit XML)
- La configuration BrowserStack
- La mise à jour automatique de
- Confluence
- Une documentation d’installation détaillée