Homeinsightsfrom zero to 100 tests in two days with AI
quality assurance & testing

from zero to 100 tests in two days with AI

Alexandre Thibaud, Senior Consultant & Helen Bally, Head of Quality Assurance Service Line · May 12, 2000

Comment un consultant Itecor a conçu un framework de tests E2E complet, connecté à Jira, GitHub et BrowserStack, en un temps record.

POINT DE DEPART

Un test exploratoire devenu un véritable framework

Tout débute par une curiosité simple : tester le connecteur MCP Playwright avec Claude. En quelques prompts, Alexandre Thibaud, consultant test chez itecor, se retrouve avec un framework d’automatisation E2E complet, intégrant cinq outils reconnus du marché et généré à 95 % par l’intelligence artificielle.

Il ne s’agit pas d’un récit sur une quelconque « magie » de l’IA, mais de l’histoire d’un professionnel du test qui a su formuler les bonnes questions, guider un modèle de langage avec méthode et obtenir un résultat exploitable en contexte projet, réutilisable d’un client à l’autre.

« En trente minutes, j’avais des tests automatisés et fonctionnels. Et ce n’était que le début. »
Alexandre Thibaud
Test Automation Engineer, itecorv

L'ARCHITECTURE

Cinq outils, une chaîne intégrée de bout en bout

Le framework repose sur une intégration étroite entre plusieurs outils standards de l’écosystème QA, chacun chargé d’un rôle précis, depuis l’exécution des tests jusqu’au reporting.

Outils principaux

Playwright

Tests E2E automatisés

GitHub Actions

Pipeline CI/CD

BrowserStack

Exécution cloud multi-OS

Jira et Xray

Gestion des tests et des campagnes

Confluence

Reporting et notifications

Flux d’intégration

Ce qui est remarquable, c’est la cohérence du résultat. À l’issue d’une exécution, le responsable qualité dispose d’une vision complète : un dashboard Confluence actualisé automatiquement, un message de synthèse avec un lien direct vers l’exécution Jira, et l’accès aux replays vidéo BrowserStack. Le tout sans intervention manuelle.

LA METHODE

Comment l’IA a construit le framework, étape par étape

Le processus est structuré et progressif. Alexandre n’a jamais demandé à l’IA de « générer des tests » de manière vague. Chaque étape a été guidée par des instructions précises et contextualisées.

Étape 1 · MCP Playwright
Explorer le site et générer les scénarios

À partir d’un prompt détaillé, Claude a analysé un site e-commerce de démonstration et proposé dix cas de test couvrant l’authentification, le catalogue et le tunnel de commande, avec un niveau de détail suffisant pour une automatisation directe.

Étape 2 – VS Code et Claude Code
Automatiser, exécuter, corriger
Les scénarios ont été traduits en tests Playwright, exécutés localement, puis corrigés par itérations successives. L’IA a analysé les échecs, proposé des ajustements et affiné le code jusqu’au passage complet des tests. Les premiers tests opérationnels ont été obtenus en environ trente minutes.
Étape 3 – Intégration de l’outillage
Connecter GitHub, Jira et BrowserStack
Par une succession de prompts structurés, l’IA a généré le pipeline CI/CD, les scripts d’intégration Xray, le reporting Confluence et le système de notifications. L’architecture s’est construite progressivement, en dialogue permanent avec Alexandre.
Étape 4 – Extension de la couverture
Passer de 10 à 100 tests par itérations

Plutôt que de repartir à zéro, l’IA a analysé l’existant, identifié des zones fonctionnelles non couvertes (paiement, footer, wishlist, scénarios combinatoires) et généré de nouveaux tests validés ensuite par le consultant.

À chaque étape, une consigne simple a fait la différence : « Si tu as des questions ou des points à éclaircir, pose-les avant de commencer. » Ce réflexe a limité les allers-retours et amélioré sensiblement la qualité des livrables.

RESULTATS

Des indicateurs parlants pour les responsables QA

Framework en chiffres

tests automatisés
0
fichiers
0
navigateurs, Windows et macOS
0
minutes d’exécution locale
- de 0
workers en parallèle
- de 0
tests simultanés
0 +
du code généré par l’IA
0 %
pour une création complète depuis zéro*
0 j
*Comparé à une semaine sur un projet équivalent sans IA

Sur un framework déjà existant, l’adaptation à un nouveau projet se fait désormais en quelques heures.

COUVERTURE FONCTIONNELLE

Ce que le framework teste concrètement

La couverture n’est pas anecdotique. Sur un site e-commerce de référence, le framework couvre l’ensemble du parcours utilisateur avec une profondeur réelle.

Compte & Authentification
Création de compte, connexion/déconnexion, gestion du profil 95%
Panier & Checkout
Gestion du panier, processus de commande, options de paiement & livraison 92%
Catalogue & Recherche
Navigation par catégorie, recherche avancée, filtres & tags 88%
Fonctions avancées
Wishlist, comparaisons, produits configurables, tests combinatoiresnier, processus de commande, options de paiement & livraison 85%
Ce niveau de couverture a été atteint progressivement en demandant à l’IA d’analyser les tests existants et de suggérer de nouvelles zones pertinentes. Certaines combinaisons, notamment entre modes de paiement et options de livraison, n’auraient probablement pas été identifiées aussi rapidement sans cette approche.

CE QU'ON NE VOUS DIT PAS TOUJOURS

Les conditions réelles d’un projet IA réussi

Les échanges avec le public ont mis en lumière plusieurs points de vigilance.

La compétence métier reste essentielle

Sans maîtrise des bonnes pratiques (Page Object Model, gestion des données, modularité), l’IA ne produit rien de durable. Elle renforce l’expertise, elle ne la remplace pas.

La relecture humaine est incontournable

Chaque test a été revu. Les scénarios métier ont été validés étape par étape pour garantir la pertinence des assertions.

La qualité du prompt détermine la qualité du résultat

Un prompt vague produit un résultat vague. Les instructions sur la structure du code, la gestion des données et les contraintes techniques ont été données explicitement dès le départ.

L’itération est le vrai moteur

Le framework final est le résultat de multiples cycles génération, test, correction, puis reformulation.

La maintenabilité est traitée, pas éludée

Le framework repose sur un modèle Page Object et bénéficie des capacités de correction assistée de Playwright, notamment via un agent capable de proposer des ajustements après une évolution de l’interface, sous validation humaine.

Dans ce cas précis, Claude (modèle Sonnet) s’est montré plus adapté que ChatGPT ou Gemini pour ce type de tâche. Le choix de l’outil doit être réalisé en amont et testé sur des cas proches du contexte client. En environnement contraint, changer d’IA en cours de projet reste coûteux.

REUTIILISABILITE

Un template prêt à l’emploi pour vos projets

Le framework a été conçu comme un template générique, disponible sur GitHub, sans tests spécifiques métier. Il permet à une nouvelle équipe de se connecter rapidement à Jira, Xray, Confluence et BrowserStack.

Adapter le template à une nouvelle application consiste principalement à ajuster l’URL cible et à générer de nouveaux tests en fournissant le bon contexte fonctionnel à l’IA.

L’effort est estimé à quelques heures pour un projet similaire.

Le template comprend

  • Une structure Playwright complète (Page Object Model)
  • Un pipeline GitHub
  • Actions paramétrables
  • Les scripts d’intégration Xray (JUnit XML)
  • La configuration BrowserStack
  • La mise à jour automatique de
  • Confluence
  • Une documentation d’installation détaillée

More insights

itecor paris team recognised at tricentis partner awards 2026


company newsquality assurance & testing

March 25, 2026

beyond expertise: how a consultant makes a real difference


digital solutionsgovernance & service managementquality assurance & testingworking@itecor

October 15, 2025

[événement] rendez-vous à notre prochain itecor testing breakfast : de la gouvernance à l’innovation


quality assurance & testing

September 30, 2025

Contact us