Est-ce que toi aussi tu as déjà vécu ce moment de frustration : tu donnes exactement la même demande à ChatGPT, Claude et Gemini, et le style de réponse donne l’impression que « ce n’est plus la même personne » ; Midjourney, c’est encore pire : alors que le prompt n’a pas changé, les images ressemblent à une boîte mystère. Plutôt que d’insulter au feeling, je recommande davantage de faire passer à l’IA un « bilan de santé » avec une approche d’analyse de conversation, afin de quantifier le problème.
Indicateur n°1 : taux de résolution — ne regarde pas seulement si c’est long ou pas
En analyse de conversation, un KPI courant est le « taux de résolution » ; en clair, c’est si la sortie est directement exploitable. Ma méthode est simple mais efficace : j’étiquette chaque résultat comme « livrable tel quel / nécessite des questions de suivi / complètement hors sujet ». Au bout d’une semaine, tu verras clairement : qui est le plus stable, et qui aime le plus s’écouter parler.
Indicateur n°2 : nombre de retours (rework) — le remède contre les réponses à côté de la plaque
Si tu dois refaire, ce n’est pas que tu es nul : le modèle oublie souvent des contraintes. Note aussi la phrase que tu ajoutes ensuite, du type « mets en tableau », « n’invente pas de données », « en chinois », et calcule combien de phrases supplémentaires chaque outil requiert en moyenne pour que ce soit bon.


