Le Wall Street Journal a, dans son pool de pronostics NCAA « March Madness », inscrit discrètement les prédictions de ChatGPT, Claude et Gemini, trois grands modèles de langage, pour rivaliser avec un grand nombre de participants humains. Selon l’article, ces « joueurs IA » n’étaient pas avantagés au départ, mais au fil du tournoi, ils ont commencé à miser plus souvent sur des surprises et à éviter les choix moutonniers. Leur performance globale a ainsi progressivement dépassé celle de nombreux participants humains, au point de laisser entrevoir « une chance de remporter le concours ».
D’un point de vue mécanique, les pronostics mêlent à la fois données et part d’aléa, tandis que les participants humains sont souvent influencés par leurs préférences d’équipes, leur intuition et leurs émotions, ce qui peut conduire à des choix homogènes. À l’inverse, l’IA, en l’absence d’attachement à une « équipe favorite », tend davantage à prendre des décisions différenciées sous contrainte d’information, ce qui peut lui donner un avantage selon certaines règles. Toutefois, ce type de résultat rappelle aussi que l’avance de l’IA ne signifie pas forcément « mieux comprendre le basket » : elle peut également refléter des biais systémiques plus fréquents chez l’humain dans des tâches de prédiction incertaines.

