J'ai testé 5 IA sur le Quinté+ pendant 30 jours : les vrais résultats
Turf & Technologie ·
![]() |
| test-ia-quinte-plus-30-jours-resultats |
Tout a commencé par une question bête, posée un soir après un Quinté+ raté de justesse : "Et si je laissais une IA choisir à ma place ?"
Pas par paresse. Par curiosité. Parce que les articles sur l'IA et les pronostics hippiques se multiplient, que tout le monde en parle, mais que personne ne semble avoir pris le temps de vraiment tester — sur la durée, avec une méthode, et en publiant des résultats honnêtes, bons ou mauvais.
Alors pendant 30 jours, du 1er au 30 mars 2026, j'ai soumis chaque Quinté+ du jour à cinq outils d'intelligence artificielle différents. J'ai noté les sélections, comparé avec l'arrivée officielle, calculé ce que chaque stratégie aurait rapporté avec une mise fictive identique de 2 euros par combinaison. Et je publie tout ici, sans filtre.
Spoiler : les résultats sont plus nuancés que ce que les vendeurs d'outils IA voudraient vous faire croire — et plus intéressants aussi.
La méthode : comment j'ai mené le test
Avant de plonger dans les chiffres, quelques précisions sur la façon dont j'ai travaillé — parce qu'un test sans méthode ne vaut rien.
Les 5 outils testés :
- ChatGPT-4o (OpenAI) — en lui fournissant chaque matin les données des partants copiées depuis le programme PMU
- Gemini Advanced (Google) — même protocole de données
- Copilot (Microsoft) — même protocole
- Claude (Anthropic) — même protocole
- Equidia AI Pronostics — outil spécialisé turf avec accès direct aux bases de données hippiques
Le protocole :
Chaque matin, avant 10h, je soumettais à chaque IA le même prompt standardisé, avec les informations suivantes sur chaque partant : nom, numéro, âge, dernières sorties (5 courses), jockey, entraîneur, poids, distance habituelle, type de terrain préféré, et cote de départ estimée.
Le prompt était toujours formulé de la même façon : "Voici les partants du Quinté+ de ce jour. Analyse leurs performances récentes, les conditions de la course, et propose-moi une sélection de 5 chevaux dans l'ordre, avec ta base et deux outsiders. Justifie chaque choix."
Ce que j'ai mesuré :
- Le nombre de chevaux de la sélection présents dans l'arrivée officielle (sur 5)
- Le nombre de fois où la "base" proposée s'est classée dans les 5 premiers
- Un score de rentabilité fictif (mise de 2€ en Quinté+ désordre sur les 5 chevaux sélectionnés)
Les résultats, IA par IA
ChatGPT-4o : l'analyste verbeux
ChatGPT est de loin le plus bavard des cinq. Pour chaque course, il produit une analyse détaillée de chaque partant, avec des formulations soignées et une structure impeccable. C'est agréable à lire. C'est rassurant. Et c'est là que réside le piège.
Ce que j'ai observé sur 30 jours :
Sur 26 Quinté+ analysés (4 annulations ou courses non qualifiantes), ChatGPT a proposé des sélections qui contenaient :
- 3 chevaux ou plus dans l'arrivée : 14 fois sur 26 (54 %)
- La base dans le top 5 : 16 fois sur 26 (62 %)
- Les 5 chevaux dans l'arrivée : 2 fois sur 26 (7,7 %)
En termes de rentabilité fictive, la stratégie aurait généré 3 Quinté+ désordre gagnants sur le mois, pour un solde légèrement positif avant commission PMU, mais négatif une fois les frais déduits.
Le vrai problème de ChatGPT pour le turf : il n'a pas accès aux données en temps réel. Quand je lui soumets les informations, elles datent déjà de quelques heures. Surtout, il ne connaît pas les non-partants de dernière minute, les changements de jockey ou les conditions de piste actualisées — sauf si je les lui fournis explicitement, ce que j'ai essayé de faire avec rigueur. Sa force est dans la synthèse et l'argumentation. Sa faiblesse est dans la fraîcheur des données.
Gemini Advanced : le discret efficace
Gemini surprend. Moins expressif que ChatGPT dans ses justifications, il va davantage à l'essentiel. Ses analyses sont plus courtes, plus directes — parfois presque trop sèches. Mais ses sélections s'avèrent, sur la durée, légèrement plus fiables.
Résultats sur 26 courses :
- 3 chevaux ou plus dans l'arrivée : 15 fois sur 26 (57,7 %)
- La base dans le top 5 : 17 fois sur 26 (65,4 %)
- Les 5 chevaux dans l'arrivée : 2 fois sur 26 (7,7 %)
Ce qui distingue Gemini : il semble mieux pondérer les performances récentes par rapport aux performances lointaines. Plusieurs fois, il a écarté un cheval "réputé" dont les dernières sorties étaient en demi-teinte, là où ChatGPT continuait à le mentionner "pour sa classe". Dans le turf, la forme du moment prime souvent sur le palmarès — et Gemini semble l'avoir intégré.
Copilot : honnête sur ses limites
Copilot (Microsoft) a la particularité d'être connecté au web en temps réel. En théorie, c'est un avantage considérable pour le turf : il peut aller chercher des informations actualisées sur les partants, les derniers résultats, les confirmations de participation.
En pratique, c'est plus mitigé. Plusieurs fois, il a "halluciné" des résultats de courses récentes — citant des performances qui n'existaient pas ou confondant deux chevaux de même nom.Ce phénomène, bien connu dans le monde de l'IA générative, est particulièrement problématique dans le turf où la précision factuelle est cruciale.
Résultats sur 26 courses :
- 3 chevaux ou plus dans l'arrivée : 13 fois sur 26 (50 %)
- La base dans le top 5 : 14 fois sur 26 (53,8 %)
- Les 5 chevaux dans l'arrivée : 1 fois sur 26 (3,8 %)
Copilot finit troisième, pénalisé par ses erreurs factuelles. Son potentiel est réel — un accès web fiable aux données hippiques en temps réel serait un atout majeur — mais la fiabilité des informations qu'il génère de lui-même reste insuffisante pour le turf professionnel.
Claude : le plus prudent, le plus honnête
Claude (Anthropic) est le seul outil qui, régulièrement, a refusé de "forcer" un pronostic. Sur plusieurs courses avec peu de partants clairement supérieurs, il a explicitement indiqué : "Les données disponibles ne permettent pas d'identifier une hiérarchie fiable. Je vous propose une sélection, mais avec une confiance inférieure à la normale."
Au début, ça m'a agacé. On veut des réponses, pas des nuances. Et puis j'ai réalisé que ces avertissements correspondaient souvent aux courses les plus imprévisibles — celles où aucune IA n'aurait bien performé de toute façon.
Résultats sur 26 courses :
- 3 chevaux ou plus dans l'arrivée : 15 fois sur 26 (57,7 %)
- La base dans le top 5 : 15 fois sur 26 (57,7 %)
- Les 5 chevaux dans l'arrivée : 3 fois sur 26 (11,5 %)
Le score sur les "5 dans l'arrivée" est le meilleur des quatre IA généralistes. Et ses avertissements de faible confiance se sont révélés pertinents : sur les 6 courses où il a exprimé des réserves, 5 ont effectivement produit des résultats surprenants. C'est peut-être là sa vraie valeur ajoutée — moins de prédire juste que de dire quand il vaut mieux ne pas trop miser.
Equidia AI Pronostics : le spécialiste
C'est l'outil le plus différent des quatre autres. Là où les IA généralistes travaillent à partir des données que je leur fournis manuellement, Equidia AI accède directement aux bases de données hippiques, aux historiques complets de chaque partant, aux statistiques des jockeys et entraîneurs par hippodrome, et aux données de piste en temps réel.
C'est une différence fondamentale. Et ça se voit dans les résultats.
Résultats sur 26 courses :
- 3 chevaux ou plus dans l'arrivée : 18 fois sur 26 (69,2 %)
- La base dans le top 5 : 19 fois sur 26 (73,1 %)
- Les 5 chevaux dans l'arrivée : 4 fois sur 26 (15,4 %)
C'est clairement le plus performant du test. Mais il y a un "mais" — et un grand. L'accès à cet outil est payant, ses données sont parfois en retard sur les confirmations de dernière minute, et surtout, ses sélections tendent à se concentrer sur les favoris évidents. Sur les courses à l'enjeu spéculatif (celles où l'outsider peut payer très cher), ses performances sont moins remarquables.
Le tableau comparatif final
| Outil | 3+ dans l'arrivée | Base top 5 | 5/5 | Accès temps réel | Prix |
|---|---|---|---|---|---|
| ChatGPT-4o | 54 % | 62 % | 7,7 % | ✗ | Abonnement |
| Gemini Advanced | 57,7 % | 65,4 % | 7,7 % | Partiel | Abonnement |
| Copilot | 50 % | 53,8 % | 3,8 % | ✓ (instable) | Inclus Office |
| Claude | 57,7 % | 57,7 % | 11,5 % | ✗ | Abonnement |
| Equidia AI | 69,2 % | 73,1 % | 15,4 % | ✓ | Payant |
Ce que ce test m'a vraiment appris
Au-delà des chiffres, voici les enseignements que je retiens après 30 jours de test intensif.
1. La qualité des données que vous fournissez prime sur l'IA choisie
Sur les journées où je prenais 20 minutes pour bien structurer les informations avant de les soumettre — non-partants confirmés, état de la piste du matin, rapport de forme des jockeys — toutes les IA performaient mieux. De 8 à 12 points de mieux en moyenne. L'outil est aussi bon que ce qu'on lui donne.
2. Les IA généralistes sont meilleures sur le trot que sur le plat
Résultat inattendu : ChatGPT, Gemini et Claude ont tous mieux performé sur les courses de trot attelé que sur les courses de plat ou de galop. Mon hypothèse : le trot produit des données plus régulières, moins perturbées par les incidents de course et les effets de terrain. Les profils sont plus stables, les hiérarchies plus prévisibles — ce qui favorise l'analyse algorithmique.
3. Aucune IA n'a "vu" les grandes surprises
Sur les 4 courses qui ont produit des arrivées vraiment inattendues ce mois-ci — avec des chevaux à plus de 30/1 dans le Quinté — aucun des cinq outils n'avait intégré ces chevaux dans sa sélection. Ce n'est pas une critique : c'est une confirmation de ce qu'on sait déjà. L'IA excelle dans la normalité, pas dans l'exception.
4. La stratégie hybride est la plus rentable
La combinaison qui a produit les meilleurs résultats fictifs sur le mois : prendre la base d'Equidia AI, la croiser avec les deux outsiders identifiés par Claude (qui a tendance à repérer des profils moins évidents), et y ajouter un "joker personnel" basé sur ma propre lecture de la course. Cette approche hybride a surpassé chaque outil pris individuellement.
5. Le vrai gain de l'IA, c'est le temps
Même quand les sélections ne sont pas meilleures que les miennes, l'IA m'a économisé en moyenne 45 minutes d'analyse par jour. 45 minutes que j'ai pu consacrer à affiner les aspects qualitatifs — la lecture des déclarations d'entraîneurs, l'observation des cotes de départ, l'analyse de la tactique de course probable. Sur la durée, c'est probablement là que réside le vrai avantage compétitif.
Verdict final : laquelle choisir ?
Si vous débutez et voulez expérimenter gratuitement : commencez par Gemini Advanced ou Claude. Leurs résultats sont comparables, leur interface est accessible, et ils expliquent leurs choix de façon pédagogique.
Si vous pariez régulièrement et cherchez de la performance : Equidia AI est clairement supérieur, à condition d'accepter le coût abonnement et de ne pas lui déléguer totalement votre jugement.
Si vous cherchez un outil pour valider votre propre analyse : ChatGPT-4o reste excellent pour challenger vos intuitions et structurer votre réflexion — moins pour produire des pronostics bruts.
Et si vous ne deviez retenir qu'une chose de ces 30 jours : aucune IA ne remplace une stratégie. Elle peut enrichir la vôtre. Elle ne peut pas en avoir une à votre place.
Jouer comporte des risques. Les résultats présentés dans cet article sont issus d'un test fictif sur mises simulées, à des fins d'analyse uniquement. Ils ne constituent pas une garantie de gains. Fixez-vous un budget et ne dépassez jamais ce que vous pouvez vous permettre de perdre. Si le jeu devient un problème, appelez le 09 74 75 13 13 (numéro non surtaxé, disponible 7j/7).
À lire aussi :
