Votre IA hallucine-t-elle ? Le danger des LLMs généralistes pour les conseils diététiques

ChatGPT et Gemini savent écrire de la poésie, mais savent-ils compter vos calories ? Nous avons testé les LLMs généralistes face aux données nutritionnelles vérifiées et les résultats devraient inquiéter quiconque les utilise pour le suivi alimentaire.

« Hé ChatGPT, combien de calories dans mon sauté de poulet ? »

La réponse arrive instantanément et avec assurance : « Un sauté de poulet typique contient environ 350 à 450 calories par portion. » Cela semble raisonnable. Il détaille même les macros. Mais il y a un problème : le chiffre est fabriqué. Pas estimé, pas approximé, mais généré à partir de modèles statistiques dans des données textuelles sans aucune connexion avec une véritable base de données nutritionnelle.

C'est ce que les chercheurs en IA appellent une hallucination, et quand cela se produit dans le contexte de la nutrition, les conséquences vont bien au-delà d'une mauvaise rédaction ou d'une réponse de quiz incorrecte. Les gens prennent de vraies décisions alimentaires basées sur ces chiffres, et ces décisions affectent leur santé.

Ce que signifie « hallucination » dans le contexte nutritionnel

Dans la terminologie des grands modèles de langage, une hallucination se produit lorsque le modèle génère des informations qui semblent plausibles mais sont factuellement incorrectes. Les LLMs ne cherchent pas des faits dans une base de données. Ils prédisent le mot suivant le plus probable dans une séquence en se basant sur des modèles appris lors de l'entraînement.

Lorsque vous demandez à ChatGPT la teneur calorique d'un aliment, il ne consulte pas la base de données USDA FoodData Central ni ne fait de recoupement avec la NCCDB. Il génère une réponse qui ressemble statistiquement au type de réponse qui apparaîtrait dans ses données d'entraînement. Parfois cette réponse est proche du correct. Parfois elle est complètement fausse.

Le danger est que le niveau de confiance est identique dans les deux cas. Un comptage calorique halluciné se lit exactement comme un comptage précis.

Où les LLMs généralistes se trompent en nutrition

Nous avons effectué une série de tests en demandant à ChatGPT (GPT-4o), Gemini et Claude d'estimer le contenu nutritionnel de repas courants. Nous avons ensuite comparé ces estimations aux valeurs de référence vérifiées par l'USDA et à la base de données de Nutrola validée par des nutritionnistes. Les schémas d'erreur étaient cohérents et révélateurs.

Précision fabriquée

Demandez à un LLM « combien de calories dans une cuillère à soupe d'huile d'olive ? » et vous obtiendrez souvent une réponse correcte : environ 119 calories. C'est parce que ce fait spécifique apparaît fréquemment dans les données d'entraînement.

Mais demandez « combien de calories dans un chicken tikka masala fait maison avec du naan ? » et le modèle doit improviser. Dans nos tests, GPT-4o a retourné des estimations allant de 450 à 750 calories pour le même repas décrit dans différentes conversations. La valeur réelle, calculée à partir d'une recette standard avec des données d'ingrédients vérifiées, était de 685 calories. Une réponse était proche. D'autres étaient décalées de plus de 200 calories.

Le modèle n'a aucun moyen de signaler quelles réponses sont des consultations fiables et lesquelles sont des suppositions improvisées.

Cécité aux méthodes de préparation

Les LLMs ont un angle mort fondamental concernant la façon dont les aliments sont préparés. « Blanc de poulet grillé » et « blanc de poulet poêlé au beurre » peuvent recevoir des estimations caloriques similaires parce que le modèle se concentre sur l'ingrédient principal plutôt que sur la méthode de cuisson.

Dans nos tests, quand nous avons posé des questions sur le « saumon » sans préciser la préparation, les réponses ont systématiquement proposé une estimation pour du saumon cuit au four ou grillé autour de 230 à 280 calories pour un filet de 170 g. Un filet de saumon de 170 g poêlé dans deux cuillères à soupe de beurre avec un glaçage teriyaki contient en réalité plutôt 450 à 500 calories. L'écart est suffisamment important pour compromettre un déficit calorique sur la durée.

Hallucination des portions

Le mode de défaillance le plus dangereux est peut-être l'hypothèse sur la taille des portions. Quand vous demandez à un LLM généraliste les calories d'un aliment, il doit supposer une taille de portion. Ces suppositions sont incohérentes et souvent non spécifiées.

« Un bol de pâtes » peut être estimé à 300 à 400 calories. Mais le bol de qui ? Une portion standard de 60 g de spaghettis secs avec de la sauce marinara représente environ 280 calories. Une portion de restaurant de 120 à 170 g de pâtes sèches avec sauce atteint facilement 600 à 900 calories. Le LLM choisit un chiffre au milieu et le présente comme un fait.

Erreurs cumulatives dans les plans de repas

Le risque s'intensifie lorsque les utilisateurs demandent aux LLMs de générer des plans de repas complets. Chaque estimation individuelle comporte une erreur, et ces erreurs se cumulent sur les repas et les jours. Un plan de repas qui prétend fournir 1 800 calories par jour pourrait en réalité en fournir 2 200 ou 1 400 selon la direction des erreurs.

Pour quelqu'un utilisant un plan de repas pour gérer une condition médicale comme le diabète, ou pour atteindre des objectifs de performance sportive spécifiques, ce niveau d'imprécision n'est pas seulement inutile. Il est potentiellement dangereux.

Pourquoi l'IA nutritionnelle spécialisée est différente

La distinction entre un LLM généraliste et un système nutritionnel spécialisé est architecturale, pas cosmétique.

Réponses ancrées dans une base de données

L'IA de Nutrola ne génère pas d'estimations caloriques à partir de modèles linguistiques. Lorsqu'elle identifie un aliment, elle associe cette identification à une entrée vérifiée dans une base de données nutritionnelle. La base de données contient des entrées provenant de l'USDA FoodData Central, de bases de données nutritionnelles nationales de plusieurs pays, et d'entrées validées en interne par des nutritionnistes.

Cela signifie que le système ne peut pas halluciner un comptage calorique. Le chiffre provient d'une entrée de base de données spécifique et vérifiable, pas d'un modèle de langage statistique.

Vérification visuelle

Lorsqu'un utilisateur photographie un repas, le modèle de vision par ordinateur de Nutrola identifie les aliments individuels et estime les tailles de portion en se basant sur l'analyse visuelle. Cet ancrage visuel fournit une vérification que les LLMs textuels ne peuvent pas effectuer. Le système regarde littéralement ce que vous mangez plutôt que de deviner à partir d'une description textuelle.

Incertitude transparente

Un système nutritionnel bien conçu reconnaît quand il est incertain. Si un plat est ambigu ou si une taille de portion est difficile à estimer à partir d'une photo, le système peut signaler cette incertitude et demander des précisions à l'utilisateur. Les LLMs généralistes n'indiquent presque jamais quand leurs estimations nutritionnelles sont peu fiables, parce qu'ils n'ont aucun mécanisme pour mesurer leur propre confiance sur des affirmations factuelles.

Les vrais risques pour la santé

Les données caloriques imprécises provenant de l'IA ne sont pas un problème abstrait. Elles se manifestent de manière concrète.

Échec de la gestion du poids. Un sur-comptage ou sous-comptage constant de 200 calories par jour modifie le résultat de tout régime. Sur 30 jours, cela représente une erreur de 6 000 calories, soit environ 0,8 kg de graisse corporelle dans un sens ou dans l'autre.

Cécité aux micronutriments. Les LLMs fournissent rarement des données sur les micronutriments, et quand ils le font, les chiffres sont encore moins fiables que leurs estimations caloriques. Quelqu'un qui suit son apport en fer pendant la grossesse ou surveille son sodium pour l'hypertension ne peut pas se fier à des estimations générées.

Fausse confiance. Le risque le plus insidieux est que l'utilisateur croit avoir des données précises alors que ce n'est pas le cas. Cette fausse confiance l'empêche de chercher de meilleurs outils ou de faire des ajustements basés sur des résultats réels.

Quand il est acceptable de demander à un LLM des informations sur l'alimentation

Les LLMs généralistes ne sont pas inutiles pour la nutrition. Ils sont efficaces pour certains types de questions :

  • Éducation générale : « Quels aliments sont riches en potassium ? » ou « Quelle est la différence entre les fibres solubles et insolubles ? » Ce sont des questions de connaissances où des réponses approximatives sont appropriées.
  • Idées de recettes : « Donne-moi une idée de déjeuner riche en protéines sous 500 calories » peut produire une inspiration utile, même si le comptage calorique exact devrait être vérifié.
  • Compréhension des concepts : « Explique ce qu'est un déficit calorique » ou « Comment les protéines aident-elles la récupération musculaire ? » sont des domaines où les LLMs fonctionnent bien.

La ligne est claire : utilisez les LLMs pour apprendre sur la nutrition. Utilisez des outils vérifiés et ancrés dans des bases de données pour le suivi.

Comment vérifier toute affirmation nutritionnelle d'une IA

Que vous utilisiez un chatbot ou tout autre outil, il existe des étapes pratiques pour vérifier les données que vous recevez :

  1. Recoupez avec l'USDA FoodData Central. La base de données de l'USDA est gratuite, publique et vérifiée en laboratoire. Si l'estimation d'une IA diverge significativement de l'entrée USDA pour le même aliment, l'IA a probablement tort.
  2. Vérifiez les hypothèses de portions. Demandez ou vérifiez toujours sur quelle taille de portion l'estimation est basée. Un chiffre calorique sans taille de portion n'a aucun sens.
  3. Tenez compte de la méthode de préparation. Le même ingrédient peut varier de 2 à 3 fois en densité calorique selon qu'il est cru, cuit au four, frit ou sauté dans l'huile.
  4. Soyez sceptique face aux chiffres ronds. Si une IA vous dit qu'un repas a « exactement 500 calories », c'est une estimation générée, pas une valeur mesurée. Les données nutritionnelles réelles ont des chiffres spécifiques comme 487 ou 523.

Questions fréquemment posées

ChatGPT est-il fiable pour compter les calories ?

ChatGPT et les grands modèles de langage similaires ne sont pas fiables pour le comptage des calories. Ils génèrent des estimations basées sur des modèles textuels plutôt que de consulter des valeurs dans des bases de données nutritionnelles vérifiées. Lors des tests, les estimations caloriques des LLMs pour des repas complexes variaient de 200 à 300 calories d'une requête à l'autre pour le même aliment. Pour les articles simples et bien connus comme « un gros œuf », les estimations tendent à être proches parce que les données apparaissent fréquemment dans le texte d'entraînement. Pour les plats préparés, les plats de restaurant et les aliments à ingrédients multiples, le taux d'erreur augmente significativement.

Puis-je utiliser ChatGPT pour suivre mes macros ?

L'utilisation de ChatGPT pour le suivi des macros n'est pas recommandée pour quiconque poursuit des objectifs de santé ou de fitness spécifiques. Le modèle ne peut pas tenir compte de vos portions réelles, de vos méthodes de cuisson ou de vos ingrédients spécifiques. Il manque également de cohérence ; poser la même question deux fois peut produire des répartitions de macros différentes. Pour une connaissance générale de savoir si un aliment est riche en protéines ou en glucides, un LLM peut fournir des informations directionnelles utiles. Pour un suivi précis, une application nutritionnelle spécialisée avec une base de données vérifiée produira des résultats nettement plus précis et cohérents.

Qu'est-ce que l'hallucination de l'IA en nutrition ?

L'hallucination de l'IA en nutrition désigne le moment où un modèle de langage génère des données nutritionnelles, comme des comptages caloriques, des répartitions de macros ou des valeurs de micronutriments, qui semblent faire autorité mais sont factuellement incorrectes. Le modèle ne ment pas délibérément ; il prédit un texte plausible basé sur des modèles. Le résultat est un comptage calorique qui se lit comme un fait mais qui n'a jamais été vérifié contre une base de données nutritionnelle. C'est particulièrement dangereux parce que les utilisateurs n'ont aucun moyen de distinguer une estimation hallucinée d'une estimation précise sans vérification manuelle.

Comment savoir si mon IA nutritionnelle donne des données précises ?

Vérifiez trois choses. Premièrement, demandez si l'outil puise dans une base de données nutritionnelle vérifiée comme l'USDA FoodData Central ou la NCCDB, plutôt que de générer des estimations à partir d'un modèle de langage. Deuxièmement, vérifiez qu'il tient compte des méthodes de préparation, puisque la méthode de cuisson peut modifier la teneur calorique d'un aliment de 50 à 200 pour cent. Troisièmement, vérifiez si l'outil précise la taille exacte de la portion sur laquelle son estimation est basée. Une IA nutritionnelle fiable devrait être transparente sur ses sources de données et signaler les estimations incertaines plutôt que de présenter chaque chiffre avec la même confiance.

Est-il sûr de suivre un plan de repas créé par l'IA ?

Les plans de repas générés par l'IA peuvent être utiles comme cadres de départ, mais ils ne devraient pas être suivis aveuglément pour des objectifs médicaux ou de performance spécifiques. Chaque estimation calorique du plan comporte une erreur potentielle, et ces erreurs se cumulent sur une journée entière d'alimentation. Si le plan prétend fournir 1 800 calories mais que chaque estimation de repas est décalée de 10 à 15 pour cent, l'apport quotidien réel pourrait varier de 1 500 à 2 100 calories. Pour une inspiration d'alimentation saine générale, les plans de repas IA sont un point de départ raisonnable. Pour la gestion nutritionnelle clinique, les programmes de perte de poids ou les régimes de performance sportive, les objectifs caloriques et de macros devraient être vérifiés avec un outil ancré dans une base de données.

Prêt à transformer votre suivi nutritionnel ?

Rejoignez des milliers de personnes qui ont transformé leur parcours santé avec Nutrola !

Votre IA hallucine-t-elle ? Le danger des LLMs généralistes pour les conseils diététiques | Nutrola