Hallucineert jouw AI? De Gevaren van Generieke LLMs voor Dieetadvies
ChatGPT en Gemini kunnen poëzie schrijven, maar kunnen ze ook je calorieën tellen? We hebben generieke LLMs getest aan de hand van geverifieerde voedingsdata en de resultaten zouden iedereen die ze gebruikt voor dieetregistratie moeten verontrusten.
"Hey ChatGPT, hoeveel calorieën zitten er in mijn kip roerbakschotel?"
Het antwoord komt onmiddellijk en vol vertrouwen: "Een typische kip roerbakschotel bevat ongeveer 350 tot 450 calorieën per portie." Het klinkt redelijk. Het geeft zelfs een opsplitsing van de macronutriënten. Maar er is een probleem: het getal is verzonnen. Niet geschat, niet benaderd, maar gegenereerd op basis van statistische patronen in tekstdata zonder enige verbinding met een daadwerkelijke voedingsdatabase.
Dit is wat AI-onderzoekers een hallucinatie noemen, en wanneer dit gebeurt in de context van voeding, zijn de gevolgen ernstiger dan een slecht essay of een fout antwoord op een trivia-vraag. Mensen nemen echte dieetbeslissingen op basis van deze cijfers, en die beslissingen hebben invloed op hun gezondheid.
Wat "Hallucinatie" Betekent in de Context van Voeding
In de terminologie van grote taalmodellen (LLMs) verwijst een hallucinatie naar het genereren van informatie die plausibel klinkt, maar feitelijk onjuist is. LLMs zoeken geen feiten op in een database. Ze voorspellen het volgende meest waarschijnlijke woord in een reeks op basis van patronen die tijdens de training zijn geleerd.
Wanneer je ChatGPT vraagt naar de calorie-inhoud van een voedingsmiddel, raadpleegt het niet de USDA FoodData Central-database of vergelijkt het niet met de NCCDB. Het genereert een antwoord dat statistisch lijkt op het soort antwoord dat in zijn trainingsdata zou verschijnen. Soms is dat antwoord dicht bij de waarheid. Soms is het volledig verkeerd.
Het gevaar is dat het zelfvertrouwen in beide gevallen identiek is. Een hallucinatie van een calorie-aantal leest precies zoals een nauwkeurig getal.
Waar Generieke LLMs de Voeding Verkeerd Hebben
We hebben een reeks tests uitgevoerd waarbij we ChatGPT (GPT-4o), Gemini en Claude vroegen om de voedingsinhoud van veelvoorkomende maaltijden te schatten. We vergeleken die schattingen met door de USDA geverifieerde referentiewaarden en Nutrola's door voedingsdeskundigen beoordeelde database. De patronen van fouten waren consistent en onthullend.
Gefabriceerde Precisie
Vraag een LLM "hoeveel calorieën zitten er in een eetlepel olijfolie?" en je krijgt vaak een correct antwoord: ongeveer 119 calorieën. Dit komt omdat dat specifieke feit vaak voorkomt in de trainingsdata.
Maar vraag "hoeveel calorieën zitten er in zelfgemaakte kip tikka masala met naan?" en het model moet improviseren. In onze tests gaf GPT-4o schattingen van 450 tot 750 calorieën voor dezelfde beschreven maaltijd in verschillende gesprekken. De werkelijke waarde, berekend op basis van een standaardrecept met geverifieerde ingrediënten, was 685 calorieën. Eén antwoord was dichtbij. Andere antwoorden waren meer dan 200 calorieën verkeerd.
Het model heeft geen manier om aan te geven welke antwoorden betrouwbare opzoekingen zijn en welke geïmproviseerde gissingen.
Blindheid voor Bereidingsmethoden
LLMs hebben een fundamentele blinde vlek als het gaat om de bereidingswijze van voedsel. "Gegrilde kipfilet" en "in boter gebakken kipfilet" kunnen vergelijkbare calorie-schattingen krijgen omdat het model zich richt op het hoofdingrediënt in plaats van de bereidingsmethode.
In onze tests, wanneer we vroegen naar "zalm" zonder de bereidingswijze te specificeren, waren de antwoorden consistent gericht op een gebakken of gegrilde schatting van ongeveer 230 tot 280 calorieën voor een filét van 170 gram. Een 170 gram zalmfilét die in twee eetlepels boter is gebakken met een teriyaki-glazuur bevat echter dichter bij de 450 tot 500 calorieën. Het verschil is groot genoeg om een calorie-tekort in de loop van de tijd te ondermijnen.
Hallucinatie van Portiegrootte
Misschien is de meest gevaarlijke fout de aanname van portiegrootte. Wanneer je een generieke LLM vraagt naar de calorieën van een voedingsmiddel, moet het een portiegrootte aannemen. Deze aannames zijn inconsistent en vaak niet gespecificeerd.
"Een kom pasta" kan geschat worden op 300 tot 400 calorieën. Maar wiens kom? Een standaardportie van 56 gram droge spaghetti met marinara is ongeveer 280 calorieën. Een restaurantportie van 113 tot 170 gram droge pasta met saus kan gemakkelijk 600 tot 900 calorieën bereiken. De LLM kiest een getal in het midden en presenteert het als feit.
Samengestelde Fouten in Maaltijdplannen
Het risico neemt toe wanneer gebruikers LLMs vragen om volledige maaltijdplannen te genereren. Elke individuele schatting bevat fouten, en die fouten stapelen zich op over maaltijden en dagen. Een maaltijdplan dat beweert 1.800 calorieën per dag te leveren, kan in werkelijkheid 2.200 of 1.400 calorieën opleveren, afhankelijk van de richting van de fouten.
Voor iemand die een maaltijdplan gebruikt om een medische aandoening zoals diabetes te beheren, of om specifieke sportprestatiedoelen te bereiken, is dit niveau van onnauwkeurigheid niet alleen onhandig. Het kan zelfs schadelijk zijn.
Waarom Speciaal Ontwikkelde Voedings-AI Anders is
Het onderscheid tussen een generieke LLM en een speciaal ontwikkelde voedingssystemen is architectonisch, niet cosmetisch.
Database-gegronde Antwoorden
Nutrola's AI genereert geen calorie-schattingen op basis van taalpatronen. Wanneer het een voedingsmiddel identificeert, koppelt het die identificatie aan een geverifieerde vermelding in een voedingsdatabase. De database bevat vermeldingen die zijn verkregen uit de USDA FoodData Central, nationale voedingsdatabases uit verschillende landen en interne door voedingsdeskundigen beoordeelde vermeldingen.
Dit betekent dat het systeem geen calorie-aantal kan hallucineren. Het getal komt van een specifieke, controleerbare databasevermelding, niet van een statistisch taalmodel.
Visuele Verificatie
Wanneer een gebruiker een maaltijd fotografeert, identificeert Nutrola's computer vision-model individuele voedingsmiddelen en schat het portiegroottes op basis van visuele analyse. Deze visuele grondslag biedt een controle die tekst-gebaseerde LLMs niet kunnen uitvoeren. Het systeem kijkt letterlijk naar wat je eet in plaats van te gissen op basis van een tekstbeschrijving.
Transparante Onzekerheid
Een goed ontworpen voedingssysteem erkent wanneer het onzeker is. Als een gerecht ambigu is of een portiegrootte moeilijk te schatten is op basis van een foto, kan het systeem die onzekerheid markeren en de gebruiker om verduidelijking vragen. Generieke LLMs geven bijna nooit aan wanneer hun voedingsschattingen met een lage zekerheid zijn, omdat ze geen mechanisme hebben om hun eigen vertrouwen in feitelijke claims te meten.
De Werkelijke Gezondheidsrisico's
Onnauwkeurige caloriegegevens van AI zijn geen abstract probleem. Het manifesteert zich op concrete manieren.
Mislukking in gewichtsbeheer. Een consistente overschatting of onderschatting van 200 calorieën per dag verandert de uitkomst van elk dieet. Over 30 dagen is dat een fout van 6.000 calorieën, wat ruwweg gelijkstaat aan 1,7 pond lichaamsvet in welke richting dan ook.
Blindheid voor micronutriënten. LLMs bieden zelden micronutriënteninformatie, en wanneer ze dat wel doen, zijn de cijfers nog minder betrouwbaar dan hun calorie-schattingen. Iemand die de inname van ijzer tijdens de zwangerschap bijhoudt of natrium voor hypertensie monitort, kan niet vertrouwen op gegenereerde schattingen.
Valse zelfverzekerdheid. Het meest insidieuze risico is dat de gebruiker gelooft dat ze nauwkeurige gegevens hebben wanneer dat niet het geval is. Deze valse zelfverzekerdheid voorkomt dat ze betere tools zoeken of aanpassingen maken op basis van echte resultaten.
Wanneer het Prima is om een LLM over Voedsel te Vragen
Generieke LLMs zijn niet nutteloos voor voeding. Ze zijn effectief voor bepaalde soorten vragen:
- Algemene educatie: "Welke voedingsmiddelen zijn rijk aan kalium?" of "Wat is het verschil tussen oplosbare en onoplosbare vezels?" Dit zijn kennisvragen waarbij benaderende antwoorden gepast zijn.
- Receptideeën: "Geef me een hoog-eiwit lunchidee onder de 500 calorieën" kan nuttige inspiratie opleveren, zelfs als het exacte calorie-aantal geverifieerd moet worden.
- Begrijpen van concepten: "Leg uit wat een calorie-tekort is" of "Hoe helpt eiwit bij spierherstel?" zijn gebieden waar LLMs goed presteren.
De lijn is duidelijk: gebruik LLMs om meer te leren over voeding. Gebruik geverifieerde, database-gegronde tools voor het bijhouden ervan.
Hoe je Elke AI Voedingsclaim kunt Verifiëren
Of je nu een chatbot of een andere tool gebruikt, er zijn praktische stappen om de gegevens die je ontvangt te controleren:
- Cross-referentie met USDA FoodData Central. De USDA-database is gratis, openbaar en laboratorium-geverifieerd. Als een schatting van een AI aanzienlijk afwijkt van de USDA-vermelding voor hetzelfde voedingsmiddel, is de AI waarschijnlijk verkeerd.
- Controleer aannames over portiegrootte. Vraag altijd of verifieer op welke portiegrootte de schatting is gebaseerd. Een caloriegetal zonder portiegrootte is betekenisloos.
- Rekening houden met bereidingsmethoden. Hetzelfde ingrediënt kan variëren in calorie-dichtheid afhankelijk van of het rauw, gebakken, gefrituurd of gebakken in olie is.
- Wees sceptisch over ronde getallen. Als een AI je vertelt dat een maaltijd "exact 500 calorieën" heeft, is dat een gegenereerde schatting, geen gemeten waarde. Echte voedingsdata hebben specifieke nummers zoals 487 of 523.
Veelgestelde Vragen
Is ChatGPT nauwkeurig voor calorie telling?
ChatGPT en vergelijkbare grote taalmodellen zijn niet betrouwbaar voor calorie telling. Ze genereren schattingen op basis van tekstpatronen in plaats van waarden op te zoeken in geverifieerde voedingsdatabases. In tests varieerden de calorie-schattingen van LLM voor complexe maaltijden met 200 tot 300 calorieën tussen verschillende vragen voor hetzelfde voedingsmiddel. Voor eenvoudige, bekende items zoals "één groot ei" zijn de schattingen meestal dicht bij de waarheid omdat de data vaak voorkomt in de trainingsdata. Voor bereide maaltijden, restaurantgerechten en gemengde ingrediënten neemt de foutenmarge aanzienlijk toe.
Kan ik ChatGPT gebruiken om mijn macronutriënten bij te houden?
Het gebruik van ChatGPT voor macro-tracking wordt niet aanbevolen voor iedereen die specifieke gezondheids- of fitnessdoelen nastreeft. Het model kan je werkelijke portiegroottes, bereidingsmethoden of specifieke ingrediënten niet in overweging nemen. Het mist ook consistentie; dezelfde vraag twee keer stellen kan verschillende macro-uitsplitsingen opleveren. Voor algemene bewustwording van of een voedingsmiddel rijk is aan eiwitten of koolhydraten, kan een LLM nuttige richtinggevende informatie bieden. Voor nauwkeurige tracking zal een speciaal ontwikkelde voedingsapp met een geverifieerde database aanzienlijk nauwkeuriger en consistenter resultaten opleveren.
Wat is AI-hallucinatie in voeding?
AI-hallucinatie in voeding verwijst naar wanneer een taalmodel voedingsdata genereert, zoals calorie-aantallen, macro-uitsplitsingen of micronutriëntenwaarden, die autoritair klinken maar feitelijk onjuist zijn. Het model liegt niet opzettelijk; het voorspelt plausibel klinkende tekst op basis van patronen. Het resultaat is een calorie-aantal dat als feit klinkt, maar nooit is geverifieerd tegen een voedingsdatabase. Dit is bijzonder gevaarlijk omdat gebruikers geen manier hebben om een hallucinatie van een schatting te onderscheiden zonder handmatige cross-referentie.
Hoe weet ik of mijn voedings-AI nauwkeurige gegevens geeft?
Controleer drie dingen. Vraag eerst of de tool gegevens haalt uit een geverifieerde voedingsdatabase zoals de USDA FoodData Central of NCCDB, in plaats van schattingen te genereren vanuit een taalmodel. Ten tweede, verifieer of het rekening houdt met bereidingsmethoden, aangezien de bereidingswijze de calorie-inhoud van een voedingsmiddel met 50 tot 200 procent kan veranderen. Ten derde, controleer of de tool de exacte portiegrootte specificeert waarop de schatting is gebaseerd. Een betrouwbare voedings-AI moet transparant zijn over zijn gegevensbronnen en onzekerheden markeren in plaats van elk getal met gelijke zelfverzekerdheid te presenteren.
Is het veilig om een maaltijdplan te volgen dat door AI is gemaakt?
AI-gegenereerde maaltijdplannen kunnen nuttig zijn als startkaders, maar ze moeten niet blindelings worden gevolgd voor specifieke medische of prestatie-doelen. Elke calorie-schatting in het plan bevat mogelijke fouten, en die fouten stapelen zich op over een hele dag van eten. Als het plan beweert 1.800 calorieën te leveren, maar elke maaltijdschatting is met 10 tot 15 procent verkeerd, kan de werkelijke dagelijkse inname variëren van 1.500 tot 2.100 calorieën. Voor algemene inspiratie voor gezonde voeding zijn AI-maaltijdplannen een redelijke start. Voor klinisch voedingsbeheer, gewichtsverliesprogramma's of diëten voor sportprestaties moeten de calorie- en macrodoelen worden geverifieerd tegen een database-gegronde tool.
Klaar om je voedingstracking te transformeren?
Sluit je aan bij duizenden die hun gezondheidsreis hebben getransformeerd met Nutrola!