Hallucinerar Din AI? Riskerna med Att Använda Generiska LLM för Kostråd

ChatGPT och Gemini kan skriva poesi, men kan de räkna dina kalorier? Vi testade generiska LLM mot verifierad näringsdata och resultaten borde oroa alla som använder dem för kostspårning.

Medically reviewed by Dr. Emily Torres, Registered Dietitian Nutritionist (RDN)

"Hey ChatGPT, hur många kalorier finns det i min kycklingwok?"

Svaret kommer tillbaka omedelbart och med självförtroende: "En typisk kycklingwok innehåller ungefär 350 till 450 kalorier per portion." Det låter rimligt. Det bryter till och med ner makron. Men det finns ett problem: siffran är påhittad. Inte uppskattad, inte approximativ, utan genererad utifrån statistiska mönster i textdata utan koppling till en faktisk näringsdatabas.

Detta är vad AI-forskare kallar en hallucination, och när det händer i samband med näring går konsekvenserna bortom en dålig uppsats eller ett felaktigt trivia-svar. Människor fattar verkliga kostbeslut baserat på dessa siffror, och dessa beslut påverkar deras hälsa.

Vad "Hallucination" Betyder i Näringssammanhang

Inom terminologin för stora språkmodeller (LLM) inträffar en hallucination när modellen genererar information som låter plausibel men är faktamässigt felaktig. LLM:er söker inte fakta i en databas. De förutser det nästa mest sannolika ordet i en sekvens baserat på mönster som lärts under träningen.

När du frågar ChatGPT om kaloriinnehållet i en matvara, söker den inte i USDA FoodData Central-databasen eller korsrefererar med NCCDB. Den genererar ett svar som statistiskt liknar det slags svar som skulle dyka upp i dess träningsdata. Ibland är svaret nära korrekt. Ibland är det helt fel.

Faran är att självförtroendet är identiskt i båda fallen. En hallucinerad kaloriberäkning läses exakt som en korrekt.

Var Generiska LLM Går Fel i Näring

Vi genomförde en serie tester där vi bad ChatGPT (GPT-4o), Gemini och Claude att uppskatta det näringsmässiga innehållet i vanliga måltider. Vi jämförde sedan dessa uppskattningar med USDA-verifierade referensvärden och Nutrolas näringsgranskade databas. Mönstren av misslyckanden var konsekventa och avslöjande.

Fabricerad Precision

Fråga en LLM "hur många kalorier finns det i en matsked olivolja?" och du får ofta ett korrekt svar: cirka 119 kalorier. Detta beror på att just den specifika fakta ofta förekommer i träningsdata.

Men fråga "hur många kalorier finns det i hemlagad kyckling tikka masala med naan?" och modellen måste improvisera. I våra tester gav GPT-4o uppskattningar som varierade mellan 450 och 750 kalorier för samma beskrivna måltid i olika konversationer. Det faktiska värdet, beräknat utifrån ett standardrecept med verifierad ingrediensdata, var 685 kalorier. Ett svar var nära. Andra var fel med över 200 kalorier.

Modellen har inget sätt att signalera vilka svar som är pålitliga och vilka som är improviserade gissningar.

Blindhet för Tillagningsmetod

LLM:er har en grundläggande blindhet när det gäller hur maten tillagas. "Grillad kycklingbröst" och "stekta kycklingbröst i smör" kan få liknande kaloriuppskattningar eftersom modellen fokuserar på huvudingredienserna snarare än tillagningsmetoden.

I våra tester, när vi frågade om "lax" utan att specificera tillagning, defaultade svaren konsekvent till en bakad eller grillad uppskattning runt 230 till 280 kalorier för en 6-ounce filé. En 6-ounce laxfilé stekt i två matskedar smör med teriyakisås innehåller faktiskt närmare 450 till 500 kalorier. Skillnaden är tillräckligt stor för att undergräva ett kaloriunderskott över tid.

Hallucination av Portionsstorlek

Kanske den mest farliga felkällan är antagandet om portionsstorlek. När du frågar en generisk LLM om kalorier i en matvara måste den anta en portionsstorlek. Dessa antaganden är inkonsekventa och ofta oklara.

"En skål pasta" kan uppskattas till 300 till 400 kalorier. Men vems skål? En standardportion på 2 ounce torr spaghetti med marinara är cirka 280 kalorier. En restaurangportion på 4 till 6 ounce torr pasta med sås når lätt 600 till 900 kalorier. LLM:en väljer ett nummer i mitten och presenterar det som fakta.

Sammanlagda Fel i Måltidsplaner

Risken ökar när användare ber LLM:er att generera fullständiga måltidsplaner. Varje individuell uppskattning bär på fel, och dessa fel ackumuleras över måltider och dagar. En måltidsplan som påstår sig leverera 1,800 kalorier per dag kan faktiskt leverera 2,200 eller 1,400 beroende på felens riktning.

För någon som använder en måltidsplan för att hantera ett medicinskt tillstånd som diabetes, eller för att nå specifika prestationsmål, är denna nivå av felaktighet inte bara ohelpfull. Den kan vara potentiellt skadlig.

Varför Specialiserad Närings-AI Är Annorlunda

Skillnaden mellan en generisk LLM och ett specialiserat näringssystem är arkitektonisk, inte kosmetisk.

Databasgrundade Svar

Nutrolas AI genererar inte kaloriberäkningar utifrån språk mönster. När den identifierar en matvara kopplar den den identifieringen till en verifierad post i en näringsdatabas. Databasen innehåller poster från USDA FoodData Central, nationella näringsdatabaser från flera länder och interna granskade poster av nutritionister.

Detta innebär att systemet inte kan halluciera en kaloriberäkning. Siffran kommer från en specifik, granskad databaspunkt, inte från en statistisk språkmodell.

Visuell Verifiering

När en användare fotograferar en måltid identifierar Nutrolas datorseendemodell individuella livsmedelsartiklar och uppskattar portionsstorlekar baserat på visuell analys. Denna visuella förankring ger en kontroll som textbaserade LLM:er inte kan utföra. Systemet ser bokstavligen på vad du äter istället för att gissa utifrån en textbeskrivning.

Transparent Osäkerhet

Ett väl utformat näringssystem erkänner när det är osäkert. Om en rätt är otydlig eller en portionsstorlek är svår att uppskatta från ett foto, kan systemet flagga den osäkerheten och be användaren om förtydligande. Generiska LLM:er indikerar nästan aldrig när deras näringsuppskattningar är av låg tillförlitlighet, eftersom de saknar mekanismer för att mäta sitt eget självförtroende i faktiska påståenden.

De Verkliga Hälsoriskerna

Felaktiga kaloriuppgifter från AI är inte ett abstrakt problem. Det manifesterar sig på konkreta sätt.

Misslyckande med viktkontroll. En konsekvent över- eller underberäkning på 200 kalorier per dag förändrar utfallet av vilken diet som helst. Över 30 dagar innebär det ett fel på 6,000 kalorier, vilket motsvarar ungefär 1.7 pund kroppsfett i vilken riktning som helst.

Mikronäringsblindhet. LLM:er ger sällan mikronäringsdata, och när de gör det är siffrorna ännu mindre tillförlitliga än deras kaloriuppskattningar. Någon som spårar järnintag under graviditet eller övervakar natrium för hypertoni kan inte lita på genererade uppskattningar.

Falskt självförtroende. Den mest insidiga risken är att användaren tror att de har korrekta data när de inte har det. Detta falska självförtroende hindrar dem från att söka bättre verktyg eller göra justeringar baserat på verkliga resultat.

När Det Är Okej att Fråga en LLM om Mat

Generiska LLM:er är inte värdelösa för näring. De är effektiva för vissa typer av frågor:

  • Allmän utbildning: "Vilka livsmedel är rika på kalium?" eller "Vad är skillnaden mellan lösliga och olösliga fibrer?" Dessa är kunskapsfrågor där ungefärliga svar är lämpliga.
  • Receptidéer: "Ge mig en högproteinslunchidé under 500 kalorier" kan ge användbar inspiration, även om den exakta kaloriberäkningen bör verifieras.
  • Förståelse av koncept: "Förklara vad ett kaloriunderskott är" eller "Hur hjälper protein till med muskelåterhämtning?" är områden där LLM:er presterar bra.

Gränsen är tydlig: använd LLM:er för att lära dig om näring. Använd verifierade, databasgrundade verktyg för att spåra det.

Hur Man Verifierar Alla AI Näringspåståenden

Oavsett om du använder en chatbot eller något annat verktyg finns det praktiska steg för att kontrollera de data du får:

  1. Korsreferens med USDA FoodData Central. USDA-databasen är gratis, offentlig och laboratorieverifierad. Om en AIs uppskattning avviker avsevärt från USDA-posten för samma mat, är AI:n sannolikt felaktig.
  2. Kontrollera antaganden om portionsstorlek. Fråga alltid eller verifiera vilken portionsstorlek uppskattningen baseras på. Ett kalorinummer utan en portionsstorlek är meningslöst.
  3. Ta hänsyn till tillagningsmetod. Samma ingrediens kan variera med 2 till 3 gånger i kaloritäthet beroende på om den är rå, bakad, stekt eller sautérad i olja.
  4. Var skeptisk till runda siffror. Om en AI säger att en måltid har "exakt 500 kalorier", är det en genererad uppskattning, inte ett mätt värde. Verkliga näringsdata har specifika siffror som 487 eller 523.

Vanliga Frågor

Är ChatGPT exakt för kaloriräkning?

ChatGPT och liknande stora språkmodeller är inte pålitliga för kaloriräkning. De genererar uppskattningar baserade på textmönster snarare än att söka upp värden i verifierade näringsdatabaser. I tester varierade LLM:s kaloriuppskattningar för komplexa måltider med 200 till 300 kalorier mellan olika frågor för samma mat. För enkla, välkända objekt som "ett stort ägg" tenderar uppskattningarna att vara nära eftersom datan ofta förekommer i träningsmaterialet. För tillagade måltider, restaurangrätter och blandade ingredienser ökar felaktighetsgraden avsevärt.

Kan jag använda ChatGPT för att spåra mina makron?

Att använda ChatGPT för makrospårning rekommenderas inte för någon som har specifika hälsomål eller träningsmål. Modellen kan inte ta hänsyn till dina faktiska portionsstorlekar, tillagningsmetoder eller specifika ingredienser. Den saknar också konsekvens; att ställa samma fråga två gånger kan ge olika makrofördelningar. För allmän medvetenhet om huruvida en matvara är rik på protein eller kolhydrater kan en LLM ge användbar vägledande information. För exakt spårning kommer en specialiserad näringsapp med en verifierad databas att ge avsevärt mer noggranna och konsekventa resultat.

Vad är AI-hallucination inom näring?

AI-hallucination inom näring hänvisar till när en språkmodell genererar näringsdata, såsom kaloriantal, makrofördelningar eller mikronäringsvärden, som låter auktoritativa men är faktamässigt felaktiga. Modellen ljuger inte medvetet; den förutser plausibla textmönster baserat på inlärda mönster. Resultatet är en kaloriberäkning som läses som ett faktum men aldrig verifierades mot någon näringsdatabas. Detta är särskilt farligt eftersom användare inte har något sätt att särskilja en hallucinerad uppskattning från en korrekt utan manuell korsreferens.

Hur vet jag om min närings-AI ger korrekta data?

Kontrollera tre saker. För det första, fråga om verktyget hämtar data från en verifierad näringsdatabas som USDA FoodData Central eller NCCDB, snarare än att generera uppskattningar från en språkmodell. För det andra, verifiera att det tar hänsyn till tillagningsmetoder, eftersom tillagningsmetoden kan förändra en livsmedels kaloriinnehåll med 50 till 200 procent. För det tredje, kontrollera om verktyget specificerar den exakta portionsstorleken som dess uppskattning baseras på. En pålitlig närings-AI bör vara transparent om sina datakällor och flagga osäkra uppskattningar snarare än att presentera varje nummer med lika stort självförtroende.

Är det säkert att följa en måltidsplan skapad av AI?

AI-genererade måltidsplaner kan vara användbara som startpunkter, men de bör inte följas blint för specifika medicinska eller prestationsmål. Varje kaloriuppskattning i planen bär på potentiella fel, och dessa fel ackumuleras över en hel dag av ätande. Om planen påstår sig leverera 1,800 kalorier men varje måltidsuppskattning är fel med 10 till 15 procent, kan det faktiska dagliga intaget variera från 1,500 till 2,100 kalorier. För allmän inspiration till hälsosam kost är AI-måltidsplaner en rimlig utgångspunkt. För klinisk näringshantering, viktminskningsprogram eller idrottsprestationsdieter bör kalori- och makromålen verifieras mot ett databasgrundat verktyg.

Redo att förvandla din näringsspårning?

Gå med tusentals som har förvandlat sin hälsoresa med Nutrola!