¿Tu IA está alucinando? El peligro de usar LLMs genéricos para consejos dietéticos

ChatGPT y Gemini pueden escribir poesía, pero ¿pueden contar tus calorías? Probamos LLMs genéricos contra datos nutricionales verificados y los resultados deberían preocupar a cualquiera que los use para el seguimiento de su dieta.

"Oye ChatGPT, ¿cuántas calorías tiene mi salteado de pollo?"

La respuesta llega al instante y con total confianza: "Un salteado de pollo típico contiene aproximadamente entre 350 y 450 calorías por porción." Suena razonable. Incluso desglosa los macronutrientes. Pero hay un problema: el número es fabricado. No estimado, no aproximado, sino generado a partir de patrones estadísticos en datos de texto sin conexión alguna con una base de datos nutricional real.

Esto es lo que los investigadores de IA llaman una alucinación, y cuando ocurre en el contexto de la nutrición, las consecuencias van más allá de un mal ensayo o una respuesta de trivia incorrecta. Las personas toman decisiones dietéticas reales basándose en estos números, y esas decisiones afectan su salud.

Qué significa "alucinación" en el contexto nutricional

En la terminología de los modelos de lenguaje grande, una alucinación ocurre cuando el modelo genera información que suena plausible pero es factualmente incorrecta. Los LLMs no buscan datos en una base de datos. Predicen la siguiente palabra más probable en una secuencia basándose en patrones aprendidos durante el entrenamiento.

Cuando le preguntas a ChatGPT por el contenido calórico de un alimento, no está consultando la base de datos USDA FoodData Central ni haciendo referencias cruzadas con la NCCDB. Está generando una respuesta que estadísticamente se parece al tipo de respuesta que aparecería en sus datos de entrenamiento. A veces esa respuesta es cercana a lo correcto. A veces está completamente equivocada.

El peligro es que el nivel de confianza es idéntico en ambos casos. Un conteo de calorías alucinado se lee exactamente igual que uno preciso.

Dónde fallan los LLMs genéricos en nutrición

Realizamos una serie de pruebas pidiendo a ChatGPT (GPT-4o), Gemini y Claude que estimaran el contenido nutricional de comidas comunes. Luego comparamos esas estimaciones con valores de referencia verificados por la USDA y la base de datos revisada por nutricionistas de Nutrola. Los patrones de fallo fueron consistentes y reveladores.

Precisión fabricada

Pregúntale a un LLM "¿cuántas calorías tiene una cucharada de aceite de oliva?" y a menudo obtendrás una respuesta correcta: aproximadamente 119 calorías. Esto se debe a que ese dato específico aparece frecuentemente en los datos de entrenamiento.

Pero pregunta "¿cuántas calorías tiene un chicken tikka masala casero con naan?" y el modelo tiene que improvisar. En nuestras pruebas, GPT-4o devolvió estimaciones que iban de 450 a 750 calorías para la misma comida descrita en diferentes conversaciones. El valor real, calculado a partir de una receta estándar con datos de ingredientes verificados, era de 685 calorías. Una respuesta estuvo cerca. Otras se desviaron por más de 200 calorías.

El modelo no tiene forma de señalar qué respuestas son consultas fiables y cuáles son suposiciones improvisadas.

Ceguera ante el método de preparación

Los LLMs tienen un punto ciego fundamental en relación con cómo se prepara la comida. "Pechuga de pollo a la parrilla" y "pechuga de pollo frita en sartén con mantequilla" pueden recibir estimaciones calóricas similares porque el modelo se enfoca en el ingrediente principal en lugar del método de cocción.

En nuestras pruebas, cuando preguntamos sobre "salmón" sin especificar la preparación, las respuestas consistentemente dieron una estimación de horneado o a la parrilla de alrededor de 230 a 280 calorías para un filete de 170 gramos. Un filete de salmón de 170 gramos frito en sartén con dos cucharadas de mantequilla y un glaseado de teriyaki en realidad contiene cerca de 450 a 500 calorías. La diferencia es lo suficientemente significativa como para socavar un déficit calórico con el tiempo.

Alucinación del tamaño de porción

Quizás el modo de fallo más peligroso es la suposición del tamaño de porción. Cuando le preguntas a un LLM genérico sobre las calorías de un alimento, tiene que asumir un tamaño de porción. Estas suposiciones son inconsistentes y a menudo no se especifican.

"Un plato de pasta" podría estimarse en 300 a 400 calorías. ¿Pero el plato de quién? Una porción estándar de 57 gramos de espagueti seco con salsa marinara tiene aproximadamente 280 calorías. Una porción de restaurante de 115 a 170 gramos de pasta seca con salsa fácilmente alcanza de 600 a 900 calorías. El LLM elige un número intermedio y lo presenta como un hecho.

Errores acumulados en planes de comidas

El riesgo se intensifica cuando los usuarios piden a los LLMs que generen planes de comidas completos. Cada estimación individual conlleva un error, y esos errores se acumulan a lo largo de las comidas y los días. Un plan de comidas que afirma proporcionar 1,800 calorías por día podría en realidad proporcionar 2,200 o 1,400 dependiendo de la dirección de los errores.

Para alguien que usa un plan de comidas para controlar una condición médica como la diabetes, o para cumplir objetivos específicos de rendimiento deportivo, este nivel de imprecisión no solo es inútil. Es potencialmente perjudicial.

Por qué la IA de nutrición especializada es diferente

La distinción entre un LLM genérico y un sistema de nutrición especializado es arquitectónica, no cosmética.

Respuestas basadas en bases de datos

La IA de Nutrola no genera estimaciones calóricas a partir de patrones de lenguaje. Cuando identifica un alimento, mapea esa identificación a una entrada verificada en una base de datos nutricional. La base de datos contiene entradas procedentes de USDA FoodData Central, bases de datos nutricionales nacionales de múltiples países y entradas revisadas por nutricionistas internos.

Esto significa que el sistema no puede alucinar un conteo de calorías. El número proviene de una entrada específica y auditable en la base de datos, no de un modelo estadístico de lenguaje.

Verificación visual

Cuando un usuario fotografía una comida, el modelo de visión por computadora de Nutrola identifica los alimentos individuales y estima los tamaños de las porciones basándose en el análisis visual. Esta base visual proporciona una verificación que los LLMs de solo texto no pueden realizar. El sistema está literalmente mirando lo que estás comiendo en lugar de adivinar a partir de una descripción textual.

Incertidumbre transparente

Un sistema de nutrición bien diseñado reconoce cuando tiene incertidumbre. Si un plato es ambiguo o el tamaño de una porción es difícil de estimar a partir de una foto, el sistema puede señalar esa incertidumbre y pedir al usuario una aclaración. Los LLMs genéricos casi nunca indican cuándo sus estimaciones nutricionales son de baja confianza, porque no tienen ningún mecanismo para medir su propia confianza en afirmaciones factuales.

Los riesgos reales para la salud

Los datos calóricos inexactos proporcionados por la IA no son un problema abstracto. Se manifiestan de maneras concretas.

Fracaso en el control de peso. Un sobreconteo o infraconteo constante de 200 calorías por día cambia el resultado de cualquier dieta. En 30 días, eso es un error de 6,000 calorías, aproximadamente equivalente a 0.8 kilogramos de grasa corporal en cualquier dirección.

Ceguera ante micronutrientes. Los LLMs rara vez proporcionan datos de micronutrientes, y cuando lo hacen, los números son aún menos fiables que sus estimaciones calóricas. Alguien que controla su ingesta de hierro durante el embarazo o monitorea el sodio por hipertensión no puede depender de estimaciones generadas.

Falsa confianza. El riesgo más insidioso es que el usuario crea que tiene datos precisos cuando no es así. Esta falsa confianza le impide buscar mejores herramientas o hacer ajustes basados en resultados reales.

Cuándo está bien preguntarle a un LLM sobre comida

Los LLMs genéricos no son inútiles para la nutrición. Son efectivos para ciertos tipos de consultas:

  • Educación general: "¿Qué alimentos son ricos en potasio?" o "¿Cuál es la diferencia entre la fibra soluble y la insoluble?" Estas son preguntas de conocimiento donde las respuestas aproximadas son apropiadas.
  • Ideas de recetas: "Dame una idea de almuerzo alto en proteínas con menos de 500 calorías" puede producir inspiración útil, aunque el conteo exacto de calorías debería verificarse.
  • Comprensión de conceptos: "Explica qué es un déficit calórico" o "¿Cómo ayuda la proteína en la recuperación muscular?" son áreas donde los LLMs funcionan bien.

La línea es clara: usa los LLMs para aprender sobre nutrición. Usa herramientas verificadas y basadas en bases de datos para hacer el seguimiento.

Cómo verificar cualquier afirmación nutricional de la IA

Ya sea que estés usando un chatbot o cualquier otra herramienta, hay pasos prácticos para comprobar los datos que recibes:

  1. Contrasta con USDA FoodData Central. La base de datos de la USDA es gratuita, pública y verificada en laboratorio. Si la estimación de una IA difiere significativamente de la entrada de la USDA para el mismo alimento, la IA probablemente está equivocada.
  2. Verifica las suposiciones del tamaño de porción. Siempre pregunta o verifica en qué tamaño de porción se basa la estimación. Un número de calorías sin un tamaño de porción no tiene sentido.
  3. Ten en cuenta el método de preparación. El mismo ingrediente puede variar de 2 a 3 veces en densidad calórica dependiendo de si está crudo, horneado, frito o salteado en aceite.
  4. Desconfía de los números redondos. Si una IA te dice que una comida tiene "exactamente 500 calorías", eso es una estimación generada, no un valor medido. Los datos nutricionales reales tienen números específicos como 487 o 523.

Preguntas frecuentes

¿Es preciso ChatGPT para contar calorías?

ChatGPT y modelos de lenguaje grande similares no son fiables para el conteo de calorías. Generan estimaciones basadas en patrones de texto en lugar de buscar valores en bases de datos nutricionales verificadas. En las pruebas, las estimaciones calóricas de los LLM para comidas complejas variaron entre 200 y 300 calorías en diferentes consultas para el mismo alimento. Para artículos simples y bien conocidos como "un huevo grande", las estimaciones tienden a ser cercanas porque los datos aparecen frecuentemente en el texto de entrenamiento. Para comidas preparadas, platos de restaurante y alimentos con múltiples ingredientes, la tasa de error aumenta significativamente.

¿Puedo usar ChatGPT para hacer seguimiento de mis macros?

No se recomienda usar ChatGPT para el seguimiento de macronutrientes para cualquier persona que persiga objetivos específicos de salud o fitness. El modelo no puede tener en cuenta tus tamaños de porción reales, métodos de cocción o ingredientes específicos. También carece de consistencia; hacer la misma pregunta dos veces puede producir desgloses de macros diferentes. Para una conciencia general de si un alimento es alto en proteínas o carbohidratos, un LLM puede proporcionar información direccional útil. Para un seguimiento preciso, una app de nutrición especializada con una base de datos verificada producirá resultados sustancialmente más precisos y consistentes.

¿Qué es la alucinación de IA en nutrición?

La alucinación de IA en nutrición se refiere a cuando un modelo de lenguaje genera datos nutricionales, como conteos de calorías, desgloses de macros o valores de micronutrientes, que suenan autoritativos pero son factualmente incorrectos. El modelo no está mintiendo deliberadamente; está prediciendo texto que suena plausible basándose en patrones. El resultado es un conteo de calorías que se lee como un hecho pero que nunca fue verificado contra ninguna base de datos nutricional. Esto es particularmente peligroso porque los usuarios no tienen forma de distinguir una estimación alucinada de una precisa sin una verificación cruzada manual.

¿Cómo sé si mi IA de nutrición está proporcionando datos precisos?

Verifica tres cosas. Primero, pregunta si la herramienta extrae datos de una base de datos nutricional verificada como USDA FoodData Central o NCCDB, en lugar de generar estimaciones a partir de un modelo de lenguaje. Segundo, verifica que tenga en cuenta los métodos de preparación, ya que el método de cocción puede cambiar el contenido calórico de un alimento entre un 50 y un 200 por ciento. Tercero, comprueba si la herramienta especifica el tamaño exacto de porción en el que se basa su estimación. Una IA de nutrición fiable debe ser transparente sobre sus fuentes de datos y debe señalar las estimaciones inciertas en lugar de presentar cada número con igual confianza.

¿Es seguro seguir un plan de comidas creado por IA?

Los planes de comidas generados por IA pueden ser útiles como marcos de partida, pero no deben seguirse ciegamente para objetivos médicos o de rendimiento específicos. Cada estimación calórica en el plan conlleva un error potencial, y esos errores se acumulan a lo largo de un día entero de alimentación. Si el plan afirma proporcionar 1,800 calorías pero cada estimación de comida tiene un desvío del 10 al 15 por ciento, la ingesta diaria real podría oscilar entre 1,500 y 2,100 calorías. Para inspiración general de alimentación saludable, los planes de comidas de IA son un punto de partida razonable. Para la gestión de nutrición clínica, programas de pérdida de peso o dietas de rendimiento deportivo, los objetivos de calorías y macronutrientes deben verificarse con una herramienta basada en bases de datos.

¿Listo para transformar tu seguimiento nutricional?

¡Únete a miles que han transformado su viaje de salud con Nutrola!

¿Tu IA está alucinando? El peligro de usar LLMs genéricos para consejos dietéticos | Nutrola