Qu'est-ce que Snap & Track ? Un guide complet du suivi calorique basé sur la photo
Découvrez comment fonctionne le suivi calorique basé sur la photo, de la technologie d'IA et de vision par ordinateur qui le sous-tend aux taux de précision, aux types d'aliments qu'il gère le mieux, et comment il se compare à la saisie manuelle et au scan de codes-barres.
Rechercher manuellement chaque ingrédient de votre déjeuner dans une base de données, estimer la taille des portions et saisir chaque élément un par un est la méthode standard de suivi des calories depuis plus d'une décennie. Cela fonctionne, mais c'est lent, fastidieux et l'une des principales raisons pour lesquelles les gens abandonnent le suivi alimentaire dans les deux premières semaines.
Le suivi calorique basé sur la photo offre une approche fondamentalement différente. Au lieu de taper et de chercher, vous prenez une seule photographie de votre repas, et l'intelligence artificielle fait le reste : identifier les aliments dans votre assiette, estimer la taille des portions et fournir un bilan nutritionnel complet en quelques secondes.
L'implémentation de cette technologie par Nutrola s'appelle Snap & Track. Ce guide explique exactement ce qu'est le suivi calorique basé sur la photo, comment fonctionne la technologie sous-jacente, ce qu'elle fait bien, où elle rencontre encore des défis, et comment elle se compare aux autres méthodes de suivi.
Qu'est-ce que le suivi calorique basé sur la photo ?
Le suivi calorique basé sur la photo est une méthode de journal alimentaire qui utilise l'appareil photo d'un smartphone et l'intelligence artificielle pour estimer le contenu nutritionnel d'un repas à partir d'une seule photographie. Plutôt que d'exiger de l'utilisateur qu'il recherche manuellement dans une base de données alimentaire, le système analyse l'image pour identifier les aliments individuels, estimer leurs quantités et récupérer les données nutritionnelles correspondantes.
La promesse centrale est la rapidité et la simplicité. Un processus qui prend généralement de 60 à 120 secondes par repas avec la saisie manuelle peut être réduit à moins de 10 secondes avec un système basé sur la photo. Pour les utilisateurs qui mangent trois à cinq fois par jour, ce gain de temps se cumule en une expérience significativement différente qui rend le suivi à long terme viable.
Un bref historique
Le concept de photographier les aliments pour l'analyse nutritionnelle remonte à la recherche académique du début des années 2010, lorsque les modèles de vision par ordinateur ont démontré pour la première fois la capacité de classifier des images alimentaires avec une précision raisonnable. Les premiers systèmes nécessitaient un éclairage contrôlé, des angles spécifiques et des objets de référence (comme une pièce de monnaie placée à côté de l'assiette pour l'échelle). La précision était limitée et la technologie est restée confinée aux laboratoires de recherche.
La percée est venue avec la maturation de l'apprentissage profond, en particulier les réseaux de neurones convolutifs (CNNs), entre 2017 et 2022. À mesure que ces modèles étaient entraînés sur des ensembles de données d'images alimentaires de plus en plus grands, la précision de classification est passée d'environ 50 pour cent à plus de 90 pour cent pour les aliments courants. En 2024, les applications grand public ont commencé à proposer le suivi basé sur la photo comme fonctionnalité principale plutôt que comme complément expérimental.
Comment fonctionne Snap & Track : étape par étape
Comprendre le processus complet de la photographie aux données nutritionnelles aide à établir des attentes réalistes sur ce que la technologie peut et ne peut pas faire.
Étape 1 : Capture de l'image
L'utilisateur ouvre l'application Nutrola et prend une photographie de son repas à l'aide de l'interface caméra intégrée. Le système fonctionne le mieux avec une prise de vue de dessus ou à un angle de 45 degrés qui montre clairement tous les éléments dans l'assiette. Un bon éclairage et un minimum d'obstructions (comme les mains, les ustensiles couvrant la nourriture ou les ombres extrêmes) améliorent les résultats.
L'image est capturée à la résolution standard du smartphone. Aucun équipement spécial, objet de référence ou étape de calibration n'est requis.
Étape 2 : Détection et identification des aliments
Une fois l'image capturée, une série de modèles d'IA l'analysent en séquence.
La détection d'objets identifie d'abord les zones distinctes d'aliments dans l'image. Si une assiette contient du poulet grillé, du riz et une salade d'accompagnement, le modèle dessine des cadres de délimitation autour de chaque aliment distinct. Il s'agit d'un problème de classification multi-étiquettes, ce qui signifie que le système doit reconnaître qu'une seule image contient plusieurs aliments distincts plutôt que de traiter l'assiette entière comme un seul élément.
La classification des aliments attribue ensuite une étiquette à chaque zone détectée. Le modèle s'appuie sur une taxonomie de milliers d'aliments, en comparant les caractéristiques visuelles telles que la couleur, la texture, la forme et le contexte avec des catégories alimentaires connues. Le système prend également en compte les modèles de co-occurrence. Par exemple, s'il détecte ce qui semble être une tortilla accompagnée de haricots, de riz et de salsa, il peut en déduire un burrito bowl plutôt que de classifier chaque composant isolément.
Étape 3 : Estimation de la taille des portions
Identifier quel aliment est présent n'est que la moitié du problème. Le système doit également estimer la quantité de chaque aliment dans l'assiette. Cela est accompli par une combinaison de techniques :
- Mise à l'échelle relative. Le modèle utilise l'assiette, le bol ou le récipient comme objet de référence avec une taille standard supposée pour estimer le volume des aliments par rapport à celui-ci.
- Estimation de la profondeur. Les modèles avancés déduisent la structure tridimensionnelle à partir d'une image bidimensionnelle, estimant la hauteur ou l'épaisseur d'aliments tels qu'un steak ou un monticule de riz.
- Priors de portions appris. Le modèle a été entraîné sur des centaines de milliers d'images avec des poids de portion connus, ce qui lui permet d'appliquer des priors statistiques. Par exemple, un seul blanc de poulet dans le contexte d'un repas fait maison se situe généralement dans une fourchette de 120 à 200 grammes.
Étape 4 : Récupération des données nutritionnelles
Avec les aliments identifiés et les portions estimées, le système associe chaque aliment à son entrée correspondante dans une base de données nutritionnelle vérifiée. Nutrola utilise une base de données organisée plutôt qu'une base collaborative, ce qui réduit le risque d'entrées incorrectes ou en double.
Le système renvoie un bilan nutritionnel complet pour chaque aliment détecté et le repas dans son ensemble :
| Nutriment | Par aliment | Par repas |
|---|---|---|
| Calories (kcal) | Fourni | Additionné |
| Protéines (g) | Fourni | Additionné |
| Glucides (g) | Fourni | Additionné |
| Lipides (g) | Fourni | Additionné |
| Fibres (g) | Fourni | Additionné |
| Micronutriments clés | Fourni | Additionné |
Étape 5 : Vérification et confirmation par l'utilisateur
Les résultats sont présentés à l'utilisateur qui peut vérifier, ajuster ou corriger tout élément avant de confirmer l'entrée du journal. Cette étape d'intervention humaine est essentielle. Si le système identifie par erreur du riz complet comme du riz blanc, ou estime 150 grammes de poulet alors que la portion réelle est plus proche de 200 grammes, l'utilisateur peut effectuer une correction rapide. Au fil du temps, ces corrections contribuent également à améliorer la précision du système grâce aux boucles de rétroaction.
La technologie derrière la reconnaissance alimentaire basée sur la photo
Plusieurs couches d'intelligence artificielle et d'apprentissage automatique travaillent ensemble pour rendre possible le suivi calorique basé sur la photo.
Réseaux de neurones convolutifs (CNNs)
La colonne vertébrale de la plupart des systèmes de reconnaissance alimentaire est le réseau de neurones convolutif, une classe de modèles d'apprentissage profond spécifiquement conçus pour l'analyse d'images. Les CNNs traitent les images à travers de multiples couches de filtres qui détectent des caractéristiques de plus en plus abstraites : bords et textures dans les couches initiales, formes et motifs dans les couches intermédiaires, et caractéristiques alimentaires de haut niveau dans les couches profondes.
Les systèmes modernes de reconnaissance alimentaire utilisent généralement des architectures telles que ResNet, EfficientNet ou Vision Transformers (ViT) qui ont été pré-entraînées sur des millions d'images générales puis affinées sur des ensembles de données spécifiques aux aliments.
Classification multi-étiquettes
Contrairement à la classification d'images standard (où une image reçoit une seule étiquette), la reconnaissance alimentaire nécessite une classification multi-étiquettes. Une seule photographie peut contenir cinq, dix ou plus d'aliments distincts. Le modèle doit détecter et classifier chacun indépendamment tout en comprenant les relations spatiales entre eux.
Apprentissage par transfert et adaptation de domaine
Entraîner un modèle de reconnaissance alimentaire à partir de zéro nécessiterait un ensemble de données étiquetées d'une taille irréaliste. Au lieu de cela, les systèmes modernes utilisent l'apprentissage par transfert : en commençant par un modèle pré-entraîné sur un large ensemble de données d'images à usage général (comme ImageNet) puis en l'affinant sur des images spécifiques aux aliments. Cette approche permet au modèle d'exploiter la compréhension visuelle générale (bords, textures, formes) tout en se spécialisant dans les caractéristiques liées aux aliments.
Données d'entraînement
La qualité et la diversité des données d'entraînement sont sans doute plus importantes que l'architecture du modèle. Les modèles efficaces de reconnaissance alimentaire sont entraînés sur des ensembles de données contenant :
- Des centaines de milliers à des millions d'images alimentaires étiquetées
- Des cuisines, styles de cuisson et formats de présentation variés
- Des conditions d'éclairage, angles et arrière-plans diversifiés
- Des images provenant aussi bien de contextes de restaurant que de cuisine maison
- Des annotations de poids de portions pour l'estimation du volume
Précision : ce que montre la recherche
La précision du suivi calorique basé sur la photo peut être mesurée selon deux dimensions : la précision d'identification des aliments (le système a-t-il correctement identifié quel est l'aliment ?) et la précision d'estimation des calories (a-t-il estimé la bonne quantité ?).
Précision d'identification des aliments
Les modèles modernes de reconnaissance alimentaire atteignent une précision top-1 (l'aliment correct est la première suggestion du modèle) de 85 à 95 pour cent sur les ensembles de données de référence pour les aliments courants dans des photographies bien éclairées et clairement présentées. La précision top-5 (l'aliment correct fait partie des cinq premières suggestions du modèle) dépasse généralement 95 pour cent.
Cependant, la précision sur les données de référence ne se traduit pas toujours directement en performances réelles. Les facteurs qui réduisent la précision en pratique comprennent :
| Facteur | Impact sur la précision |
|---|---|
| Mauvais éclairage ou ombres | Réduction modérée |
| Angles inhabituels (gros plan extrême, vue latérale) | Réduction modérée |
| Plats mélangés ou en couches (gratins, ragoûts) | Réduction significative |
| Aliments inhabituels ou régionaux | Réduction significative |
| Aliments recouverts de sauces ou garnitures | Réduction modérée à significative |
| Plusieurs aliments qui se chevauchent | Réduction modérée |
Précision d'estimation des calories
Même lorsque l'identification des aliments est correcte, l'estimation des calories introduit une erreur supplémentaire à travers l'estimation de la taille des portions. Des études publiées entre 2023 et 2025 ont révélé que l'estimation calorique basée sur la photo se situe généralement dans une marge de 15 à 25 pour cent du contenu calorique réel pour les repas standards. Cela est comparable ou supérieur à la précision de l'auto-déclaration manuelle, qui selon les études sous-estime systématiquement l'apport calorique de 20 à 50 pour cent.
Une revue systématique de 2024 dans le Journal of the Academy of Nutrition and Dietetics a constaté que le suivi photographique assisté par IA réduisait l'erreur d'estimation moyenne de 12 points de pourcentage par rapport à l'estimation manuelle sans aucun outil.
Aliments qu'il gère bien vs. aliments qui posent problème
Tous les aliments ne sont pas aussi faciles à analyser pour les systèmes d'IA. Comprendre ces différences aide les utilisateurs à tirer le meilleur parti du suivi basé sur la photo.
Aliments avec une haute précision de reconnaissance
- Aliments entiers et visuellement distincts. Une banane, une pomme, un œuf dur, une tranche de pain. Ceux-ci ont des formes et textures cohérentes et reconnaissables.
- Repas dressés avec des composants séparés. Blanc de poulet grillé accompagné de brocoli cuit à la vapeur et de riz dans une assiette. Chaque élément est visuellement distinct et spatialement séparé.
- Plats courants occidentaux et asiatiques. Sushi, pizza, hamburgers, plats de pâtes, salades. Ceux-ci sont fortement représentés dans les ensembles de données d'entraînement.
- Aliments emballés avec des formes standard. Une barre de céréales, un pot de yaourt, une boîte de thon. L'emballage fournit une référence de taille utile.
Aliments qui posent des défis
- Plats composés et gratins. Une lasagne, un ragoût ou un curry où les ingrédients sont mélangés rend difficile pour le modèle d'identifier les composants individuels et leurs proportions.
- Sauces, vinaigrettes et graisses cachées. L'huile utilisée pour la cuisson, le beurre fondu dans les légumes ou une vinaigrette crémeuse versée sur une salade peuvent ajouter de 100 à 300 calories qui sont visuellement indétectables.
- Cuisines régionales et peu courantes. Les aliments sous-représentés dans les données d'entraînement, comme certains plats africains, d'Asie centrale ou autochtones, peuvent avoir des taux de reconnaissance plus faibles.
- Boissons. Un verre de jus d'orange et un verre de smoothie à la mangue peuvent sembler presque identiques malgré des comptes caloriques différents. Les boissons sombres comme le café au lait par rapport au café noir posent également des défis.
- Aliments à densité variable. Deux bols de porridge peuvent sembler similaires mais différer significativement en contenu calorique selon le ratio de flocons d'avoine et d'eau.
Conseils pour de meilleurs résultats avec le suivi basé sur la photo
Les utilisateurs peuvent améliorer significativement la précision du suivi calorique basé sur la photo en suivant quelques directives pratiques.
- Photographiez d'en haut ou à un angle de 45 degrés. Les prises de vue de dessus offrent la vue la plus claire de tous les éléments dans l'assiette et la meilleure perspective pour l'estimation des portions.
- Assurez un bon éclairage uniforme. La lumière naturelle du jour produit les meilleurs résultats. Évitez les ombres dures, le contre-jour ou les environnements très sombres.
- Séparez les aliments quand c'est possible. Si vous dressez votre propre repas, garder les éléments visuellement distincts (plutôt que de tout empiler ensemble) améliore à la fois l'identification et la précision des portions.
- Enregistrez les sauces, vinaigrettes et huiles de cuisson séparément. Ce sont la source la plus courante de calories cachées. Ajoutez-les comme entrées manuelles après l'analyse photo pour vous assurer qu'ils sont pris en compte.
- Vérifiez et corrigez. Prenez toujours quelques secondes pour vérifier les résultats de l'IA avant de confirmer. Corriger un aliment mal identifié prend cinq secondes ; l'ignorer introduit une erreur cumulative au fil des jours et des semaines.
- Photographiez avant de manger. Prendre la photo avant de commencer à manger garantit que la portion complète est visible. Une assiette à moitié mangée est plus difficile à analyser avec précision pour le système.
- Utilisez une assiette ou un bol standard. Le système utilise le récipient comme référence de taille. Les récipients inhabituels (comme un très grand plat de service ou une minuscule assiette d'apéritif) peuvent fausser les estimations de portions.
Suivi basé sur la photo vs. saisie manuelle vs. scan de codes-barres
Chaque méthode de journal alimentaire a des forces et des faiblesses distinctes. Le tableau ci-dessous fournit une comparaison directe.
| Caractéristique | Basé sur la photo (Snap & Track) | Recherche manuelle dans la base de données | Scan de code-barres |
|---|---|---|---|
| Vitesse par entrée | 5-10 secondes | 60-120 secondes | 10-15 secondes |
| Précision pour les aliments emballés | Bonne | Bonne (si le bon article est sélectionné) | Excellente (correspondance exacte) |
| Précision pour les repas faits maison | Bonne | Modérée (dépend de l'estimation) | Non applicable |
| Précision pour les repas au restaurant | Bonne | Faible à modérée | Non applicable |
| Gestion des plats composés | Modérée | Bonne (si l'utilisateur connaît les ingrédients) | Non applicable |
| Capture des graisses/huiles cachées | Faible | Modérée (si l'utilisateur se souvient) | Non applicable |
| Courbe d'apprentissage | Très faible | Modérée | Faible |
| Effort de l'utilisateur | Minimal | Élevé | Faible (emballés uniquement) |
| Adhérence à long terme | Élevée | Faible à modérée | Modérée |
| Fonctionne sans emballage | Oui | Oui | Non |
Quand utiliser chaque méthode
L'approche la plus efficace est d'utiliser les trois méthodes selon la situation :
- Snap & Track pour la plupart des repas, en particulier les assiettes dressées et les repas au restaurant où vous pouvez voir la nourriture.
- Scan de code-barres pour les aliments emballés, les collations et les boissons avec un code-barres, car cela fournit les données nutritionnelles les plus précises.
- Saisie manuelle pour les ingrédients spécifiques comme l'huile de cuisson, le beurre ou les sauces qui ne sont pas visibles sur les photographies, et pour les aliments que l'IA ne reconnaît pas.
Nutrola prend en charge les trois méthodes au sein d'une interface unique, permettant aux utilisateurs de les combiner selon les besoins pour chaque repas.
Confidentialité : comment les données photo sont traitées
La confidentialité est une préoccupation légitime lorsqu'une application demande de photographier votre nourriture. Différentes applications gèrent les données photo de différentes manières, et les utilisateurs doivent comprendre les compromis.
Traitement dans le cloud vs. traitement sur l'appareil
La plupart des systèmes de suivi calorique basés sur la photo traitent les images dans le cloud. La photographie est téléchargée vers un serveur distant où le modèle d'IA l'analyse, et les résultats sont renvoyés à l'appareil. Cette approche permet l'utilisation de modèles plus grands et plus précis qui seraient trop coûteux en calcul pour fonctionner sur un smartphone.
Le traitement sur l'appareil conserve la photographie sur le téléphone de l'utilisateur, en exécutant un modèle d'IA plus petit localement. Cela offre des garanties de confidentialité plus fortes puisque l'image ne quitte jamais l'appareil, mais peut sacrifier une certaine précision car les modèles sur appareil sont généralement plus petits et moins performants que leurs homologues basés dans le cloud.
L'approche de Nutrola
Nutrola traite les images alimentaires à l'aide de modèles d'IA basés dans le cloud pour garantir la plus haute précision possible. Les images sont transmises via des connexions chiffrées (TLS 1.3), traitées pour l'analyse nutritionnelle et ne sont pas stockées de manière permanente sur les serveurs de Nutrola une fois l'analyse terminée. Les images ne sont pas utilisées à des fins publicitaires, vendues à des tiers ou partagées en dehors du processus d'analyse nutritionnelle.
Les utilisateurs peuvent consulter la politique de confidentialité complète de Nutrola pour obtenir des informations détaillées sur le traitement des données, les durées de conservation et leurs droits concernant les données personnelles.
Considérations clés en matière de confidentialité
| Préoccupation | Ce qu'il faut rechercher |
|---|---|
| Chiffrement des données | TLS/SSL pendant la transmission |
| Conservation des images | Si les photos sont supprimées après l'analyse |
| Partage avec des tiers | Si les images sont partagées avec des annonceurs ou des courtiers en données |
| Utilisation comme données d'entraînement | Si vos photos sont utilisées pour entraîner des modèles d'IA |
| Droits de suppression des données | Possibilité de demander la suppression de toutes les données stockées |
L'avenir du suivi calorique basé sur la photo
La technologie de reconnaissance alimentaire basée sur la photo s'améliore rapidement. Plusieurs développements devraient améliorer significativement la précision et les capacités à court terme.
Estimation multi-angles et basée sur la vidéo. Plutôt que de s'appuyer sur une seule photographie, les systèmes futurs pourraient utiliser de courts clips vidéo ou plusieurs angles pour construire une compréhension tridimensionnelle du repas, améliorant considérablement l'estimation de la taille des portions.
Capteurs de profondeur. Les smartphones équipés de capteurs de profondeur LiDAR ou à lumière structurée (déjà présents dans certains modèles haut de gamme) peuvent fournir des informations de profondeur précises, permettant au système de calculer le volume des aliments plutôt que de l'estimer à partir d'une image plate.
Modèles personnalisés. À mesure que les utilisateurs enregistrent et corrigent des repas au fil du temps, le système peut apprendre leurs préférences alimentaires spécifiques, leurs tailles de portions typiques et leurs styles de cuisine, créant un modèle personnalisé qui améliore la précision pour leur régime alimentaire spécifique.
Couverture élargie des cuisines. Les efforts continus pour diversifier les ensembles de données d'entraînement améliorent la précision de reconnaissance pour les cuisines sous-représentées, rendant la technologie plus équitable et utile pour une base d'utilisateurs mondiale.
Intégration avec les données des appareils portables. Combiner le journal alimentaire basé sur la photo avec les données des traqueurs de fitness, des moniteurs de glucose en continu et d'autres appareils portables permettra une analyse nutritionnelle plus holistique et précise.
Questions fréquemment posées
Quelle est la précision du suivi calorique basé sur la photo par rapport à la saisie manuelle ?
Le suivi calorique basé sur la photo estime généralement le contenu calorique dans une marge de 15 à 25 pour cent de la valeur réelle pour les repas standards. L'auto-déclaration manuelle sans aucun outil a été démontrée dans les études cliniques comme sous-estimant l'apport calorique de 20 à 50 pour cent en moyenne. Lorsque les utilisateurs vérifient et corrigent les estimations générées par l'IA, le suivi basé sur la photo produit généralement une précision égale ou supérieure à la saisie manuelle, avec beaucoup moins de temps et d'effort requis. La combinaison de l'estimation par IA et de la vérification humaine tend à surpasser l'une ou l'autre approche seule.
Snap & Track peut-il reconnaître les aliments de n'importe quelle cuisine ?
Snap & Track fonctionne le mieux avec les cuisines bien représentées dans ses données d'entraînement, ce qui inclut la plupart des plats occidentaux, est-asiatiques, sud-asiatiques et latino-américains. La précision de reconnaissance pour les cuisines régionales moins documentées peut être inférieure, bien que ce soit un domaine d'amélioration active. Si le système ne reconnaît pas un plat spécifique, les utilisateurs peuvent toujours recourir à la saisie manuelle ou rechercher directement dans la base de données. Nutrola étend continuellement ses données d'entraînement d'images alimentaires pour améliorer la couverture culinaire mondiale.
Snap & Track fonctionne-t-il avec les plats composés comme les soupes, ragoûts et gratins ?
Les plats composés sont l'une des catégories les plus difficiles pour la reconnaissance basée sur la photo car les ingrédients individuels sont mélangés et ne sont pas visuellement distincts. Snap & Track peut identifier de nombreux plats composés courants (comme le chili, le ramen ou le curry) comme des éléments entiers et fournir des données nutritionnelles estimées basées sur des recettes standard. Pour les plats composés faits maison avec des ingrédients non standards, les utilisateurs obtiendront une meilleure précision en enregistrant les ingrédients individuels manuellement ou en utilisant la fonction de constructeur de recettes pour créer une entrée personnalisée.
Mes photos de nourriture sont-elles stockées ou partagées avec des tiers ?
Nutrola transmet les images alimentaires via des connexions chiffrées pour l'analyse IA dans le cloud. Les photos ne sont pas stockées de manière permanente sur les serveurs de Nutrola une fois l'analyse terminée, et elles ne sont pas partagées avec des tiers, utilisées à des fins publicitaires ou vendues à des courtiers en données. Les utilisateurs conservent un contrôle total sur leurs données et peuvent demander la suppression de toute information stockée à tout moment via les paramètres de confidentialité de l'application.
Ai-je besoin d'un appareil photo spécial ou d'un équipement pour utiliser le suivi calorique basé sur la photo ?
Aucun équipement spécial n'est requis. Tout appareil photo de smartphone moderne (à partir d'environ 2018) fournit une qualité d'image suffisante pour une reconnaissance alimentaire précise. Les appareils photo de plus haute résolution et un meilleur éclairage amélioreront les résultats, mais le système est conçu pour bien fonctionner avec le matériel standard des smartphones. Aucun objet de référence, étape de calibration ou accessoire externe n'est nécessaire.
Devrais-je utiliser Snap & Track pour chaque repas, ou y a-t-il des moments où d'autres méthodes sont préférables ?
L'approche la plus précise est d'utiliser la bonne méthode pour chaque situation. Snap & Track est idéal pour les repas dressés, les repas au restaurant et toute situation où les aliments sont visibles. Le scan de code-barres est plus précis pour les aliments emballés avec un code-barres, car il récupère les données exactes du fabricant. La saisie manuelle est préférable pour les ingrédients qui ne sont pas visibles sur les photographies, comme les huiles de cuisson, le beurre ou les compléments alimentaires. Utiliser les trois méthodes selon les besoins, plutôt que de s'appuyer exclusivement sur une seule, produit le journal nutritionnel quotidien le plus précis.
Prêt à transformer votre suivi nutritionnel ?
Rejoignez des milliers de personnes qui ont transformé leur parcours santé avec Nutrola !