Czym jest Snap & Track? Kompletny przewodnik po śledzeniu kalorii na podstawie zdjęć

Dowiedz się, jak działa śledzenie kalorii na podstawie zdjęć, od technologii AI i wizji komputerowej po wskaźniki dokładności, typy żywności, które najlepiej rozpoznaje, oraz porównanie z ręcznym logowaniem i skanowaniem kodów kreskowych.

Medically reviewed by Dr. Emily Torres, Registered Dietitian Nutritionist (RDN)

Ręczne przeszukiwanie bazy danych w poszukiwaniu każdego składnika lunchu, szacowanie wielkości porcji i wprowadzanie każdego elementu po kolei to standardowa metoda śledzenia kalorii od ponad dekady. Działa, ale jest wolna, żmudna i jednym z głównych powodów, dla których ludzie rezygnują z logowania żywności w ciągu pierwszych dwóch tygodni.

Śledzenie kalorii na podstawie zdjęć oferuje zupełnie inne podejście. Zamiast wpisywać i przeszukiwać, wystarczy zrobić jedno zdjęcie posiłku, a sztuczna inteligencja zajmie się resztą: zidentyfikuje jedzenie na talerzu, oszacuje wielkości porcji i w kilka sekund zwróci pełne zestawienie wartości odżywczych.

Wdrożenie tej technologii przez Nutrola nosi nazwę Snap & Track. Ten przewodnik wyjaśnia, czym dokładnie jest śledzenie kalorii na podstawie zdjęć, jak działa technologia stojąca za tym rozwiązaniem, co robi dobrze, gdzie wciąż napotyka wyzwania oraz jak wypada w porównaniu do innych metod logowania.

Czym jest śledzenie kalorii na podstawie zdjęć?

Śledzenie kalorii na podstawie zdjęć to metoda logowania żywności, która wykorzystuje aparat w smartfonie oraz sztuczną inteligencję do oszacowania zawartości odżywczej posiłku na podstawie jednego zdjęcia. Zamiast wymagać od użytkownika ręcznego przeszukiwania bazy danych żywności, system analizuje obraz, aby zidentyfikować poszczególne produkty, oszacować ich ilości i pobrać odpowiadające dane odżywcze.

Podstawową obietnicą jest szybkość i prostota. Proces, który zazwyczaj zajmuje od 60 do 120 sekund przy ręcznym wprowadzaniu, można skrócić do mniej niż 10 sekund w systemie opartym na zdjęciach. Dla użytkowników, którzy jedzą od trzech do pięciu posiłków dziennie, oszczędność czasu przekłada się na znacząco różne doświadczenie, które sprawia, że długoterminowe śledzenie staje się możliwe.

Krótkie wprowadzenie

Pomysł robienia zdjęć jedzenia w celu analizy wartości odżywczej sięga badań akademickich z początku lat 2010, kiedy modele wizji komputerowej po raz pierwszy wykazały zdolność do klasyfikacji obrazów żywności z rozsądna dokładnością. Wczesne systemy wymagały kontrolowanego oświetlenia, określonych kątów i obiektów odniesienia (takich jak moneta umieszczona obok talerza dla skali). Dokładność była ograniczona, a technologia pozostawała w laboratoriach badawczych.

Przełom nastąpił wraz z rozwojem głębokiego uczenia, szczególnie sieci konwolucyjnych (CNN), w latach 2017-2022. W miarę jak te modele były trenowane na coraz większych zbiorach danych obrazów żywności, dokładność klasyfikacji poprawiła się z około 50% do ponad 90% dla powszechnie występujących produktów. Do 2024 roku aplikacje konsumenckie zaczęły oferować śledzenie na podstawie zdjęć jako kluczową funkcję, a nie eksperymentalny dodatek.

Jak działa Snap & Track: krok po kroku

Zrozumienie pełnego procesu od zdjęcia do danych odżywczych pomaga ustawić realistyczne oczekiwania co do tego, co technologia może, a czego nie może zrobić.

Krok 1: Zrobienie zdjęcia

Użytkownik otwiera aplikację Nutrola i robi zdjęcie swojego posiłku za pomocą wbudowanego interfejsu aparatu. System działa najlepiej przy ujęciach z góry lub pod kątem 45 stopni, które wyraźnie pokazują wszystkie elementy na talerzu. Dobre oświetlenie i minimalne przeszkody (takie jak ręce, sztućce zasłaniające jedzenie czy ekstremalne cienie) poprawiają wyniki.

Obraz jest rejestrowany w standardowej rozdzielczości smartfona. Nie są wymagane żadne specjalne urządzenia, obiekty odniesienia ani kroki kalibracyjne.

Krok 2: Wykrywanie i identyfikacja żywności

Po zrobieniu zdjęcia, szereg modeli AI analizuje je w kolejności.

Wykrywanie obiektów najpierw identyfikuje wyraźne obszary żywności w obrazie. Jeśli talerz zawiera grillowanego kurczaka, ryż i sałatkę, model rysuje prostokąty wokół każdego oddzielnego składnika. To jest problem klasyfikacji wieloetykietowej, co oznacza, że system musi rozpoznać, że pojedynczy obraz zawiera wiele różnych produktów, a nie traktować całego talerza jako jednego elementu.

Klasyfikacja żywności następnie przypisuje etykietę do każdego wykrytego obszaru. Model korzysta z taksonomii tysięcy produktów spożywczych, dopasowując cechy wizualne, takie jak kolor, tekstura, kształt i kontekst do znanych kategorii żywności. System uwzględnia również wzorce współwystępowania. Na przykład, jeśli wykryje to, co wydaje się być tortillą obok fasoli, ryżu i salsy, może wywnioskować, że to miska burrito, zamiast klasyfikować każdy składnik w izolacji.

Krok 3: Szacowanie wielkości porcji

Zidentyfikowanie, jakie jedzenie jest obecne, to tylko połowa problemu. System musi również oszacować, ile każdego składnika znajduje się na talerzu. Osiąga się to poprzez połączenie technik:

  • Skalowanie względne. Model używa talerza, miski lub pojemnika jako obiektu odniesienia o założonej standardowej wielkości, aby oszacować objętość składników w odniesieniu do niego.
  • Szacowanie głębokości. Zaawansowane modele wnioskowały o strukturze trójwymiarowej na podstawie obrazu dwuwymiarowego, oszacowując wysokość lub grubość składników, takich jak stek czy kopiec ryżu.
  • Nauczone priory. Model był trenowany na setkach tysięcy obrazów z znanymi wagami porcji, co pozwala mu stosować priory statystyczne. Na przykład, pojedyncza pierś z kurczaka w kontekście domowego posiłku zazwyczaj mieści się w zakresie od 120 do 200 gramów.

Krok 4: Pobieranie danych odżywczych

Po zidentyfikowaniu składników i oszacowaniu porcji, system mapuje każdy element do odpowiadającego wpisu w zweryfikowanej bazie danych odżywczych. Nutrola korzysta z kuratowanej bazy danych, a nie crowdsourcingowej, co zmniejsza ryzyko błędnych lub powielonych wpisów.

System zwraca pełne zestawienie wartości odżywczych dla każdego wykrytego składnika oraz całego posiłku:

Składnik Na sztukę Na posiłek
Kalorie (kcal) Podane Suma
Białko (g) Podane Suma
Węglowodany (g) Podane Suma
Tłuszcz (g) Podane Suma
Błonnik (g) Podane Suma
Kluczowe mikroelementy Podane Suma

Krok 5: Przegląd i potwierdzenie przez użytkownika

Użytkownik otrzymuje wyniki i może przeglądać, dostosowywać lub poprawiać dowolny element przed potwierdzeniem wpisu. Ten krok z udziałem człowieka jest kluczowy. Jeśli system błędnie zidentyfikuje brązowy ryż jako biały ryż lub oszacuje 150 gramów kurczaka, gdy rzeczywista porcja jest bliższa 200 gramom, użytkownik może szybko wprowadzić poprawkę. Z czasem te poprawki pomagają również poprawić dokładność systemu poprzez pętle feedbackowe.

Technologia stojąca za rozpoznawaniem żywności na podstawie zdjęć

Kilka warstw sztucznej inteligencji i uczenia maszynowego współpracuje, aby umożliwić śledzenie kalorii na podstawie zdjęć.

Sieci konwolucyjne (CNN)

Podstawą większości systemów rozpoznawania żywności jest sieć konwolucyjna, klasa modeli głębokiego uczenia, specjalnie zaprojektowana do analizy obrazów. CNN przetwarzają obrazy przez wiele warstw filtrów, które wykrywają coraz bardziej abstrakcyjne cechy: krawędzie i tekstury w wczesnych warstwach, kształty i wzory w środkowych warstwach oraz cechy specyficzne dla żywności w głębszych warstwach.

Nowoczesne systemy rozpoznawania żywności zazwyczaj wykorzystują architektury takie jak ResNet, EfficientNet lub Vision Transformers (ViT), które zostały wstępnie przeszkolone na milionach ogólnych obrazów, a następnie dostosowane do zbiorów danych specyficznych dla żywności.

Klasyfikacja wieloetykietowa

W przeciwieństwie do standardowej klasyfikacji obrazów (gdzie obraz otrzymuje jedną etykietę), rozpoznawanie żywności wymaga klasyfikacji wieloetykietowej. Pojedyncze zdjęcie może zawierać pięć, dziesięć lub więcej różnych składników. Model musi wykryć i sklasyfikować każdy z nich niezależnie, jednocześnie rozumiejąc relacje przestrzenne między nimi.

Transfer learning i adaptacja domeny

Szkolenie modelu rozpoznawania żywności od podstaw wymagałoby niepraktycznie dużego oznaczonego zbioru danych. Zamiast tego nowoczesne systemy korzystają z transfer learningu: zaczynając od modelu wstępnie przeszkolonego na dużym ogólnym zbiorze danych obrazów (takim jak ImageNet) i następnie dostosowując go do obrazów specyficznych dla żywności. To podejście pozwala modelowi wykorzystać ogólne zrozumienie wizualne (krawędzie, tekstury, kształty), jednocześnie specjalizując się w cechach związanych z żywnością.

Dane treningowe

Jakość i różnorodność danych treningowych są prawdopodobnie ważniejsze niż architektura modelu. Skuteczne modele rozpoznawania żywności są trenowane na zbiorach danych zawierających:

  • Setki tysięcy do milionów oznaczonych obrazów żywności
  • Różnorodne kuchnie, style gotowania i formaty prezentacji
  • Zróżnicowane warunki oświetleniowe, kąty i tła
  • Obrazy zarówno z restauracji, jak i domowych posiłków
  • Adnotacje wag porcji do oszacowania objętości

Dokładność: Co pokazują badania

Dokładność w śledzeniu kalorii na podstawie zdjęć można mierzyć w dwóch wymiarach: dokładność identyfikacji żywności (czy system poprawnie zidentyfikował, co to za jedzenie?) oraz dokładność oszacowania kalorii (czy oszacował właściwą ilość?).

Dokładność identyfikacji żywności

Nowoczesne modele rozpoznawania żywności osiągają dokładność top-1 (poprawne jedzenie to pierwsze zgadywanie modelu) na poziomie 85 do 95 procent w benchmarkowych zbiorach danych dla powszechnych produktów w dobrze oświetlonych, wyraźnie przedstawionych fotografiach. Dokładność top-5 (poprawne jedzenie znajduje się wśród pięciu najlepszych zgadywań modelu) zazwyczaj przekracza 95 procent.

Jednak dokładność benchmarkowa nie zawsze przekłada się bezpośrednio na wydajność w rzeczywistości. Czynniki, które obniżają dokładność w praktyce, obejmują:

Czynnik Wpływ na dokładność
Słabe oświetlenie lub cienie Umiarkowane obniżenie
Nietypowe kąty (ekstremalne zbliżenie, widok z boku) Umiarkowane obniżenie
Mieszane lub warstwowe dania (zapiekanki, gulasze) Znaczące obniżenie
Rzadkie lub regionalne jedzenie Znaczące obniżenie
Jedzenie pokryte sosami lub dodatkami Umiarkowane do znaczącego obniżenie
Nakładające się elementy Umiarkowane obniżenie

Dokładność oszacowania kalorii

Nawet gdy identyfikacja żywności jest poprawna, oszacowanie kalorii wprowadza dodatkowy błąd poprzez oszacowanie wielkości porcji. Badania opublikowane w latach 2023-2025 wykazały, że oszacowanie kalorii na podstawie zdjęć zazwyczaj mieści się w zakresie od 15 do 25 procent rzeczywistej zawartości kalorii dla standardowych posiłków. To porównywalne lub lepsze niż dokładność ręcznego samodzielnego raportowania, które badania wykazały, że systematycznie niedoszacowuje spożycie kalorii o 20 do 50 procent.

Systematyczny przegląd z 2024 roku w Journal of the Academy of Nutrition and Dietetics wykazał, że śledzenie wspomagane przez AI zmniejszyło średni błąd oszacowania o 12 punktów procentowych w porównaniu do ręcznego oszacowania bez użycia narzędzi.

Jakie jedzenie rozpoznaje dobrze, a jakie sprawia trudności

Nie wszystkie potrawy są równie łatwe do analizy przez systemy AI. Zrozumienie tych różnic pomaga użytkownikom maksymalnie wykorzystać śledzenie na podstawie zdjęć.

Potrawy o wysokiej dokładności rozpoznawania

  • Całe, wizualnie wyraźne elementy. Banan, jabłko, gotowane jajko, kromka chleba. Te mają spójne, rozpoznawalne kształty i tekstury.
  • Dania na talerzu z oddzielnymi składnikami. Grillowana pierś z kurczaka obok gotowanej brokuły i ryżu na talerzu. Każdy element jest wizualnie wyraźny i przestrzennie oddzielony.
  • Powszechne dania zachodnie i azjatyckie. Sushi, pizza, burgery, dania makaronowe, sałatki. Te są mocno reprezentowane w zbiorach danych treningowych.
  • Produkty pakowane o standardowych kształtach. Batonik musli, kubek jogurtu, puszka tuńczyka. Opakowanie dostarcza użytecznego odniesienia do wielkości.

Potrawy, które sprawiają trudności

  • Mieszane dania i zapiekanki. Lasagna, gulasz czy curry, gdzie składniki są zmieszane, utrudniają modelowi identyfikację poszczególnych komponentów i ich proporcji.
  • Sosy, dressingi i ukryte tłuszcze. Olej użyty do gotowania, masło roztopione w warzywach czy kremowy dressing polany na sałatkę mogą dodać 100 do 300 kalorii, które są wizualnie niewidoczne.
  • Regionalne i rzadkie kuchnie. Potrawy, które są niedoreprezentowane w zbiorach danych treningowych, takie jak niektóre dania afrykańskie, środkowoazjatyckie czy rdzenne, mogą mieć niższe wskaźniki rozpoznawania.
  • Napoje. Szklanka soku pomarańczowego i szklanka smoothie z mango mogą wyglądać niemal identycznie, mimo że mają różne wartości kaloryczne. Ciemne napoje, takie jak kawa z mlekiem w porównaniu do czarnej kawy, również stanowią wyzwanie.
  • Produkty o zmiennej gęstości. Dwie miski owsianki mogą wyglądać podobnie, ale różnić się znacznie pod względem zawartości kalorii w zależności od proporcji płatków do wody.

Wskazówki dla lepszych wyników śledzenia na podstawie zdjęć

Użytkownicy mogą znacznie poprawić dokładność śledzenia kalorii na podstawie zdjęć, stosując kilka praktycznych wskazówek.

  1. Fotografuj z góry lub pod kątem 45 stopni. Ujęcia z góry zapewniają najczystszy widok wszystkich elementów na talerzu i najlepszą perspektywę do oszacowania porcji.
  2. Zadbaj o dobre, równomierne oświetlenie. Naturalne światło dzienne daje najlepsze wyniki. Unikaj ostrych cieni, podświetlenia lub bardzo ciemnych warunków.
  3. Oddzielaj składniki, gdy to możliwe. Jeśli sam przygotowujesz posiłek, utrzymanie elementów wizualnie oddzielonych (zamiast układać wszystko razem) poprawia zarówno identyfikację, jak i dokładność porcji.
  4. Loguj sosy, dressingi i oleje do gotowania osobno. To najczęstsze źródło ukrytych kalorii. Dodaj je jako ręczne wpisy po analizie zdjęcia, aby upewnić się, że są uwzględnione.
  5. Przeglądaj i poprawiaj. Zawsze poświęć kilka sekund na przegląd wyników AI przed potwierdzeniem. Poprawienie błędnie zidentyfikowanego elementu zajmuje pięć sekund; zignorowanie tego wprowadza kumulujący się błąd w ciągu dni i tygodni.
  6. Fotografuj przed jedzeniem. Zrobienie zdjęcia przed rozpoczęciem jedzenia zapewnia, że pełna porcja jest widoczna. Połowicznie zjedzony talerz jest trudniejszy do dokładnej analizy przez system.
  7. Używaj standardowego talerza lub miski. System wykorzystuje pojemnik jako odniesienie do wielkości. Nietypowe pojemniki (takie jak bardzo duża taca serwisowa czy mały talerz na przystawki) mogą zniekształcać oszacowania porcji.

Śledzenie na podstawie zdjęć vs. ręczne logowanie vs. skanowanie kodów kreskowych

Każda metoda logowania żywności ma swoje mocne i słabe strony. Poniższa tabela przedstawia bezpośrednie porównanie.

Cechy Oparte na zdjęciach (Snap & Track) Ręczne przeszukiwanie bazy danych Skanowanie kodów kreskowych
Szybkość na wpis 5-10 sekund 60-120 sekund 10-15 sekund
Dokładność dla produktów pakowanych Dobra Dobra (jeśli wybrany poprawny element) Doskonała (dokładne dopasowanie)
Dokładność dla domowych posiłków Dobra Umiarkowana (zależna od oszacowania) Nie dotyczy
Dokładność dla posiłków w restauracjach Dobra Słaba do umiarkowanej Nie dotyczy
Radzenie sobie z mieszanymi daniami Umiarkowane Dobre (jeśli użytkownik zna składniki) Nie dotyczy
Ujawnianie ukrytych tłuszczów/olejów Słabe Umiarkowane (jeśli użytkownik pamięta) Nie dotyczy
Krzywa uczenia się Bardzo niska Umiarkowana Niska
Wysiłek użytkownika Minimalny Wysoki Niski (tylko pakowane)
Długoterminowe przestrzeganie Wysokie Niskie do umiarkowanego Umiarkowane
Działa bez opakowania Tak Tak Nie

Kiedy korzystać z każdej metody

Najskuteczniejsze podejście to korzystanie ze wszystkich trzech metod w zależności od sytuacji:

  • Snap & Track do większości posiłków, zwłaszcza domowych talerzy i jedzenia w restauracjach, gdzie widać jedzenie.
  • Skanowanie kodów kreskowych dla produktów pakowanych, przekąsek i napojów z kodem kreskowym, ponieważ zapewnia to najbardziej precyzyjne dane odżywcze.
  • Ręczne wprowadzanie dla konkretnych składników, takich jak olej do gotowania, masło czy sosy, które nie są widoczne na zdjęciach, oraz dla potraw, które AI nie rozpoznaje.

Nutrola obsługuje wszystkie trzy metody w jednym interfejsie, umożliwiając użytkownikom ich łączenie w zależności od potrzeb dla każdego posiłku.

Prywatność: Jak obsługiwane są dane ze zdjęć

Prywatność jest uzasadnionym zmartwieniem, gdy aplikacja prosi o fotografowanie jedzenia. Różne aplikacje obsługują dane ze zdjęć na różne sposoby, a użytkownicy powinni rozumieć kompromisy.

Przetwarzanie w chmurze vs. przetwarzanie na urządzeniu

Większość systemów śledzenia kalorii na podstawie zdjęć przetwarza obrazy w chmurze. Zdjęcie jest przesyłane na zdalny serwer, gdzie model AI je analizuje, a wyniki są przesyłane z powrotem na urządzenie. To podejście pozwala na wykorzystanie większych, dokładniejszych modeli, które byłyby zbyt kosztowne obliczeniowo do uruchomienia na smartfonie.

Przetwarzanie na urządzeniu przechowuje zdjęcie na telefonie użytkownika, uruchamiając mniejszy model AI lokalnie. To oferuje silniejsze gwarancje prywatności, ponieważ obraz nigdy nie opuszcza urządzenia, ale może poświęcać pewną dokładność, ponieważ modele na urządzeniach są zazwyczaj mniejsze i mniej zdolne niż ich odpowiedniki w chmurze.

Podejście Nutrola

Nutrola przetwarza obrazy żywności z wykorzystaniem modeli AI w chmurze, aby zapewnić najwyższą możliwą dokładność. Obrazy są przesyłane przez szyfrowane połączenia (TLS 1.3), przetwarzane do analizy odżywczej i nie są trwale przechowywane na serwerach Nutrola po zakończeniu analizy. Obrazy nie są wykorzystywane do reklamy, sprzedawane osobom trzecim ani udostępniane poza procesem analizy odżywczej.

Użytkownicy mogą zapoznać się z pełną polityką prywatności Nutrola, aby uzyskać szczegółowe informacje na temat obsługi danych, okresów przechowywania i swoich praw dotyczących danych osobowych.

Kluczowe kwestie dotyczące prywatności

Zmartwienie Na co zwrócić uwagę
Szyfrowanie danych TLS/SSL podczas przesyłania
Przechowywanie obrazów Czy zdjęcia są usuwane po analizie
Udostępnianie osobom trzecim Czy obrazy są udostępniane reklamodawcom lub brokerom danych
Wykorzystanie danych do szkolenia Czy twoje zdjęcia są wykorzystywane do trenowania modeli AI
Prawo do usunięcia danych Możliwość zażądania usunięcia wszystkich przechowywanych danych

Przyszłość śledzenia kalorii na podstawie zdjęć

Technologia rozpoznawania żywności na podstawie zdjęć szybko się rozwija. Oczekuje się, że kilka rozwoju znacznie poprawi dokładność i możliwości w krótkim okresie.

Oszacowanie z wielu kątów i wideo. Zamiast polegać na jednym zdjęciu, przyszłe systemy mogą wykorzystywać krótkie klipy wideo lub wiele kątów, aby zbudować trójwymiarowe zrozumienie posiłku, co dramatycznie poprawi oszacowanie wielkości porcji.

Czujniki głębokości. Smartfony wyposażone w czujniki głębokości LiDAR lub strukturalne (już obecne w niektórych flagowych modelach) mogą dostarczyć precyzyjnych informacji o głębokości, co pozwoli systemowi obliczyć objętość jedzenia, zamiast oszacowywać ją na podstawie płaskiego obrazu.

Spersonalizowane modele. W miarę jak użytkownicy logują i poprawiają posiłki w czasie, system może uczyć się ich specyficznych preferencji żywnościowych, typowych wielkości porcji i stylów gotowania, tworząc spersonalizowany model, który poprawia dokładność dla ich diety.

Rozszerzona oferta kuchni. Trwające wysiłki mające na celu zróżnicowanie zbiorów danych treningowych poprawiają dokładność rozpoznawania dla niedoreprezentowanych kuchni, czyniąc technologię bardziej sprawiedliwą i użyteczną dla globalnej bazy użytkowników.

Integracja z danymi z urządzeń noszonych. Połączenie śledzenia żywności na podstawie zdjęć z danymi z trackerów fitness, monitorów glukozy i innych urządzeń noszonych umożliwi bardziej holistyczną i dokładną analizę odżywczą.

Najczęściej zadawane pytania

Jak dokładne jest śledzenie kalorii na podstawie zdjęć w porównaniu do ręcznego logowania?

Śledzenie kalorii na podstawie zdjęć zazwyczaj oszacowuje zawartość kalorii w zakresie od 15 do 25 procent rzeczywistej wartości dla standardowych posiłków. Ręczne samodzielne raportowanie bez użycia narzędzi wykazało w badaniach klinicznych, że średnio niedoszacowuje spożycie kalorii o 20 do 50 procent. Gdy użytkownicy przeglądają i poprawiają oszacowania generowane przez AI, śledzenie na podstawie zdjęć zazwyczaj osiąga równą lub lepszą dokładność niż ręczne logowanie, przy znacznie mniejszym czasie i wysiłku. Połączenie oszacowania AI z przeglądem człowieka zazwyczaj przewyższa każdą z metod osobno.

Czy Snap & Track rozpoznaje potrawy z każdej kuchni?

Snap & Track działa najlepiej z kuchniami, które są dobrze reprezentowane w zbiorze danych treningowych, co obejmuje większość potraw zachodnich, wschodnioazjatyckich, południowoazjatyckich i latynoamerykańskich. Dokładność rozpoznawania dla mniej udokumentowanych regionalnych kuchni może być niższa, chociaż to jest obszar aktywnej poprawy. Jeśli system nie rozpozna konkretnej potrawy, użytkownicy zawsze mogą skorzystać z ręcznego wprowadzania lub bezpośrednio przeszukać bazę danych. Nutrola nieustannie rozszerza swoje dane treningowe dotyczące obrazów żywności, aby poprawić pokrycie globalnych kuchni.

Czy Snap & Track działa z mieszanymi daniami, takimi jak zupy, gulasze i zapiekanki?

Mieszane dania to jedna z bardziej wymagających kategorii dla rozpoznawania na podstawie zdjęć, ponieważ poszczególne składniki są zmieszane i nie są wizualnie wyraźne. Snap & Track może zidentyfikować wiele powszechnych mieszanych potraw (takich jak chili, ramen czy curry) jako całość i dostarczyć oszacowane dane odżywcze na podstawie standardowych przepisów. Dla domowych mieszanych dań z nietypowymi składnikami użytkownicy uzyskają lepszą dokładność, logując poszczególne składniki ręcznie lub korzystając z funkcji budowania przepisów, aby stworzyć niestandardowy wpis.

Czy moje zdjęcia jedzenia są przechowywane lub udostępniane osobom trzecim?

Nutrola przesyła obrazy żywności przez szyfrowane połączenia do analizy AI w chmurze. Zdjęcia nie są trwale przechowywane na serwerach Nutrola po zakończeniu analizy, a także nie są udostępniane osobom trzecim, wykorzystywane do reklamy ani sprzedawane brokerom danych. Użytkownicy mają pełną kontrolę nad swoimi danymi i mogą w dowolnym momencie zażądać usunięcia wszelkich przechowywanych informacji za pośrednictwem ustawień prywatności aplikacji.

Czy potrzebuję specjalnego aparatu lub sprzętu, aby korzystać z śledzenia kalorii na podstawie zdjęć?

Nie są wymagane żadne specjalne urządzenia. Każdy nowoczesny aparat w smartfonie (od około 2018 roku) zapewnia wystarczającą jakość obrazu do dokładnego rozpoznawania żywności. Wyższa rozdzielczość aparatów i lepsze oświetlenie poprawiają wyniki, ale system jest zaprojektowany tak, aby dobrze działał z standardowym sprzętem smartfonowym. Nie są potrzebne żadne obiekty odniesienia, kroki kalibracyjne ani zewnętrzne akcesoria.

Czy powinienem używać Snap & Track do każdego posiłku, czy są sytuacje, kiedy inne metody są lepsze?

Najdokładniejsze podejście to użycie odpowiedniej metody w każdej sytuacji. Snap & Track jest idealny do posiłków na talerzu, jedzenia w restauracjach i każdej sytuacji, w której jedzenie jest widoczne. Skanowanie kodów kreskowych jest dokładniejsze dla produktów pakowanych z kodem kreskowym, ponieważ pobiera dokładne dane od producenta. Ręczne wprowadzanie jest najlepsze dla składników, które nie są widoczne na zdjęciach, takich jak oleje do gotowania, masło czy suplementy. Używanie wszystkich trzech metod w odpowiednich sytuacjach, zamiast polegania wyłącznie na jednej z nich, daje najbardziej dokładny dziennik żywnościowy.

Gotowy, aby przeksztalcic sledzenie zywienia?

Dolacz do tysiecy osob, ktore przeksztalcily swoja podroz zdrowotna z Nutrola!