Jak Nutrola wykorzystuje AI do rozpoznawania jedzenia na podstawie zdjęcia: Kulisy działania
Robisz zdjęcie swojego obiadu, a Nutrola informuje, że ma on około 640 kalorii i 38 gramów białka. Jak to możliwe? Oto, co dzieje się w sekundach między Twoim zdjęciem a danymi o odżywianiu.
Otwierasz Nutrola, kierujesz aparat na talerz z grillowanym łososiem, pieczonymi warzywami i komosą ryżową, a następnie naciskasz przycisk migawki. Mniej niż trzy sekundy później aplikacja informuje, że Twój posiłek ma około 640 kalorii, 38 gramów białka, 42 gramy węglowodanów i 28 gramów tłuszczu. Nawet rozdziela składniki: łososia, warzywa i komosę ryżową jako osobne elementy.
To wydaje się jak magia. Jednak za tym płynnie działającym doświadczeniem kryje się starannie zorganizowany proces sztucznej inteligencji, z każdym etapem zajmującym się konkretnym elementem układanki. W tym artykule prześledzimy każdy krok tego procesu, od momentu, gdy światło trafia na sensor aparatu w Twoim telefonie, aż do chwili, gdy liczby kalorii pojawiają się na ekranie. Nie potrzebujesz stopnia z uczenia maszynowego.
Ogólny zarys: Sześciostopniowy proces
Zanim zagłębimy się w każdy etap, oto pełna podróż w skrócie:
- Przetwarzanie obrazu — Twoje zdjęcie jest oczyszczane i standaryzowane, aby AI mogła z nim pracować.
- Wykrywanie i segmentacja jedzenia — AI lokalizuje, gdzie znajduje się każdy składnik na talerzu.
- Klasyfikacja jedzenia — Każdy wykryty obszar jest identyfikowany jako konkretny rodzaj jedzenia.
- Szacowanie wielkości porcji — AI ocenia, ile każdego składnika jest na talerzu.
- Dopasowanie do bazy danych odżywczych — Zidentyfikowane składniki i ich porcje są porównywane z weryfikowanymi danymi odżywczymi.
- Ocena pewności i potwierdzenie przez użytkownika — AI informuje, jak pewna jest w swoich osądach i pozwala na wprowadzenie poprawek.
Każdy krok wpływa na następny. Można to porównać do linii montażowej w fabryce: surowce wchodzą z jednej strony, a gotowy produkt wychodzi z drugiej. Jeśli jakikolwiek etap nie wykona swojej pracy dobrze, finalny produkt ucierpi. Dlatego każdy etap został starannie zaprojektowany, przetestowany i udoskonalony.
Przejdźmy przez nie jeden po drugim.
Krok 1: Przetwarzanie obrazu
Pierwsza rzecz, która dzieje się po naciśnięciu migawki, nie ma nic wspólnego z rozpoznawaniem jedzenia. Chodzi o przygotowanie samego obrazu.
Dlaczego surowe zdjęcia nie są gotowe do AI
Aparat w Twoim telefonie rejestruje obrazy w wysokiej rozdzielczości, często 12 megapikseli lub więcej. To znacznie więcej danych, niż model AI potrzebuje, a przetwarzanie ich wszystkich byłoby wolne i nieefektywne. Obraz mógł być również zrobiony w słabym oświetleniu, pod dziwnym kątem lub z rozpraszającym tłem.
Można to porównać do przygotowywania składników przed gotowaniem. Szef kuchni nie wrzuca całej nieumytej marchwi do garnka. Najpierw ją myje, obiera i kroi na odpowiednie kawałki. Przetwarzanie obrazu to odpowiednik mise en place w przypadku AI.
Co się dzieje podczas przetwarzania obrazu
Zmiana rozmiaru i normalizacja: Obraz jest skalowany do standardowego rozmiaru, zazwyczaj kilku setek pikseli z każdej strony. Wartości pikseli są normalizowane, aby jasność i kontrast mieściły się w spójnym zakresie. Dzięki temu model działa tak samo, niezależnie od tego, czy zdjęcie zostało zrobione w jasnym słońcu, czy w przyciemnionej restauracji.
Korekcja kolorów: Subtelne poprawki korygują odcienie kolorów spowodowane różnymi źródłami światła. Ciepły pomarańczowy blask kolacji przy świecach lub niebieski odcień fluorescencyjnego oświetlenia biurowego mogą wprowadzać AI w błąd co do tego, co widzi. Korekcja kolorów redukuje te zniekształcenia.
Orientacja i przycinanie: System wykrywa, czy telefon był trzymany pionowo, czy poziomo, i odpowiednio obraca obraz. Jeśli AI zauważy, że jedzenie zajmuje tylko małą część kadru, może przyciąć do odpowiedniego obszaru, aby zredukować szumy z tła.
Redukcja szumów: Zdjęcia wykonane w słabym świetle często zawierają szumy wizualne, te drobne plamki, które sprawiają, że obraz wygląda na ziarnisty. Lekka redukcja szumów wygładza te artefakty, nie rozmywając ważnych szczegółów jedzenia.
To wszystko dzieje się w ułamku sekundy. Gdy obraz trafia do następnego etapu, jest to czysty, ustandaryzowany input, który model AI może interpretować w sposób wiarygodny.
Krok 2: Wykrywanie i segmentacja jedzenia
Teraz AI staje przed swoim pierwszym prawdziwym wyzwaniem: ustaleniem, gdzie znajduje się jedzenie na obrazie i narysowaniem granic wokół każdego wyraźnego składnika.
Wykrywanie: Znajdowanie jedzenia w kadrze
Model wykrywania przeszukuje cały obraz i identyfikuje obszary, które zawierają jedzenie. To bardziej złożone, niż się wydaje. Model musi odróżnić Twój talerz makaronu od obrusu pod nim, szklanki wody obok i serwetki w rogu. Musi również poradzić sobie z talerzami, które są częściowo zasłonięte, nakładają się na siebie lub są obcięte na krawędzi kadru.
Nowoczesne systemy wykrywania wykorzystują technikę zwaną wykrywaniem obiektów, gdzie model jednocześnie przewiduje lokalizację i przybliżoną kategorię każdego rozpoznawanego obiektu. Wyobraź sobie bardzo doświadczonego kelnera, który może spojrzeć na stół i natychmiast zidentyfikować każde danie, nawet w zatłoczonej restauracji. AI jest szkolona, aby rozwijać podobny instynkt, ale nauczyła się go, studiując miliony zdjęć jedzenia.
Segmentacja: Rysowanie precyzyjnych granic
Wykrywanie informuje AI, że w danym obszarze obrazu znajduje się jedzenie. Segmentacja idzie dalej, rysując dokładny kształt każdego składnika, piksel po pikselu.
Ta różnica ma znaczenie. Weźmy talerz z grillowanym kurczakiem na ryżu, z dodatkiem gotowanej brokuły. Prosty prostokąt wokół kurczaka również uchwyciłby część ryżu pod nim. Segmentacja rysuje precyzyjny kontur tylko wokół kurczaka, tylko wokół ryżu i tylko wokół brokuły, nawet tam, gdzie się nakładają.
Ta precyzja na poziomie pikseli jest kluczowa dla następnych kroków, ponieważ AI musi wiedzieć, ile miejsca wizualnego zajmuje każdy składnik. Jeśli granica kurczaka przypadkowo obejmie kawałek ryżu, oszacowanie porcji dla obu składników będzie błędne.
Radzenie sobie z złożonymi talerzami
Posiłki w rzeczywistości są chaotyczne. Składniki się nakładają, sosy rozprzestrzeniają się na wielu elementach, a dania mieszane, takie jak stir-fry czy sałatki, zawierają dziesiątki małych składników wymieszanych razem. Model segmentacji radzi sobie z tymi przypadkami, przypisując każdemu pikselowi prawdopodobieństwo przynależności do każdej kategorii jedzenia. W stir-fry piksel, który wygląda jakby mógł być kurczakiem lub tofu, otrzymuje prawdopodobieństwa dla obu, a system rozwiązuje niejednoznaczność, korzystając z kontekstu z otaczających pikseli.
Krok 3: Klasyfikacja jedzenia
Gdy każdy składnik jest już wyizolowany, AI musi odpowiedzieć na podstawowe pytanie: co to za jedzenie?
Jak AI rozpoznaje konkretne potrawy
Model klasyfikacji to głęboka sieć neuronowa, która została wytrenowana na ogromnym zbiorze danych oznaczonych zdjęć jedzenia. Podczas szkolenia widziała miliony przykładów tysięcy różnych potraw. Z czasem nauczyła się kojarzyć konkretne wzory wizualne z konkretnymi etykietami jedzenia.
Działa to podobnie jak w przypadku, gdy jako dziecko uczyłeś się rozpoznawać jedzenie. Nie zapamiętałeś każdej możliwej formy jabłka. Zamiast tego, poprzez wielokrotne wystawienie, Twój mózg zbudował wewnętrzny model „jabłkowości”, kombinację koloru, kształtu, rozmiaru i tekstury, która pozwala Ci rozpoznać jabłko, niezależnie od tego, czy jest czerwone, czy zielone, całe czy pokrojone, leżące na blacie czy wiszące na drzewie.
AI buduje podobny wewnętrzny model, ale robi to za pomocą funkcji matematycznych, a nie neuronów biologicznych. Uczy się, że grillowany łosoś ma tendencję do posiadania charakterystycznego różowo-pomarańczowego odcienia z ciemniejszymi śladami po grillu, kruchą teksturą i typowym kształtem. Uczy się, że komosa ryżowa ma charakterystyczny mały, okrągły wzór ziaren, który różni się od ryżu czy kuskusu.
Wyzwanie podobnych potraw
Niektóre potrawy wyglądają niezwykle podobnie. Biały ryż i ryż kalafiorowy. Zwykły makaron i makaron bezglutenowy. Jogurt grecki i śmietana. Burger z indyka i burger wołowy.
Model klasyfikacji radzi sobie z tymi przypadkami, zwracając uwagę na subtelne wskazówki wizualne, które większość ludzi również by wykorzystała. Lekka przezroczystość ugotowanego białego ryżu w porównaniu do bardziej nieprzezroczystej, nieregularnej tekstury ryżu kalafiorowego. Ledwo dostrzegalna różnica w połysku powierzchni między jogurtem greckim a śmietaną.
Kiedy same wskazówki wizualne nie wystarczają, model bierze pod uwagę kontekst. Jeśli krok segmentacji zidentyfikował ryż obok tego, co wydaje się sosem sojowym i pałeczkami, model może zwiększyć swoją pewność, że ziarno to jest białym ryżem, a nie ryżem kalafiorowym.
Klasyfikacja wieloetykietowa dla dań mieszanych
Niektóre potrawy nie pasują do jednej kategorii. Burrito zawiera tortillę, ryż, fasolę, mięso, ser, salsę i być może więcej. Zamiast klasyfikować całe burrito jako jeden składnik, AI może zidentyfikować je jako danie złożone i oszacować wartość odżywczą całego burrito lub rozbić je na prawdopodobne składniki na podstawie tego, co jest widoczne i co zazwyczaj znajduje się w tym daniu.
Krok 4: Szacowanie wielkości porcji
Wiedza, że na talerzu znajduje się grillowany łosoś, jest przydatna, ale nie wystarcza do obliczenia kalorii. AI musi również oszacować, ile łososia jest na talerzu. Czy to filet o wadze 100 gramów, czy 200 gramów? Różnica w kaloriach jest znacząca.
Jak AI szacuje objętość bez wagi
Szacowanie porcji jest powszechnie uważane za jeden z najtrudniejszych problemów w AI dotyczącej jedzenia. System nie może fizycznie zważyć Twojego jedzenia, więc polega na wskazówkach wizualnych i punktach odniesienia.
Analiza rozmiaru względnego: AI wykorzystuje znane obiekty w kadrze jako punkty odniesienia. Standardowy talerz obiadowy ma średnicę około 26 centymetrów. Widelec ma długość około 19 centymetrów. Jeśli model potrafi zidentyfikować te obiekty, może oszacować fizyczny rozmiar jedzenia w odniesieniu do nich. Można to porównać do używania linijki, która już znajduje się na stole.
Szacowanie głębokości: Nowoczesne modele AI mogą oszacować trójwymiarową strukturę sceny na podstawie jednego dwuwymiarowego obrazu. To pozwala systemowi ocenić nie tylko, jak szeroki jest kawałek jedzenia, ale także, jak gruby lub wysoki jest. Cienki kawałek grillowanego fileta z kurczaka ma zupełnie inną wartość kaloryczną niż grubszy, nawet jeśli wyglądają na tej samej wielkości z góry.
Modele gęstości: Różne potrawy mają różne gęstości. Szklanka liściastych warzyw waży znacznie mniej niż szklanka puree ziemniaczanego, nawet jeśli zajmują tę samą objętość. AI nauczyła się tych relacji gęstości i uwzględnia je w swoich oszacowaniach wagi.
Dlaczego ten krok jest najtrudniejszy
Szacowanie porcji to miejsce, w którym najczęściej występują największe błędy, a to prawda także dla ludzi. Badania wykazały, że ludzie są niezwykle źli w oszacowywaniu wielkości porcji wizualnie. Badania opublikowane w czasopismach naukowych dotyczących żywienia wykazały, że zarówno wykwalifikowani dietetycy, jak i przeciętni konsumenci regularnie mylą się w oszacowaniach porcji o 20 do 50 procent.
AI nie eliminuje tej trudności, ale stosuje spójną, wytrenowaną metodologię, zamiast polegać na przeczuciu. W przypadku dużej liczby posiłków ta spójność prowadzi do znacznie lepszej dokładności niż manualne oszacowanie przez ludzi.
Krok 5: Dopasowanie do bazy danych odżywczych
Na tym etapie AI wie, jakie składniki znajdują się na talerzu i w przybliżeniu ile ich jest. Ostatni krok danych to przetłumaczenie tych informacji na rzeczywiste liczby odżywcze.
Łączenie z weryfikowanymi bazami danych żywności
Nutrola utrzymuje kompleksową bazę danych odżywczych zbudowaną na podstawie zaufanych źródeł, w tym rządowych baz danych składu żywności, zweryfikowanych danych producentów i analiz laboratoryjnych. Gdy AI identyfikuje jedzenie jako "grillowany łosoś, około 170 gramów", system wyszukuje profil odżywczy grillowanego łososia atlantyckiego i skalibruje wartości do oszacowanej wielkości porcji.
To wyszukiwanie jest bardziej zaawansowane niż proste przeszukiwanie tabeli. System uwzględnia metodę przygotowania, ponieważ pieczony filet z łososia i smażony filet z łososia gotowany na maśle mają różne wartości kaloryczne, nawet przy tej samej wadze. Uwzględnia również powszechne regionalne różnice: łosoś serwowany w japońskiej restauracji może być przygotowany inaczej niż łosoś w restauracji śródziemnomorskiej. Gdy szczegóły dotyczące przygotowania są niejednoznaczne, system korzysta z najczęściej spotykanej metody przygotowania dla zidentyfikowanego dania.
Radzenie sobie z daniami złożonymi i niestandardowymi
W przypadku jednego składnika, takiego jak banan, wyszukiwanie w bazie danych jest proste. Ale w przypadku talerza z wieloma składnikami system agreguje dane odżywcze z każdego zidentyfikowanego elementu. Twój talerz z łososiem, komosą ryżową i pieczonymi warzywami staje się sumą makroskładników łososia, makroskładników komosy ryżowej i makroskładników warzyw, dostosowanych do wszelkich widocznych sosów, olejów czy dressingów.
Dla dobrze znanych potraw, takich jak "sałatka Cezar z kurczakiem" czy "taco wołowe", baza danych zawiera również wstępnie skomponowane wpisy, które uwzględniają typowe proporcje składników i metody przygotowania. AI porównuje swoją analizę na poziomie składników z tymi wpisami całodaniowymi, aby uzyskać jak najdokładniejsze oszacowanie.
Krok 6: Ocena pewności i potwierdzenie przez użytkownika
Żaden system AI nie jest w 100% trafny, a Nutrola została zaprojektowana tak, aby być przejrzysta w kwestii swojego poziomu pewności.
Jak działa ocena pewności
Każda prognoza, którą AI wykonuje, ma wewnętrzny wskaźnik pewności, liczbę, która reprezentuje, jak pewny jest model w swojej klasyfikacji i oszacowaniu porcji. Jeśli model jest w 95% pewny, że patrzy na grillowanego łososia, przedstawia wynik bez wahania. Jeśli jest tylko 70% pewny, może przedstawić swoją najlepszą propozycję, oferując jednocześnie alternatywne możliwości.
Można to porównać do lekarza, który mówi: "Jestem dość pewny, że to jest X, ale może to być także Y. Pozwól, że potwierdzę." To znak dobrze zaprojektowanego systemu, a nie wada.
Pętla potwierdzenia przez użytkownika
Gdy AI przedstawia swoją analizę, masz możliwość przeglądania i dostosowywania. Jeśli AI zidentyfikowała Twoją komosę ryżową jako kuskus, możesz to poprawić jednym dotknięciem. Jeśli oszacowanie porcji wydaje się zbyt wysokie lub zbyt niskie, możesz dostosować wielkość porcji. Te poprawki mają dwa cele: dają Ci dokładne dane dla tego konkretnego posiłku i wpływają na system, aby poprawić przyszłe prognozy.
Ten projekt z człowiekiem w pętli jest zamierzony. AI zajmuje się ciężką pracą, ale Ty pozostajesz w kontroli nad ostatecznym wynikiem. To partnerstwo, a nie czarna skrzynka.
Gdzie AI ma trudności: Uczciwe ograniczenia
Żadna technologia nie jest doskonała, a szczerość w kwestii ograniczeń jest bardziej użyteczna niż marketingowe twierdzenia o bezbłędności. Oto scenariusze, w których AI dotyczące jedzenia, w tym Nutrola, napotyka prawdziwe wyzwania.
Ukryte składniki
AI może analizować tylko to, co widzi. Sos sałatkowy, który wsiąkł w liście, masło roztopione w puree ziemniaczanym czy cukier rozpuszczony w sosie są niewidoczne dla kamery. Te ukryte kalorie mogą się znacznie sumować. Łyżka oliwy z oliwek dodaje około 120 kalorii, a AI może jej nie wykryć, jeśli została całkowicie wchłonięta przez jedzenie.
Nutrola łagodzi to, korzystając z modeli statystycznych typowych metod przygotowania. Jeśli sfotografujesz talerz makaronu w restauracji, system zakłada, że użyto rozsądnej ilości oleju lub masła w przygotowaniu, nawet jeśli nie jest to widoczne. Ale to jest wykształcone przypuszczenie, a nie precyzyjny pomiar.
Wizualnie identyczne potrawy z różnymi profilami odżywczymi
Niektóre potrawy są praktycznie nieodróżnialne na zdjęciu. Jogurt pełnotłusty i jogurt odtłuszczony wyglądają tak samo. Zwykła soda i dieta w szklance są identyczne dla kamery. Biały cukier i sztuczny słodzik w paczce mogą być niejednoznaczne. W takich przypadkach AI domyślnie wybiera najczęściej spotykaną wersję, ale może się pomylić.
Nietypowe lub regionalne dania
AI najlepiej radzi sobie z potrawami, które są dobrze reprezentowane w danych treningowych. Powszechne dania z głównych światowych kuchni są rozpoznawane niezawodnie. Jednak hiperregionalna specjalność z małego miasteczka, przepis rodzinny z nietypowymi składnikami lub nowoczesne danie fusion mogą nie być w słowniku modelu. W takich przypadkach AI wraca do najbliższego znanego dopasowania, co może być niedokładne.
Ekstremalne oświetlenie lub kąty
Chociaż krok przetwarzania obrazu koryguje wiele problemów związanych z oświetleniem i kątem, ekstremalne przypadki mogą nadal powodować problemy. Posiłek sfotografowany w prawie ciemności, pod mocno zabarwionym światłem lub z bardzo stromej perspektywy może zmylić model. Zdjęcia z góry w rozsądnych warunkach oświetleniowych konsekwentnie dają najlepsze wyniki.
Stosowane lub warstwowe potrawy
Potrawy z ukrytymi warstwami stanowią szczególne wyzwanie. Kanapka sfotografowana z góry pokazuje tylko górną kromkę chleba. Lasagna pokazuje tylko górną warstwę. Burrito pokazuje tylko tortillę. AI szacuje wewnętrzne składniki na podstawie tego, co typowo zawiera dane danie, ale nie może widzieć przez solidne jedzenie.
Jak Nutrola staje się mądrzejsza z czasem
Jednym z najpotężniejszych aspektów nowoczesnej AI jest jej zdolność do ciągłego doskonalenia. Rozpoznawanie jedzenia przez Nutrola nie pozostaje statyczne po uruchomieniu. Z miesiąca na miesiąc staje się coraz lepsze.
Uczenie się z poprawek
Za każdym razem, gdy użytkownik poprawia identyfikację jedzenia lub dostosowuje oszacowanie porcji, ta poprawka staje się punktem danych. Gdy tysiące użytkowników dokonują podobnych poprawek, wzór staje się jasny i model może zostać zaktualizowany. Jeśli AI konsekwentnie myli konkretne regionalne pieczywo z innym, poprawki użytkowników sygnalizują problem, a zespół szkoleniowy może dodać więcej przykładów poprawnego pieczywa do zbioru danych treningowych.
Ta pętla informacji zwrotnej oznacza, że dokładność aplikacji jest bezpośrednio poprawiana przez społeczność, która z niej korzysta. Wczesni użytkownicy pomagają szkolić system dla późniejszych użytkowników, a cykl się powtarza.
Rozszerzanie bazy danych żywności
Zespół Nutrola ciągle dodaje nowe potrawy do bazy danych: nowe dania z rozwijających się kuchni, sezonowe produkty, trendy w menu restauracyjnym i nowo wydane produkty pakowane. Każdy dodatek poszerza zakres posiłków, które AI może dokładnie rozpoznać.
Przeuczenie modelu i poprawa architektury
Model AI jest okresowo przeuczany na zaktualizowanych i rozszerzonych zbiorach danych. W miarę jak nowe badania w dziedzinie widzenia komputerowego i głębokiego uczenia przynoszą lepsze architektury modeli i techniki szkoleniowe, Nutrola wprowadza te postępy. Model wytrenowany dzisiaj jest znacząco dokładniejszy niż model wytrenowany dwa lata temu, nawet na tym samym zestawie zdjęć jedzenia.
Regionalna adaptacja
W miarę jak baza użytkowników Nutrola rośnie w różnych częściach świata, system gromadzi więcej danych na temat regionalnych kuchni i wzorców żywieniowych. To pozwala modelowi stawać się coraz dokładniejszym dla lokalnych potraw, które mogły nie być dobrze reprezentowane w wcześniejszych danych treningowych. Użytkownik w Seulu korzysta z tysięcy zdjęć koreańskich posiłków, które już zarejestrowali inni użytkownicy z Seulu.
Porównanie: Śledzenie przez AI na podstawie zdjęć vs. skanowanie kodów kreskowych vs. ręczne wyszukiwanie
Różne metody rejestrowania żywności mają różne mocne i słabe strony. Oto jak się porównują w kluczowych aspektach dla codziennego śledzenia.
| Czynnik | Śledzenie przez AI na podstawie zdjęć | Skanowanie kodów kreskowych | Ręczne wyszukiwanie |
|---|---|---|---|
| Szybkość | 3 do 5 sekund | 5 do 10 sekund | 30 do 90 sekund |
| Działa dla domowych posiłków | Tak | Nie | Tak, ale uciążliwe |
| Działa dla posiłków w restauracjach | Tak | Nie | Częściowo |
| Działa dla żywności pakowanej | Tak | Tak, z wysoką dokładnością | Tak |
| Radzi sobie z wieloma składnikami jednocześnie | Tak | Nie, jeden składnik na raz | Nie, jeden składnik na raz |
| Dokładność dla prostych potraw | Wysoka | Bardzo wysoka | Zależy od użytkownika |
| Dokładność dla złożonych posiłków | Umiarkowana do wysokiej | Nie dotyczy | Niska do umiarkowanej |
| Wymaga czytania etykiet | Nie | Tak, dla potwierdzenia | Tak |
| Poziom tarcia | Bardzo niski | Niski | Wysoki |
| Ryzyko niedoszacowania przez użytkownika | Niskie | Niskie | Wysokie |
| Dostępne dla niepakowanej żywności | Tak | Nie | Tak |
Kluczowy wniosek jest taki, że żadna metoda nie jest najlepsza w każdej sytuacji. Śledzenie przez AI na podstawie zdjęć doskonale sprawdza się w przypadku domowych i restauracyjnych posiłków, gdzie kody kreskowe nie istnieją. Skanowanie kodów kreskowych jest niezrównane dla pakowanej żywności z dokładnymi danymi producentów. Ręczne wyszukiwanie służy jako niezawodna alternatywa, gdy inne metody są niedostępne. Nutrola wspiera wszystkie trzy metody, ponieważ każda z nich wypełnia luki, które pozostawiają inne.
Najczęściej zadawane pytania
Jak dokładne jest rozpoznawanie jedzenia przez AI w porównaniu do ręcznego rejestrowania?
Kontrolowane badania porównujące rejestrowanie żywności wspomagane przez AI z ręcznym rejestrowaniem wykazały, że metody wspomagane przez AI zmniejszają błędy oszacowania kalorii średnio o około 25 do 40 procent. Poprawa jest najbardziej widoczna w przypadku złożonych, wieloskładnikowych posiłków, gdzie ręczne oszacowanie jest szczególnie trudne. W przypadku prostych, jednoskładnikowych potraw różnica w dokładności jest mniejsza, ponieważ obie metody działają całkiem dobrze.
Czy AI działa dla wszystkich kuchni?
AI Nutrola jest szkolona na różnorodnym, globalnym zbiorze danych, który obejmuje tysiące potraw z kuchni z całego świata. Mimo to, dokładność rozpoznawania jest zazwyczaj wyższa dla potraw, które są bardziej powszechne w danych treningowych. Jeśli regularnie jesz dania z kuchni, którą AI obsługuje mniej pewnie, Twoje poprawki aktywnie pomagają poprawić dokładność dla tej kuchni w miarę upływu czasu.
Co się dzieje, jeśli AI się pomyli?
Zawsze możesz edytować sugestię AI. Naciśnij na dowolny zidentyfikowany składnik, aby go zmienić, dostosować wielkość porcji lub dodać składniki, które AI pominęła. Te poprawki są natychmiast stosowane w Twoim logu i również przyczyniają się do poprawy systemu dla przyszłych prognoz.
Czy zdjęcie opuszcza mój telefon?
Obraz jest wysyłany na serwery Nutrola do przetworzenia, ponieważ modele AI są zbyt duże i wymagające obliczeniowo, aby działać całkowicie na urządzeniu mobilnym. Obraz jest przetwarzany, wyniki są zwracane, a polityka prywatności Nutrola reguluje, jak dane obrazowe są obsługiwane. Żadne zdjęcia nie są udostępniane stronom trzecim.
Dlaczego AI czasami pokazuje wiele możliwych dopasowań?
Gdy pewność modelu jest poniżej określonego progu, przedstawia swoje najlepsze kandydaty, zamiast zobowiązywać się do jednej odpowiedzi. To jest zamierzone. Lepiej pokazać Ci trzy opcje i pozwolić wybrać właściwą, niż cicho zobowiązać się do błędnej odpowiedzi. To przejrzyste podejście utrzymuje Cię w kontroli i zapewnia dokładność Twojego logu.
Czy AI może wykrywać oleje do gotowania, sosy lub dressingi?
Widoczne sosy i dressingi, takie jak polewa ranch na sałatce czy kałuża sosu sojowego na talerzu, często mogą być wykrywane. Jednak oleje i tłuszcze, które wchłonęły się w jedzenie podczas gotowania, są w dużej mierze niewidoczne dla kamery. Nutrola kompensuje to, uwzględniając typowe metody przygotowania. Na przykład, jeśli sfotografujesz talerz warzyw stir-fry, system zakłada, że użyto rozsądnej ilości oleju do gotowania.
Czy AI kiedykolwiek będzie w 100% dokładne?
Realistycznie, nie. Nawet profesjonalni dietetycy korzystający z laboratoriów akceptują marginesy błędu. Celem nie jest teoretyczna doskonałość, ale praktyczna dokładność: wystarczająco blisko, aby być naprawdę użytecznym w śledzeniu trendów, utrzymywaniu deficytu lub nadwyżki kalorycznej oraz podejmowaniu świadomych decyzji żywieniowych dzień po dniu. Dla ogromnej większości użytkowników, śledzenie kalorii przez AI na podstawie zdjęć zapewnia wystarczającą dokładność, aby wspierać znaczący postęp w kierunku ich celów zdrowotnych.
Szerszy kontekst
Technologia stojąca za AI rozpoznawania jedzenia rozwija się w szybkim tempie. To, co pięć lat temu uważano za szczyt technologii, zostało wielokrotnie przewyższone. Modele stają się coraz mniejsze, szybsze i dokładniejsze. Zbiory danych do szkolenia stają się coraz większe i bardziej zróżnicowane. A pętle informacji zwrotnej tworzone przez miliony użytkowników codziennie przyspieszają poprawę w sposób, który nie byłby możliwy w laboratorium badawczym.
Dla Ciebie jako użytkownika praktyczny rezultat jest prosty: robisz zdjęcie, otrzymujesz dane o odżywianiu i przechodzisz do dalszych zajęć. Proces działający za tym doświadczeniem, przetwarzanie obrazu, wykrywanie, klasyfikacja, szacowanie porcji, dopasowanie do bazy danych i ocena pewności, wszystko to dzieje się niewidocznie w ciągu kilku sekund.
Zrozumienie, jak to działa, nie jest wymagane do korzystania z niego. Ale wiedza o tym, co dzieje się za kulisami, może zbudować dobrze uzasadnione zaufanie do technologii i pomóc Ci korzystać z niej skuteczniej. Gdy wiesz, że zdjęcia z góry w dobrym oświetleniu dają najlepsze wyniki, naturalnie zaczynasz robić lepsze zdjęcia jedzenia. Gdy wiesz, że ukryte składniki są niewidoczne, pamiętasz, aby ręcznie dodać tę dodatkową łyżkę oliwy z oliwek. A gdy wiesz, że Twoje poprawki sprawiają, że system staje się mądrzejszy, czujesz motywację, aby poświęcić te dwie sekundy na poprawienie błędnego oszacowania.
To jest prawdziwa moc zrozumienia technologii: przekształca Cię z pasywnego użytkownika w świadomego partnera w śledzeniu własnego odżywiania.
Gotowy, aby przeksztalcic sledzenie zywienia?
Dolacz do tysiecy osob, ktore przeksztalcily swoja podroz zdrowotna z Nutrola!