Jak Nutrola Wykorzystuje Wizję Komputerową i AI do Identyfikacji Ponad 130 000 Potraw
Szczegółowa analiza technologii AI stojącej za funkcją Snap & Track w Nutrola: jak sieci neuronowe, detekcja wielu elementów i szacowanie porcji współpracują, aby zidentyfikować ponad 130 000 potraw na podstawie jednego zdjęcia.
Problem: Dlaczego Rozpoznawanie Żywności Jest Jednym z Najtrudniejszych Wyzwań AI
Identyfikacja jedzenia na zdjęciach wydaje się prosta. Ludzie robią to bez wysiłku. Jednak dla systemów wizji komputerowej, rozpoznawanie żywności to jedno z najbardziej wymagających technicznie zadań klasyfikacji wizualnej, znacznie trudniejsze niż rozpoznawanie twarzy, samochodów czy ręcznie pisanych tekstów.
Powody są pouczające:
- Ekstremalna zmienność wewnątrzklasowa. "Sałatka" może wyglądać jak tysiąc różnych potraw. Sałatka Cezara, sałatka grecka, sałatka owocowa i dekonstruowana sałatka Nicoise mają tę samą nazwę, ale prawie żadną wizualną podobieństwo.
- Wysoka podobieństwo międzyklasowe. Puree ziemniaczane i hummus mogą wyglądać niemal identycznie na zdjęciu. Podobnie niektóre zupy i miski smoothie. Biały ryż i ryż kalafiorowy są wizualnie nieodróżnialne z pewnych kątów.
- Deformacja i mieszanie. W przeciwieństwie do sztywnych obiektów, jedzenie jest krojone, gotowane, mieszane, układane i aranżowane w nieskończonych kombinacjach. Burrito, wrap i enchilada mogą zawierać identyczne składniki w różnych konfiguracjach strukturalnych.
- Zależność od kontekstu kulturowego. Ta sama wizualna forma może reprezentować różne potrawy w różnych kuchniach. Okrągły, płaski chleb może być tortillą, roti, pitą, naleśnikiem lub szwedzkim tunnbrod, z różnymi profilami odżywczymi.
- Częściowe zasłonięcie. Potrawy na talerzu nachodzą na siebie, sosy zakrywają składniki, a dekoracje ukrywają to, co jest pod spodem.
Te wyzwania wyjaśniają, dlaczego rozpoznawanie żywności przez długi czas pozostawało w tyle za innymi zastosowaniami wizji komputerowej. Wyjaśnia to również, dlaczego jego rozwiązanie wymagało fundamentalnie innego podejścia niż tradycyjna klasyfikacja obrazów.
Podstawa: Konwolucyjne Sieci Neuronowe
Jak CNN Przetwarzają Obrazy Żywności
W sercu nowoczesnego rozpoznawania żywności leży konwolucyjna sieć neuronowa (CNN), klasa architektury uczenia głębokiego zaprojektowana specjalnie do przetwarzania danych wizualnych. CNN analizuje obraz poprzez szereg hierarchicznych warstw ekstrakcji cech:
Warstwa 1-3 (Cechy niskiego poziomu): Sieć identyfikuje krawędzie, kolory i proste tekstury. Na tym etapie może wykryć okrągłą krawędź talerza, brązowy kolor gotowanego mięsa lub ziarnistą teksturę ryżu.
Warstwa 4-8 (Cechy średniego poziomu): Te warstwy łączą cechy niskiego poziomu w bardziej złożone wzory: marmurkowy wzór grillowanej wołowiny, warstwowa struktura kanapki, błyszcząca powierzchnia sosu lub włóknista tekstura rozdrobnionego kurczaka.
Warstwa 9-15+ (Cechy wysokiego poziomu): Najgłębsze warstwy składają wzory średniego poziomu w specyficzne dla żywności reprezentacje. Sieć uczy się, że konkretna kombinacja tekstur, kolorów, kształtów i układów przestrzennych odpowiada "pad thai" lub "pizzy margherita" czy "kurczakowi tikka masala."
Ewolucja Architektury
Architektury używane do rozpoznawania żywności znacznie ewoluowały w ciągu ostatniej dekady:
| Architektura | Rok | Kluczowa Innowacja | Dokładność w Rozpoznawaniu Żywności |
|---|---|---|---|
| AlexNet | 2012 | Udowodniono, że głębokie CNN są wykonalne | ~55% top-1 na Food-101 |
| VGGNet | 2014 | Głębsze sieci z małymi filtrami | ~72% top-1 na Food-101 |
| GoogLeNet/Inception | 2014 | Ekstrakcja cech w wielu skalach | ~78% top-1 na Food-101 |
| ResNet | 2015 | Połączenia skip umożliwiające znacznie głębsze sieci | ~85% top-1 na Food-101 |
| EfficientNet | 2019 | Złożone skalowanie głębokości/szerokości/rozdzielczości | ~91% top-1 na Food-101 |
| Vision Transformers (ViT) | 2020 | Mechanizmy uwagi dla globalnego kontekstu | ~93% top-1 na Food-101 |
| Nowoczesne architektury hybrydowe | 2023-2025 | Fuzja CNN i Transformera z uwagą uwzględniającą regiony | ~96%+ top-1 na rozszerzonych zbiorach danych |
Benchmark Food-101 (101 kategorii żywności, 101 000 obrazów) był standardowym zbiorem danych do oceny przez wiele lat. Nowoczesne systemy, takie jak Nutrola, działają na znacznie większą skalę, rozpoznając ponad 130 000 potraw, co wymaga paradygmatów szkoleniowych wykraczających daleko poza akademickie benchmarki.
Detekcja Wielu Elementów: Widzenie Wszystkiego na Talerzu
Poza Klasyfikacją Pojedynczej Potrawy
Wczesne systemy rozpoznawania żywności mogły identyfikować tylko jedną potrawę na obrazku. Zdjęcie talerza z ryżem, curry i naanem byłoby klasyfikowane jako jedna z tych trzech potraw, pomijając pozostałe. Prawdziwe posiłki nie są takie proste.
Detekcja wielu elementów wymaga innego podejścia architektonicznego. Zamiast klasyfikować cały obraz jako jedną kategorię, system musi:
- Wykryć obszary zainteresowania (gdzie znajdują się różne potrawy na zdjęciu?)
- Segmentować te obszary (gdzie kończy się ryż, a zaczyna curry?)
- Klasyfikować każdy obszar niezależnie (ten obszar to ryż, to kurczak curry, to naan)
- Radzić sobie z nachodzącymi elementami (sos curry na ryżu jest częścią curry, a nie osobnym elementem)
Ramy Wykrywania Obiektów dla Żywności
Nowoczesna detekcja wieloelementowa żywności opiera się na ramach wykrywania obiektów, które pierwotnie zostały opracowane dla ogólnych zadań wizji komputerowej:
- Podejścia oparte na regionach (pochodzące z Faster R-CNN) generują kandydackie obszary i klasyfikują każdy z nich. Są one dokładne, ale kosztowne obliczeniowo.
- Podejścia jednoprzebiegowe (pochodzące z YOLO i SSD) przewidują ramki ograniczające i klasyfikacje w jednym przebiegu, co umożliwia detekcję w czasie rzeczywistym na urządzeniach mobilnych.
- Podejścia do segmentacji semantycznej (pochodzące z U-Net i Mask R-CNN) generują mapy żywności na poziomie pikseli, zapewniając precyzyjne granice między elementami.
System Snap & Track Nutrola wykorzystuje podejście hybrydowe zoptymalizowane do wnioskowania mobilnego. Proces działa efektywnie na urządzeniu do wstępnej detekcji, z przetwarzaniem po stronie serwera dla skomplikowanych scenariuszy lub niejednoznacznych elementów. Dzięki temu doświadczenie użytkownika jest szybkie, zazwyczaj poniżej dwóch sekund od zrobienia zdjęcia do analizy wartości odżywczych, przy jednoczesnym zachowaniu wysokiej dokładności.
Radzenie Sobie z Skomplikowanymi Strukturami Posiłków
Niektóre posiłki stawiają strukturalne wyzwania, których prosta detekcja nie może rozwiązać:
- Potrawy warstwowe (lasagne, kanapki, burrito): System musi wnioskować o składnikach wewnętrznych na podstawie widocznych wskazówek zewnętrznych i wiedzy kontekstowej.
- Mieszane dania (smażone, gulasze, zapiekanki): Indywidualne składniki są połączone w jedną wizualną masę. System wykorzystuje analizę tekstury, rozkład kolorów i kontekstowe priorytety do oszacowania składu.
- Dekonstruowane prezentacje (posiłki w misce, bento, tapas): Wiele małych elementów w oddzielnych przegródkach wymaga indywidualnej detekcji i klasyfikacji.
- Napoje obok jedzenia: Rozróżnienie między szklanką soku pomarańczowego, smoothie mango a tajskim mrożonym herbatą wymaga analizy koloru, przezroczystości, rodzaju pojemnika i kontekstu.
Dane Szkoleniowe: Podstawa Jakości Rozpoznawania
Wymagania dotyczące Skali i Różnorodności
System rozpoznawania żywności jest tak dobry, jak dane, na których został wytrenowany. Zbudowanie modelu, który rozpoznaje ponad 130 000 potraw z ponad 50 krajów, wymaga zbioru danych o niezwykłej skali i różnorodności.
Kluczowe wymiary jakości danych szkoleniowych:
Objętość: Nowoczesne modele rozpoznawania żywności wymagają milionów oznakowanych obrazów żywności. Każda kategoria żywności potrzebuje setek do tysięcy przykładów pokazujących różne przygotowania, prezentacje, warunki oświetleniowe, kąty i rozmiary porcji.
Różnorodność: "Pierś z kurczaka" sfotografowana w japońskiej kuchni wygląda inaczej niż w brazylijskiej, a jeszcze inaczej w nigeryjskiej. Dane szkoleniowe muszą odzwierciedlać tę różnorodność, inaczej model nie poradzi sobie z kuchniami, których nie widział.
Dokładność etykiet: Każdy obraz musi być poprawnie oznakowany konkretnym produktem spożywczym, a nie tylko ogólną kategorią. "Grillowany łosoś z glazurą teriyaki" jest pod względem odżywczym różny od "grillowanego łososia z masłem cytrynowym", a etykiety szkoleniowe muszą uchwycić tę różnicę.
Zróżnicowanie porcji: Ta sama potrawa sfotografowana w porcji 100g i 300g musi być reprezentowana w danych szkoleniowych, aby model mógł nauczyć się szacować ilość, a nie tylko tożsamość.
Strategie Augmentacji Danych
Zbieranie surowych danych nie może pokryć każdej możliwej prezentacji każdej potrawy. Techniki augmentacji danych rozszerzają efektywny zbiór szkoleniowy:
- Transformacje geometryczne: Obracanie, odwracanie i skalowanie obrazów, aby model rozpoznawał jedzenie niezależnie od orientacji talerza.
- Wariacje kolorów i oświetlenia: Dostosowywanie jasności, kontrastu i balansu bieli, aby symulować różne warunki oświetleniowe (oświetlenie restauracyjne, fluorescencyjne światła kuchenne, naturalne światło na zewnątrz, fotografia z lampą błyskową).
- Syntetyczne zasłonięcie: Losowe maskowanie części obrazów żywności, aby nauczyć model rozpoznawania elementów nawet gdy są częściowo ukryte.
- Transfer stylu: Generowanie syntetycznych obrazów, które zachowują tożsamość jedzenia, jednocześnie zmieniając tło, styl podania i naczynia.
Ciągłe Uczenie się z Danych Użytkowników
Dzięki ponad 2 milionom aktywnych użytkowników rejestrujących posiłki codziennie, system Nutrola korzysta z ciągłej pętli feedbackowej. Kiedy użytkownik poprawia błędnie zidentyfikowany element żywności, ta poprawka staje się sygnałem do szkolenia. Z biegiem czasu, ta użytkownikowa poprawa adresuje przypadki graniczne i regionalne wariacje żywności, których żaden początkowy zbiór danych szkoleniowych nie mógłby w pełni przewidzieć.
Jest to szczególnie cenne dla:
- Potraw regionalnych, które mogą nie występować w akademickich zbiorach danych żywności
- Nowych trendów żywnościowych (nowe produkty, kuchnie fusion, wirusowe przepisy)
- Produktów specyficznych dla marki, gdzie opakowanie i prezentacja zmieniają się w zależności od rynków regionalnych
- Domowych posiłków, które wyglądają inaczej niż prezentacje restauracyjne
Szacowanie Porcji: Trudniejszy Problem
Dlaczego Szacowanie Porcji Jest Ważniejsze Niż Identyfikacja
Poprawne zidentyfikowanie potrawy to tylko połowa problemu. Różnica kaloryczna między porcją 100g a 250g makaronu wynosi 230 kalorii, co może decydować o diecie. Szacowanie porcji na podstawie jednego zdjęcia jest w wielu aspektach bardziej wymagającym technicznie wyzwaniem.
Szacowanie Głębokości i Skali
Zdjęcie 2D nie zawiera informacji o głębokości potrzebnych do bezpośredniego pomiaru objętości żywności. System musi wnioskować o właściwościach trójwymiarowych na podstawie wskazówek dwuwymiarowych:
- Obiekty odniesienia: Talerze, miski, sztućce i ręce w kadrze dostarczają odniesień do skali. Standardowy talerz obiadowy (około 26 cm średnicy) ustala wielkość szacowania dla wszystkiego, co się na nim znajduje.
- Geometria perspektywy: Kąt, pod jakim zrobiono zdjęcie, wpływa na widoczną wielkość. Talerz sfotografowany z góry wygląda inaczej niż ten sfotografowany pod kątem 45 stopni. System szacuje kąt kamery i koryguje zniekształcenia perspektywy.
- Modele gęstości specyficzne dla żywności: Ta sama objętość sałaty i steku ma zupełnie różne wagi i zawartość kaloryczną. System stosuje priorytety gęstości specyficzne dla żywności, aby przeliczyć oszacowaną objętość na oszacowaną wagę.
- Nauczone rozkłady porcji: Statystyczne priorytety z milionów zarejestrowanych posiłków informują o oczekiwanych rozmiarach porcji. Jeśli model wykryje "miskę owsianki", wie, że mediana porcji wynosi około 250g i wykorzystuje ten priorytet do ograniczenia swojego oszacowania.
Benchmarki Dokładności
Jak dokładne jest szacowanie porcji oparte na AI? Badania benchmarkowe dostarczają kontekstu:
| Metoda | Średni Błąd (% rzeczywistej wagi) |
|---|---|
| Szacowanie wizualne przez ludzi (niespecjalizowani) | 40-60% |
| Szacowanie wizualne przez ludzi (wykwalifikowany dietetyk) | 15-25% |
| Szacowanie AI z pojedynczego obrazu (era 2020) | 20-30% |
| Szacowanie AI z pojedynczego obrazu (aktualny stan sztuki, 2025) | 10-20% |
| Szacowanie AI z obiektem odniesienia | 8-15% |
| Pomiar żywności na wadze (złoty standard) | <1% |
Obecne systemy AI nie dorównują wadze żywności, ale konsekwentnie przewyższają szacowanie przez niespecjalizowanych ludzi i zbliżają się do dokładności wykwalifikowanych dietetyków. Dla ogromnej większości przypadków użycia śledzenia, ten poziom dokładności jest wystarczający, aby wspierać znaczące wnioski dotyczące diety.
Warstwa Mapowania Odżywczego
Od Identyfikacji Wizualnej do Danych Odżywczych
Identyfikacja "grillowanej piersi z kurczaka" na zdjęciu jest użyteczna tylko wtedy, gdy ta identyfikacja odpowiada dokładnym danym odżywczym. Tutaj kluczowa staje się weryfikowana przez dietetyków baza danych żywności Nutrola.
Warstwa mapowania łączy każdą klasyfikację wizualną z konkretnym wpisem w bazie danych, zawierającym:
- Rozkład makroskładników (kalorie, białko, węglowodany, tłuszcz)
- Profil mikroskładników (witaminy, minerały)
- Wariacje wielkości porcji
- Dostosowania metod przygotowania (grillowana vs. smażona pierś z kurczaka ma znacznie różną zawartość tłuszczu)
- Wariacje regionalne i specyficzne dla marki
To mapowanie nie jest prostą tabelą wyszukiwania. System uwzględnia:
- Wykrywanie metody gotowania: Wskazówki wizualne (przypalenie, połysk oleju, ślady przypalenia) pomagają określić, czy jedzenie było grillowane, smażone, pieczone czy gotowane na parze, co zmienia profil odżywczy.
- Szacowanie sosów i dodatków: Widoczne sosy, dressingi, sery i dodatki są identyfikowane, a ich wkład odżywczy dodawany do podstawowego produktu spożywczego.
- Szacowanie posiłków złożonych: Dla dań mieszanych, gdzie dokładne przepisy są nieznane, system wykorzystuje modele statystyczne typowych kompozycji do oszacowania zawartości makro i mikroskładników.
Różnica w Weryfikacji
Wiele systemów rozpoznawania żywności mapuje do nieweryfikowanych, generowanych przez użytkowników baz danych odżywczych. Wprowadza to kumulujący się błąd: nawet jeśli identyfikacja wizualna jest poprawna, dane odżywcze, do których się odnosi, mogą być błędne. Podejście Nutrola, polegające na utrzymywaniu bazy danych zweryfikowanej przez dietetyków, eliminuje to drugie źródło błędu, zapewniając, że poprawna identyfikacja prowadzi do poprawnych informacji odżywczych.
Przypadki Graniczne i Trwające Wyzwania
Gdzie Obecne Systemy Mają Problemy
Przejrzystość dotycząca ograniczeń jest tak samo ważna, jak podkreślanie możliwości. Obecne AI do rozpoznawania żywności, w tym system Nutrola, napotyka ciągłe wyzwania związane z:
- Ukrytymi składnikami: Zawartość odżywcza miski smoothie zależy od tego, co jest zmieszane w środku, co nie jest widoczne na zdjęciu. System polega na typowych modelach przepisów i może pytać użytkowników o dodatkowe informacje.
- Bardzo podobnymi potrawami: Rozróżnienie między wizualnie identycznymi potrawami (np. zwykłe puree ziemniaczane a puree kalafiorowe) czasami wymaga potwierdzenia od użytkownika.
- Nietypowymi prezentacjami: Potrawy podane w nieznany sposób, takie jak gastronomia molekularna czy bardzo artystyczne podanie, mogą mylić systemy detekcji.
- Ekstremalnymi warunkami oświetleniowymi: Bardzo ciemne restauracje lub ostre zdjęcia z lampą błyskową pogarszają jakość obrazu i zmniejszają dokładność rozpoznawania.
- Pakowane jedzenie bez widocznych etykiet: Zawinięta kanapka lub zamknięty pojemnik dostarczają ograniczonych informacji wizualnych.
Jak Nutrola Radzi Sobie z Niepewnością
Gdy AI nie jest pewne swojej identyfikacji, system stosuje kilka strategii:
- Sugestie Top-N: Zamiast zobowiązywać się do jednej identyfikacji, system przedstawia najbardziej prawdopodobne opcje i pozwala użytkownikowi wybrać właściwą.
- Pytania wyjaśniające: AI Diet Assistant może zadawać pytania uzupełniające: "Czy to jest ryż biały czy ryż kalafiorowy?" lub "Czy to zawiera sos na bazie śmietany czy sos pomidorowy?"
- Uzupełnienie głosowe: Użytkownicy mogą dodać kontekst werbalny do zdjęcia: zrobić zdjęcie i powiedzieć "to jest zupa soczewicowa mojej mamy z mlekiem kokosowym." Wprowadzenie głosowe rozwiązuje niejasności wizualne.
- Uczenie się na podstawie poprawek: Każda poprawka użytkownika poprawia przyszłą dokładność dla podobnych elementów.
Proces Przetwarzania: Od Zdjęcia do Wartości Odżywczych w Mniej niż Dwie Sekundy
Oto uproszczony widok tego, co się dzieje, gdy użytkownik Nutrola robi zdjęcie jedzenia:
Krok 1 (0-200ms): Wstępne przetwarzanie obrazu. Zdjęcie jest normalizowane pod względem rozmiaru, orientacji i balansu kolorów. Podstawowe kontrole jakości zapewniają, że obraz jest użyteczny.
Krok 2 (200-600ms): Detekcja wielu elementów. Model detekcji identyfikuje obszary zawierające różne potrawy i rysuje ramki ograniczające wokół każdej z nich.
Krok 3 (600-1000ms): Klasyfikacja per region. Każdy wykryty obszar jest klasyfikowany w odniesieniu do ponad 130 000 kategorii żywności. Każdej klasyfikacji przypisywane są wyniki pewności.
Krok 4 (1000-1400ms): Szacowanie porcji. Objętość i waga są szacowane dla każdego wykrytego elementu przy użyciu wnioskowania głębokości, skalowania obiektów odniesienia i modeli gęstości specyficznych dla żywności.
Krok 5 (1400-1800ms): Mapowanie odżywcze. Każdy sklasyfikowany i oszacowany element jest dopasowywany do swojego wpisu w bazie danych zweryfikowanej przez dietetyków. Dostosowania metod przygotowania są stosowane.
Krok 6 (1800-2000ms): Złożenie wyników. Całkowity rozkład wartości odżywczych jest złożony i prezentowany użytkownikowi, z wymienionymi poszczególnymi elementami i podsumowaniem całego posiłku.
Cały proces zazwyczaj kończy się w mniej niż dwie sekundy na nowoczesnych smartfonach, przy czym wstępna detekcja i klasyfikacja odbywają się na urządzeniu, a mapowanie odżywcze łączy się z chmurą Nutrola.
Co Dalej: Przyszłość AI w Rozpoznawaniu Żywności
Nowe Możliwości
Dziedzina AI do rozpoznawania żywności nadal szybko się rozwija:
- Śledzenie wideo, które analizuje sesje jedzenia zamiast pojedynczych zdjęć, poprawiając szacowanie porcji dzięki wielokrotnym punktom widzenia
- Rozpoznawanie składników na poziomie indywidualnym, które identyfikuje poszczególne składniki w mieszanych daniach, zamiast traktować je jako pojedyncze wpisy
- Analiza procesu gotowania, która może oszacować zmiany odżywcze od surowego do ugotowanego stanu na podstawie wizualnych dowodów metody gotowania i czasu
- Pomiar porcji wspomagany AR, który wykorzystuje czujniki głębokości smartfona (LiDAR) do dokładniejszego szacowania objętości
- Uczenie się międzymodalne, które łączy informacje wizualne, tekstowe (menu, etykiety) i kontekstowe (lokalizacja, pora dnia) dla dokładniejszej identyfikacji
Przewaga Skali
Z ponad 2 milionami użytkowników w ponad 50 krajach, którzy rejestrują miliony posiłków, system rozpoznawania Nutrola poprawia się w tempie, którego badania akademickie nie mogą dorównać. Każdy zarejestrowany posiłek to punkt danych. Każda poprawka to sygnał do szkolenia. Każda nowa kuchnia napotkana to rozszerzenie wiedzy modelu. Ten efekt kołowrotka oznacza, że system staje się zauważalnie dokładniejszy każdego miesiąca, szczególnie dla długiego ogona regionalnych i kulturowych potraw, których mniejsze systemy nie mogą się nauczyć.
Podsumowanie
AI do rozpoznawania żywności to jedno z najbardziej technicznie wymagających zastosowań wizji komputerowej, wymagające rozwiązań problemów, z którymi większość systemów klasyfikacji obrazów nigdy się nie zmierzy: ekstremalnej zmienności wizualnej w ramach kategorii, detekcji wielu elementów na zatłoczonych talerzach, szacowania porcji trójwymiarowych na podstawie obrazów dwuwymiarowych oraz mapowania do zweryfikowanych danych odżywczych w ponad 130 000 elementów z dziesiątek kuchni.
Technologia stojąca za funkcją Snap & Track Nutrola reprezentuje zbieżność głębokich konwolucyjnych sieci neuronowych, zaawansowanych architektur wykrywania obiektów, statystycznych modeli szacowania porcji oraz bazy danych żywności zweryfikowanej przez dietetyków. Efektem jest system, który potrafi zamienić zwykłe zdjęcie twojego lunchu w szczegółowy rozkład wartości odżywczych w mniej niż dwie sekundy.
Nie jest doskonały. Żaden obecny system nie jest. Ale jest wystarczająco dokładny, aby śledzenie wartości odżywczych było praktyczne dla milionów ludzi, którzy nigdy nie ważyli swojego jedzenia ani ręcznie nie przeszukiwali bazy danych. A każdego dnia staje się lepszy, ucząc się z każdego posiłku, który jego użytkownicy dzielą. Ta kombinacja obecnych możliwości i ciągłego doskonalenia sprawia, że AI w rozpoznawaniu żywności to nie tylko osiągnięcie techniczne, ale praktyczne narzędzie do lepszego odżywiania.
Gotowy, aby przeksztalcic sledzenie zywienia?
Dolacz do tysiecy osob, ktore przeksztalcily swoja podroz zdrowotna z Nutrola!