Snap & Track란 무엇인가? 사진 기반 칼로리 추적 완벽 가이드

AI와 컴퓨터 비전 기술을 활용한 사진 기반 칼로리 추적의 작동 원리, 정확도, 가장 잘 처리하는 음식 종류, 수동 기록 및 바코드 스캔과의 비교에 대해 알아보세요.

Medically reviewed by Dr. Emily Torres, Registered Dietitian Nutritionist (RDN)

점심의 모든 재료를 데이터베이스에서 수동으로 검색하고, 포션 크기를 추정하며, 각 항목을 하나씩 입력하는 방식은 10년 넘게 칼로리 추적의 표준 방법이었습니다. 이 방법은 효과적이지만 느리고 지루하며, 사람들이 식사 기록을 시작한 지 2주 이내에 포기하는 주된 이유 중 하나입니다.

사진 기반 칼로리 추적은 근본적으로 다른 접근 방식을 제공합니다. 타이핑하고 검색하는 대신, 식사의 사진을 한 장 찍으면 인공지능이 나머지를 처리합니다. AI는 접시에 있는 음식을 식별하고, 포션 크기를 추정하며, 몇 초 만에 전체 영양 정보를 제공합니다.

Nutrola의 이 기술 구현은 Snap & Track이라고 불립니다. 이 가이드는 사진 기반 칼로리 추적이 무엇인지, 그 기술이 어떻게 작동하는지, 잘하는 점과 여전히 도전 과제가 있는 부분, 그리고 다른 기록 방법과의 비교를 설명합니다.

사진 기반 칼로리 추적이란?

사진 기반 칼로리 추적은 스마트폰 카메라와 인공지능을 사용하여 한 장의 사진으로 식사의 영양 성분을 추정하는 식사 기록 방법입니다. 사용자가 수동으로 음식 데이터베이스를 검색할 필요 없이, 시스템은 이미지를 분석하여 개별 음식 항목을 식별하고, 그 양을 추정하며, 해당 영양 데이터를 가져옵니다.

핵심 약속은 속도와 간편함입니다. 수동 입력으로 일반적으로 60초에서 120초가 소요되는 과정이 사진 기반 시스템을 사용하면 10초 이내로 단축될 수 있습니다. 하루에 세 번에서 다섯 번 식사하는 사용자에게 이 시간 절약은 장기적인 추적을 지속 가능하게 만드는 의미 있는 경험으로 이어집니다.

간단한 역사

음식의 영양 분석을 위해 음식을 촬영하는 개념은 2010년대 초반 학술 연구로 거슬러 올라갑니다. 당시 컴퓨터 비전 모델이 음식 이미지를 합리적인 정확도로 분류할 수 있는 능력을 처음으로 보여주었습니다. 초기 시스템은 제어된 조명, 특정 각도, 그리고 크기를 위한 참조 물체(예: 접시 옆에 놓인 동전)를 필요로 했습니다. 정확도가 제한적이었고, 기술은 연구실에 국한되었습니다.

2017년부터 2022년 사이에 딥러닝의 성숙, 특히 합성곱 신경망(CNN)의 발전이 돌파구가 되었습니다. 이러한 모델이 점점 더 큰 음식 이미지 데이터셋으로 훈련되면서, 일반 음식에 대한 분류 정확도가 약 50%에서 90% 이상으로 향상되었습니다. 2024년에는 소비자 애플리케이션이 실험적인 추가 기능이 아닌 핵심 기능으로 사진 기반 추적을 제공하기 시작했습니다.

Snap & Track의 작동 원리: 단계별 안내

사진에서 영양 데이터까지의 전체 파이프라인을 이해하면 기술이 할 수 있는 것과 할 수 없는 것에 대한 현실적인 기대를 설정하는 데 도움이 됩니다.

1단계: 이미지 캡처

사용자는 Nutrola 앱을 열고 내장 카메라 인터페이스를 사용하여 식사의 사진을 찍습니다. 시스템은 접시의 모든 항목이 명확하게 보이는 상단 또는 45도 각도의 사진에서 가장 잘 작동합니다. 좋은 조명과 최소한의 장애물(예: 손, 음식 위에 놓인 식기, 극단적인 그림자)은 결과를 개선합니다.

이미지는 표준 스마트폰 해상도로 캡처됩니다. 특별한 장비, 참조 물체 또는 보정 단계는 필요하지 않습니다.

2단계: 음식 탐지 및 식별

이미지가 캡처되면 일련의 AI 모델이 순차적으로 분석합니다.

객체 탐지는 먼저 이미지 내의 개별 음식 영역을 식별합니다. 접시에 구운 치킨, 밥, 사이드 샐러드가 포함되어 있다면, 모델은 각 음식 항목 주위에 경계 상자를 그립니다. 이는 다중 레이블 분류 문제로, 시스템이 단일 이미지에 여러 개별 음식이 포함되어 있음을 인식해야 합니다.

음식 분류는 탐지된 각 영역에 레이블을 할당합니다. 모델은 색상, 질감, 모양 및 맥락과 같은 시각적 특징을 바탕으로 수천 개의 음식 항목 분류에서 매칭합니다. 시스템은 공존 패턴도 고려합니다. 예를 들어, 토르티야가 콩, 밥, 살사와 함께 감지되면, 각 구성 요소를 개별적으로 분류하는 대신 부리토 볼로 추론할 수 있습니다.

3단계: 포션 크기 추정

어떤 음식이 있는지를 식별하는 것만으로는 문제가 반이 해결된 것입니다. 시스템은 또한 접시에 있는 각 음식의 양을 추정해야 합니다. 이는 여러 기술의 조합을 통해 이루어집니다:

  • 상대적 스케일링. 모델은 접시, 그릇 또는 용기를 기준 물체로 사용하여 음식 항목의 양을 상대적으로 추정합니다.
  • 깊이 추정. 고급 모델은 2차원 이미지에서 3차원 구조를 유추하여 스테이크나 밥 더미와 같은 음식 항목의 높이 또는 두께를 추정합니다.
  • 학습된 포션 사전. 모델은 알려진 포션 무게가 있는 수십만 개의 이미지로 훈련되어 통계적 사전을 적용할 수 있습니다. 예를 들어, 가정식에서 단일 닭 가슴살은 일반적으로 120g에서 200g 범위에 해당합니다.

4단계: 영양 데이터 검색

음식 항목이 식별되고 포션이 추정되면, 시스템은 각 항목을 검증된 영양 데이터베이스의 해당 항목에 매핑합니다. Nutrola는 크라우드소싱된 데이터베이스가 아닌 선별된 데이터베이스를 사용하여 잘못되거나 중복된 항목의 위험을 줄입니다.

시스템은 각 탐지된 항목과 전체 식사에 대한 완전한 영양 분석을 반환합니다:

영양소 항목당 식사당
칼로리 (kcal) 제공됨 합산됨
단백질 (g) 제공됨 합산됨
탄수화물 (g) 제공됨 합산됨
지방 (g) 제공됨 합산됨
섬유질 (g) 제공됨 합산됨
주요 미량 영양소 제공됨 합산됨

5단계: 사용자 검토 및 확인

사용자는 결과를 확인하고, 로그 항목을 확인, 조정 또는 수정할 수 있습니다. 이 인간 참여 단계는 매우 중요합니다. 시스템이 현미밥을 백미로 잘못 식별하거나, 실제 포션이 200g에 가까운 데 150g으로 추정하는 경우, 사용자는 빠르게 수정할 수 있습니다. 시간이 지남에 따라 이러한 수정은 피드백 루프를 통해 시스템의 정확도를 개선하는 데도 도움이 됩니다.

사진 기반 음식 인식 기술의 배경

사진 기반 칼로리 추적을 가능하게 하는 여러 층의 인공지능과 머신러닝이 함께 작동합니다.

합성곱 신경망 (CNN)

대부분의 음식 인식 시스템의 기반은 이미지 분석을 위해 특별히 설계된 딥러닝 모델인 합성곱 신경망입니다. CNN은 이미지를 여러 필터 층을 통해 처리하여 점점 더 추상적인 특징을 감지합니다: 초기 층에서는 가장자리와 질감, 중간 층에서는 형태와 패턴, 깊은 층에서는 고수준의 음식 특성을 감지합니다.

현대 음식 인식 시스템은 일반 이미지에서 수백만 개의 데이터를 사전 훈련한 후 음식 특화 데이터셋으로 미세 조정된 ResNet, EfficientNet 또는 Vision Transformers (ViT)와 같은 아키텍처를 사용합니다.

다중 레이블 분류

표준 이미지 분류(이미지가 단일 레이블을 받는 경우)와 달리, 음식 인식은 다중 레이블 분류를 요구합니다. 단일 사진에는 다섯 개, 열 개 또는 그 이상의 개별 음식 항목이 포함될 수 있습니다. 모델은 각 항목을 독립적으로 감지하고 분류해야 하며, 이들 간의 공간적 관계를 이해해야 합니다.

전이 학습 및 도메인 적응

음식 인식 모델을 처음부터 훈련하려면 비현실적으로 큰 레이블 데이터셋이 필요합니다. 대신 현대 시스템은 전이 학습을 사용합니다: 대규모 일반 이미지 데이터셋(예: ImageNet)에서 사전 훈련된 모델로 시작한 후, 음식 특화 이미지로 미세 조정합니다. 이 접근 방식은 모델이 일반적인 시각적 이해(가장자리, 질감, 형태)를 활용하면서 음식 관련 특성에 전문화할 수 있게 합니다.

훈련 데이터

훈련 데이터의 품질과 다양성은 모델 아키텍처보다 더 중요할 수 있습니다. 효과적인 음식 인식 모델은 다음과 같은 데이터셋에서 훈련됩니다:

  • 수십만에서 수백만 개의 레이블이 붙은 음식 이미지
  • 다양한 요리, 조리 스타일 및 프레젠테이션 형식
  • 다양한 조명 조건, 각도 및 배경
  • 레스토랑 및 가정식 이미지
  • 부피 추정을 위한 포션 무게 주석

정확도: 연구 결과

사진 기반 칼로리 추적의 정확도는 두 가지 차원에서 측정할 수 있습니다: 음식 식별 정확도(시스템이 음식을 올바르게 식별했는가?)와 칼로리 추정 정확도(올바른 양을 추정했는가?).

음식 식별 정확도

현대 음식 인식 모델은 잘 조명되고 명확하게 제시된 사진의 벤치마크 데이터셋에서 85%에서 95%의 top-1 정확도를 달성합니다. top-5 정확도는 일반적으로 95%를 초과합니다.

그러나 벤치마크 정확도가 항상 실제 성능으로 직접 이어지지는 않습니다. 실제에서 정확도를 감소시키는 요인은 다음과 같습니다:

요인 정확도에 미치는 영향
조명 불량 또는 그림자 중간 정도 감소
비정상 각도 (극단적인 클로즈업, 측면 보기) 중간 정도 감소
혼합 또는 층이 있는 요리 (캐서롤, 스튜) 상당한 감소
드문 또는 지역 음식 상당한 감소
소스나 토핑으로 덮인 음식 중간에서 상당한 감소
여러 항목이 겹치는 경우 중간 정도 감소

칼로리 추정 정확도

음식 식별이 올바르더라도, 칼로리 추정은 포션 크기 추정으로 인해 추가 오류를 발생시킵니다. 2023년에서 2025년 사이에 발표된 연구에 따르면, 사진 기반 칼로리 추정은 일반적으로 표준 식사에 대해 실제 칼로리 내용의 15%에서 25% 이내에 해당합니다. 이는 수동 자기 보고의 정확도와 비교할 때 비슷하거나 더 나은 수준으로, 연구에 따르면 수동 보고는 평균적으로 칼로리 섭취량을 20%에서 50%까지 과소 추정하는 경향이 있습니다.

2024년 Journal of the Academy of Nutrition and Dietetics에 발표된 체계적인 리뷰에서는 AI 지원 사진 추적이 수동 추정에 비해 평균 추정 오류를 12% 포인트 줄였다고 밝혔습니다.

AI가 잘 처리하는 음식 vs. 어려움을 겪는 음식

모든 음식이 AI 시스템에서 동일하게 분석하기 쉬운 것은 아닙니다. 이러한 차이를 이해하면 사용자가 사진 기반 추적을 최대한 활용할 수 있습니다.

높은 인식 정확도를 가진 음식

  • 전체, 시각적으로 뚜렷한 항목. 바나나, 사과, 삶은 계란, 빵 조각. 이들은 일관되고 인식 가능한 형태와 질감을 가지고 있습니다.
  • 구성 요소가 분리된 접시 요리. 구운 치킨 가슴살과 함께 찐 브로콜리 및 밥이 있는 접시. 각 항목이 시각적으로 뚜렷하고 공간적으로 분리되어 있습니다.
  • 일반적인 서양 및 아시아 요리. 스시, 피자, 햄버거, 파스타 요리, 샐러드. 이러한 요리는 훈련 데이터셋에 많이 포함되어 있습니다.
  • 표준 형태의 포장 음식. 그래놀라 바, 요거트 컵, 참치 캔. 용기가 유용한 크기 참조를 제공합니다.

도전 과제가 있는 음식

  • 혼합 요리 및 캐서롤. 라자냐, 스튜 또는 커리와 같이 재료가 섞여 있는 요리는 모델이 개별 구성 요소와 그 비율을 식별하기 어렵게 만듭니다.
  • 소스, 드레싱 및 숨겨진 지방. 요리에 사용된 기름, 채소에 녹인 버터, 샐러드에 뿌려진 크리미 드레싱은 시각적으로 감지할 수 없는 100에서 300칼로리를 추가할 수 있습니다.
  • 지역 및 드문 요리. 훈련 데이터에 충분히 문서화되지 않은 음식(예: 특정 아프리카, 중앙 아시아 또는 토착 요리)은 인식률이 낮을 수 있습니다.
  • 음료. 오렌지 주스 한 잔과 망고 스무디 한 잔은 칼로리 수치가 다르지만 거의 동일하게 보일 수 있습니다. 크림이 들어간 커피와 블랙 커피 같은 어두운 음료도 도전 과제가 됩니다.
  • 밀도가 변동하는 음식. 두 그릇의 오트밀은 비슷하게 보일 수 있지만, 오트와 물의 비율에 따라 칼로리 내용이 크게 다를 수 있습니다.

사진 기반 추적 결과를 개선하기 위한 팁

사용자는 몇 가지 실용적인 가이드를 따르면 사진 기반 칼로리 추적의 정확성을 크게 향상시킬 수 있습니다.

  1. 상단 또는 45도 각도에서 촬영하세요. 상단에서 찍은 사진은 접시의 모든 항목을 가장 명확하게 보여주며 포션 추정에 가장 좋은 관점을 제공합니다.
  2. 좋고 고른 조명을 확보하세요. 자연광이 가장 좋은 결과를 제공합니다. 강한 그림자, 역광 또는 매우 어두운 환경은 피하세요.
  3. 음식을 가능한 한 분리하세요. 자신의 식사를 담을 때 항목을 시각적으로 분리하면 식별 및 포션 정확도가 모두 향상됩니다.
  4. 소스, 드레싱 및 요리 기름은 별도로 기록하세요. 이들은 숨겨진 칼로리의 가장 일반적인 원인입니다. 사진 분석 후 수동 항목으로 추가하여 캡처되도록 하세요.
  5. 검토하고 수정하세요. AI의 결과를 확인한 후 확인하기 전에 몇 초를 투자하세요. 잘못 식별된 항목을 수정하는 데는 5초가 걸리지만, 이를 무시하면 수일 및 수주에 걸쳐 오류가 누적됩니다.
  6. 식사 전에 사진을 찍으세요. 먹기 전에 사진을 찍으면 전체 포션이 보이게 됩니다. 반쯤 먹은 접시는 시스템이 정확하게 분석하기 더 어렵습니다.
  7. 표준 접시나 그릇을 사용하세요. 시스템은 용기를 크기 참조로 사용합니다. 비정상적인 용기(예: 매우 큰 서빙 플래터 또는 작은 애피타이저 접시)는 포션 추정에 영향을 줄 수 있습니다.

사진 기반 추적 vs. 수동 기록 vs. 바코드 스캔

각 식사 기록 방법은 고유한 강점과 약점을 가지고 있습니다. 아래 표는 직접 비교를 제공합니다.

기능 사진 기반 (Snap & Track) 수동 데이터베이스 검색 바코드 스캔
항목당 속도 5-10초 60-120초 10-15초
포장 음식의 정확도 좋음 좋음 (올바른 항목 선택 시) 우수 (정확한 일치)
가정식의 정확도 좋음 보통 (추정에 의존) 해당 없음
레스토랑 식사의 정확도 좋음 나쁨에서 보통 해당 없음
혼합 요리 처리 보통 좋음 (사용자가 재료를 알고 있을 경우) 해당 없음
숨겨진 지방/기름 캡처 나쁨 보통 (사용자가 기억할 경우) 해당 없음
학습 곡선 매우 낮음 보통 낮음
사용자 노력 최소 높음 낮음 (포장된 것만)
장기적 지속 가능성 높음 낮음에서 보통 보통
포장 없이 작동 아니오

각 방법을 사용할 때

가장 효과적인 접근 방식은 상황에 따라 세 가지 방법을 모두 사용하는 것입니다:

  • Snap & Track은 대부분의 식사, 특히 가정식 접시와 음식이 보이는 레스토랑 식사에 적합합니다.
  • 바코드 스캔은 바코드가 있는 포장 음식, 간식 및 음료에 대해 가장 정확한 영양 데이터를 제공합니다.
  • 수동 입력은 사진에서 보이지 않는 특정 재료(예: 요리 기름, 버터 또는 소스)에 가장 적합하며, AI가 인식하지 못하는 음식에 대해서도 사용할 수 있습니다.

Nutrola는 모든 세 가지 방법을 단일 인터페이스 내에서 지원하여 사용자가 각 식사에 필요한 방법을 조합할 수 있도록 합니다.

개인 정보 보호: 사진 데이터 처리 방법

앱이 음식 사진을 촬영하도록 요청할 때 개인 정보 보호는 정당한 우려 사항입니다. 다양한 애플리케이션이 사진 데이터를 처리하는 방법은 다르며, 사용자는 이러한 차이를 이해해야 합니다.

클라우드 처리 vs. 장치 내 처리

대부분의 사진 기반 칼로리 추적 시스템은 이미지를 클라우드에서 처리합니다. 사진은 원격 서버에 업로드되어 AI 모델이 분석하고 결과가 장치로 전송됩니다. 이 접근 방식은 스마트폰에서 실행하기에는 너무 계산 비용이 많이 드는 더 크고 정확한 모델을 사용할 수 있게 합니다.

장치 내 처리는 사용자의 전화에서 사진을 유지하며, 로컬에서 더 작은 AI 모델을 실행합니다. 이 방법은 이미지가 장치를 떠나지 않기 때문에 더 강력한 개인 정보 보호 보장을 제공하지만, 장치 내 모델은 일반적으로 클라우드 기반 모델보다 작고 덜 능력적이기 때문에 정확도가 떨어질 수 있습니다.

Nutrola의 접근 방식

Nutrola는 최고의 정확성을 보장하기 위해 클라우드 기반 AI 모델을 사용하여 음식 이미지를 처리합니다. 이미지는 암호화된 연결(TLS 1.3)을 통해 전송되며, 영양 분석을 위해 처리되고 분석이 완료된 후 Nutrola의 서버에 영구적으로 저장되지 않습니다. 이미지는 광고에 사용되거나 제3자에게 판매되거나 영양 분석 파이프라인 외부와 공유되지 않습니다.

사용자는 데이터 처리, 보존 기간 및 개인 데이터에 대한 권리에 대한 자세한 정보를 보려면 Nutrola의 전체 개인 정보 보호 정책을 확인할 수 있습니다.

주요 개인 정보 보호 고려 사항

우려 사항 확인해야 할 사항
데이터 암호화 전송 중 TLS/SSL
이미지 보존 분석 후 사진이 삭제되는지 여부
제3자 공유 이미지가 광고주나 데이터 중개인과 공유되는지 여부
훈련 데이터 사용 사용자의 사진이 AI 모델 훈련에 사용되는지 여부
데이터 삭제 권리 모든 저장된 데이터 삭제 요청 가능 여부

사진 기반 칼로리 추적의 미래

사진 기반 음식 인식 기술은 빠르게 발전하고 있습니다. 몇 가지 발전이 가까운 미래에 정확성과 기능을 크게 향상시킬 것으로 예상됩니다.

다각도 및 비디오 기반 추정. 단일 사진에 의존하기보다는, 미래 시스템은 짧은 비디오 클립이나 여러 각도를 사용하여 식사에 대한 3차원 이해를 구축하여 포션 크기 추정을 크게 개선할 수 있습니다.

깊이 센서. LiDAR 또는 구조화된 빛 깊이 센서가 장착된 스마트폰(일부 플래그십 모델에 이미 존재)은 정확한 깊이 정보를 제공하여 시스템이 평면 이미지에서 음식의 부피를 계산할 수 있게 합니다.

개인화된 모델. 사용자가 시간을 두고 식사를 기록하고 수정함에 따라 시스템은 특정 음식 선호도, 일반적인 포션 크기 및 조리 스타일을 학습하여 특정 식단에 대한 정확성을 높이는 개인화된 모델을 생성할 수 있습니다.

확대된 요리 범위. 훈련 데이터셋의 다양성을 높이기 위한 지속적인 노력은 저조하게 문서화된 요리에 대한 인식 정확도를 개선하여 기술이 전 세계 사용자에게 더 공평하고 유용하게 만듭니다.

웨어러블 데이터와의 통합. 사진 기반 음식 기록을 피트니스 트래커, 지속적인 혈당 모니터 및 기타 웨어러블 장치의 데이터와 결합하면 보다 전체적이고 정확한 영양 분석이 가능해질 것입니다.

자주 묻는 질문

사진 기반 칼로리 추적의 정확도는 수동 기록과 비교하여 얼마나 되나요?

사진 기반 칼로리 추적은 일반적으로 표준 식사에 대해 실제 값의 15%에서 25% 이내로 칼로리 내용을 추정합니다. 도구 없이 수동 자기 보고는 평균적으로 칼로리 섭취량을 20%에서 50%까지 과소 추정하는 경향이 있습니다. 사용자가 AI 생성 추정을 검토하고 수정하면, 사진 기반 추적은 일반적으로 수동 기록보다 동등하거나 더 나은 정확성을 제공하며, 필요한 시간과 노력은 훨씬 적습니다. AI 추정과 인간 검토의 조합은 단독으로 접근하는 것보다 성능이 뛰어납니다.

Snap & Track은 모든 요리의 음식을 인식할 수 있나요?

Snap & Track은 훈련 데이터에 잘 나타나는 요리에서 가장 잘 작동합니다. 여기에는 대부분의 서양, 동아시아, 남아시아 및 라틴 아메리카 요리가 포함됩니다. 덜 문서화된 지역 요리에 대한 인식 정확도는 낮을 수 있지만, 이는 적극적으로 개선 중인 분야입니다. 시스템이 특정 요리를 인식하지 못하는 경우, 사용자는 항상 수동 입력이나 데이터베이스 직접 검색으로 돌아갈 수 있습니다. Nutrola는 전 세계 요리 범위를 개선하기 위해 음식 이미지 훈련 데이터를 지속적으로 확장하고 있습니다.

Snap & Track은 수프, 스튜 및 캐서롤과 같은 혼합 요리와 함께 작동하나요?

혼합 요리는 개별 재료가 섞여 시각적으로 뚜렷하지 않기 때문에 사진 기반 인식에서 가장 도전적인 범주 중 하나입니다. Snap & Track은 칠리, 라면 또는 커리와 같은 많은 일반 혼합 요리를 전체 항목으로 식별하고 표준 레시피를 기반으로 한 추정된 영양 데이터를 제공할 수 있습니다. 비표준 재료로 만든 가정식 혼합 요리는 사용자가 개별 재료를 수동으로 기록하거나 레시피 빌더 기능을 사용하여 맞춤 항목을 만드는 것이 더 정확합니다.

내 음식 사진이 저장되거나 제3자와 공유되나요?

Nutrola는 클라우드 기반 AI 분석을 위해 음식 이미지를 암호화된 연결을 통해 전송합니다. 분석이 완료된 후 사진은 Nutrola의 서버에 영구적으로 저장되지 않으며, 제3자와 공유되거나 광고에 사용되거나 데이터 중개인에게 판매되지 않습니다. 사용자는 자신의 데이터에 대한 완전한 제어권을 유지하며, 앱의 개인 정보 보호 설정을 통해 언제든지 저장된 정보를 삭제 요청할 수 있습니다.

사진 기반 칼로리 추적을 사용하려면 특별한 카메라나 장비가 필요한가요?

특별한 장비는 필요하지 않습니다. 2018년 이후의 모든 현대 스마트폰 카메라가 정확한 음식 인식을 위한 충분한 이미지 품질을 제공합니다. 더 높은 해상도의 카메라와 더 나은 조명이 결과를 개선하지만, 시스템은 표준 스마트폰 하드웨어로 잘 작동하도록 설계되었습니다. 참조 물체, 보정 단계 또는 외부 액세서리는 필요하지 않습니다.

Snap & Track을 모든 식사에 사용해야 하나요, 아니면 다른 방법이 더 나은 경우가 있나요?

가장 정확한 접근 방식은 각 상황에 맞는 방법을 사용하는 것입니다. Snap & Track은 접시 요리, 레스토랑 식사 및 음식이 보이는 모든 상황에 적합합니다. 바코드 스캔은 바코드가 있는 포장 음식에 대해 더 정확하며, 이는 제조업체의 정확한 데이터를 검색합니다. 수동 입력은 사진에서 보이지 않는 재료(예: 요리 기름, 버터 또는 보충제)에 가장 적합합니다. 각 방법을 적절하게 사용하는 것이 가장 정확한 일일 영양 로그를 생성합니다.

영양 추적을 혁신할 준비가 되셨나요?

Nutrola로 건강 여정을 바꾼 수천 명에 합류하세요!