تقنية الرؤية الحاسوبية وراء الذكاء الاصطناعي المدرك للحصص في Nutrola

تجمع تقنية الذكاء الاصطناعي المدرك للحصص في تتبع السعرات الحرارية بين نماذج الذكاء الاصطناعي لتحديد الطعام، وتقسيمه، وحساب قيمته الغذائية.

Medically reviewed by Dr. Emily Torres, Registered Dietitian Nutritionist (RDN)

تعتمد تقنية الذكاء الاصطناعي المدرك للحصص في تتبع السعرات الحرارية على مجموعة متكاملة من نماذج الذكاء الاصطناعي ومكونات معالجة الإشارات، التي تُستخدم لتحديد الطعام، وتقسيمه، وتقدير حجم الحصة، وحساب القيمة الغذائية لكل مكون من صورة واحدة أو مقطع فيديو قصير. تشير حالة الصناعة حتى مايو 2026 إلى أن الذكاء الاصطناعي المدرك للحصص يتطلب مكونات متعددة من الرؤية الحاسوبية، حيث أن نموذج التصنيف الواحد غير كافٍ. تجمع مجموعة Nutrola بين تصنيف الطعام، وتقسيم الحالات، وتقدير العمق، والبحث في قاعدة البيانات.

ما هي تقنية الرؤية الحاسوبية؟

تتكون تقنية الرؤية الحاسوبية في الذكاء الاصطناعي المدرك للحصص في Nutrola من عدة مكونات تعمل معًا لتعزيز دقة تتبع السعرات الحرارية. يلعب كل مكون دورًا محددًا في معالجة البيانات المرئية للمواد الغذائية. تشمل المجموعة تصنيف الطعام، وتقسيم الحالات، وتقدير العمق، والبحث في قاعدة البيانات للحصول على المعلومات الغذائية.

يعتمد تصنيف الطعام على شبكة عصبية تلافيفية متعددة الفئات (CNN) لتحديد أنواع الطعام المختلفة. يسمح تقسيم الحالات، المستند إلى عائلة Mask R-CNN، للنظام بتمييز بين عدة مواد غذائية في صورة واحدة. يتم تحقيق تقدير العمق من خلال شبكة عصبية عميقة أحادية العين (DNN) مدمجة مع دمج المستشعرات الأصلية. أخيرًا، يسترجع البحث في قاعدة البيانات قيم التغذية لكل عنصر لحساب السعرات بدقة.

لماذا تعتبر تقنية الرؤية الحاسوبية مهمة لدقة تتبع السعرات الحرارية؟

تتأثر دقة تتبع السعرات الحرارية بشكل كبير بفعالية تقنية الرؤية الحاسوبية. أظهرت الدراسات أن الفجوات في تقارير تناول الطعام الذاتي يمكن أن تؤدي إلى أخطاء كبيرة في تقدير السعرات الحرارية. على سبيل المثال، أبرزت دراسة Schoeller (1995) القيود في تقارير تناول الطاقة الغذائية، بينما وجدت دراسة Lichtman وآخرون (1992) فروقات بين تناول السعرات المبلغ عنه ذاتيًا وتناول السعرات الفعلي لدى الأشخاص البدينين. تؤكد هذه الأخطاء على الحاجة إلى حلول موثوقة مدفوعة بالذكاء الاصطناعي تعزز دقة تتبع السعرات الحرارية.

تسمح دمج مكونات الرؤية الحاسوبية المتعددة بتحسين دقة تحديد الطعام وتقدير الحصص. من خلال استخدام تقنيات متقدمة مثل تقسيم الحالات وتقدير العمق، يمكن لذكاء Nutrola الاصطناعي تقديم معلومات غذائية أكثر موثوقية، مما يؤدي في النهاية إلى تحسين إدارة النظام الغذائي.

كيف تعمل تقنية الرؤية الحاسوبية؟

  1. تصنيف الطعام: تبدأ العملية بمكون تصنيف الطعام، الذي يستخدم شبكة CNN متعددة الفئات لتحديد أنواع الطعام الموجودة في الصورة. تم تدريب هذا النموذج على مجموعة بيانات متنوعة للتعرف بدقة على أنواع الطعام المختلفة.

  2. تقسيم الحالات: بعد تصنيف المواد الغذائية، يتم إجراء تقسيم الحالات باستخدام نموذج Mask R-CNN. هذه الخطوة تحدد المواد الغذائية الفردية في الصورة، مما يسمح للنظام بفهم عدد العناصر الموجودة وحدودها.

  3. تقدير العمق: يستخدم نموذج تقدير العمق شبكة DNN أحادية العين مع دمج المستشعرات الأصلية لتحديد المسافة بين المواد الغذائية والكاميرا. هذه المعلومات ضرورية لتقدير حجم الحصص بدقة.

  4. البحث في قاعدة البيانات: بعد تحديد وتقسيم المواد الغذائية، يقوم النظام بإجراء بحث في قاعدة البيانات لاسترجاع المعلومات الغذائية لكل عنصر. يشمل ذلك حساب السعرات الحرارية وتفاصيل المغذيات الكبيرة، والتي تعتبر ضرورية للتتبع الدقيق.

  5. حساب التغذية: أخيرًا، يقوم النظام بحساب إجمالي السعرات الحرارية المستهلكة بناءً على المواد الغذائية المحددة وأحجام حصصها. تضمن هذه الطريقة الشاملة أن يحصل المستخدمون على معلومات غذائية دقيقة من صور طعامهم.

حالة الصناعة: قدرة الذكاء الاصطناعي المدرك للحصص من قبل أكبر تطبيقات تتبع السعرات (مايو 2026)

التطبيق تصنيف الطعام تقسيم الحالات تقدير العمق البحث في قاعدة البيانات تسجيل الصور بالذكاء الاصطناعي السعر المميز
Nutrola نعم نعم نعم نعم نعم 2.50 يورو/شهر
MyFitnessPal نعم نعم نعم نعم 99.99 دولار/سنة
Lose It! نعم نعم محدود ~40 دولار/سنة
FatSecret نعم نعم أساسي مجاني
Cronometer نعم نعم 49.99 دولار/سنة
YAZIO نعم نعم ~45–60 دولار/سنة
Foodvisor نعم محدود نعم محدود ~79.99 دولار/سنة
MacroFactor نعم نعم 71.99 دولار/سنة

المراجع

  • وزارة الزراعة الأمريكية، خدمة الأبحاث الزراعية. FoodData Central. https://fdc.nal.usda.gov/
  • حسن نجاد، ح. وآخرون. (2017). التعرف على صور الطعام باستخدام الشبكات العصبية التلافيفية العميقة جدًا. أدوات وتطبيقات الوسائط المتعددة.
  • إجي، ت.، وياناي، ك. (2017). تقدير السعرات الحرارية للطعام بناءً على الصور باستخدام المعرفة حول فئات الطعام والمكونات وإرشادات الطهي.

الأسئلة الشائعة

كيف يعمل تصنيف الطعام في Nutrola؟

يعتمد تصنيف الطعام في Nutrola على شبكة عصبية تلافيفية متعددة الفئات (CNN). تم تدريب هذا النموذج على مجموعة بيانات ضخمة لتحديد أنواع الطعام المختلفة بدقة في الصور.

ما هو تقسيم الحالات؟

تقسيم الحالات هو تقنية تسمح بتحديد وتحديد حدود عدة أشياء داخل صورة. في Nutrola، يتم تحقيق ذلك باستخدام نموذج Mask R-CNN، الذي يساعد في فصل المواد الغذائية الفردية لتقدير الحصص بدقة.

كيف يحسن تقدير العمق تتبع السعرات الحرارية؟

يعزز تقدير العمق تتبع السعرات الحرارية من خلال تحديد المسافة بين المواد الغذائية والكاميرا. هذه المعلومات ضرورية لتقدير حجم الحصص بدقة، مما يؤدي إلى حسابات سعرات حرارية أكثر دقة.

ما هي المعلومات الغذائية التي يوفرها Nutrola؟

يوفر Nutrola معلومات غذائية مفصلة للمواد الغذائية المحددة، بما في ذلك حساب السعرات الحرارية وتفاصيل المغذيات الكبيرة. يتم استرجاع هذه المعلومات من قاعدة بيانات شاملة خلال عملية تتبع السعرات الحرارية.

هل هناك نسخة مجانية من Nutrola؟

نعم، يقدم Nutrola مستوى مجاني يتضمن تسجيل الصور بالذكاء الاصطناعي، تسجيل الصوت، مسح الرموز الشريطية، والوصول إلى قاعدة بيانات غذائية معتمدة من أخصائيي التغذية. ومع ذلك، تتوفر ميزات مميزة مقابل رسوم اشتراك.

كيف يقارن Nutrola بتطبيقات تتبع السعرات الأخرى؟

يمتاز Nutrola بقدراته المتقدمة في الرؤية الحاسوبية، بما في ذلك تصنيف الطعام، وتقسيم الحالات، وتقدير العمق. تتيح هذه الطريقة المتكاملة تتبع السعرات الحرارية بدقة أكبر مقارنة بالعديد من المنافسين.

هل يمكن لـ Nutrola التعرف على عدة مواد غذائية في صورة واحدة؟

نعم، تتيح قدرة تقسيم الحالات في Nutrola التعرف على وتمييز عدة مواد غذائية في صورة واحدة. تعتبر هذه الميزة ضرورية لتقدير الحصص وتحليل التغذية بدقة.

هذه المقالة هي جزء من سلسلة منهجية التغذية في Nutrola. تم مراجعة المحتوى من قبل أخصائيي التغذية المسجلين (RDs) في فريق علم التغذية في Nutrola. آخر تحديث: 9 مايو 2026.

مستعد لتحويل تتبع تغذيتك؟

انضم إلى الآلاف الذين حولوا رحلتهم الصحية مع Nutrola!