האם ה-AI שלך חולם בהקיץ? הסכנה בשימוש ב-LLMs גנריים לייעוץ תזונתי

ChatGPT ו-Gemini יכולים לכתוב שירה, אבל האם הם יכולים לספור את הקלוריות שלך? בדקנו LLMs גנריים מול נתוני תזונה מאומתים והתוצאות צריכות להדאיג כל מי שמשתמש בהם למעקב תזונתי.

Medically reviewed by Dr. Emily Torres, Registered Dietitian Nutritionist (RDN)

"שלום ChatGPT, כמה קלוריות יש בסטיר-פרי עוף שלי?"

התשובה מגיעה מיד ובביטחון: "סטיר-פרי עוף טיפוסי מכיל בערך 350 עד 450 קלוריות למנה." זה נשמע סביר. אפילו מפרט את המקרו. אבל יש בעיה: המספר הוא בדוי. לא מוערך, לא משוער, אלא נוצר מדפוסים סטטיסטיים בנתוני טקסט ללא קשר למסד נתונים תזונתי אמיתי.

זה מה שחוקרי AI מכנים הזיה, וכשהיא מתרחשת בהקשר של תזונה, ההשלכות עוברות מעבר למאמר גרוע או תשובה לא נכונה. אנשים מקבלים החלטות תזונתיות אמיתיות על סמך המספרים הללו, וההחלטות הללו משפיעות על בריאותם.

מה המשמעות של "הזיה" בהקשר תזונתי

בטרמינולוגיה של מודלים לשוניים גדולים, הזיה מתרחשת כאשר המודל מייצר מידע שנשמע סביר אך הוא שגוי מבחינה עובדתית. LLMs לא מחפשים עובדות במסד נתונים. הם מנבאים את המילה הבאה הסבירה ביותר ברצף בהתבסס על דפוסים שנלמדו במהלך האימון.

כאשר אתה שואל את ChatGPT על תוכן הקלוריות של מזון, הוא לא מחפש במסד הנתונים USDA FoodData Central או מצלב את המידע עם NCCDB. הוא מייצר תשובה שנראית סטטיסטית כמו התשובה שהייתה מופיעה בנתוני האימון שלו. לפעמים התשובה קרובה לנכונה. לפעמים היא רחוקה מאוד.

הסכנה היא שהרמה של הביטחון זהה בשני המקרים. ספירת קלוריות שהוזתה נשמעת בדיוק כמו אחת מדויקת.

היכן LLMs גנריים טועים בתזונה

ערכנו סדרת בדיקות שביקשה מ-ChatGPT (GPT-4o), Gemini ו-Claude להעריך את התוכן התזונתי של מנות נפוצות. לאחר מכן השווינו את ההערכות הללו לערכים מאומתים על ידי USDA ולמסד הנתונים שנבדק על ידי תזונאים של Nutrola. דפוסי הכישלון היו עקביים ומגלה.

דיוק בדוי

שאל LLM "כמה קלוריות יש בכף שמן זית?" וסביר להניח שתקבל תשובה נכונה: בערך 119 קלוריות. זה קורה כי עובדה ספציפית זו מופיעה לעיתים קרובות בנתוני האימון.

אבל שאל "כמה קלוריות יש בטיקה מסאלה עוף ביתי עם נאן?" והמודל צריך לאלתר. בבדיקות שלנו, GPT-4o החזיר הערכות שנעו בין 450 ל-750 קלוריות עבור אותה מנה מתוארת בשיחות שונות. הערך האמיתי, שחושב מתכון סטנדרטי עם נתוני רכיבים מאומתים, היה 685 קלוריות. תשובה אחת הייתה קרובה. אחרות היו רחוקות ב-200 קלוריות.

למודל אין דרך לסמן אילו תשובות הן חיפושי מידע אמינים ואילו הן ניחושים אלתור.

עיוורון לשיטת הכנה

ל-LLMs יש נקודת עיוורון בסיסית לגבי איך המזון מוכן. "חזה עוף בגריל" ו"חזה עוף מטוגן בחמאה" עשויים לקבל הערכות קלוריות דומות כי המודל מתמקד ברכיב הראשי ולא בשיטת הבישול.

בבדיקות שלנו, כאשר שאלנו על "סלמון" מבלי לציין הכנה, התשובות נוטות להניח באופן עקבי הערכה אפויה או בגריל של כ-230 עד 280 קלוריות לפילה של 6 אונקיות. פילה סלמון של 6 אונקיות מטוגן בשתי כפות חמאה עם רוטב טריאקי מכיל למעשה קרוב ל-450 עד 500 קלוריות. הפער משמעותי מספיק כדי לערער על חסר קלורי לאורך זמן.

הזיית גודל מנה

אולי מצב הכישלון המסוכן ביותר הוא הנחה לגבי גודל המנה. כאשר אתה שואל LLM גנרי על קלוריות של מזון, הוא חייב להניח גודל מנה. ההנחות הללו אינן עקביות ולעיתים קרובות אינן מצוינות.

"בצלחת פסטה" עשויה להיות מוערכת ב-300 עד 400 קלוריות. אבל של מי הבצלחת? מנה סטנדרטית של 2 אונקיות פסטה יבשה עם רוטב מרינרה מכילה כ-280 קלוריות. מנה במסעדה של 4 עד 6 אונקיות פסטה יבשה עם רוטב יכולה בקלות להגיע ל-600 עד 900 קלוריות. ה-LLM בוחר מספר באמצע ומציג אותו כעובדה.

טעויות מצטברות בתוכניות ארוחות

הסיכון הולך ומתרקם כאשר משתמשים מבקשים מ-LLMs ליצור תוכניות ארוחות מלאות. כל הערכה נושאת שגיאה, והשגיאות הללו מצטברות על פני מנות וימים. תוכנית ארוחות שטוענת שהיא מספקת 1,800 קלוריות ביום עשויה למעשה לספק 2,200 או 1,400 תלוי בכיוון השגיאות.

עבור מישהו שמשתמש בתוכנית ארוחות כדי לנהל מצב רפואי כמו סוכרת, או כדי לעמוד ביעדי ביצועים ספורטיביים ספציפיים, רמת חוסר הדיוק הזו אינה רק לא מועילה. היא עשויה להיות מסוכנת.

מדוע AI תזונה ייעודי שונה

ההבדל בין LLM גנרי למערכת תזונה ייעודית הוא ארכיטקטוני, ולא קוסמטי.

תגובות מבוססות מסד נתונים

ה-AI של Nutrola לא מייצר הערכות קלוריות מדפוסי שפה. כאשר הוא מזהה פריט מזון, הוא מקשר את הזיהוי הזה לרשומה מאומתת במסד נתונים תזונתי. המסד כולל רשומות שמקורן ב-USDA FoodData Central, מסדי נתונים תזונתיים לאומיים ממדינות שונות, ורשומות שנבדקו על ידי תזונאים.

זה אומר שהמערכת לא יכולה להמציא ספירת קלוריות. המספר מגיע מרשומה ספציפית שניתן לאמת, ולא ממודל שפה סטטיסטי.

אימות חזותי

כאשר משתמש מצלם ארוחה, המודל של Nutrola מזהה פריטי מזון בודדים ומעריך את גדלי המנות על סמך ניתוח חזותי. ההקשר החזותי הזה מספק בדיקה ש-LLMs טקסטואליים לא יכולים לבצע. המערכת למעשה מסתכלת על מה שאתה אוכל ולא מנחשת מתיאור טקסטואלי.

חוסר ודאות שקוף

מערכת תזונה מעוצבת היטב מכירה כאשר היא אינה בטוחה. אם מנה אינה ברורה או שגודל המנה קשה להערכה מתמונה, המערכת יכולה להדגיש את חוסר הוודאות ולבקש מהמשתמש הבהרה. LLMs כמעט אף פעם לא מצביעים על כך שההערכות התזונתיות שלהם הן בעלות ביטחון נמוך, כי אין להם מנגנון למדוד את הביטחון שלהם לגבי טענות עובדתיות.

הסיכונים הבריאותיים האמיתיים

נתוני קלוריות לא מדויקים מ-AI אינם בעיה אבסטרקטית. הם מתבטאים בדרכים קונקרטיות.

כישלון בניהול משקל. חישוב שגוי של 200 קלוריות ביום משנה את התוצאה של כל דיאטה. במשך 30 ימים, זהו שגיאה של 6,000 קלוריות, בערך שווה ל-1.7 פאונד של שומן גוף בכיוון כלשהו.

עיוורון למיקרו-נוטריינטים. LLMs לעיתים רחוקות מספקים נתוני מיקרו-נוטריינטים, וכאשר הם עושים זאת, המספרים אפילו פחות אמינים מהערכות הקלוריות שלהם. מישהו שעוקב אחרי צריכת ברזל במהלך הריון או עוקב אחרי נתרן עבור יתר לחץ דם לא יכול להסתמך על הערכות שנוצרו.

ביטחון שקרי. הסיכון הכי מסוכן הוא שהמשתמש מאמין שיש לו נתונים מדויקים כאשר למעשה אין. הביטחון השקרי הזה מונע מהם לחפש כלים טובים יותר או לבצע התאמות על סמך תוצאות אמיתיות.

מתי זה בסדר לשאול LLM על מזון

LLMs גנריים אינם חסרי תועלת בתחום התזונה. הם יעילים עבור סוגים מסוימים של שאלות:

  • חינוך כללי: "אילו מזונות עשירים באשלגן?" או "מה ההבדל בין סיבים מסיסים ולא מסיסים?" אלו שאלות ידע שבהן תשובות משוערות הן מתאימות.
  • רעיון למתכונים: "תן לי רעיון לארוחת צהריים עשירה בחלבון מתחת ל-500 קלוריות" יכול להניב השראה שימושית, גם אם יש לאמת את ספירת הקלוריות המדויקת.
  • הבנת מושגים: "הסבר מהו חסר קלורי" או "איך חלבון עוזר בהתאוששות שרירים?" הם תחומים שבהם LLMs פועלים היטב.

הקו ברור: השתמש ב-LLMs כדי ללמוד על תזונה. השתמש בכלים מאומתים מבוססי מסד נתונים למעקב אחריה.

איך לאמת כל טענה תזונתית של AI

בין אם אתה משתמש בצ'אט בוט או בכל כלי אחר, ישנם צעדים מעשיים לבדוק את הנתונים שאתה מקבל:

  1. השווה עם USDA FoodData Central. מסד הנתונים של USDA הוא חינמי, ציבורי ומאומת במעבדה. אם ההערכה של AI נבדלת משמעותית מהרשומה של USDA עבור אותו מזון, סביר להניח שה-AI שגוי.
  2. בדוק הנחות לגבי גודל המנה. תמיד שאל או אמת על מה גודל המנה שעליו מתבססת ההערכה. מספר קלוריות ללא גודל מנה הוא חסר משמעות.
  3. חשב על שיטת ההכנה. אותו רכיב יכול להשתנות ב-2 עד 3 פעמים בצפיפות קלורית בהתאם אם הוא נא, אפוי, מטוגן או מוקפץ בשמן.
  4. היה ספקן לגבי מספרים עגולים. אם AI אומר לך שמנה מכילה "בדיוק 500 קלוריות", זו הערכה שנוצרה, לא ערך שנמדד. נתוני תזונה אמיתיים כוללים מספרים ספציפיים כמו 487 או 523.

שאלות נפוצות

האם ChatGPT מדויק לספירת קלוריות?

ChatGPT ודומיו אינם אמינים לספירת קלוריות. הם מייצרים הערכות על סמך דפוסי טקסט ולא מחפשים ערכים במסדי נתונים תזונתיים מאומתים. בבדיקות, הערכות קלוריות של LLM למנות מורכבות השתנו ב-200 עד 300 קלוריות בין שאלות שונות עבור אותו מזון. עבור פריטים פשוטים ומוכרים כמו "ביצה גדולה אחת", ההערכות נוטות להיות קרובות כי הנתונים מופיעים לעיתים קרובות בטקסט האימון. עבור מנות מוכנות, מנות במסעדות ומזונות עם רכיבים מעורבים, שיעור השגיאה עולה משמעותית.

האם אני יכול להשתמש ב-ChatGPT למעקב אחרי מקרו?

שימוש ב-ChatGPT למעקב אחרי מקרו אינו מומלץ עבור מי שמטרתו להשיג יעדים בריאותיים או כושר ספציפיים. המודל אינו יכול לקחת בחשבון את גדלי המנות האמיתיים שלך, שיטות הבישול או רכיבים ספציפיים. הוא גם חסר עקביות; לשאול את אותה שאלה פעמיים יכול להניב פיצול מקרו שונה. עבור מודעות כללית אם מזון עשיר בחלבון או פחמימות, LLM יכול לספק מידע כיווני שימושי. למעקב מדויק, אפליקציית תזונה ייעודית עם מסד נתונים מאומת תספק תוצאות מדויקות ועקביות הרבה יותר.

מהי הזיה AI בתזונה?

הזיה AI בתזונה מתייחסת למצב שבו מודל שפה מייצר נתוני תזונה, כמו ספירות קלוריות, פיצולים מקרו או ערכי מיקרו-נוטריינטים, שנשמעים סמכותיים אך הם שגויים עובדתית. המודל לא משקר בכוונה; הוא מנבא טקסט שנשמע סביר על סמך דפוסים. התוצאה היא ספירת קלוריות שנשמעת כמו עובדה אך לא אומתה מול שום מסד נתונים תזונתי. זה מסוכן במיוחד כי המשתמשים אין להם דרך להבחין בין הערכה שהוזתה לבין אחת מדויקת ללא השוואה ידנית.

איך אני יודע אם ה-AI התזונתי שלי מספק נתונים מדויקים?

בדוק שלושה דברים. קודם כל, שאל אם הכלי שואב ממסד נתונים תזונתי מאומת כמו USDA FoodData Central או NCCDB, ולא מייצר הערכות ממודל שפה. שנית, אמת שהוא לוקח בחשבון שיטות הכנה, שכן שיטת הבישול יכולה לשנות את תוכן הקלוריות של מזון ב-50 עד 200 אחוז. שלישית, בדוק אם הכלי מציין את גודל המנה המדויק שעליו מתבססת ההערכה. AI תזונה אמין צריך להיות שקוף לגבי מקורות הנתונים שלו ולסמן הערכות לא בטוחות במקום להציג כל מספר עם ביטחון שווה.

האם בטוח לעקוב אחרי תוכנית ארוחות שנוצרה על ידי AI?

תוכניות ארוחות שנוצרות על ידי AI יכולות להיות שימושיות כבסיסים להתחלה, אבל לא כדאי לעקוב אחריהן בעיוורון עבור מטרות רפואיות או ביצוע ספציפיות. כל הערכת קלוריות בתוכנית נושאת שגיאה פוטנציאלית, והשגיאות הללו מצטברות על פני יום שלם של אכילה. אם התוכנית טוענת שהיא מספקת 1,800 קלוריות אבל כל הערכת מנה שגויה ב-10 עד 15 אחוז, הצריכה היומית בפועל יכולה לנוע בין 1,500 ל-2,100 קלוריות. עבור השראה לאכילה בריאה כללית, תוכניות ארוחות של AI הן התחלה סבירה. עבור ניהול תזונה קלינית, תוכניות ירידה במשקל או דיאטות לביצועים ספורטיביים, היעדים הקלוריים והמקרו צריכים להיות מאומתים מול כלי מבוסס מסד נתונים.

מוכנים לשנות את מעקב התזונה שלכם?

הצטרפו לאלפים ששינו את מסע הבריאות שלהם עם Nutrola!