視覚障害者のためのカロリー追跡:AIと音声で可能にする方法

従来のカロリー追跡アプリは視覚を持つユーザー向けに設計されていました。AIの画像認識と音声インターフェースにより、栄養管理がすべての人にアクセス可能になりました。

Medically reviewed by Dr. Emily Torres, Registered Dietitian Nutritionist (RDN)

マーカスは42歳で、データベース管理者として働いています。彼は20代後半から網膜色素変性症の影響で徐々に視力が低下しています。光や形は認識できますが、画面上の小さな文字を読むことは、かなりの支援技術がなければ不可能です。彼は何年もカロリーを追跡したいと思っていました。医者も栄養士もそれを勧めました。彼は本当に、6年間で少なくとも4つの異なるアプリを試しましたが、どれも1週間以内に彼を打ち負かしました。

「皮肉なことに、私はデータを扱う仕事をしている人間です。数字が大好きで、パターンも好きです。カロリー追跡は私にぴったりのはずなのに、試したアプリはすべて、食べ物を食べるのは完璧な視力を持つ人だけだと考えられているようでした。」とマーカスは語りました。

彼は決して一人ではありません。世界保健機関によれば、全世界で少なくとも22億人が近視または遠視の障害を抱えています。アメリカだけでも、40歳以上の約1200万人が何らかの視覚障害を持ち、その中には100万人の盲目の人々が含まれています。これは小さな数字ではありません。それにもかかわらず、カロリー追跡業界は歴史的にアクセシビリティを後回しにしてきました。

この記事では、従来のカロリー追跡アプリが視覚障害者にどのような特定の障壁を提供しているのか、AI画像認識や音声入力などの新しい技術がどのように可能性を変えているのか、そしてNutrolaを使用することがマーカスのような人にとって実際にどのような体験であるのかを探ります。何が機能し、何がまだ不足しているのか、業界が次に何をすべきかについて正直にお話しします。

障壁:従来のカロリー追跡が視覚障害者に失敗する理由

問題を理解するためには、カロリー追跡が実際にユーザーに何を要求するのかを理解する必要があります。それは単一のアクションではなく、毎日何度も行われる正確で視覚的に集中的なマイクロタスクの連鎖です。視覚を持つユーザーにとっては、各ステップは小さなものです。しかし、視覚障害者にとっては、各ステップが壁になることがあります。

小さな文字と密なインターフェース

ほとんどのカロリー追跡アプリは、一つの画面に驚くほどの数値データを表示します。日々のカロリー合計、マクロ栄養素の内訳、食事ごとの小計、進捗バー、パーセンテージ表示、目標との比較などです。この情報は通常、小さなフォントで薄いウェイトで表示され、低コントラストの色の組み合わせが使われています。例えば、白地に薄い灰色や、わずかに異なる緑色の背景に緑色の文字などです。

スクリーン拡大を頼りにしているユーザーにとって、この種のインターフェースをナビゲートすることは、画面を常にスワイプしながら空間的な文脈を失うことを意味します。情報アーキテクチャは、全体のダッシュボードを一目で見られることを前提としています。部分的にしか見えない場合、メンタルモデルは崩れてしまいます。

VoiceOverやTalkBackのようなスクリーンリーダーを頼りにしているユーザーにとっては、問題は異なりますが同様に深刻です。多くのカロリー追跡アプリは、カスタムUIコンポーネントを使用しています。円形の進捗チャート、アニメーションリング、ドラッグで調整するスライダーなどがそれにあたりますが、適切なアクセシビリティラベルが付けられていません。スクリーンリーダーは進捗リングに遭遇すると「画像」と発表するか、最悪の場合、何も言わないことがあります。ユーザーはカロリー合計が表示されるはずの場所で沈黙を聞くことになります。

検索と選択の問題

従来のアプリで食品を手動で記録するには、データベースを検索する必要があります。「鶏胸肉」と入力すると、アプリは結果のリストを返します。「鶏胸肉、グリル、皮なし、4オンス」「鶏胸肉、ロースト、皮付き、100g」「鶏胸肉テンダー、パン粉、冷凍、タイソン」など、15種類以上のバリエーションがあります。各エントリーは、調理方法、ブランド、サービングサイズが異なります。正しいものを選択するには、小さな文字の複数行を読み比べる必要があります。

スクリーンリーダーを使用している場合、これは各結果を順番に音声で読み上げさせ、違いを記憶し、比較するために前後にナビゲートすることを意味します。視覚を持つユーザーが4秒で済むことが、スクリーンリーダーを使用するユーザーには2分かかることもあります。これをすべての食材に対して毎食、毎日繰り返すと、認知的および時間的な負担は持続不可能になります。

バーコードスキャン:単純さの偽りの約束

多くのアプリは、バーコードスキャンを最も簡単な入力方法として宣伝しています。バーコードにスマートフォンを向けると、食品が瞬時に記録されます。簡単ですよね?

しかし、バーコードが見えない場合はどうでしょう。

バーコードスキャンには正確な視覚的アライメントが必要です。ユーザーはパッケージ上のバーコードを見つけ、カメラを特定の領域に合わせて位置を調整し、スマートフォンを安定させてスキャンが登録されるのを待つ必要があります。このプロセス中、ほとんどのアプリは音声や触覚のフィードバックを提供しません。アライメントが近づくにつれて音が高くなるトーンも、フレームにバーコードが入ったときの振動もありません。ユーザーは画面を見てバーコードが整列しているかどうかを確認することが求められます。

視力が低下している人にとっては、努力と忍耐で何とか管理できることもありますが、盲目の人にとっては、視覚的な支援なしでは実質的に機能しません。

ポーションサイズの推定

食品アイテムを選択した後、ユーザーは量を指定する必要があります。従来のアプリでは、これがテキストフィールドやピッカーホイールとして表示されます。「1カップ」「4オンス」「中サイズ1個」などです。これらのコントロールは、スクリーンリーダー用に適切にラベル付けされていないことが多いです。特にピッカーホイールは、各スクロールの増分が発表される必要があるため、VoiceOverで使用するのが非常に難しいです。

さらに根本的には、ポーションの推定自体が視覚的な比較に依存することが多いです。「これは中サイズのリンゴか、大サイズのリンゴか?」「これは1カップのご飯か、1.5カップか?」視覚を持つユーザーでもこれらの判断には苦労します。視覚が限られているか全くないユーザーにとっては、推定はさらに不確実で、アプリは代替手段を提供しません。

蓄積的な影響

これらの障壁のどれもが、十分な忍耐と決意があれば克服できないわけではありません。しかし、カロリー追跡は一度きりのタスクではありません。毎食繰り返す必要がある日常的な習慣です。小さな文字、複雑なナビゲーション、アクセスできないコントロール、視覚に依存する入力方法の蓄積的な摩擦は、最も意欲的な視覚障害者ユーザーでさえ最終的にはプロセスを放棄させてしまいます。彼らが栄養を気にしないからではなく、彼らのために作られていないツールだからです。

マーカスはその体験を率直に語りました。「まるで、自分がほぼ理解できる言語で印刷された教科書を読もうとしているようでした。断片は得られましたが、全体像を把握するために必要な労力はあまりにも疲れるもので、やる価値がありませんでした。だから、やめました。そして、やめたことに罪悪感を感じました。それ自体が別の形の害です。」

AI画像認識が状況を変える方法

AIを活用した食品認識の登場は、スマートフォンの発明以来、カロリー追跡における最も重要なアクセシビリティの飛躍を表しています。原理は簡単です。データベースを検索して結果を読み、正しいエントリーを選択する代わりに、食品の写真を撮ります。AIが皿の上に何があるかを特定し、ポーションサイズを推定し、カロリーとマクロ栄養素の内訳を返します。

視覚を持つユーザーにとっては、これは便利です。視覚障害者にとっては、これは変革的です。

写真記録が視覚障害者に有効な理由

写真を撮ることは、バーコードスキャンのように正確な視覚的アライメントを必要としません。皿の上の食品は大きなターゲットです。ユーザーは、特定のフレーム内に小さなバーコードを整列させる必要はありません。皿の上から約1フィートの高さで、スマートフォンを大まかに向けるだけで済みます。現代のAIモデルは、不完全な角度や変動する照明、正確なフレーミングなしでも写真を処理できるほど強力です。

iOSとAndroidの両方は、フレーム内に顔や物体が検出されたときに発表するカメラアクセシビリティ機能を提供しています。Nutrolaは、食品の写真がキャプチャされて処理されているときに音声確認を提供します。ユーザーは確認音を聞いた後、スクリーンリーダーによってAIが読み上げる識別結果を聞きます。「識別:グリルした鶏胸肉、約6オンス。茶色の米、約1カップ。蒸しブロッコリー、約1カップ。推定合計:520カロリー。」

その後、ユーザーはアイテムを確認、調整、追加します。すべてがスクリーンリーダーでアクセス可能なインターフェースを通じて、またはますます音声を通じて行われます。

AIが視覚依存を減らす役割

従来のカロリー追跡は、データ解釈の負担をユーザーの目にかけていました。AIはその負担をモデルに移します。ユーザーの役割は、入力(写真)を提供し、出力(音声で提供される要約)を確認することになります。検索、比較、選択という複雑な中間ステップはAIが処理します。

これは単なるワークフローの改善ではありません。追跡プロセスにおける視覚が必要な場所の根本的な再設計です。すべてのステップで視覚が必要だったのが、ほとんどのステップで視覚が必要なくなります。

音声入力:第二の突破口

AI画像認識がアクセシブルなカロリー追跡の第一の柱であるなら、音声入力は第二の柱です。

音声記録を使用すると、ユーザーは「全粒粉のパンにレタス、トマト、マスタードを挟んだターキーサンドイッチと小さなリンゴを食べた」と言うことで、アプリがその文を構造化された栄養データに解析します。タイピングも、検索も、複雑なメニューをナビゲートする必要もありません。ユーザーが話すと、アプリが音声を食品記録エントリーに変換します。

視覚障害者にとって、音声入力は追跡プロセスの最もインタラクションが多い部分を排除します。複数の視覚的ワークフローを一つの音声の文に置き換えます。その後、アプリは理解した内容を読み上げ、ユーザーは確認または修正し、エントリーが記録されます。

Nutrolaの音声記録は、自然で会話的な説明を処理するように設計されています。ユーザーは特定の形式で話す必要も、正確なデータベース用語を使用する必要もありません。「赤いソースの大きなパスタボウルにパルメザンをかけたもの」は有効な入力です。AIは説明を解釈し、栄養データにマッピングし、レビューのためにその推定値を提示します。

ナビゲーションツールとしての音声

食品記録を超えて、音声インタラクションは前述のナビゲーション障壁にも対処できます。ダッシュボードを視覚的にスキャンする代わりに、ユーザーは「今日は何カロリー摂取した?」や「今週のタンパク質摂取量は?」と尋ねることができ、音声で応答を受け取ります。

このような会話型の栄養データとのインタラクションは、ユーザーとアプリの関係全体を変えます。アプリはナビゲートする視覚的インターフェースではなく、相談するアシスタントになります。視覚障害者にとって、これはツールと戦うのではなく、ツールを使うことの違いです。

VoiceOverとTalkBackの互換性:基盤

AIと音声機能は重要ですが、それらは視覚障害者が日々依存するプラットフォームのスクリーンリーダーと完全に互換性があることが前提です。

iOSでは、そのスクリーンリーダーはVoiceOverです。AndroidではTalkBackです。これらはオプションの便利機能ではなく、盲目のユーザーにとっては、電話のアプリとやり取りするための主要な手段です。

完全なスクリーンリーダー互換性は以下を意味します:

  • すべてのインタラクティブ要素に説明的なアクセシビリティラベルが付けられています。 食事を記録するボタンは「食事記録ボタン」と発表され、「ボタン」や何も言わないことはありません。
  • すべての情報要素がその内容を伝えます。 カロリー合計は「今日消費したカロリーは1,450カロリーで、目標は2,200カロリーです」と読み上げられ、「進捗バー、66パーセント」や「画像」だけではありません。
  • ナビゲーションの順序は論理的で予測可能です。 インターフェースをスワイプすると、要素が意味的に正しい順序で移動し、視覚的レイアウトによって決定された任意の順序ではありません。
  • カスタムコントロールがアクセス可能です。 アプリがポーションサイズを調整するためにカスタムスライダーを使用する場合、そのスライダーはVoiceOverのジェスチャーで動作し、現在の値と範囲を発表します。
  • 状態の変化が発表されます。 食品アイテムが正常に記録されると、スクリーンリーダーが確認を発表します。エラーが発生した場合、スクリーンリーダーがエラーを発表します。ユーザーは何が起こったのかを沈黙の中で考えることはありません。

Nutrolaは、スクリーンリーダー互換性をコアエンジニアリング要件として投資しています。すべての新機能はリリース前にVoiceOverとTalkBackでテストされています。アクセシビリティラベルは設計仕様の一部であり、視覚的デザインが最終化された後に後付けされるものではありません。

これが完璧な体験を意味するわけではありません。そうではありません。粗い部分もありますが、この記事の後半で正直にそれに対処します。しかし、基盤は整っており、すべての更新で維持されています。

Nutrolaを使ったマーカスの日常

具体的にするために、この記事の冒頭で紹介した視覚障害を持つデータベース管理者、マーカスの典型的な一日を見てみましょう。彼はNutrolaを約4ヶ月使用しています。

マーカスは目を覚まし、朝食を作ります。スクランブルエッグ2個、全粒粉のトースト1枚にバター、ブラックコーヒー1杯です。彼はホーム画面のアプリショートカットを使ってNutrolaを開きます。左下に位置しているため、彼の筋肉記憶が期待する場所です。タップするとVoiceOverが「Nutrola」と発表します。

彼は音声コマンドを使います。「朝食を記録。スクランブルエッグ2個、全粒粉のトースト1枚にバター、ブラックコーヒー。」

Nutrolaは入力を処理し、読み上げます。「朝食が記録されました。スクランブルエッグ2個、180カロリー。全粒粉のトースト1枚にバター1杯、165カロリー。ブラックコーヒー、5カロリー。朝食合計:350カロリー。」

マーカスは確認します。全体のやり取りは約15秒かかります。

午前中

仕事中、マーカスは休憩室からスナックを取ります。バナナとアーモンドの一握りです。彼は素早く写真を撮ります。完璧にフレームを合わせる必要はありません。食品の上からおおよそスマートフォンを持ち、キャプチャボタンをタップ(VoiceOverが発表します)し、処理音を待ちます。

「識別:中サイズのバナナ1本と約1オンスのアーモンド。推定合計:270カロリー。」

マーカスは、AIがアーモンドのポーションを少し過小評価することを経験から知っています。彼は「アーモンドを1.5オンスにしてください」とアプリに伝えます。エントリーが更新され、彼は確認します。

昼食

マーカスの職場のカフェテリアは、個々の食材を分けるのが難しい混合料理を提供する一般的な課題です。今日は、ホットフードラインからの鶏肉の炒め物と白米です。彼はそれを写真に撮り、AIに作業をさせます。

「識別:鶏肉の炒め物と混合野菜の白米の上。推定合計:680カロリー。タンパク質:35グラム。炭水化物:72グラム。脂肪:24グラム。」

マーカスは、AIが推定したご飯のポーションが大きいと考えます。「ご飯を1カップではなく1.5カップにしてください」と調整します。合計が更新され、彼に読み上げられます。

午後

マーカスはNutrolaに進捗を確認します。「今日はどうなっていますか?」

アプリは応答します。「今日までに1,340カロリー摂取しました。あなたの1日の目標は2,100カロリーです。残り760カロリーです。これまでのタンパク質は78グラムで、目標は140グラムです。」

これには3秒かかります。視覚的なスキャンも、ダッシュボードのナビゲーションもありません。ただの質問と答えです。

夕食

家に帰ったマーカスは、サーモンのフィレ、ローストしたサツマイモ、サイドサラダを準備します。彼は皿の写真を撮ります。AIが各コンポーネントを識別します。彼はエントリーを確認します。

夕食後、彼は日々のサマリーを尋ねます。Nutrolaは、彼の総摂取量を食事ごとに分解し、マクロ栄養素の合計と目標との比較を読み上げます。マーカスは2,050カロリー、132グラムのタンパク質を摂取し、炭水化物はわずかにオーバーしています。

「4ヶ月前、私は1日の食事で何カロリー摂取したかを500カロリー以内で言うことができませんでした。」とマーカスは言いました。「今は、合理的な誤差の範囲内で知っています。それは小さなことではありません。私の医者は、前回の血液検査で違いに気づきました。私のA1Cが下がりました。それは本物です。」

マーカスが最も重視すること

体験で最も重要なことを尋ねると、マーカスは特定の機能を挙げませんでした。彼が挙げたのは、一貫性です。「アクセシビリティについてのことは、技術的に可能かどうかだけではありません。持続可能であるかどうかが重要です。私はアクセスできないアプリと格闘することが1食分ならできるかもしれません。もしかしたら2食分。でも、1日3回から5回、毎日、何ヶ月も続けるとなると、すべてが崩れてしまいます。Nutrolaは、必要な労力が低く、実際に続けられる初めてのアプリです。」

視覚障害者がカロリー追跡を始めるための実用的なヒント

マーカスや私たちのコミュニティの他の視覚障害者ユーザーからのフィードバックに基づいて、カロリー追跡を始めるための実用的な戦略を以下に示します。

1. 初日から音声記録を設定する

手動入力から始めて「後で音声に切り替える」と考えないでください。音声から始めましょう。これにより、労力の期待が正しく設定され、初期のフラストレーションがプロセスに対する認識を悪化させるのを防ぎます。

2. 写真技術を学ぶ

スマートフォンを皿の上から約12〜18インチの高さで、中心に近い位置に持ちます。画面を見る必要はありません。キャプチャ確認音を聞いてください。AIが何かを誤って識別した場合は、音声で修正します。数日後には、ほぼ毎回機能する信頼できる技術を開発できます。

3. 一貫した皿とポーションを使用する

これは誰にとっても良いアドバイスですが、視覚障害者にとって特に役立ちます。毎日同じボウルで朝食を食べると、ボウルの満杯感とそれがカロリー的に何に相当するかを身体的に理解できます。変数が少ないほど、AIの推定に対する調整も少なくて済みます。

4. ログ記録のルーチンを構築する

食事を食べた直後に記録し、次の活動に移る前に行います。これにより、食事を忘れる可能性が減り、後で思い出す必要がなくなります。

5. 定期的に音声サマリーを使用する

毎日少なくとも2回、音声で日々の合計を確認します。昼食時と夕食後に一度ずつです。これにより、視覚的インターフェースとのインタラクションなしでデータに接続できます。

6. スクリーンリーダーを最新の状態に保つ

VoiceOverやTalkBackは、パフォーマンスや互換性を向上させる定期的なアップデートを受け取ります。電話のオペレーティングシステムを最新の状態に保つことで、最高のスクリーンリーダー体験を得ることができます。

7. フィードバックを提供する

アクセシビリティの問題に遭遇した場合(ラベルが付けられていないボタン、正しく発表されない画面、繰り返し発生するAIの誤認識など)、報告してください。Nutrolaのアクセシビリティは、実際のユーザーフィードバックに基づいて改善され、視覚障害者からの報告は開発キューで優先されます。

まだ改善が必要な点

現在の状況を解決済みの問題として提示することは、視覚障害者ユーザーに対して不誠実です。それは解決されていません。重要なギャップが残っており、それについて透明性を持ちたいと思います。

複雑な混合料理におけるAIの精度

AI食品認識は良好ですが、完璧ではありません。明確に分離された食品(グリルした鶏肉の一切れ、米の山、蒸し野菜など)には非常に優れていますが、混合料理、キャセロール、シチュー、材料が層になっているか隠れている食品にはうまく対応できません。特にブリトーは、AIがトルティーヤの中に何が入っているかを見えないため、特に難しいです。

AIの推測を視覚的に確認できない視覚障害者にとって、この制限はより重要です。視覚を持つユーザーは、AIの推定をちらっと見て、サンドイッチのチーズを見逃したことにすぐに気づくかもしれません。しかし、視覚障害者は、すべての成分を音声で聞いて初めてその誤りに気づくことができます。

私たちは、カメラが見えないギャップを埋めるために、明確化の質問をするAIプロンプトの改善に取り組んでいます。「この料理にはチーズが含まれていますか?」「ソースは上にありますか?」などです。

オンボーディングと初期設定

初期設定プロセス(アカウントの作成、身体のメトリックの入力、カロリーとマクロの目標設定)は、日常的な使用よりも複雑で、より多くのフォームフィールド、ドロップダウン、マルチステップフローが含まれています。これらはスクリーンリーダーに対応していますが、体験は私たちが望むほどスムーズではありません。私たちは、アクセシビリティを主要な設計制約としてオンボーディングフローを再設計しています。

レストランやテイクアウトの食事

外食はすべてのユーザーにとって課題をもたらしますが、特に視覚障害者にとってはそうです。レストランの料理は、ポーションサイズを隠すように盛り付けられることが多く、ソースは食べ物の下に隠れていることがあり、レストランの周囲の照明がAIの写真精度を低下させることがあります。音声記録はここで役立ちます。注文した内容を説明することは、薄暗いレストランで写真を撮るよりも正確なことが多いですが、プロセスは自宅での料理の記録よりも正確性が低いです。

コミュニティとソーシャル機能

多くのカロリー追跡アプリには、食事を共有したり、友人と進捗を比較したり、チャレンジに参加したりするソーシャル機能が含まれています。これらの機能は、アプリの中でも最もアクセスしにくい部分であり、視覚的なレイアウト、画像、カスタムUIコンポーネントに大きく依存しています。Nutrolaのソーシャル機能はまだ開発中であり、後付けではなく最初からアクセシブルに構築することを約束しています。

地域や文化の食品認識

AI食品認識モデルはデータセットに基づいて訓練されています。これらのデータセットは西洋料理に偏っています。つまり、AIはハンバーガーを特定するのが得意でも、ジョロフライス、ドーサ、インジェラを特定するのが苦手です。これはAIのトレーニングデータにおける体系的なバイアスであり、業界全体が対処すべき問題です。Nutrolaは、より広範な世界の料理を含むようにトレーニングデータを積極的に拡張していますが、この作業は進行中であり、現在も不均衡が存在します。

大きな視点:栄養は特権ではなく権利

テクノロジー業界には、アクセシビリティを機能として捉える傾向があります。つまり、ニッチなオーディエンスにサービスを提供するために製品に追加するものです。この捉え方は間違っています。アクセシビリティは、個人が健康の基本的な側面を管理できるかどうかの問題です。

栄養はすべてに影響します:エネルギー、慢性疾患リスク、メンタルヘルス、身体的パフォーマンス、長寿。カロリーと栄養素の追跡は、食習慣を改善するための最も証拠に基づいたツールの一つです。追跡ツールがアクセスできない場合、視覚障害者は単なる便利さを逃しているのではありません。彼らは証明された健康介入から排除されています。

アメリカ障害者法、欧州アクセシビリティ法、世界中の類似の法律は、デジタルサービスが障害者にアクセス可能であるべきことを定めています。しかし、法的遵守は最低限であり、天井ではありません。目標は、単に技術的に使用可能な体験ではなく、視覚障害者が友人に勧めることができる本当に良い体験であるべきです。彼らが我慢するのではなく、より良い選択肢がないからです。

マーカスは私たちに印象に残る言葉を残しました。「私は自分の障害にもかかわらず機能するアプリを求めているのではありません。私はそれに関係なく機能するアプリを求めています。それには違いがあります。前者は慈善のように感じますが、後者は良いエンジニアリングのように感じます。」

よくある質問

完全に盲目の人がNutrolaを使ってカロリー追跡できますか?

はい。Nutrolaは、iOSのVoiceOverおよびAndroidのTalkBackと完全に機能するように設計されています。食品の写真による記録、音声による食品の記録、日々のサマリーの表示、エントリーの調整、栄養目標の設定など、すべてのコア機能はスクリーンリーダーを介してアクセス可能です。アプリを操作するために視力は必要ありませんが、初期設定時に視覚的な支援が役立つことがあります。

AI画像認識のカロリー追跡における精度はどのくらいですか?

AI画像認識は強力な推定ツールですが、精密な機器ではありません。明確に見える、よく分離された食品に対しては、精度は通常実際のカロリー含有量の10〜15パーセント以内です。混合料理に対しては、精度が低下します。写真キャプチャ後に音声で修正を行うことをお勧めします。たとえば、写真には見えないチーズや油を追加したことを指定するなどです。

音声記録はアクセントや非ネイティブの英語話者に対応していますか?

Nutrolaの音声認識は、幅広いアクセントや話し方を処理する高度な音声からテキストへの処理を使用しています。スマートフォンでテキストメッセージを送るために音声入力を使用できるなら、Nutrolaでも音声記録を使用できるはずです。食品の説明を解釈するAIは、会話的で非公式な言語を理解するように設計されているため、正確な用語や技術的な用語を使用する必要はありません。

Nutrolaは視覚障害者に対して無料ですか?

Nutrolaの価格はすべてのユーザーに対して同じです。視覚障害者向けの別のティアはありません。なぜなら、アクセシビリティはコア製品に組み込まれており、プレミアムプランの背後にゲートされていないからです。無料ティアには、音声記録と写真記録が含まれています。高度なマクロ追跡、週次レポート、トレンド分析などのプレミアム機能は、サブスクリプションを通じて利用可能です。

Nutrolaを点字ディスプレイで使用できますか?

はい。NutrolaはVoiceOverおよびTalkBackと完全に互換性があるため、電話に接続された点字ディスプレイで使用できます。スクリーンリーダーによって発表されるすべてのテキストコンテンツは、食品の説明、カロリー合計、マクロ栄養素の内訳を含め、点字ディスプレイにも出力されます。

視覚的に量を推定できない場合、Nutrolaはポーションサイズをどのように扱いますか?

これは正直な課題です。NutrolaのAIは、写真からポーションサイズを推定しますが、常に正確ではありません。自宅での料理の際には、キッチンスケールや計量カップなどの簡単な測定ツールを使用することをお勧めします。時間が経つにつれて、標準的なポーションがどのように感じ、どのように重さがあるかを身体的に理解できるようになり、AIの推定を修正する能力も向上します。

アプリでアクセシビリティの問題に遭遇した場合、どうすればよいですか?

アプリ内のフィードバック機能を通じて報告してください。これはVoiceOverおよびTalkBackを介してアクセス可能です。また、サポートチームに直接メールを送ることもできます。アクセシビリティのバグ報告は、開発プロセスでフラグが立てられ、優先されます。私たちはすべての報告を感謝しており、内部テストで見逃した可能性のある問題を見つけて修正するのに役立ちます。

週次および月次レポートはアクセス可能ですか?

はい。すべてのレポート画面は、スクリーンリーダー用に適切なアクセシビリティラベルと論理的な読み取り順序で設計されています。サマリーも音声でアクセス可能です。「週次サマリーを教えて」と尋ねると、過去7日間の平均的な1日のカロリー、マクロ栄養素のトレンド、一貫性率の音声概要が返されます。

前進するために

カロリー追跡アプリがユーザーに要求するものと、視覚障害者が快適に提供できるものとの間のギャップは、長い間広がっていました。AI画像認識と音声入力は、そのギャップを劇的に狭めました。完全には埋まっていませんが、劇的にです。

残された作業は華やかではありません。アクセシビリティラベルへの細心の注意を払うことです。AIトレーニングデータをより多くの料理を含むように拡張することです。新機能を出荷する前に、すべての新機能をスクリーンリーダーでテストすることです。マーカスのようなユーザーが何が機能し、何が機能しないかを教えてくれるのを聞くことです。

マーカスは最近、4ヶ月間食事を一貫して追跡していると教えてくれました。これは、彼がどの健康アプリでも維持した最長の記録です。「4ヶ月はそれほど長くはないように聞こえますが、6年間何度も挑戦して失敗してきた私にとっては、4ヶ月がやっと可能になったという証拠のように感じます。」

それは可能です。そして、ずっと前に可能であるべきでした。技術は存在していました。欠けていたのは、すべてのユーザーに奉仕するためにそれを使用するというコミットメントでした。業界が最も設計しやすいユーザーだけを対象にするのではなく。

私たちはまだ終わっていません。しかし、止まることはありません。

栄養追跡を革新する準備はできていますか?

Nutrolaで健康の旅を変えた数千人に参加しましょう!