시각 장애인을 위한 칼로리 추적: AI와 음성이 가능하게 하는 방법

전통적인 칼로리 추적 앱은 시각이 있는 사용자를 위해 설계되었습니다. AI 사진 인식과 음성 인터페이스가 드디어 모든 사람에게 영양 추적을 가능하게 하고 있습니다.

Medically reviewed by Dr. Emily Torres, Registered Dietitian Nutritionist (RDN)

마커스는 42세의 데이터베이스 관리자이며, 20대 후반부터 망막색소변성증으로 점진적인 시력 저하를 겪고 있습니다. 그는 빛과 형태를 인식할 수 있지만, 작은 글씨를 읽는 것은 상당한 보조 기술 없이는 불가능합니다. 그는 오랫동안 칼로리를 추적하고 싶었고, 의사와 영양사 모두 이를 권장했습니다. 그는 진심으로 노력했지만, 6년 동안 최소한 네 개의 다른 앱을 시도했으며, 매번 일주일도 채 되지 않아 실패했습니다.

"아이러니한 것은, 나는 하루 종일 데이터를 다루는 사람이라는 점입니다," 마커스는 우리에게 말했습니다. "나는 숫자와 패턴을 좋아합니다. 칼로리 추적은 내게 딱 맞는 일이죠. 하지만 내가 시도한 모든 앱은 마치 음식을 먹는 사람은 완벽한 시력을 가진 사람만인 것처럼 만들어졌습니다."

마커스는 결코 혼자가 아닙니다. 세계보건기구에 따르면, 전 세계적으로 최소 22억 명이 근거리 또는 원거리 시력 장애를 겪고 있습니다. 미국에서만 해도 40세 이상의 약 1,200만 명이 어떤 형태의 시력 장애를 가지고 있으며, 그 중 100만 명은 시각 장애인입니다. 이는 결코 적은 숫자가 아닙니다. 그럼에도 불구하고 칼로리 추적 산업은 역사적으로 접근성을 사후 고려사항으로 다뤄왔습니다 --- 아예 고려되지 않았던 경우도 많았습니다.

이 글에서는 전통적인 칼로리 추적 앱이 시각 장애인에게 어떤 특정한 장벽을 제시하는지, AI 사진 인식과 음성 입력과 같은 신기술이 어떻게 가능성을 변화시키고 있는지, 그리고 마커스와 같은 사용자가 Nutrola를 사용할 때의 경험이 어떤지 살펴보겠습니다. 무엇이 효과적이고, 무엇이 여전히 부족한지, 그리고 산업이 앞으로 무엇을 해야 하는지 솔직하게 이야기하겠습니다.

장벽: 전통적인 칼로리 추적이 시각 장애인 사용자에게 실패하는 이유

문제를 이해하려면 칼로리 추적이 실제로 사용자에게 요구하는 것이 무엇인지 알아야 합니다. 이는 단일 행동이 아닙니다. 하루에 여러 번 수행되는 정밀하고 시각적으로 집약적인 미세 작업의 연쇄입니다. 시각이 있는 사용자에게는 각 단계가 사소한 일입니다. 그러나 시각이 저하된 사용자에게는 각 단계가 장벽이 될 수 있습니다.

작은 글씨와 복잡한 인터페이스

대부분의 칼로리 추적 앱은 한 화면에 엄청난 양의 숫자 데이터를 표시합니다. 일일 칼로리 총계, 다량 영양소 분포, 식사별 소계, 진행률 바, 백분율 표시, 목표 비교 등. 이 정보는 일반적으로 작은 글꼴과 얇은 두께로 표시되며, 종종 낮은 대비 색 조합으로 되어 있습니다 --- 예를 들어, 흰색 배경에 연한 회색 글씨, 또는 약간 다른 색의 초록색 배경에 초록색 글씨로요.

화면 확대를 사용하는 사용자는 이러한 종류의 인터페이스를 탐색하기 위해 화면을 계속 이동해야 하며, 매번 스와이프할 때마다 공간적 맥락을 잃게 됩니다. 정보 구조는 사용자가 대시보드를 한눈에 볼 수 있다고 가정합니다. 그러나 사용자가 한 번에 일부만 볼 수 있을 때, 정신적 모델은 무너집니다.

VoiceOver나 TalkBack과 같은 스크린 리더를 사용하는 사용자에게는 문제가 다르지만 마찬가지로 심각합니다. 많은 칼로리 추적 앱은 사용자 정의 UI 구성 요소 --- 원형 진행 차트, 애니메이션 링, 드래그하여 조정하는 슬라이더 --- 를 사용하며, 이들은 적절한 접근성 레이블이 없도록 설계되었습니다. 스크린 리더는 진행 링을 만나면 "이미지"라고 발표하거나, 더 나쁜 경우 아무것도 발표하지 않습니다. 사용자는 칼로리 총계가 있어야 할 곳에서 침묵을 듣게 됩니다.

검색 및 선택 문제

전통적인 앱에서 음식을 수동으로 기록하려면 데이터베이스를 검색해야 합니다. "닭 가슴살"이라고 입력하면 앱은 다음과 같은 결과 목록을 반환합니다: "닭 가슴살, 구운, 껍질 없는, 4 oz"와 "닭 가슴살, 구운, 껍질 있는, 100g" 및 "닭 가슴살 텐더, 빵가루 입힌, 냉동, 타이슨" 등 15개 이상의 변형이 있습니다. 각 항목은 조리 방법, 브랜드 및 서빙 크기에 따라 다릅니다. 올바른 항목을 선택하려면 여러 줄의 작은 글씨를 읽고 비교해야 합니다.

스크린 리더 사용자는 각 결과를 순차적으로 읽어주는 것을 들어야 하며, 차이점을 작업 기억에 유지하고 비교하기 위해 왔다 갔다 해야 합니다. 시각이 있는 사용자가 4초 만에 할 수 있는 작업이 스크린 리더 사용자는 2분이 걸릴 수 있습니다. 모든 음식 항목에 대해 매일 반복되면 인지적 부담과 시간 부담은 감당할 수 없게 됩니다.

바코드 스캔: 단순함의 잘못된 약속

많은 앱이 바코드 스캔을 가장 쉬운 입력 방법으로 홍보합니다. 바코드에 휴대폰을 대면 음식이 즉시 기록됩니다. 간단하죠?

하지만 바코드를 볼 수 없다면요?

바코드 스캔은 정확한 시각적 정렬을 요구합니다. 사용자는 패키지에서 바코드를 찾아야 하고, 바코드가 특정 영역에 들어오도록 휴대폰 카메라를 위치시켜야 하며, 휴대폰을 고정하고 스캔이 등록될 때까지 기다려야 합니다. 대부분의 앱은 이 과정에서 오디오나 촉각 피드백을 제공하지 않습니다. 사용자는 화면을 보고 바코드가 정렬되었는지 확인해야 합니다.

시각이 저하된 사람에게는 이러한 작업이 때때로 노력과 인내로 관리될 수 있지만, 시각 장애인에게는 시각적 도움 없이는 사실상 기능하지 않습니다.

양 추정

음식 항목을 선택한 후에도 사용자는 양을 지정해야 합니다. 전통적인 앱은 이를 텍스트 필드나 피커 휠로 제시합니다 --- "1컵", "4 oz", "1개 중간 크기". 이러한 컨트롤은 종종 스크린 리더에 대해 잘 레이블이 지정되어 있지 않습니다. 특히 피커 휠은 VoiceOver와 함께 사용하기 어려운 것으로 악명이 높습니다. 각 스크롤 증분이 발표되어야 사용자가 계속 스크롤할지 결정할 수 있습니다.

더 근본적으로, 양 추정 자체가 종종 시각적 비교에 의존합니다. "이것이 중간 크기 사과인가, 큰 사과인가?" "이것이 1컵의 쌀인가, 1.5컵인가?" 시각이 있는 사용자도 이러한 판단에 어려움을 겪습니다. 시각이 제한되거나 전혀 없는 사용자에게는 추정이 더욱 불확실해지며, 앱은 대안 방법을 제공하지 않습니다.

누적 효과

이러한 장벽 중 어느 하나도 인내와 결단력이 있다면 극복할 수 없는 것은 아닙니다. 하지만 칼로리 추적은 일회성 작업이 아닙니다. 매 끼니마다 반복해야 하는 일상적인 습관입니다. 작은 글씨, 복잡한 탐색, 접근 불가능한 컨트롤, 시각에 의존하는 입력 방법의 누적 마찰은 가장 의욕적인 시각 장애인 사용자조차 결국 이 과정을 포기하게 만듭니다. 그들이 영양에 관심이 없어서가 아니라, 도구가 그들을 위해 만들어지지 않았기 때문입니다.

마커스는 그 경험을 간단히 설명했습니다: "마치 내가 거의 이해할 수 있는 언어로 인쇄된 교과서를 읽으려는 것 같았습니다. 나는 조각들을 얻을 수 있었지만, 전체 그림을 얻기 위해 필요한 노력은 너무 힘들어서 그럴 가치가 없었습니다. 그래서 나는 그만두었습니다. 그리고 그만둔 것에 대해 죄책감을 느꼈습니다. 그것도 또 다른 해입니다."

AI 사진 인식이 상황을 변화시키는 방법

AI 기반 음식 인식의 도래는 스마트폰이 발명된 이후 칼로리 추적에서 가장 큰 접근성 도약을 의미합니다. 원리는 간단합니다: 데이터베이스를 검색하고 결과를 읽고 올바른 항목을 선택하는 대신, 음식을 사진으로 찍습니다. AI가 접시 위의 음식을 인식하고, 양을 추정하며, 칼로리와 다량 영양소 분포를 반환합니다.

시각이 있는 사용자에게는 편리함입니다. 그러나 시각 장애인 사용자에게는 혁신적입니다.

사진 기록이 저시력 및 시각 장애인에게 효과적인 이유

사진을 찍는 것은 바코드 스캔처럼 정확한 시각적 정렬을 요구하지 않습니다. 접시 위의 음식은 큰 목표입니다. 사용자는 작은 바코드를 뷰파인더 사각형 안에 정렬할 필요 없이, 접시의 일반적인 방향으로 약 1피트 위에서 휴대폰을 가리키기만 하면 됩니다. 현대의 AI 모델은 불완전한 각도, 다양한 조명 조건, 정확한 프레이밍 없이 찍은 사진도 처리할 수 있을 만큼 강력합니다.

iOS와 Android 모두 프레임 내에서 얼굴이나 객체가 감지되었을 때 발표하는 카메라 접근성 기능을 제공합니다. Nutrola는 음식 사진이 캡처되고 처리될 때 오디오 확인을 제공하여 이를 기반으로 합니다. 사용자는 확인음을 듣고, 스크린 리더를 통해 AI가 읽어주는 인식 결과를 듣습니다: "인식됨: 구운 닭 가슴살, 약 6온스. 현미, 약 1컵. 찐 브로콜리, 약 1컵. 추정 총계: 520칼로리."

사용자는 이후 항목을 확인하거나 조정하거나 추가합니다 --- 모두 스크린 리더 접근 가능한 인터페이스를 통해, 점점 더 음성을 통해 이루어집니다.

AI의 시각 의존성 감소 역할

전통적인 칼로리 추적은 데이터 해석의 부담을 사용자의 눈에 두었습니다. AI는 그 부담을 모델로 전환합니다. 사용자의 역할은 입력 --- 사진을 제공하는 것 --- 과 출력 --- 오디오로 전달되는 요약을 검토하는 것 --- 으로 바뀝니다. 검색, 비교 및 선택의 복잡한 중간 단계는 AI가 처리합니다.

이는 사소한 작업 흐름 개선이 아닙니다. 이는 추적 과정에서 시각이 필요한 위치를 근본적으로 재설계하는 것입니다. 모든 단계에서 시각이 필요했던 것이 거의 모든 단계에서 필요하지 않게 됩니다.

음성 입력: 두 번째 혁신

AI 사진 인식이 접근 가능한 칼로리 추적의 첫 번째 기둥이라면, 음성 입력은 두 번째 기둥입니다.

음성 기록을 통해 사용자는 "나는 통밀빵에 양상추, 토마토, 머스터드를 넣은 칠면조 샌드위치와 작은 사과를 먹었다"고 말하면 앱이 그 문장을 구조화된 영양 데이터로 변환합니다. 타이핑도 필요 없고, 검색도 필요 없으며, 복잡한 메뉴를 탐색할 필요도 없습니다. 사용자가 말하면 앱이 음성을 음식 기록 항목으로 변환합니다.

시각 장애인 사용자에게 음성 입력은 추적 과정에서 가장 많은 상호작용을 요구하는 부분을 제거합니다. 여러 단계의 시각적 작업 흐름을 단일 음성 문장으로 대체합니다. 앱은 이해한 내용을 다시 읽어주고, 사용자는 확인하거나 수정한 후 항목이 기록됩니다.

Nutrola의 음성 기록은 자연스럽고 대화식 설명을 처리하도록 설계되었습니다. 사용자는 특정 형식으로 말하거나 정확한 데이터베이스 용어를 사용할 필요가 없습니다. "빨간 소스와 파르메산 치즈를 얹은 큰 파스타 한 그릇"도 유효한 입력입니다. AI는 설명을 해석하고, 이를 영양 데이터에 매핑하여 검토를 위해 추정치를 제시합니다.

음성을 탐색 도구로 활용하기

음식 기록을 넘어 음성 상호작용은 앞서 설명한 탐색 장벽을 해결할 수 있습니다. 사용자는 "오늘 내가 얼마나 칼로리를 섭취했나요?" 또는 "이번 주 단백질 섭취량은 얼마인가요?"라고 물어보면 음성으로 응답을 받을 수 있습니다.

이런 종류의 대화식 상호작용은 사용자와 앱 간의 관계를 완전히 변화시킵니다. 앱은 탐색해야 할 시각적 인터페이스가 아니라 상담할 수 있는 조수로 변모합니다. 시각 장애인 사용자에게 이는 도구와 싸우는 것과 도구를 사용하는 것의 차이를 의미합니다.

VoiceOver 및 TalkBack 호환성: 기초

AI와 음성 기능이 중요하지만, 그 위에는 더 근본적인 요구 사항이 있습니다: 앱 자체가 시각 장애인 사용자가 매일 의존하는 플랫폼 스크린 리더와 완전히 호환되어야 합니다.

iOS에서는 그 스크린 리더가 VoiceOver입니다. Android에서는 TalkBack입니다. 이는 선택 사항이 아니라 필수입니다. 시각 장애인 사용자에게 이들은 전화의 모든 앱과 상호작용하는 주요 수단입니다.

완전한 스크린 리더 호환성은 다음을 의미합니다:

  • 모든 상호작용 요소에 설명적인 접근성 레이블이 있습니다. 식사를 기록하는 버튼은 "식사 기록 버튼"으로 발표되어야 하며, "버튼"이나 아무것도 아닌 것이 아닙니다.
  • 모든 정보 요소는 그 내용을 전달합니다. 칼로리 총계는 "오늘 소비한 칼로리 1,450 중 2,200"으로 읽혀야 하며, "진행률 바, 66퍼센트" 또는 "이미지"로 읽히지 않아야 합니다.
  • 탐색 순서는 논리적이고 예측 가능해야 합니다. 인터페이스를 스와이프할 때 요소를 의미 있는 순서로 이동해야 하며, 시각적 레이아웃에 의해 결정된 임의의 순서가 아닙니다.
  • 사용자 정의 컨트롤이 접근 가능해야 합니다. 앱이 양 조정을 위해 사용자 정의 슬라이더를 사용하는 경우, 해당 슬라이더는 VoiceOver 제스처와 함께 작동하며 현재 값과 범위를 발표해야 합니다.
  • 상태 변화가 발표됩니다. 음식 항목이 성공적으로 기록되면 스크린 리더가 확인을 발표합니다. 오류가 발생하면 스크린 리더가 오류를 발표합니다. 사용자는 무슨 일이 있었는지 침묵 속에서 궁금해하지 않아야 합니다.

Nutrola는 스크린 리더 호환성을 핵심 엔지니어링 요구 사항으로 삼아, 출시 후 패치가 아닙니다. 모든 새로운 기능은 출시 전에 VoiceOver와 TalkBack으로 테스트됩니다. 접근성 레이블은 디자인 사양의 일부이며, 시각적 디자인이 최종화된 후에 추가되는 것이 아닙니다.

이것이 완벽한 경험을 의미하지는 않습니다. 그렇지 않습니다. 여전히 미비한 부분이 있으며, 우리는 이 글 후반부에서 솔직하게 다룰 것입니다. 그러나 기초는 마련되어 있으며, 모든 업데이트에서 유지되고 있습니다.

마커스의 Nutrola와 함께하는 하루

구체적으로 설명하기 위해, 이 글의 처음에 소개한 저시력 데이터베이스 관리자 마커스의 전형적인 하루가 어떻게 진행되는지 살펴보겠습니다. 그는 Nutrola를 사용한 지 약 4개월이 되었습니다.

아침

마커스는 일어나 아침을 준비합니다: 스크램블 에그 두 개, 버터를 바른 통밀 토스트 한 조각, 그리고 블랙 커피 한 잔. 그는 홈 화면의 앱 바로가기를 통해 Nutrola를 엽니다 --- 그의 근육 기억이 기대하는 왼쪽 하단에 위치해 있습니다. VoiceOver가 그가 탭할 때 "Nutrola"라고 발표합니다.

그는 음성 명령을 사용합니다: "아침 기록. 스크램블 에그 두 개, 통밀 토스트 한 조각, 블랙 커피."

Nutrola는 입력을 처리하고 읽어줍니다: "아침 기록 완료. 스크램블 에그 두 개, 180칼로리. 통밀 토스트 한 조각과 버터 한 스푼, 165칼로리. 블랙 커피, 5칼로리. 총 아침: 350칼로리."

마커스는 확인합니다. 전체 상호작용은 약 15초가 소요됩니다.

오전 중반

직장에서 마커스는 휴게실에서 간식으로 바나나와 아몬드 한 줌을 집어 듭니다. 그는 빠르게 사진을 찍습니다. 그는 완벽하게 프레임을 맞출 필요가 없습니다. 그는 음식을 향해 대략적으로 휴대폰을 들고, 캡처 버튼을 탭한 후(VoiceOver가 발표합니다) 처리음을 기다립니다.

"인식됨: 중간 크기 바나나 한 개와 약 1온스의 아몬드. 추정 총계: 270칼로리."

마커스는 경험상 AI가 그의 아몬드 양을 약간 과소 추정하는 경향이 있다는 것을 알고 있습니다. 그는 앱에 "아몬드를 1.5온스로 조정해줘"라고 말합니다. 항목이 업데이트됩니다. 그는 확인합니다.

점심

마커스의 직장 카페테리아는 일반적인 도전 과제를 제시합니다: 개별 재료를 분리하기 어려운 혼합 요리. 오늘 그는 핫푸드 라인에서 치킨 볶음밥을 먹습니다. 그는 사진을 찍고 AI가 작업을 수행하도록 합니다.

"인식됨: 혼합 채소와 함께 볶은 치킨, 흰 쌀 위에. 추정 총계: 680칼로리. 단백질: 35그램. 탄수화물: 72그램. 지방: 24그램."

마커스는 AI가 추정한 쌀의 양이 더 많다고 생각합니다. 그는 조정합니다: "쌀을 1컵 대신 1.5컵으로 해줘." 총계가 업데이트되고 그에게 읽혀집니다.

오후

마커스는 Nutrola에 상태 점검을 요청합니다. "오늘 내가 얼마나 잘하고 있나요?"

앱이 응답합니다: "오늘까지 1,340칼로리를 섭취했습니다. 당신의 일일 목표는 2,100칼로리입니다. 남은 칼로리는 760칼로리입니다. 지금까지 단백질은 78그램, 목표는 140그램입니다."

이것은 3초가 걸립니다. 시각적 스캔이나 대시보드 탐색 없이, 단지 질문과 대답입니다.

저녁

집에서 마커스는 연어 필레와 구운 고구마, 그리고 사이드 샐러드를 준비합니다. 그는 접시의 사진을 찍습니다. AI가 각 구성 요소를 인식합니다. 그는 항목을 확인합니다.

저녁 식사 후, 그는 자신의 일일 요약을 요청합니다. Nutrola가 그의 총 섭취량을 읽어주며, 식사별로 나누어 주고, 다량 영양소 총계와 목표 대비 비교를 제공합니다. 마커스는 2,050칼로리, 132그램의 단백질, 그리고 탄수화물에서 약간 초과했습니다.

"4개월 전에는 내가 하루에 무엇을 먹었는지 500칼로리 이내로 말할 수 없었습니다," 마커스는 말했습니다. "이제는 합리적인 오차 범위 내에서 알고 있습니다. 이는 작은 일이 아닙니다. 내 의사는 지난 혈액 검사에서 차이를 알아차렸습니다. 내 A1C 수치가 내려갔습니다. 이는 진짜입니다."

마커스가 가장 중요하게 생각하는 것

경험에서 가장 중요한 것이 무엇인지 물었을 때, 마커스는 특정 기능을 언급하지 않았습니다. 그는 일관성을 언급했습니다. "접근성에 관한 것은 단순히 기술적으로 가능한지 여부가 아닙니다. 지속 가능성이 중요합니다. 나는 접근 불가능한 앱과 씨름할 수 있습니다. 한 끼는 괜찮습니다. 아마 두 끼도요. 하지만 하루에 세 번에서 다섯 번, 매일, 몇 달 동안? 그때 모든 것이 무너집니다. Nutrola는 내가 실제로 계속할 수 있을 만큼 노력 요구가 낮은 첫 번째 앱입니다."

시각 장애인을 위한 칼로리 추적 시작을 위한 실용적인 팁

마커스와 우리 커뮤니티의 다른 시각 장애인 사용자들의 피드백을 바탕으로, 칼로리 추적을 시작하기 위한 실용적인 전략을 제시합니다.

1. 첫날부터 음성 기록 설정하기

수동 입력으로 시작하고 "나중에 음성으로 전환할 계획"을 세우지 마세요. 음성으로 시작하세요. 이는 노력 수준에 대한 올바른 기대를 설정하고 초기 좌절감이 과정에 대한 인식을 해치지 않도록 방지합니다.

2. 사진 기술 배우기

접시 위에서 약 12~18인치 위에 휴대폰을 들고 대략 중앙에 위치시킵니다. 화면을 볼 필요는 없습니다. 캡처 확인음을 들으세요. AI가 잘못 인식한 경우, 음성으로 수정합니다. 며칠 후, 거의 매번 잘 작동하는 신뢰할 수 있는 기술을 개발할 수 있습니다.

3. 일관된 요리와 양 사용하기

이는 누구에게나 좋은 조언이지만, 시각 장애인 사용자에게 특히 유용합니다. 매일 같은 그릇에서 아침을 먹으면 그릇이 얼마나 가득 차 있는지와 그것이 칼로리적으로 무엇을 의미하는지에 대한 신체적 감각이 생깁니다. 변수가 적을수록 AI 추정에 대한 조정도 적어집니다.

4. 기록하는 루틴 만들기

다음 활동으로 넘어가기 전에 식사 후 즉시 기록하세요. 이는 식사를 잊어버릴 가능성을 줄이고, 나중에 기억에서 양과 재료를 회상할 필요를 없애줍니다.

5. 음성 요약 정기적으로 사용하기

하루에 최소 두 번 --- 한 번은 정오경, 한 번은 저녁 식사 후 --- 음성으로 일일 총계를 확인하세요. 이는 시각적 인터페이스 상호작용 없이 데이터와 연결될 수 있도록 도와줍니다.

6. 스크린 리더 업데이트 유지하기

VoiceOver와 TalkBack은 성능과 호환성을 개선하는 정기적인 업데이트를 받습니다. 전화의 운영 체제를 최신 상태로 유지하면 최상의 스크린 리더 경험을 얻을 수 있습니다.

7. 피드백 제공하기

접근성 문제를 발견하면 --- 레이블이 없는 버튼, 제대로 발표되지 않는 화면, 반복적으로 발생하는 AI 잘못 인식 등 --- 이를 보고하세요. Nutrola의 접근성은 실제 사용자 피드백을 기반으로 개선되며, 시각 장애인 사용자의 보고서는 개발 우선 순위에서 중요하게 다뤄집니다.

여전히 개선이 필요한 부분

현재 상황을 해결된 문제로 제시한다면 시각 장애인 사용자에게 불공정한 일이 될 것입니다. 그렇지 않습니다. 여전히 상당한 격차가 있으며, 우리는 이에 대해 투명하게 이야기하고자 합니다.

복잡하고 혼합된 요리에 대한 AI 정확도

AI 음식 인식은 좋지만 완벽하지는 않습니다. 명확하게 분리된 음식 --- 구운 닭고기 한 조각, 쌀 한 덩어리, 찐 채소 한 접시 --- 은 훨씬 더 잘 처리하지만, 혼합 요리, 캐서롤, 스튜 또는 재료가 겹쳐져 있거나 숨겨진 음식은 잘 처리하지 못합니다. 특히 부리토는 AI가 또띠아 안에 무엇이 들어 있는지 볼 수 없기 때문에 특별한 도전 과제가 됩니다.

AI의 추정치를 시각적으로 검사할 수 없는 시각 장애인 사용자에게는 이 제한이 더 중요합니다. 시각이 있는 사용자는 AI의 추정치를 보고 즉시 샌드위치에 치즈가 빠졌다는 것을 알 수 있지만, 시각 장애인 사용자는 전체 분해를 듣지 않고는 그 오류를 발견하지 못할 수 있습니다.

우리는 카메라가 볼 수 없는 부분을 보완하기 위해 "이 요리에 치즈가 포함되어 있습니까?" "소스가 있습니까?"와 같은 명확한 질문을 AI가 던지도록 개선하고 있습니다.

온보딩 및 초기 설정

초기 설정 과정 --- 계정 생성, 신체 지표 입력, 칼로리 및 다량 영양소 목표 설정 --- 은 일상적인 사용보다 더 복잡하며, 더 많은 양식 필드, 드롭다운 및 다단계 흐름이 포함됩니다. 이러한 과정은 스크린 리더와 호환되지만, 우리가 원하는 만큼 매끄럽지 않습니다. 우리는 접근성을 주요 디자인 제약으로 삼아 온보딩 흐름을 재설계하고 있습니다.

외식 및 테이크아웃 식사

외식은 모든 사용자에게 도전 과제를 제시하지만, 특히 시각 장애인 사용자에게는 더욱 그렇습니다. 레스토랑 요리는 종종 부분 크기를 가리도록 배치되며, 소스는 음식 아래에 있을 수 있고, 레스토랑의 주변 조명은 AI 사진 정확도를 떨어뜨릴 수 있습니다. 음성 기록은 여기에서 도움이 되지만 --- 주문한 내용을 설명하는 것이 어두운 레스토랑에서 사진을 찍는 것보다 더 정확한 경우가 많습니다 --- 여전히 집에서 요리한 식사 기록보다 덜 정밀합니다.

커뮤니티 및 소셜 기능

많은 칼로리 추적 앱은 소셜 기능을 포함합니다: 식사 공유, 친구와의 진행 상황 비교, 챌린지 참여 등. 이러한 기능은 종종 앱의 가장 접근하기 어려운 부분 중 하나로, 시각적 레이아웃, 이미지 및 사용자 정의 UI 구성 요소에 크게 의존합니다. Nutrola의 소셜 기능은 아직 개발 중이며, 우리는 이를 처음부터 접근 가능하게 구축하겠다는 약속을 하고 있습니다.

지역 및 문화적 음식 인식

AI 음식 인식 모델은 데이터 세트에 의해 훈련됩니다. 이러한 데이터 세트는 서구 요리에 편향되어 있습니다. 이는 AI가 햄버거를 인식하는 데 더 정확하지만, 졸로프 라이스, 도사, 인제라를 인식하는 데는 덜 정확하다는 것을 의미합니다. 이는 AI 훈련 데이터의 체계적인 편향으로, 전체 산업이 해결해야 할 문제입니다. Nutrola는 더 다양한 글로벌 요리를 포함하기 위해 훈련 데이터를 확장하고 있지만, 이 작업은 진행 중이며 현재의 불균형은 현실입니다.

더 큰 그림: 영양은 권리가 아닌 특권

기술 산업에서는 접근성을 기능으로 간주하는 경향이 있습니다 --- 특정 틈새 시장을 위해 제품에 추가하는 것. 이러한 관점은 잘못되었습니다. 접근성은 개인이 자신의 건강의 기본적인 측면을 관리할 수 있는지 여부에 관한 문제입니다.

영양은 모든 것에 영향을 미칩니다: 에너지, 만성 질환 위험, 정신 건강, 신체 성능, 수명. 칼로리 및 영양소 추적은 식습관 개선을 위한 가장 근거 기반 도구 중 하나입니다. 추적 도구가 접근할 수 없을 때, 시각 장애인 개인은 단순한 편리함을 놓치는 것이 아닙니다. 그들은 입증된 건강 개입에서 제외되고 있습니다.

미국 장애인법, 유럽 접근성 법, 그리고 전 세계의 유사한 법률은 디지털 서비스가 장애인을 위해 접근 가능해야 한다고 규정하고 있습니다. 그러나 법적 준수는 바닥이 아니라 천장입니다. 목표는 단순히 기술적으로 사용 가능한 것이 아니라, 진정으로 좋은 경험을 제공하는 것입니다 --- 시각 장애인 사용자가 친구에게 추천할 수 있는 것이어야 하며, 더 나은 옵션이 없어서 참는 것이어서는 안 됩니다.

마커스는 우리에게 깊은 인상을 남긴 말을 했습니다: "나는 내 장애에도 불구하고 작동하는 앱을 원하지 않습니다. 나는 내 장애와 관계없이 작동하는 앱을 원합니다. 그 차이가 있습니다. 첫 번째는 자선처럼 느껴집니다. 두 번째는 좋은 엔지니어링처럼 느껴집니다."

자주 묻는 질문

완전한 시각 장애인이 Nutrola를 사용하여 칼로리 추적을 할 수 있나요?

네. Nutrola는 iOS의 VoiceOver와 Android의 TalkBack과 완전히 호환되도록 설계되었습니다. 모든 핵심 기능 --- 사진으로 음식 기록, 음성으로 음식 기록, 일일 요약 보기, 항목 조정 및 영양 목표 설정 --- 은 스크린 리더를 통해 접근할 수 있습니다. 앱을 운영하는 데 가시적인 도움이 필요하지 않지만, 앱에 처음 접근하는 경우 초기 설정 시 시각적 도움이 유용할 수 있습니다.

AI 사진 인식의 칼로리 추적 정확도는 얼마나 되나요?

AI 사진 인식은 강력한 추정 도구이지만, 정밀한 기기는 아닙니다. 명확하게 보이는 잘 분리된 음식의 경우, 정확도는 일반적으로 실제 칼로리 내용의 10~15% 이내입니다. 혼합 요리의 경우 정확도가 떨어집니다. 사진 캡처 후 음성으로 수정을 사용하는 것이 정확도를 높이는 데 도움이 됩니다 --- 예를 들어, 사진에서 보이지 않을 수 있는 치즈나 기름을 추가했다고 명시하는 것입니다.

음성 기록은 억양이나 비원어민 영어 사용자와 함께 작동하나요?

Nutrola의 음성 인식은 다양한 억양과 말하기 패턴을 처리하는 고급 음성-텍스트 처리 기술을 사용합니다. 휴대폰에서 텍스트 메시지를 위해 음성 입력을 사용할 수 있다면, Nutrola에서 음성 기록을 사용할 수 있어야 합니다. 음식 설명을 해석하는 AI는 대화식이고 비공식적인 언어를 이해하도록 설계되어 있으므로, 정확하거나 기술적인 용어를 사용할 필요가 없습니다.

시각 장애인 사용자에게 Nutrola는 무료인가요?

Nutrola의 가격은 모든 사용자에게 동일합니다. 접근성은 핵심 제품에 내장되어 있으며, 프리미엄 계획 뒤에 가려져 있지 않습니다. 무료 버전에는 음성 기록과 사진 기록이 포함되어 있습니다. 고급 다량 영양소 추적, 주간 보고서 및 추세 분석과 같은 프리미엄 기능은 구독을 통해 제공됩니다.

Braille 디스플레이와 함께 Nutrola를 사용할 수 있나요?

네. Nutrola는 VoiceOver와 TalkBack과 완전히 호환되므로, 휴대폰에 연결된 점자 디스플레이와 함께 작동합니다. 스크린 리더가 발표하는 모든 텍스트 콘텐츠는 점자 디스플레이에도 출력되며, 음식 설명, 칼로리 총계 및 다량 영양소 분해가 포함됩니다.

시각적으로 양을 추정할 수 없다면 Nutrola는 어떻게 양을 처리하나요?

이는 정직한 도전 과제입니다. Nutrola의 AI는 사진에서 양을 추정하지만, 항상 정확하지는 않습니다. 우리는 집에서 음식을 준비할 때 간단한 측정 도구 --- 주방 저울, 계량컵 --- 을 사용하는 것을 권장합니다. 시간이 지나면 표준 양이 어떤 느낌과 무게인지에 대한 신체적 감각이 생기고, 이는 추정과 AI가 잘못된 경우 수정하는 능력을 향상시킵니다.

앱에서 접근성 문제를 발견하면 어떻게 해야 하나요?

앱 내 피드백 기능을 통해 보고하세요. 이는 VoiceOver와 TalkBack을 통해 접근할 수 있습니다. 지원 팀에 직접 이메일을 보내는 것도 가능합니다. 접근성 버그 보고서는 개발 과정에서 플래그가 지정되고 우선 순위가 매겨집니다. 우리는 모든 보고서를 소중히 여기며, 내부 테스트에서 놓쳤을 수 있는 문제를 찾고 수정하는 데 도움이 됩니다.

주간 및 월간 보고서는 접근 가능하나요?

네. 모든 보고서 화면은 스크린 리더를 위한 적절한 접근성 레이블과 논리적 읽기 순서로 설계되었습니다. 요약은 음성으로도 접근할 수 있습니다 --- "내 주간 요약을 줘"라고 물으면 지난 7일 동안의 평균 일일 칼로리, 다량 영양소 추세 및 일관성 비율에 대한 음성 개요가 반환됩니다.

앞으로 나아가기

칼로리 추적 앱이 사용자에게 요구하는 것과 시각 장애인 사용자가 편안하게 제공할 수 있는 것 사이의 격차는 오랫동안 넓었습니다. AI 사진 인식과 음성 입력이 그 격차를 극적으로 좁혔습니다. 완전히 없애지는 않았지만, 극적으로 줄였습니다.

남은 작업은 화려하지 않습니다. 접근성 레이블에 대한 세심한 주의입니다. 더 많은 요리를 포함하기 위해 AI 훈련 데이터를 확장하는 것입니다. 새로운 기능을 출시하기 전에 스크린 리더로 테스트하는 것입니다. 마커스와 같은 사용자들이 무엇이 효과적이고 무엇이 효과적이지 않은지 이야기할 때 귀 기울이는 것입니다.

마커스는 최근에 4개월 동안 지속적으로 식사를 추적했다고 말했습니다 --- 그가 어떤 건강 앱으로도 유지한 가장 긴 기록입니다. "4개월은 많지 않은 것처럼 들리지만," 그는 말했습니다. "6년 동안 무언가를 시도하고 매번 실패한 후에는, 4개월이 마침내 가능하다는 증거처럼 느껴집니다."

가능합니다. 그리고 오래전부터 가능했어야 했습니다. 기술은 존재했습니다. 부족했던 것은 모든 사용자를 위해 이를 활용하겠다는 의지였습니다. 가장 설계하기 쉬운 사용자들만을 위해서가 아니라요.

우리는 끝나지 않았습니다. 하지만 멈추지도 않을 것입니다.

영양 추적을 혁신할 준비가 되셨나요?

Nutrola로 건강 여정을 바꾼 수천 명에 합류하세요!