
Искусственный интеллект снова пытается занять место там, где у людей обычно подскакивает пульс: между сдачей анализа крови и моментом, когда врач, наконец, объясняет, что означает этот загадочный набор цифр и сокращений. Большие языковые модели вроде ChatGPT, Claude и Gemini стали для многих людей спасательным кругом, к которому они бросаются сразу после получения результата — зачастую раньше, чем специалист успеет взглянуть на бумажку. Компании быстро уловили этот спрос и начали предлагать услуги, обещающие «консьерж‑уровень» внимания к вашему здоровью, только теперь вместо живого врача — алгоритм.
Схема проста: пользователь загружает результаты, а ИИ создаёт подробный отчёт с объяснениями и советами — от изменения диеты до рекомендаций пройти консультацию врача. Обычно это доступно по подписке, стоимость которой может достигать нескольких сотен долларов в год. Однако, как подчёркивает Джон Уайт, глава Американской медицинской ассоциации, нет серьёзных исследований, доказывающих, что ИИ действительно способен корректно интерпретировать кровь и давать персонализированные рекомендации. Кроме того, непонятно, превосходят ли такие платные сервисы обычные бесплатные чаты. Поэтому Уайт советует относиться к подобным заявлениям скептически.
Разработчики ИИ сами признают ограниченность инструментов. Google и OpenAI не утверждают, что их модели вроде Gemini или GPT подготовлены для точной интерпретации анализов. В недавнем партнёрстве Google с крупной лабораторной сетью Quest Diagnostics ИИ ограничивается объяснением терминов и подсказками, какие вопросы задать врачу. Настоящих медицинских рекомендаций он не даёт. У OpenAI есть HealthBench — набор тестов, включающий задачи по пониманию результатов анализов, но специализированного стандарта для крови тоже нет.
На этом фоне появляются узкоспециализированные проекты вроде BloodGPT. Их создатель, Джонатан Крон, признаёт, что общепринятых стандартов в этой области нет. Ранние тесты BloodGPT на обычных чат‑ботах показали массу ошибок: пропуск биомаркеров, путаницу между ними, выдуманные рекомендации. Из‑за этого компания создала многоступенчатый процесс проверки, использующий разные модели для классификации, рассуждения и контроля качества, а также консультации врачей по специфическим показателям вроде половых гормонов. BloodGPT продаёт свои технологии лабораториям и медицинским компаниям, но также предлагает подписку частным пользователям.
Несмотря на уверения, что методики основаны на клинических данных и рекомендации проверяются врачами, независимых научных публикаций у BloodGPT пока нет. Компания только планирует масштабное исследование на основе 100 тысяч обезличенных медицинских карт в партнёрстве с израильской клиникой.
Специалисты вроде Гиришa Надкарни из госпиталя Mt. Sinai считают, что компании, предлагающие ИИ‑интерпретацию крови, обязаны сравнивать свои алгоритмы с реальными пациентскими данными и результатами экспертов. Он признаёт, что ИИ не обязан быть идеальным, но добавляет: невозможно оценить надёжность системы, если неизвестно, как она работает, где ошибается и насколько часто. А ошибки могут привести к упущенным диагнозам или ложной тревоге.
Тем временем на рынок активно выходят и известные бренды. Levels, занимающаяся метаболическим здоровьем, предлагает дорогие подписки с регулярными анализами, врачебными отчётами и ИИ‑комментариями. Их система использует модели Claude и Gemini, а также собственные материалы: статьи, подкасты и исследования биомаркеров. Врач проверяет каждый отчёт, но независимых исследований эффективности ИИ у компании пока нет. Надкарни предупреждает: человеческий контроль важен, но врачи могут стать жертвами «автоматизационного смещения», когда они бессознательно соглашаются с выводами алгоритма.
Whoop — компания, известная своими носимыми устройствами для спортсменов, — тоже вошла в игру. Её пользователи могут сдавать кровь до шести раз в год, а результаты проверяет врач. ИИ, по словам компании, помогает учитывать физиологические данные человека, например сон или нагрузку. Однако Whoop не раскрывает, изучает ли она научно точность собственных рекомендаций. Уайт скептически относится к заявлениям о том, что такие отчёты являются по-настоящему персонализированными. Для этого нужно огромные массивы данных, а исследований нет.
Уайт подчёркивает: анализы крови — важный инструмент медицины, но в соцсетях им приписывают почти магические способности. Некоторые компании проверяют показатели, не имеющие реальной диагностической ценности. Тестирование гормонов тоже может быть бесполезным, если проводится неправильно. До тех пор, пока наука не докажет эффективность ИИ в интерпретации крови, Уайт советует использовать такие инструменты только для простого объяснения результата, но не полагаться на них как на полноценный источник медицинских рекомендаций.
Он напоминает: люди считают анализы безошибочными, но это не всегда так.
ИИ снова пытается заменить врача, и делает это со смешной уверенностью. Пациент получает анализы, пугается цифр, идёт к чат‑боту — и тот начинает рисовать красивые, но порой странные выводы. Именно в этом вся драма: сервисы стоят дорого, а доказательств их эффективности никто так и не предъявил.
Внешне всё выглядит технологично — алгоритмы, модели, «консьерж‑уровень» заботы. Но за этой блестящей обложкой прячется старая история: бизнес спешит продавать обещания, а исследования отстают. У Google и OpenAI нет валидированных инструментов для расшифровки анализов. BloodGPT обещает много, но пока живёт без научных публикаций. Levels и Whoop создают ощущение персонализации, хотя сами признают, что их ИИ не прошёл независимую проверку.
Забавно наблюдать, как компании уверенно объясняют, что их ИИ «помогает понимать взаимосвязи», но при этом избегают разговоров об ответственности. Неудивительно: ошибётся врач — суд. Ошибётся ИИ — ну, бывает, технология же новая.
Врачи, кстати, тоже не спешат в восторг. Они говорят о рисках ложных диагнозов, пропущенных болезней и о том, что специалисты могут сами начать доверять алгоритмам больше, чем следует. И всё это на фоне того, что анализы крови вообще-то не такой уж простой и однозначный инструмент.
В итоге получается знакомая картина: громкие обещания, слабая доказательная база и потребители, которые хотят понятности — и готовы верить машине больше, чем человеку. Пока это выглядит не как революция в медицине, а как очередной эксперимент на тех, кто надеется обмануть бессилие современной диагностики цифровой магией.