
Стремительный рост использования ChatGPT в медицинских целях в США стал одновременно спасением для одних и тревожным сигналом для других. За последние месяцы около 40 миллионов человек ежедневно обращаются к ChatGPT, чтобы разобраться в медицинских счетах, оспорить решения страховых компаний или просто понять собственный диагноз. По данным опроса Gallup за февраль, почти 16 процентов взрослых американцев уже ищут медицинскую информацию через искусственный интеллект или соцсети. Это неудивительно — в стране накопилось более 220 миллиардов долларов медицинских долгов, не хватает медперсонала и врачей, а половина населения жалуется, что им становится всё труднее оплачивать лечение.
На этом фоне OpenAI решила нанести решающий удар по устоявшейся картине американского здравоохранения. В январе компания представила ChatGPT Health — бесплатный сервис для всех, кто готов загружать в нейросеть свои медицинские документы. По замыслу разработчиков, бот должен помогать людям ориентироваться в вопросах здоровья, используя персональные данные пользователя. К технологической гонке тут же присоединились Amazon и Microsoft со своими аналогичными продуктами.
Однако далеко не все в восторге от такой инициативы. Юристы, занимающиеся вопросами цифровых прав, уже назвали стремительное вторжение крупных IT-компаний в медицину тревожащим трендом. Представители некоммерческих организаций напоминают: в США нет единого федерального закона, который бы чётко регулировал обработку персональных данных, особенно самых чувствительных — медицинских. Хотя существует закон HIPAA, регулирующий защиту медданных, он распространяется только на медицинские учреждения, страховые и связанные с ними организации. Сервисы вроде ChatGPT Health под эту защиту не попадают — их пользователи защищены только внутренней политикой компании, составленной так, как она сама считает нужным.
Многие популярные приложения для здоровья — от фитнес-трекеров до умных колец — также находятся вне HIPAA. Это означает, что данные, собранные такими сервисами, могут оказаться в руках сторонних компаний, которые вправе использовать их в любых коммерческих целях. Продажа информации — один из самых ценных рынков, и это уже приводило к громким скандалам, как в случае с компанией 23andMe, когда генетические данные пользователей были проданы новому владельцу.
В ответ на это крупные разработчики ИИ создают «двойные версии» своих продуктов: одну — для врачей и клиник, полностью соответствующую нормам HIPAA, и другую — для обычных пользователей, где такой защиты нет. Так появилась версия ChatGPT for Healthcare, а также HIPAA-совместимые продукты от конкурентов. Но именно версии для широкой аудитории становятся наиболее популярными, ведь они доступны каждому и не требуют врачебных полномочий.
Между тем эксперты всё чаще говорят о рисках. Исследования показали, что ИИ пока плохо справляется с задачами медицинского триажа — сортировки пациентов по степени срочности. Были выявлены ошибки, гендерные перекосы и опасные советы. Например, расследование показало, что некоторые AI-ответы, предлагаемые крупными компаниями, содержали неточные медицинские доводы, способные нанести вред. В феврале журнал Nature Medicine опубликовал работу, согласно которой ChatGPT Health давал неверные рекомендации по обращениям за экстренной помощью.
На этом фоне появляются вопросы: что будет, если правоохранительные органы затребуют доступ к медицинским данным пользователей у OpenAI? Что произойдет с теми, кто пользуется сервисами для получения информации о репродуктивном здоровье или гендерной помощи? В условиях слабой защиты данных такие опасения нельзя считать преувеличенными.
В итоге складывается парадокс: пока многие американцы, уставшие от дорогой и недоступной медицины, доверяют свои самые интимные сведения алгоритмам, юристы и правозащитники предупреждают — данные могут быть использованы совершенно не так, как ожидают пользователи. Именно поэтому вопросы контроля, прозрачности и законности использования медицинских данных становятся центральными в дискуссии о будущем цифровой медицины.
ИИ как новый семейный врач — звучит свежо, если забыть, что это выгодно скорее корпорациям, чем пациентам.
Американцы перегружены долгами и лишены доступа к медицине, поэтому бегут к чат-ботам. Удобно, быстро, почти бесплатно. Почти благотворительность.
Но за этой заботой — интерес к личным данным. Продукт для широкой публики не регулируется так же жёстко, как медицинские системы. Компании охотно собирают историю болезней, подключают фитнес-гаджеты, расширяют экосистему. Данные путешествуют между сервисами, не встречая законных барьеров.
Юристы говорят о рисках — ошибочные советы, предвзятость моделей, отсутствие реальной приватности. И да, кто угодно может запросить эти данные. Совпадение, что Европа с её строгими законами такую игрушку пока не получила — странное совпадение.
Медицинская система трещит, а ИИ подаётся как спасение. На деле — это способ собрать ещё больше информации. И привычка делиться интимным просто потому, что так удобнее, превращается в норму, к которой пользователи сами себя приучают.