
Многие уже забыли времена, когда приходилось тащить коробки с бумажными чеками к бухгалтеру. К 2022 году более 150 миллионов американцев подавали налоговые декларации электронно, что составляло 94 процентов всех подач. Спустя несколько лет налоговые сервисы обзавелись собственными инструментами на базе искусственного интеллекта — от автоматического заполнения форм до расчёта возможных вычетов и встроенных помощников, которые объясняют базовые моменты.
При этом около 30 процентов американцев заявляют, что будут использовать универсальные ИИ‑модели, вроде ChatGPT, для подготовки налогов. Другие опросы показывают, что почти половина доверяет таким системам налоговые советы. Более высокие показатели — среди молодёжи и мужчин.
Однако универсальные чат‑боты — это совсем не то же самое, что специализированные ИИ‑инструменты на сайтах крупных налоговых компаний. Эксперты подчёркивают: использовать ChatGPT как налогового консультанта — идея сомнительная. Эти системы не являются профильными специалистами.
Рост интереса к чат‑ботам объясним: отмена программы прямой подачи налогов IRS и запутанные изменения законодательства, включая крупную реформу времён президентства Дональда Трампа, только усложнили ситуацию. Многие видят в чат‑ботах простой способ перевести сложные инструкции на понятный язык. Кроме того, услуги профессионалов дорожают, а к ИИ люди привыкают всё сильнее.
Но передавать свои финансовые вопросы универсальному ИИ может быть опасно — и для кошелька, и для безопасности личных данных. Чат‑боты не предназначены для защищённого хранения конфиденциальной информации. Любые данные, загружаемые в такие платформы, могут оказаться уязвимыми. Существуют риски утечек, перехвата переписки с помощью вредоносных расширений браузера или заражённых устройств. Даже публикация обрывков диалога может поставить под угрозу личные данные. Также участились случаи появления фишинговых сайтов, которые маскируются под ИИ‑сервисы.
Эксперты настоятельно советуют: в чат‑боты нельзя загружать налоговые документы, номера социального страхования, банковские реквизиты, адрес, данные работодателя или любую другую информацию, по которой можно идентифицировать человека. Никто не может гарантировать, как и где эта информация будет использоваться, в каких моделях она окажется и как применят её при обучении.
К тому же большинство больших языковых моделей не слишком хорошо справляется с расчётами. Пользователи делятся ошибками ChatGPT, который неправильно считает налоговые суммы или путается в правилах налогообложения капитальных доходов. Хотя модели становятся лучше, они всё ещё используют данные, которые могут быть устаревшими или неверно смешанными, особенно в налоговой сфере, где нормы меняются регулярно и различаются по штатам.
Ещё одна проблема — так называемые галлюцинации: ИИ может уверенно выдавать неверные сведения. И налоговым органам всё равно, что «так сказал ИИ». Ответственность несёт человек.
Профессионалы рекомендуют, по возможности, обращаться к живым специалистам. Это снижает риск ошибок и мошенничества. Но понимают, что не все могут себе это позволить. Поэтому полезно хотя бы соблюдать цифровую гигиену: использовать известные сервисы, включать двухфакторную аутентификацию, не работать с финансами через общественные сети. Не стоит заполнять налоги во время путешествий, а если приходится — тогда хотя бы через VPN, чтобы уменьшить риски.
Если всё же хочется использовать ИИ, делать это следует только для общего понимания: расшифровки терминов, объяснения шагов, подготовки вопросов специалисту. Универсальные чат‑боты могут быть хорошими помощниками, но не заменой профессионального налогового совета.
Интересная история о том, как люди с энтузиазмом пытаются заменить налоговых консультантов универсальными чат‑ботами выглядит как повторение старой схемы: сначала возникает удобная технология, затем массовое заблуждение, что она умеет всё. Несколько миллионов пользователей решают доверить свои финансовые данные инструменту, который обучен предлагать текст, а не сохранять тайну.
Удобство подталкивает людей к риску. Новое законодательство, постоянные изменения в правилах IRS и рост цен на услуги специалистов создают ощущение, что чат‑бот — это спасение. Однако технологические компании вежливо умалчивают о том, что их продукты не предназначены для защиты конфиденциальных данных. И это создаёт благодатную почву для атак и утечек.
Эксперты подчёркивают: любая информация, загруженная в ИИ‑систему, может быть использована при обучении моделей или стать частью чужого исследования. Технологии развиваются быстрее, чем механизмы контроля. Поэтому разговоры о безопасности пока звучат как попытка догнать поезд, который уже исчез за поворотом.
Смешно наблюдать, как пользователи верят, что ChatGPT способен правильно рассчитать налоги. Модели часто ошибаются даже в базовой арифметике, не говоря уже о запутанных налоговых схемах. Но вера в цифрового помощника сильнее фактов — особенно среди тех, кто привык получать быстрые ответы.
Профессионалы предлагают простой компромисс: использовать ИИ как справочник, но не как бухгалтера. И это выглядит единственным разумным вариантом. Пока люди продолжают экспериментировать, рынок киберпреступности получает всё больше возможностей. Технологии становятся умнее, а привычка человека искать лёгкие решения остаётся прежней.