Сервис для обмена файлами WeTransfer оказался в центре скандала после изменения своих условий использования. Пользователи заметили, что обновлённые правила позволяют компании использовать файлы, отправленные через платформу, для разработки и улучшения сервисов, включая технологии машинного обучения. Особенно людей насторожила формулировка о праве WeTransfer применять пользовательские данные для повышения эффективности "моделей машинного обучения", влияющих на автоматическую модерацию контента.
Формулировка оказалась настолько широкой, что у большинства возникло впечатление: компания теперь может делать с вашими файлами что угодно — и нигде не прописаны чёткие ограничения или гарантии приватности.
Понятно, что такие новости особенно взволновали профессиональных пользователей — дизайнеров, фотографов, художников, писателей — всех, кто работает с уникальным контентом. Многие публично объявили: переходят на конкурентов и советуют шифровать файлы или даже возвращаться к отправке флешек по почте.
В соцсетях появились сообщения: "С 8 августа WeTransfer будет владеть всем, что вы загружаете, во имя развития искусственного интеллекта". Такое будущее не прельстило никого, кроме юристов.
Почувствовав нарастающее негодование, WeTransfer в спешке переписал спорный пункт. На сайте компании опубликовали отдельное пояснение, где многократно заверили: ни один файл не будет использован для обучения ИИ без явного согласия владельца, а сама формулировка о машинном обучении полностью убрана из правил.
Теперь в условиях осталась только стандартная оговорка — о разрешении использовать нормы обслуживания для работы и развития платформы. Намёк на ИИ красочно исчез.
Любопытно, что похожий скандал произошёл полтора года назад у другого популярного сервиса — Dropbox. Там тоже туманно намекнули, что пользовательские файлы могут быть нужны для обучения искусственного интеллекта. Результат был тот же: извинения, переписанные правила и коллективный выдох облегчения.
Такие казусы — не просто формализм юристов: они показывают, насколько велико недоверие к софт-компаниям, когда речь заходит о данных. Именно творческое сообщество особенно остро реагирует даже на намёки использования их работ. В эпоху DALL·E, Midjourney и ChatGPT, где искусственный интеллект учится на картинках, текстах и мелодиях живых людей — это не паранойя, а вопрос профессионального выживания.
Художники и музыканты уже судятся за свои права, бойкотируют «умные» платформы и требуют прозрачности. Так что тем, кто разрабатывает файлообменники и ИИ-сервисы, стоит заранее задумываться о чётких гарантиях: клиенты быстро превращаются в ярых противников на ровном месте, если почуют подвох.
Вся история с WeTransfer напоминает дешёвый ремейк другого конфуза — теперь уже с немного обновлённым «да мы случайно написали, извините». Неудивительно, что пользователи реагируют мгновенно: ведь любая поправка в текстах ToS превращает тебя из обычного клиента в дойную корову для ИИ-алгоритмов.
Когда художник загружает черновик — он хочет сохранить авторство, а не обнаружить потом часть рисунка в рекламе левых приложений. Но корпорации, вооружённые апатией юристов, предпочитают держать двери открытыми для своих алгоритмов. Мол, случайно собрал — теперь это база для «развития технологий». Если общественность поднимает шум, текст перепишут. Но ощущение — как у человека, который однажды был обманут: даже новые правила не приносят покоя.
Итак, за «правками» условий всегда стоит жажда: проще собрать чуть больше, чем разрешено, чем заработать хоть рубль честно. В этом смысле — ничего нового: параноидальная перестраховка стала национальной идеей для всего креативного класса. Даже флешки возвращаются в моду. А теперь задайтесь вопросом: если «крупный облачный сервис» вдруг начинает стрелять глазами к твоим файлам — это случайность, криво написанная бумажка... или бизнес-модель на доверии?
Пока креативщики смотрят на ToS как на мину замедленного действия — корпорации делают шаг назад. Просим прощения, больше брать не будем. Но память, как говорил Ницше, не забывает: один раз поверил — второй раз прочёл, третий пересмотрел — паранойя стала стандартом.