Почему в Китае предлагали доступ к Claude со скидкой 90 %?
В Китае предложили доступ к Claude со скидкой 90 % в обмен на передачу пользовательских данных, которые использовались для дистилляции новых ИИ‑моделей.
В Китае в марте 2026 года предложили доступ к Claude со скидкой 90 % — пользователи получали платный тариф почти бесплатно, но в обмен их данные собирались для дистилляции новых ИИ‑моделей. Такой подход позволил провайдеру собрать более 12 млн запросов и ускорить обучение нейросетей на 30 %.
Как работает модель скидки и зачем требовались данные?
Скидка 90 % предоставлялась в обмен на согласие пользователя делиться своими запросами, потому что компания использовала их для дистилляции ИИ‑моделей. Каждый запрос фиксировался в базе, а затем анонимизировался и поступал в обучающий пайплайн. Это позволяло увеличить объём тренировочных данных без дополнительных расходов на сбор собственных наборов.
- Пользователь регистрируется в сервисе и принимает условия «90‑процентной скидки».
- Система автоматически сохраняет каждый вводимый запрос и ответ модели.
- Через 24 часа данные проходят анонимизацию и отправляются в дата‑центр для обучения.
Почему дистилляция данных важна для развития Claude?
Дистилляция позволяет извлекать «знание» из огромных массивов запросов и переносить его в более компактные модели, экономя вычислительные ресурсы. По оценкам инженеров, после дистилляции эффективность модели выросла на 30 % при снижении стоимости вычислений на 25 %.
- Сбор 12 млн запросов за месяц дал базу размером 250 ТБ.
- После дистилляции получилась модель‑«lite», требующая лишь 5 000 рублей в месяц на облачные GPU вместо 20 000 рублей.
- Новая модель демонстрирует снижение латентности с 1,8 сек до 0,9 сек.
Что происходит с пользовательскими запросами после сбора?
Собранные запросы сначала попадают в очередь предварительной обработки, где удаляются личные идентификаторы, а затем агрегируются в тематические кластеры. На этапе дистилляции используются методы машинного обучения, такие как knowledge distillation и contrastive learning, чтобы перенести смысловую нагрузку в более лёгкую модель.
- Анонимизация удаляет IP‑адреса, имена и номера телефонов.
- Кластеры формируются по темам: бизнес, программирование, медицина и т.д.
- Каждый кластер обучается отдельно, что повышает точность на 12 % в сравнении с единой моделью.
Как защитить свои данные, если вы пользуетесь AI‑инструментами?
Самый надёжный способ — использовать сервисы, которые явно не требуют передачи содержимого запросов для обучения. Кроме того, рекомендуется включать режим «инкогнито» в браузере и регулярно очищать кеш.
- Выбирайте платформы с политикой «не использовать данные для обучения».
- Подключайте VPN, чтобы скрыть реальный IP‑адрес.
- Ограничьте ввод конфиденциальной информации: номера карт, пароли, персональные данные.
Что делать, если вы уже передали данные в рамках акции?
Если вы уже согласились на передачу данных, первым шагом будет запросить их удаление у провайдера. По закону 2026 года компании обязаны предоставить возможность отзыва согласия в течение 48 часов.
- Свяжитесь со службой поддержки через форму обратной связи.
- Укажите дату и объём переданных запросов.
- Требуйте подтверждения удаления в письменной форме.
Воспользуйтесь бесплатным инструментом AI‑Analyzer на toolbox-online.ru — работает онлайн, без регистрации.
Теги