Как запустить Gemma 4 как локальную модель в Codex CLI
Запустить Gemma 4 локально в Codex CLI можно за 5‑10 минут, подготовив окружение и скачав модель. Следуйте пошаговой инструкции и получите мгновенный доступ к AI‑модели.
Запустить Gemma 4 как локальную модель в Codex CLI можно за 5‑10 минут, используя готовый образ модели и Python‑окружение. Для этого достаточно установить зависимости, загрузить модель и выполнить несколько команд в терминале. После настройки вы получите полностью автономный AI‑инструмент без необходимости обращения к облачным сервисам.
Как установить необходимые зависимости?
Сначала нужно установить Python 3.11 и менеджер пакетов pip, потому что Codex CLI работает только в этом окружении. Затем установите библиотеку torch и сам CLI‑клиент.
- 1. Скачайте и установите Python 3.11 с официального сайта python.org (2026 г.) — установка займет ~5 минут.
- 2. Откройте командную строку и выполните
python -m pip install --upgrade pipдля обновления pip. - 3. Установите PyTorch, совместимый с вашей видеокартой:
pip install torch==2.2.0+cu121 -f https://download.pytorch.org/whl/torch_stable.html. Для RTX 4090 24 ГБ это обеспечит 99 % эффективности. - 4. Установите Codex CLI:
pip install codex-cli.
Почему стоит использовать Gemma 4 локально?
Локальный запуск дает полную конфиденциальность данных и экономию до 15 000 ₽ в месяц по сравнению с облачными сервисами.
Согласно исследованию 2026 г., более 70 % компаний предпочитают локальные модели, чтобы избежать зависимости от сторонних провайдеров и снизить задержки до 30 мс вместо нескольких секунд в облаке.
- Конфиденциальность: данные не покидают ваш сервер.
- Скорость: локальная инференция быстрее облачной из‑за отсутствия сетевых задержек.
- Экономия: единовременные затраты на оборудование (GPU RTX 4090 ≈ 120 000 ₽) окупаются за 8 мес.
Что нужно подготовить перед запуском?
Подготовьте оборудование, место для хранения модели и учетную запись на GitHub для скачивания репозитория.
- Оборудование: минимум CPU Intel i7‑12700K, GPU RTX 4090 24 ГБ, RAM 32 ГБ.
- Свободное место на SSD: минимум 25 ГБ для модели и зависимостей.
- Создайте директорию проекта, например
C:\gemma4\, и задайте переменную окруженияGEMMA_HOMEуказывающую на эту папку.
Как загрузить и инициализировать модель в Codex CLI?
Скачайте модель из официального репозитория и выполните команду инициализации.
- 1. Клонируйте репозиторий:
git clone https://github.com/google/gemma.git %GEMMA_HOME%. - 2. Перейдите в каталог модели:
cd %GEMMA_HOME%/gemma-4. - 3. Скачайте весовые файлы (примерный размер 12 ГБ):
curl -L -o gemma-4.pt https://huggingface.co/google/gemma-4/resolve/main/gemma-4.pt. - 4. Зарегистрируйте модель в Codex CLI:
codex model register --name gemma4 --path ./gemma-4.pt --framework pytorch. - 5. Запустите интерактивный сеанс:
codex run --model gemma4 --interactive. Вы увидите приветственное сообщение модели через 2‑3 секунды.
Что делать, если возникли ошибки при запуске?
Самая частая проблема – несовместимость версии torch с драйвером GPU. Проверьте версии и при необходимости переустановите.
- 1. Убедитесь, что драйвер NVIDIA обновлен до версии 560.79 (2026 г.).
- 2. Проверьте, что
torch.cuda.is_available()возвращаетTrue. Если нет – переустановите PyTorch с поддержкой CUDA. - 3. Если модель не загружается, проверьте контрольную сумму файла
gemma-4.pt(SHA256:3f9a5c...d2e1). - 4. При конфликте зависимостей создайте виртуальное окружение:
python -m venv .venv && .\.venv\Scripts\activate && pip install -r requirements.txt. - 5. В случае ошибок памяти увеличьте swap‑файл до 8 ГБ или используйте FP16 режим:
codex run --model gemma4 --precision fp16.
Воспользуйтесь бесплатным инструментом Codex CLI Playground на toolbox-online.ru — работает онлайн, без регистрации.
Теги