
Конец лицензионным барьерам: переход на Apache 2.0
Этот шаг — настоящее событие для всей open-source индустрии. Ранее Google распространяла свои нейросети на базе собственных соглашений, которые связывали руки разработчикам при коммерческом использовании и модификации кода.
Переход на лицензию Apache 2.0 дает абсолютный юридический карт-бланш. Теперь создатели софта получают полный контроль над инфраструктурой и могут без оглядки на риски интегрировать Gemma 4 в любые коммерческие продукты, стартапы и корпоративные решения.
Арсенал Gemma 4: четыре модели под любые задачи
Линейка Gemma 4 включает четыре версии, оптимизированные под различное оборудование и цели:
Флагманская модель (31B): Плотная (dense) архитектура на 31 миллиард параметров. Несмотря на свой размер, она уже ворвалась в тройку лидеров независимого рейтинга Arena AI, оставляя позади конкурентов, которые крупнее её в десятки раз.
Гибридная модель (26B MoE): Базируется на архитектуре Mixture of Experts (смесь экспертов). Её главная фишка — эффективность. При генерации текста она задействует всего 3,8 миллиарда параметров, выдавая высочайшую скорость работы (tokens-per-second) при минимальных задержках.
Мобильные версии (E2B и E4B): Компактные нейросети, созданные специально для работы на конечных устройствах — смартфонах, планшетах и гаджетах умного дома (IoT).
Заточка под автономных агентов и мультимодальность
Разработчики из DeepMind сделали серьезную ставку на автономность. Gemma 4 «из коробки» поддерживает структурированный вывод в формате JSON, системные инструкции и вызов функций (function-calling). Это фундаментальный набор инструментов для создания независимых ИИ-агентов, которые могут сами планировать задачи и общаться со сторонними API без участия человека.
Мультимодальность теперь стала базовым стандартом:
Все четыре модели отлично «понимают» изображения и видео.
Младшие версии (E2B и E4B) получили эксклюзивную способность напрямую обрабатывать аудио. Это открывает двери для создания быстрых локальных голосовых помощников нового поколения.
Контекстное окно расширено до внушительных 256 тысяч токенов для серверных решений и до 128 тысяч — для мобильных.
Железо: что нужно для запуска?
Google провела колоссальную работу по оптимизации аппетитов своих нейросетей.
Старшие версии (31B и 26B) в несжатом виде (bfloat16) легко помещаются в память одного профессионального ускорителя NVIDIA H100 на 80 ГБ. Если использовать квантование, эти модели можно запустить даже на топовых потребительских видеокартах.
Что касается младших E2B и E4B — им вообще не нужен интернет или мощный GPU. Они способны полноценно работать в офлайн-режиме на процессорах обычных смартфонов или микрокомпьютерах уровня Raspberry Pi.
Итоги: открытый вызов рынку
Выпуск Gemma 4 под Apache 2.0 — это прямой и агрессивный ответ Google на стратегию Meta с их семейством Llama. Корпорация четко обозначает свою цель: стать главным поставщиком базовых open-source технологий и превратить свою архитектуру в мировой индустриальный стандарт.
В ближайшем будущем этот релиз спровоцирует бум локальных ИИ-приложений. Появление умных, компактных моделей, способных анализировать звук и видео без отправки данных в облако, — это первый шаг к созданию по-настоящему приватных, независимых и молниеносных ассистентов в каждом кармане.
Забрать модели можно тут: Gemma 4