Мы прошли точку невозврата. Доля моделей, которые используют цепочки рассуждений, выросла с нуля до 50% всего за год. Рынок сдвинулся от простой генерации текста к «агентному выводу», где модель сначала думает и планирует, а потом отвечает.
Забудьте миф, что ИИ нужен только для работы. Более 50% всего трафика открытых моделей приходится на "ролевые игры". Люди используют дешевые и нецензурируемые модели (особенно китайские) для создания персонажей и интерактивных историй, что делает эту категорию вторым по величине драйвером рынка наравне с кодингом.
Программирование стало доминирующим сценарием, превысив 50% от общего объема токенов к концу 2025 года. Это самая конкурентная ниша: Anthropic (Claude) долго лидировала, но ее доля размывается новыми игроками.
Удержание пользователей зависит от магии первого впечатления. Если модель в момент запуска идеально решает конкретную боль пользователя («туфелька подошла»), он остается с ней надолго. Если «фит» не случился сразу - модель быстро теряет аудиторию, даже если она технически хороша.
У DeepSeek уникальный паттерн удержания. Пользователи уходят пробовать конкурентов, но затем возвращаются (вероятно, из-за лучшего соотношения цены и качества). На графиках это выглядит как «скачки воскрешения», чего нет у других моделей.
Средняя длина промпта (запроса) выросла в 4 раза - с 1,5 тыс. до 6 тыс. токенов. Мы больше не просим ИИ «написать что-то с нуля», мы загружаем в него огромные куски кода, документы и историю чатов для анализа.
Эпоха маленьких моделей (<15 млрд параметров) уходит. Рынок захватывают средние модели (15B–70B), такие как Qwen2.5 Coder или Mistral Small. Они стали «золотой серединой» между эффективностью и мощностью.
Доля Азии в потреблении токенов выросла с 13% до 31%. Китайские модели (DeepSeek, Qwen) больше не догоняющие - они захватывают рынок, предлагая качество уровня GPT-4 за копейки.
Спрос на премиум-модели (как Claude 3.7 или GPT-4) неэластичен: бизнес готов платить дорого за качество. Но в сегменте дешевых моделей работает правило: чем дешевле токен, тем больше их потребляют, запуская длинные цепочки рассуждений и агентов.