Резюме
Будущее ИИ: не в больших моделях, а в маленьких специализированных языковых моделях
Компания Nvidia утверждает, что будущее ИИ — не в больших моделях, а в маленьких специализированных языковых моделях. Они могут сократить расходы, повысить скорость, обеспечить кастомизацию и снизить воздействие на окружающую среду, что делает их идеальными для многих бизнес- и маркетинговых задач.
Автор: Уин Дин-Сейлярдс, старший маркетинговый консультант в Heinz Marketing
Когда большинство людей думают об ИИ, они представляют себе массивные модели общего назначения, такие как GPT-4, Claude или Gemini, системы, которые, казалось бы, способны ответить практически на что угодно (не вдаваясь в проблемы с галлюцинациями ИИ и использованием сомнительных источников). Эти большие языковые модели (LLM) доминируют в заголовках благодаря своей почти человеческой производительности и разговорному формату.
Но в недавней исследовательской работе Nvidia содержится смелое утверждение: будущее многих приложений ИИ, особенно в «агентских» системах, принадлежит небольшим языковым моделям (SLM) — более компактным, быстрым и специализированным инструментам ИИ. Заметьте, они говорят это даже несмотря на то, что значительная часть их основной оценки обусловлена статусом критически важного оборудования для центров обработки данных, используемого для запуска сложных LLM, в которых SLM не нуждаются.
Это не просто технический сдвиг. Если Nvidia права, это может изменить то, как компании внедряют ИИ и инвестируют в него, как маркетологи создают клиентский опыт и как организации подходят к этике ИИ.
Почему Nvidia делает ставку на меньшие модели
Основной тезис Nvidia прост:
Для большинства реальных случаев использования ИИ не требуется гигантский мозг общего назначения; им нужен сфокусированный, высокоэффективный специалист.
В «агентских» системах ИИ (например, в автоматизированных помощниках, ботах для выполнения задач и рабочих процессах, управляемых ИИ) задача состоит не в том, чтобы вести открытые беседы, а в том, чтобы быстро и надёжно выполнять небольшой набор повторяющихся, предсказуемых задач.
SLM идеально подходят для этого, поскольку они:
- дешевле в эксплуатации (меньше вычислений, меньше энергии);
- реагируют быстрее (сниженная задержка);
- могут быть развёрнуты на устройстве или в средах с низким энергопотреблением;
- легко специализируются за счёт точной настройки под конкретные бизнес-потребности.
В представлении Nvidia компании будут всё чаще сочетать SLM и LLM, используя SLM для узких, высокочастотных задач, а большие модели — для сложных рассуждений или непредсказуемых сценариев.
Почему маркетологам B2B следует обратить на это внимание
Для маркетологов B2B этот сдвиг может иметь три значительных последствия:
Клиентский опыт, управляемый ИИ, становится дешевле и быстрее.
Чат-боты, работающие круглосуточно, механизмы рекомендаций продуктов и инструменты персонализации в реальном времени могут работать на более мелких и эффективных моделях. Это означает более быстрые ответы, снижение затрат на инфраструктуру и уменьшение бюджетных споров из-за экспериментов с ИИ.
Большая кастомизация без бюджетов корпоративного уровня.
SLM можно настроить в соответствии с точным обменом сообщениями, тоном и знаниями о продукте компании без «прожорливости» данных (и затрат) LLM. Это выравнивает правила игры для компаний среднего рынка, которые хотят использовать продвинутый ИИ без ценников LLM.
Более умные маркетинговые операции.
SLM могут управлять внутренними маркетинговыми процессами, оценкой потенциальных клиентов, оптимизацией кампаний и мониторингом конкурентов, не отвлекая ресурсы от инициатив, ориентированных на клиента.
Бизнес-аргументы в пользу небольших размеров
Если ваша организация создаёт или покупает инструменты ИИ, стоит учесть рекомендации Nvidia:
- отдавайте предпочтение SLM для повторяющихся, высокочастотных задач, чтобы снизить потребление энергии и задержку;
- внедряйте модульные архитектуры ИИ, сочетающие SLM и LLM;
- быстро настраивайте SLM, чтобы идти в ногу с меняющимися рыночными требованиями, сезонными кампаниями или нормативными изменениями.
Для многих компаний B2B экономика здесь меняется: вы можете масштабировать внедрение ИИ без пропорционального роста затрат.
Этический аспект: меньше — не только дешевле, но и чище
Есть ещё одна причина обратить внимание на SLM: этика и устойчивость ИИ.
- Снижение энергопотребления = снижение углеродного следа. LLM требуют огромных вычислительных мощностей и энергии. Обучение одной такой модели может привести к выбросам CO₂, эквивалентным выбросам пяти автомобилей за их срок службы. SLM значительно сокращают эти объёмы.
- Снижение зависимости от централизованных поставщиков ИИ. Меньшие модели могут работать локально, предоставляя компаниям больший контроль над конфиденциальностью и безопасностью данных.
- Меньше «галлюцинаций» при выполнении повторяющихся задач. Модель, обученная для узкого круга задач, с меньшей вероятностью будет выдавать непредсказуемые или вводящие в заблуждение результаты, что способствует соблюдению требований и укреплению доверия к бренду.
Если вы колебались внедрять ИИ из-за этических соображений, SLM предлагают путь вперёд, который лучше согласуется с принципами ответственного ИИ.
Итог
Исследование Nvidia не утверждает, что LLM устарели; просто они не всегда подходят для каждой задачи и вряд ли будут доминировать в большинстве случаев использования ИИ в будущем.
Настоящее будущее может быть гибридным: SLM берут на себя основную нагрузку, а LLM включаются, если требуется более высокий уровень рассуждений.
Для маркетологов B2B и бизнес-лидеров это может означать:
- более быстрое внедрение ИИ без резкого роста затрат;
- более индивидуализированный и последовательный клиентский опыт;
- более простой путь к устойчивому и этичному внедрению ИИ.
Самая умная стратегия в области ИИ в ближайшие несколько лет может заключаться не в том, чтобы мыслить масштабнее, а в том, чтобы мыслить масштабнее.
