Skip to content
Новость VentureBeat апр. 2026 г.

Google: два новых автономных агента для исследований — Deep Research и Deep Research Max

Google Deep Research и Deep Research Max — автономные агенты для профессиональных исследований

В понедельник, 21 апреля, Google представила наиболее значимое обновление своих автономных исследовательских агентов с момента запуска продукта, выпустив двух новых агентов — Deep Research и Deep Research Max, — которые впервые позволяют разработчикам объединять данные открытого интернета с корпоративной информацией через единый вызов API, генерировать диаграммы и инфографику прямо внутри исследовательских отчётов, а также подключаться к сторонним источникам данных через Model Context Protocol (MCP).

Оба агента построены на модели Gemini 3.1 Pro и знаменуют переход от инструмента для потребительского поиска к инфраструктуре корпоративных исследовательских рабочих процессов в финансовой отрасли, естественных науках и области рыночной аналитики — отраслях, где цена ошибки исключительно высока.

«Мы запускаем два мощных обновления Deep Research в Gemini API — теперь с улучшенным качеством, поддержкой MCP и нативной генерацией диаграмм и инфографики. Используйте Deep Research, когда нужна скорость и эффективность, и Deep Research Max — когда нужен максимально полный сбор контекста и синтез», — написал генеральный директор Google Сундар Пичаи на X.

Оба агента доступны сегодня в режиме публичного превью через платные тарифы Gemini API через Interactions API, который Google представила в декабре 2025 года.

Почему Google создала двух агентов вместо одного

Выпуск представляет собой двухуровневую архитектуру, которая отражает фундаментальный компромисс в проектировании AI-агентов: баланс между скоростью и глубиной анализа.

Deep Research — стандартный уровень, заменяющий агент, выпущенный в декабре, — оптимизирован для интерактивных сценариев с низкими задержками. По описанию Google, он обеспечивает значительно сниженные задержки и стоимость при более высоком качестве по сравнению с предыдущей версией. Компания позиционирует его как идеальный инструмент для приложений, где разработчик встраивает исследовательские возможности непосредственно в пользовательский интерфейс: например, финансовая панель управления, которая отвечает на сложные аналитические вопросы почти в реальном времени.

Deep Research Max занимает противоположный конец спектра. Он использует расширенное тестовое вычисление — технику, при которой модель тратит больше вычислительных ресурсов на итеративные рассуждения, поиск и доработку результатов перед выдачей итогового отчёта. Google разработала его для асинхронных фоновых рабочих процессов: задач, когда аналитическая команда запускает пакет отчётов о due diligence в конце рабочего дня и ожидает утром исчерпывающего, полностью задокументированного анализа.

Команда Google DeepMind так сформулировала разницу: «Deep Research оптимизирован для скорости и эффективности, идеально подходит для интерактивных приложений, требующих более быстрого ответа. Deep Research Max использует дополнительное время для поиска и рассуждений, идеален для исчерпывающего сбора контекста и задач, выполняемых в фоновом режиме».

По бенчмаркам Deep Research Max достиг 93,3% на DeepSearchQA (против 66,1% в декабре) и 54,6% на Humanity’s Last Exam, а также 85,9% на BrowseComp.

Поддержка MCP открывает доступ к корпоративным данным

Наиболее значимая возможность в этом выпуске — поддержка Model Context Protocol, которая превращает Deep Research из инструмента для веб-исследований в нечто более близкое к универсальному аналитику данных.

MCP — развивающийся открытый стандарт для подключения AI-моделей к внешним источникам данных — позволяет Deep Research безопасно запрашивать частные базы данных, корпоративные хранилища документов и специализированные сторонние сервисы, не требуя при этом, чтобы конфиденциальная информация покидала источник. На практике это означает, что хедж-фонд может направить Deep Research на свою внутреннюю базу по сделкам и финансовый терминал одновременно, а затем запросить агента синтезировать данные из обоих источников вместе с публично доступной информацией из интернета.

Google раскрыла, что активно сотрудничает с FactSet, S&P и PitchBook в разработке их MCP-серверов — сигнал о том, что компания добивается глубокой интеграции с поставщиками данных, на которых уже опирается Уолл-стрит и финансовая индустрия. Цель, по словам менеджеров по продукту Google DeepMind Лукаса Хааса и Шринивасаса Тадепалли, состоит в том, чтобы «позволить совместным клиентам интегрировать финансовые данные в рабочие процессы на основе Deep Research и достичь скачка в производительности за счёт сбора контекста с использованием своих обширных информационных вселенных».

Разработчики теперь могут запускать Deep Research с Google Search, удалёнными MCP-серверами, URL Context, выполнением кода и поиском по файлам одновременно — или полностью отключить доступ к интернету для работы исключительно с пользовательскими данными. Система также принимает мультимодальные входные данные: PDF, CSV, изображения, аудио и видео в качестве контекста.

Нативные диаграммы внутри отчётов

Второй ключевой функцией стала нативная генерация диаграмм и инфографики — возможность, устраняющая практическое ограничение, которое до сих пор сдерживало применимость AI-исследовательских отчётов в профессиональной среде.

Предыдущие версии Deep Research выдавали только текстовые отчёты. Пользователям, которым нужны были визуализации, приходилось экспортировать данные и строить диаграммы самостоятельно. Новые агенты генерируют высококачественные диаграммы и инфографику прямо внутри отчётов — в формате HTML или в формате Nano Banana от Google — динамически визуализируя сложные наборы данных как часть аналитического нарратива.

Новая функция совместного планирования позволяет пользователям просматривать, направлять и уточнять исследовательский план агента до начала выполнения, а потоковая передача промежуточных шагов рассуждений в реальном времени обеспечивает детальный контроль над охватом исследования при сохранении прозрачности, которой требуют регулируемые отрасли.

От потребительской функции к корпоративной инфраструктуре

В публикации в блоге Google особо отмечает, что разработчики, строящие на основе агента Deep Research, задействуют «ту же автономную исследовательскую инфраструктуру, которая обеспечивает исследовательские возможности в ряде самых популярных продуктов Google: приложении Gemini, NotebookLM, Google Search и Google Finance». Это означает, что агент, доступный через API, не является урезанной версией того, что Google использует внутри, а той же системой, предлагаемой на платформенном уровне.

Путь к этой точке был стремительным. Google впервые представила Deep Research как потребительскую функцию в приложении Gemini в декабре 2024 года. В марте 2025 года продукт получил обновление до Gemini 2.0 Flash Thinking Experimental и был открыт для всех. В декабре 2025 года состоялся поворот к доступу для разработчиков: Google запустила Interactions API и впервые предоставила Deep Research программный доступ. Сегодняшний выпуск на базе Gemini 3.1 Pro, который Google выпустила 19 февраля 2026 года, значительно повышает производительность рассуждений: на ARC-AGI-2, бенчмарке для оценки способности модели решать новые задачи на логику, 3.1 Pro набрал 77,1% — более чем вдвое выше по сравнению с Gemini 3 Pro.

Конкурентная среда

Google действует не в вакууме. Выпуск приходится на время нарастающей конкуренции в области автономных исследовательских агентов. OpenAI разрабатывает собственные агентские возможности внутри ChatGPT, Perplexity построила бизнес вокруг AI-поиска. Растущая экосистема стартапов атакует различные сегменты автоматизированных исследовательских рабочих процессов.

Отличие подхода Google — в сочетании поисковой инфраструктуры, дающей Deep Research доступ к самому широкому и актуальному индексу веб-информации, с MCP-подключением к корпоративным источникам данных. Ни одна другая компания сегодня не предлагает исследовательский агент, который может одновременно запрашивать открытый интернет в масштабах Google Search и работать с корпоративными данными через стандартный протокол.

Deep Research Max обошёл конкурентов на DeepSearchQA и BrowseComp, однако GPT-5.4 опередил его на Humanity’s Last Exam.

Не всё принято безоговорочно: ряд пользователей на X отметил, что новые агенты доступны только через API, но не в потребительском приложении Gemini. Это отражает более широкое противоречие в AI-стратегии Google: компания всё активнее направляет наиболее передовые возможности разработчикам и корпоративным клиентам, тогда как потребительские продукты иногда отстают.