5 функций новой Siri из iOS 26.4 со встроенной нейросетью Google Gemini
После анонса партнерства Apple с Google начали всплывать его детали, и чем дальше, тем интереснее выглядит картина будущей Siri. Новый отчёт издания The Information проливает свет на то, как именно будет устроена интеграция модели Gemini в экосистему Apple и почему пользователям не стоит ждать ни логотипов Google, ни андроидного поведения ассистента.

Уже очень интересно попробовать новую Siri. Изображение: mashable.com
❗️ЕЩЕ БОЛЬШЕ СТАТЕЙ ОБ APPLE ИЩИТЕ В НАШЕМ ДЗЕНЕ СОВЕРШЕННО БЕСПЛАТНО
Главный момент заключается в том, что Apple не просто использует готовую модель Gemini, а фактически делает её своей. Компания сможет самостоятельно дообучать и настраивать модель под собственные требования. Google при этом выступает скорее как поставщик базовой технологии, а не как полноценный участник пользовательского опыта. Все ответы Siri в текущем прототипе не содержат ни упоминаний Google, ни бренда Gemini. С точки зрения пользователя это будет по-прежнему Siri, только заметно умнее.
Важно и то, где всё это будет работать. Apple подчёркивает, что Gemini будет запускаться либо непосредственно на устройствах, либо в Private Cloud Compute. Это означает, что данные пользователей не уходят на серверы Google и не используются для обучения сторонних сервисов. Фактически Apple сохраняет полный контроль над приватностью, что хорошо укладывается в её философию.

Получится ли что-то из этой интеграции, мы узнаем только после выхода iOS 26.4. Изображение: 9to5mac.com
Отдельный акцент делается на качестве ответов. Одна из давних проблем Siri заключалась в том, что вместо прямого ответа ассистент часто предлагал список ссылок. В версии на базе Gemini Apple рассчитывает изменить этот подход. Siri должна начать именно отвечать на вопросы, будь то справка о населении страны, научный факт или общее объяснение темы. То есть делать то, к чему пользователи уже привыкли в ChatGPT и других современных ИИ. Таким образом, предварительный набор функций для новой Siri выглядит так:
- Конечные ответы без лишних ссылок и необходимости перехода на сайты;
- Обработка запросов офлайн на устройстве пользователя или через Private Cloud Compute без отправки данных в Google;
- Анализ и управление запущенными приложениями и происходящим на экране iPhone;
- Изучение переписки и установление родственных связей, если они не заданы в самом iPhone;
- Рекомендации дальнейших действий и их предугадывание.
Любопытно, что Apple ставит перед новой Siri и более сложную задачу. Речь идёт об эмоциональной поддержке. Ассистент должен лучше реагировать на ситуации, когда пользователь говорит об одиночестве, подавленности или усталости. Это потенциально полезная, но очень рискованная зона. История уже знает немало случаев, когда чат-боты неправильно интерпретировали подобные запросы. Как Apple будет балансировать между человечным ответом и безопасностью, пока остаётся открытым вопросом.
❗️ПОДПИШИСЬ НА НАШ ЧАТИК В ТЕЛЕГРАМЕ. ТАМ СОБРАЛИСЬ ТОЛЬКО ИЗБРАННЫЕ ЧИТАТЕЛИ
Технически Siri по-прежнему будет состоять из двух уровней. Простые и чёткие команды вроде установки таймера или отправки сообщения достанутся прежней модели. А вот более сложные запросы, где требуется контекст и догадка, будет обрабатывать Gemini. Например, если пользователь попросит написать маме, а контакт так не называется, Siri сможет проанализировать переписку и понять, о ком идёт речь.
Запуск новых возможностей будет постепенным. Часть функций появится уже весной. Более продвинутые сценарии, включая память прошлых диалогов и проактивные подсказки, Apple планирует показать на WWDC в июне. Судя по всему, компания не торопится и старается сделать редкий для себя шаг в сторону большого ИИ максимально аккуратно.