В обновлении iOS 26.4, которое выйдет этой весной, Apple представит новую версию Siri, которая кардинально изменит наше взаимодействие с персональным помощником и его возможности.

Версия Siri в iOS 26.4 не будет работать как ChatGPT или Claude, но она будет использовать большие языковые модели (LLM) и была полностью переработана.
Обновленная архитектура
Версия Siri следующего поколения будет использовать передовые большие языковые модели, аналогичные тем, что используются в ChatGPT, Claude и Gemini. Apple не будет внедрять полнофункциональные чат-боты, но *любое* обновление лучше того, что доступно сейчас, и давно назрело.
В настоящее время Siri использует машинное обучение, но ей не хватает аналитических возможностей, которые дают LLM. Siri полагается на несколько специализированных моделей для выполнения запроса, переходя от одного шага к другому. Siri должна определить намерение запроса, извлечь соответствующую информацию (время, событие, имя и т. д.), а затем использовать API или приложения для выполнения запроса. Это не единая система.
В iOS 26.4 Siri будет иметь ядро LLM, вокруг которого все остальное будет построено. Вместо простого преобразования голоса в текст и поиска ключевых слов для выполнения, Siri будет фактически понимать суть того, о чем спрашивает пользователь, и использовать логику для достижения результата.
Улучшения LLM
Siri сегодня обычно справляется с простыми задачами, такими как установка таймера или будильника, отправка текстового сообщения, включение или выключение устройства умного дома, ответ на простой вопрос или управление функцией устройства, но она не понимает ничего более сложного, не может выполнять многошаговые задачи, не может интерпретировать формулировки, которые не соответствуют желаемой структуре, не имеет личного контекста и не поддерживает последующие вопросы.
LLM должна решить большинство этих проблем, поскольку у Siri появится нечто вроде мозга. LLM могут понимать нюансы запроса, выяснять, что на самом деле хочет пользователь, и предпринимать шаги для предоставления этой информации или выполнения запрошенного действия.
Мы уже знаем некоторые возможности Siri на основе LLM, поскольку Apple описала функции Apple Intelligence, которые она хочет внедрить, когда дебютировала iOS 18.
Обещанные функции Apple Intelligence для Siri
Apple описала три конкретных способа улучшения Siri, включая личный контекст, возможность видеть, что отображается на экране, чтобы понимать, о чем говорит пользователь, и способность выполнять больше действий внутри приложений и между ними.
Siri будет понимать местоимения, ссылки на контент на экране и в приложениях, а также иметь краткосрочную память для последующих запросов.
Личный контекст
Благодаря личному контексту Siri сможет отслеживать электронные письма, сообщения, файлы, фотографии и многое другое, узнавая больше о вас, чтобы помогать вам выполнять задачи и отслеживать полученные вами данные.
- Покажи мне файлы, которые Эрик отправил мне на прошлой неделе.
- Найди письмо, где Эрик упоминал катание на коньках.
- Найди книги, которые Эрик мне рекомендовал.
- Где рецепт, который Эрик мне отправил?
- Какой у меня номер паспорта?
Осведомленность об экране
Осведомленность об экране позволит Siri видеть, что находится на вашем экране, и выполнять действия, связанные с тем, что вы просматриваете. Например, если кто-то отправит вам адрес в сообщении, вы сможете попросить Siri добавить его в карточку контакта. Или, если вы просматриваете фотографию и хотите отправить ее кому-то, вы можете попросить Siri сделать это за вас.
Глубокая интеграция с приложениями
Более глубокая интеграция с приложениями означает, что Siri сможет выполнять больше действий внутри приложений и между ними, совершая действия и выполняя задачи, которые в настоящее время просто невозможны для персонального помощника. У нас нет полной картины того, на что будет способна Siri, но Apple предоставила несколько примеров того, чего ожидать.
- Перемещение файлов из одного приложения в другое.
- Редактирование фотографии и отправка ее кому-то.
- Построй маршрут домой и поделись примерным временем прибытия с Эриком.
- Отправь черновик письма Эрику.
Обновление значительнее, чем обещалось
На общем собрании сотрудников в августе 2025 года руководитель отдела разработки программного обеспечения Apple Крейг Федериги объяснил сотрудникам провал с Siri. Apple пыталась объединить две отдельные системы, что не сработало.
Существовала одна система для обработки текущих команд и другая, основанная на больших языковых моделях, и гибридный подход не работал из-за ограничений текущей архитектуры Siri. Единственным путем вперед было обновление до архитектуры второго поколения, построенной на основе большой языковой модели.
На августовском собрании Федериги заявил, что Apple успешно переработала Siri и сможет представить более значительное обновление, чем обещала в iOS 18.
«Работа, проделанная нами над полным обновлением Siri, дала нам необходимые результаты», — сказал Федериги сотрудникам. «Это позволило нам не просто реализовать то, что мы анонсировали, но и выпустить гораздо более масштабное обновление, чем мы предполагали».
Использование Google Gemini
Частью проблемы Apple было то, что она полагалась на собственные разработанные AI-модели, которые не могли сравниться с возможностями конкурентов. Apple начала рассматривать использование сторонних моделей для Siri и других будущих AI-функций вскоре после задержки Siri, а в январе Apple объявила о многолетнем партнерстве с Google.
В обозримом будущем AI-функции Apple, включая более персонализированную версию Siri, будут использовать пользовательскую модель, разработанную Apple в сотрудничестве с командой Google Gemini. Apple планирует продолжить работу над собственными внутренними моделями, но на данный момент будет полагаться на Gemini для многих общедоступных функций.
Siri в iOS 26.4 будет больше похожа на Google Gemini, чем текущая Siri, хотя и без полнофункциональных возможностей чат-бота. Apple планирует продолжать выполнять некоторые функции на устройстве и использовать Private Cloud Compute для поддержания конфиденциальности. Apple будет хранить личные данные на устройстве, анонимизировать запросы и продолжать разрешать отключение AI-функций.
Чего не будет в iOS 26.4
Siri не будет работать как чат-бот, поэтому обновленная версия не будет иметь долгосрочную память или возможность вести диалог в режиме «туда-обратно», кроме того, Apple планирует использовать тот же голосовой интерфейс с ограниченной функциональностью ввода текста.
Неловкая задержка Siri от Apple
В том, что стало печально известным шагом, Apple полностью продемонстрировала более умную версию Siri с поддержкой Apple Intelligence, представив iOS 18 на Всемирной конференции разработчиков 2024 года. Apple заявила, что эти функции появятся в обновлении iOS 18, но примерно к ожидаемому запуску Apple признала, что Siri не готова и будет отложена до весны 2026 года.

Руководители Apple отправились в пресс-тур, чтобы объяснить недостатки Siri после WWDC 2025, обещая более масштабные и лучшие возможности для iOS 26 и объясняя, что пошло не так. Функции Apple Intelligence Siri, которые мы видели на WWDC 2024, были фактически реализованы и не были поддельными, но Siri не работала так хорошо, как ожидалось, за кулисами, и Apple столкнулась с проблемами качества.
Поскольку Apple рекламировала новые функции Siri вместе с iPhone 16, некоторые люди, купившие iPhone из-за новой функциональности, были недовольны задержкой и подали в суд. Apple удалось тихо урегулировать дело в декабре 2025 года, так что большая часть провала с Siri была решена.
Внутренняя реструктуризация
Неудача с дебютом Siri и провал гибридной архитектуры побудили Apple реструктурировать всю свою команду по ИИ. Глава отдела ИИ Apple Джон Джананндреа был выведен из руководства Siri, а глава Vision Pro Майк Роквелл взял на себя руководство вместо него.
Генеральный директор Apple Тим Кук больше не был уверен в способности Джананндреа руководить разработкой продуктов, и Джананндреа готовится выйти на пенсию весной 2026 года. Роквелл подчиняется Федериги, а Федериги сообщил сотрудникам, что новое руководство «усилило» разработку Siri. Федериги, по-видимому, сыграл ключевую роль в изменении подхода Apple к ИИ, и он принимает решения, которые позволят компании догнать конкурентов.
Apple испытывала трудности с удержанием сотрудников в области ИИ на фоне проблем с Siri и стратегий найма таких компаний, как Meta. Meta переманила нескольких ключевых инженеров по ИИ из Apple, предлагая зарплаты до 200 миллионов долларов. На августовском общем собрании Apple Кук и Федериги стремились заверить сотрудников, что ИИ имеет критическое значение для компании. «Нет ни одного проекта, к которому люди относились бы более серьезно», — сказал Федериги о Siri.
Кук заявил, что Apple «инвестирует», чтобы стать лидером в области ИИ.
Дата выпуска Siri в iOS 26.4
Apple обещала, что новая версия Siri выйдет весной 2026 года, когда мы ожидаем iOS 26.4. Тестирование iOS 26.4 должно начаться в конце февраля или начале марта, а запуск последует примерно в апреле.
Совместимость LLM Siri
Новая версия Siri, предположительно, будет работать на всех устройствах, поддерживающих Apple Intelligence, хотя Apple не предоставила явных деталей. Некоторые новые возможности Siri также могут появиться на старых устройствах.
Обновление Siri до чат-бота в iOS 27
Apple планирует еще больше улучшить Siri в обновлении iOS 27, превратив Siri в чат-бота. Siri будет работать как Claude или ChatGPT, способная понимать и вести диалог в режиме «туда-обратно».
Подробности об интерфейсе Siri и о том, как будет работать версия Siri в виде чат-бота, все еще скудны, но iOS 26.4 станет промежуточным этапом на пути к версии Siri, способной реально функционировать как продукты от Anthropic и OpenAI.







