Apple разрабатывает собственную большую языковую модель (LLM), которая работает локально, чтобы обеспечить высокую скорость и конфиденциальность, сообщает Марк Гурман из Bloomberg.
В своей рассылке «Power On» Гурман заявил, что LLM от Apple будет лежать в основе предстоящих функций генеративного ИИ. «Все признаки указывают» на то, что она будет работать полностью локально, а не через облако, как большинство существующих сервисов ИИ.
Поскольку инструменты Apple будут работать локально, они могут быть менее мощными в некоторых случаях, чем их прямые облачные аналоги. Однако Гурман предположил, что компания может «восполнить пробелы», лицензируя технологии у Google и других поставщиков ИИ-сервисов. В прошлом месяце Гурман сообщал, что Apple ведет переговоры с Google о интеграции их ИИ-движка Gemini в iPhone в рамках iOS 18. Основными преимуществами локальной обработки будут более быстрое время отклика и превосходная конфиденциальность по сравнению с облачными решениями.
Маркетинговая стратегия Apple в отношении своих ИИ-технологий, по-видимому, будет строиться вокруг того, насколько они могут быть полезны в повседневной жизни пользователей, а не на их мощности. Ожидается, что более широкая стратегия Apple в области ИИ будет представлена вместе с предварительными обзорами основных обновлений программного обеспечения на WWDC в июне.