MacRumors

Skip to Content

Apple анонсировала ARKit 4 с привязкой к местоположению, API глубины и улучшенным отслеживанием лица

Сегодня Apple анонсировала ARKit 4 вместе с iOS 14 и iPadOS 14. Новая версия ARKit представляет привязку к местоположению, новый API глубины и улучшенное отслеживание лица.

ARKit 4
Привязка к местоположению позволяет разработчикам размещать AR-опыт, такой как полномасштабные арт-инсталляции или навигационные указания, в фиксированном месте. Привязка к местоположению использует данные более высокого разрешения в Apple Maps для размещения AR-опыта в определенной точке мира, что означает, что AR-опыт теперь может быть размещен в конкретных местах, таких как целые города или рядом с известными достопримечательностями. Пользователи могут перемещаться вокруг виртуальных объектов и наблюдать их с разных точек зрения, точно так же, как реальные объекты видны через объектив камеры.

ARKit 4 также использует возможности iPad Pro с LiDAR-сканером и совершенно новый API глубины с расширенными возможностями понимания сцены, создавая новый способ доступа к подробной информации о глубине для каждого пикселя. В сочетании с данными 3D-сетки эта информация о глубине делает окклюзию виртуальных объектов более реалистичной, позволяя мгновенно размещать виртуальные объекты в их физическом окружении. Это может предоставить разработчикам новые возможности, такие как выполнение более точных измерений и применение эффектов к окружающей среде.

Наконец, отслеживание лица в ARKit 4 расширено для поддержки фронтальной камеры на всех устройствах с чипом A12 Bionic или новее. Теперь можно отслеживать до трех лиц одновременно, используя камеру TrueDepth для обеспечения работы функций фронтальной камеры, таких как Memoji и Snapchat.