Apple сегодня выпустит первую бета-версию предстоящего обновления iOS 13, предположительно iOS 13.2, которое представит функцию, обещанную Apple на мероприятии, посвященном iPhone 11 и iPhone 11 Pro: Deep Fusion.
По данным The Verge, сегодняшнее обновление направлено на добавление Deep Fusion в новейшие iPhone от Apple.
Deep Fusion — это новая система обработки изображений, использующая чип A13 Bionic и Neural Engine. Deep Fusion использует методы машинного обучения для попиксельной обработки фотографий, оптимизируя текстуру, детали и шум в каждой части изображения.
Эта функция предназначена для улучшения снимков в помещении и фотографий, сделанных при среднем освещении, и она будет автоматически активироваться в зависимости от используемого объектива и уровня освещенности в помещении. Широкоугольный объектив по умолчанию будет использовать Smart HDR для ярких сцен, Deep Fusion будет активироваться при среднем или слабом освещении, а ночной режим будет активироваться для более темных сцен.
Телеобъектив будет использовать в основном Deep Fusion, но Smart HDR будет активироваться вместо него при очень ярком освещении. Темный режим активируется при слабом освещении. Сверхширокоугольный объектив использует только Smart HDR и не поддерживает Deep Fusion (или ночной режим).
The Verge подробно описывает работу Deep Fusion с информацией, полученной от Apple. Deep Fusion работает полностью в фоновом режиме, и, в отличие от ночного режима, нет возможности включить или выключить его.
Deep Fusion — это сложный процесс, в ходе которого аппаратное обеспечение iPhone выполняет несколько действий при съемке фотографии. До нажатия кнопки спуска затвора камера делает три снимка с высокой скоростью затвора для фиксации движения. При нажатии кнопки спуска затвора делаются еще три снимка, а затем делается один более длинный снимок для сохранения деталей.
Три обычных снимка и снимок с длительной выдержкой объединяются в то, что Apple называет «синтетическим длинным снимком», что отличается от Smart HDR. Deep Fusion выбирает изображение с короткой выдержкой, которое имеет наибольшее количество деталей, а затем объединяет его с синтетическим длинным снимком (это всего два объединенных кадра).
Затем изображения проходят четырехступенчатую процедуру обработки попиксельно, направленную на увеличение детализации и предоставление инструкций чипу A13 о том, как следует смешивать два изображения (детали, тон, цвет, яркость и т. д.).
Съемка с использованием Deep Fusion занимает всего немного больше времени, чем съемка обычного изображения Smart HDR, около секунды, поэтому Apple изначально будет отображать прокси-изображение, если вы перейдете в Фото сразу после съемки Deep Fusion, хотя оно быстро будет заменено полным изображением Deep Fusion.
Обновление: По словам Мэтью Панзарино из TechCrunch, бета-версия для разработчиков с обновлением Deep Fusion была отложена, и она не будет доступна сегодня. Официальной информации о сроках запуска нет, но Джон Грубер из Daring Fireball говорит, что она выйдет завтра.