Ssylka

Способен ли ваш iPhone теперь видеть и понимать окружающий мир?

Обновление iOS 26 привнесло не только новый дизайн интерфейса под названием "Liquid Glass", энергосберегающий режим и мобильную версию классического приложения Preview с Mac, но и ключевую технологию в рамках пакета Apple Intelligence — Visual Intelligence. Эта функция использует искусственный интеллект для анализа содержимого на экране или в объективе камеры, предоставляя контекстную информацию. Для работы Visual Intelligence требуется установленная iOS 26 и одна из совместимых моделей: iPhone 15 Pro, iPhone 15 Pro Max, любая модель iPhone 16 или iPhone 17, а также iPhone Air.
Способен ли ваш iPhone теперь видеть и понимать окружающий мир?
Изображение носит иллюстративный характер

Основной способ взаимодействия с функцией — через снимки экрана. После одновременного нажатия кнопок увеличения громкости и боковой кнопки на экране появляется полноэкранный предпросмотр с новыми инструментами в нижней части. В левом углу расположена кнопка «Спросить», которая интегрируется с ChatGPT для ответа на вопросы о содержимом изображения, например, «что это за здание?». В правом углу находится кнопка «Искать», использующая Google для поиска визуально похожих изображений.

Функция поиска через скриншот позволяет уточнять запрос. Пользователь может обвести пальцем или стилусом конкретный объект на снимке, и Visual Intelligence выполнит поиск в Google только по выделенной области, игнорируя остальную часть изображения. Это позволяет с высокой точностью находить информацию о деталях на фотографиях.

Система также предлагает контекстно-зависимые действия, которые появляются автоматически в зависимости от содержимого на экране. Если на скриншоте распознаны дата и время, например на афише, появится кнопка «Добавить в Календарь», которая способна извлечь время, дату и местоположение. Для текстовых блоков доступна опция «Суммировать», для логотипов компаний, достопримечательностей или животных — «Найти», а для озвучивания текста — «Прочитать вслух». При наличии URL-адреса на экране система предложит прямую ссылку для перехода.

В некоторых случаях Visual Intelligence действует проактивно, самостоятельно идентифицируя объекты. Например, определив вид растения на фото, система отобразит на нем интерактивную метку, нажатие на которую предоставит подробную информацию. После работы со снимком его можно сохранить в галерею, нажав на галочку в правом верхнем углу, или удалить, коснувшись крестика в левом верхнем углу.

Для пользователей, предпочитающих старый интерфейс, предусмотрена возможность отключения полноэкранного предпросмотра. Это делается в меню «Настройки > Основные > Снимок экрана > Полноэкранный предпросмотр». После отключения система вернется к отображению миниатюры в углу экрана, нажатие на которую по-прежнему открывает доступ ко всем функциям Visual Intelligence.

Функция также работает в режиме реального времени через камеру, продолжая развитие технологии, впервые представленной в iOS 18.2. Основной способ активации — нажатие и удержание кнопки Camera Control, расположенной в нижней правой части корпуса. Для моделей без этой кнопки, таких как iPhone 15 Pro, iPhone 15 Pro Max и iPhone 16e, запуск осуществляется через кнопку действия (Action Button) или иконку Visual Intelligence в Пункте управления.

Иконку для быстрого доступа, выглядящую как логотип Apple Intelligence в рамке, можно добавить в Пункт управления вручную. Для этого необходимо смахнуть вниз от правого верхнего угла экрана, нажать на кнопку «+» в левом верхнем углу и выбрать нужный элемент. Также ярлык для запуска Visual Intelligence можно разместить на экране блокировки через меню его кастомизации.

В режиме живой камеры интерфейс предлагает три основные кнопки внизу экрана. Кнопка «Спросить» позволяет задавать вопросы ChatGPT о том, что видит камера в данный момент. Центральная круглая кнопка делает снимок для более детального анализа, переводя пользователя в интерфейс, аналогичный работе со скриншотами. Кнопка «Искать» запускает визуальный поиск через Google по объекту, на который направлена камера.

Практическое применение в режиме реального времени включает возможность навести камеру на этикетку винной бутылки и спросить у ChatGPT о сорте винограда и гастрономических сочетаниях. Можно направить объектив на велосипед и через поиск Google мгновенно узнать его цену и места продажи, или получить контактные данные и часы работы заведения, просто наведя на него камеру.

После захвата изображения с помощью центральной кнопки в режиме живой камеры становятся доступны все те же инструменты, что и при работе со скриншотами: суммирование и перевод текста, озвучивание, добавление событий в календарь, а также распознавание видов животных и растений. Для выхода из этого режима и возврата к камере достаточно нажать на крестик.


Новое на сайте

18337Как неожиданная солнечная буря позволила сделать редчайший снимок кометы? 18336Тайник римской эпохи: незаконная находка и её научное значение 18335Какую угрозу несёт новый ботнет PolarEdge, захватывающий роутеры? 18334Почему комета Леммон потеряла свой хвост перед сближением с землей? 18333Двойной удар Meta по мошенникам и аферам «разделки свиней» 18332Китайский робот H2 стирает грань между реальностью и фантастикой 18331Почему с возрастом мозг регистрирует меньше событий и ускоряет время? 18330Голливуд на грани сделки: Warner Bros. Discovery изучает предложения о поглощении 18329Редкая скидка на лучшие 3D-принтеры для начинающих от Bambu Lab 18328Способен ли ваш iPhone теперь видеть и понимать окружающий мир? 18327Как чужой страх проникает в наш мозг и тело? 18326Факс-революция Royal Caribbean: как выслушать партнера и изменить бизнес 18325Геологический молот Чарльза Дарвина 18324Доступ к эксклюзиву: новая ловушка для розничного инвестора 18323Может ли антивирус стать идеальным прикрытием для кибершпионажа?