Apple Intelligence теперь может проникнуть на экран вашего iPhone

Это не было бы основным докладом разработчиков в 2025 году без небольшого количества ИИ, верно? Несмотря на то, что Apple Intelligence был не слишком впечатляющим с момента его запуска в октябре прошлого года, Apple, похоже, стремится улучшить этот опыт с помощью ключевых обновлений, таких как... новые Genmojis? Хорошо, возможно, WWDC 2025 не был революционным годом для Apple Intelligence , но все же есть некоторые обновления, на которые стоит обратить внимание, включая новую функцию, которая может следить за тем, что вы делаете на своем телефоне, а затем выполнять определенные действия в зависимости от сценария.
Визуальный интеллект, как его называет Apple, — это функция, которая расширяет мультимодальные возможности за пределы приложения «Камера» и на экран вашего iPhone. «Пользователи могут задавать вопросы ChatGPT о том, что они видят на экране, чтобы узнать больше, а также искать в Google, Etsy или других поддерживаемых приложениях похожие изображения и продукты», — говорит Apple . «Если есть объект, который особенно интересует пользователя, например, лампа, он может выделить его, чтобы найти этот конкретный предмет или похожие объекты в Интернете».
Это ни в коем случае не звучит как что-то новое, но это приближает Apple Intelligence к конкурентам вроде Google, у которого есть функция Gemini , которая делает примерно то же самое. Это также приближает Apple Intelligence к Святому Граалю « агентного ИИ », который является способом описания ИИ в мире технологий, который может делать что-то для вас. Насколько бы скучными ни стали мультимодальные функции, такие как Visual Intelligence, за очень короткий промежуток времени, они все еще обладают силой, чтобы на самом деле улучшить опыт использования телефона, на мой взгляд.

Думаю, я выражу мнение большинства людей, когда скажу, что пользоваться iPhone уже не так просто, как раньше, и на это есть несколько причин. Одна из причин заключается в том, что мы ожидаем, что наши телефоны будут делать гораздо больше, чем раньше, а это значит, что устройствам нужно больше функций для выполнения всех этих задач. Проблема в том, что отслеживать эти функции и находить для них место в пользовательском интерфейсе непросто — из-за этого программное обеспечение кажется более раздутым. Агентный ИИ способен прорезать раздутое содержимое и быстрее доставлять вас к тому, что вы хотите сделать. Если это означает, что я буду тратить меньше времени на ввод данных платежной карты или навигацию между приложениями на своем телефоне, то я полностью за.
Это все пока теория, так как Visual Intelligence только что был выпущен, и мы не можем сказать наверняка, работает ли он так, как обещано, но я определенно не в восторге от этой идеи, даже несмотря на то, что немного не в восторге. Visual Intelligence также должен запустить ИИ на устройстве, что здорово, потому что отправка данных с экрана моего телефона куда-либо на самом деле не была бы в моем списке дел.
Речь шла не только о визуальном интеллекте; Apple также представила новые функции ИИ, такие как Live Translation в Сообщениях и FaceTime для перевода во время отправки текстовых сообщений или звонка кому-либо. Также были обновления Genmoji и Image Playground, которые добавляют дополнительную настройку и новые художественные стили для сгенерированных изображений и эмодзи. Кроме того, Apple откроет свою базовую модель на устройстве для Apple Intelligence и предложит сторонним разработчикам приложений разрабатывать собственные функции ИИ.
«Разработчики приложений смогут опираться на Apple Intelligence, чтобы предоставлять пользователям новые возможности, которые являются интеллектуальными, доступными, когда они не в сети, и которые защищают их конфиденциальность, используя вывод ИИ, который бесплатен», — говорится в заявлении Apple. «Например, образовательное приложение может использовать модель на устройстве для создания персонализированного теста из заметок пользователя без каких-либо затрат на облачный API, или приложение для работы на открытом воздухе может добавлять возможности поиска на естественном языке, которые работают, даже когда пользователь не в сети».
Опять же, это не самая яркая новость для Apple Intelligence, но это может быть надежным способом ускорить разработку новых функций ИИ, особенно пока Apple отстает в области генеративного ИИ и больших языковых моделей. Говоря об отставании, одной заметной вещью, которой не хватало, было обновление Siri от Apple на базе ИИ, хотя Apple и обратилась к слону ИИ в комнате, заявив, что мы услышим больше «позже в этом году». Это ни в коем случае не удивительно, но это определенно указывает на спотыкания Apple на фронте ИИ.
В этом году WWDC не помог развеять ваши опасения по поводу прогресса Apple на фронте ИИ, но он немного продвинулся вперед, и этого может быть достаточно для большинства. Несмотря на акцент отрасли на функциях ИИ, потребители явно меньше заинтересованы в этих функциях, поэтому я сомневаюсь, что обновление этого года помешает кому-либо в этом году побежать и купить последний iPhone .
Любой, кто является частью программы разработчиков Apple, может использовать новые функции Apple Intelligence уже сегодня, а первая публичная бета-версия будет доступна в следующем месяце. Если вас не интересуют бета-версии или вы не разработчик, вам придется подождать до осени, чтобы попробовать эти новые функции в полном объеме.
gizmodo