Apple Intelligence: попытка Apple ворваться в ИИ-гонку
10 июн
10 июня 2024 года Apple провела ежегодную презентацию обновлений операционных систем и особенно остановилась на нейрофункциях. Компания попыталась сократить отставание от других технологических компаний, но пока получилось странно.

Во-первых, надо отметить, что большинство ИИ-функций в экосистеме Apple работает на технологиях OpenAI. Если верить слухам, то компанию не устраивает собственная языковая модель, поэтому менеджеры долго выбирали между OpenAI и Google. Во-вторых, Apple приватизировала привычную аббревиатуру AI, теперь она расшифровывается как Apple Intelligence. Довольно странно, ведь компания среди последних добавила нейрофункции.

Перед обзором самих функций важно отметить, что все они пока будут работать только на английском языке. Пока нет информации о релизе на других языках. Известно только, что бета-тестеры получат доступ к набору Apple Intelligence этим летом, а осенью станут доступны всем пользователям. Ещё можно понять, почему функции недоступны в России, но совершенно неясно, за что обделили пользователей из ЕС или Канады.
Теперь к самим функциям, которые Apple успела показать во время презентации WWDC. На самом деле представили много всего, но начнём с долгожданного.
Новая Siri

Apple полностью обновила голосового помощника Siri. Добавили новые режимы работы и способы взаимодействия. К примеру, с голосовым помощником можно общаться голосом или печатать запросы. Это удобно, если нет возможности шуметь, к примеру, в транспорте.

Ещё Siri научили понимать контекст, актуальный для конкретного пользователя. К примеру, сказать голосовому помощнику: «Найди фотографию меня в Сочи в прошлом году», то он справится с этим. Дополнительно можно попросить что-то сделать с фотографией, к примеру, отредактировать или обрезать.
Siri может взаимодействовать и с другими приложениями на устройстве. Её можно попросить озвучить актуальные котировки акций, вернуться к вчерашнему документу или открыть определённую книгу. Сторонние разработчики могут добавить поддержку Siri с помощью App Intents API.

Кроме того, Siri получила новую иконку и поле ввода на macOS, чтобы запросы можно было печатать. Работать обновлённый голосовой помощник будет на iOS, iPadOS и macOS.
Контент
Apple не могла обойти функции работы с контентом на базе больших языковых моделей. Поэтому пользователи смогут генерировать тексты, перефразировать их, менять тональность и получать пересказы. К примеру, можно будет выделить фрагмент электронного письма и попросить сделать его более формальным и удалить лишнее. Полезно, но тоже не новая функция.

Добавили генератор картинок. Им можно будет пользоваться практически во всех приложениях. К примеру, можно будет сгенерировать открытку для бабушки, фон для презентации или изображение для документа. Будут доступны разные стили и даже режим для новичков, когда для генерации используются заранее подготовленные шаблоны.

Отдельной функцией представили Genmoji — генератор эмодзи. Пользователи смогут генерировать эмодзи по текстовому описанию.

На фотографиях можно удалять лишние объекты с помощью опции Clean Up. Такое уже давно продвигает Google на своих Pixel.

Также добавили штатную функцию записи звонков с возможностью расшифровать аудио и сгенерировать краткое содержание.

А ещё добавили интеграцию с ChatGPT. К примеру, если на какой-то вопрос нужен более подробный ответ, то можно перейти в чат и получить всю необходимую информацию. Для этого нужна будет подписка.
Безопасность и доступность
Apple отмечает, что ИИ-функции работают локально, поэтому пользовательские данные находятся в безопасности. Из-за этого появляется досадное ограничение: нейрофункции будут работать только на процессорах A17 Pro, M1, M2, M3 и M4, включая более мощные версии. Поэтому современные технологии будут доступны только пользователям iPhone 15 Pro и Pro Max. У пользователей iPad и MacBook список доступных устройств больше.

Что в итоге
Пока Apple не показала чего-то прорывного и инновационного. Инженеры компании перетащили в операционные системы то, что уже есть в других сервисах. Особенно жалко, что в ближайшее время доступ будет только на английском языке.
Ещё представители Apple упомянули ИИ-функции для Xcode, но не остановились на подробностях. Возможно, что позже представят автоматическое дополнение кода и что-то похожее на GitHub Copilot.
Источник:Apple Intelligence: попытка Apple ворваться в ИИ-гонку / Хабр (habr.com)