Спустя год после того, как Google и Apple пообещали встроить искусственный интеллект во все — от поиска до голосовых ассистентов, разница между стратегиями двух компаний стала принципиальной. Google делает ставку на системную интеграцию: модели Gemini уже становятся ядром Android-экосистемы, включая поиск, голосовые вызовы и мультимедиа. В Apple же реализация идет медленно, а часть заявленных функций до сих пор не вышла за пределы демонстраций.
Это технологическое запаздывание происходит на фоне нарастающей тревоги внутри самой компании: после скромного запуска Apple Intelligence и падения пользовательского интереса к Siri, в Купертино обсуждают риски упустить новую архитектурную волну. Примечательно, что в этот же момент Джони Айв — бывший главный дизайнер Apple — присоединился к OpenAI, чтобы вместе с Сэмом Альтманом разработать устройство для эпохи после смартфонов.
На этом фоне становится особенно важным вопрос: кто формирует будущее взаимодействия с ИИ — тот, кто быстро строит, или тот, кто все еще объясняет, как именно собирается строить?
Год назад на конференции Google I/O компания пообещала интегрировать искусственный интеллект практически во все свои продукты — от поиска до голосовых вызовов на Android. Спустя месяц Apple представила собственный ответ: систему Apple Intelligence для iPhone, iPad и Mac.
На презентациях обе компании заявляли об амбициозных планах, но Apple подверглась более жесткой критике. Ее обвинили в излишней зависимости от OpenAI — партнерство с этой компанией легло в основу ряда функций, — а демонстрации посчитали скорее декларацией намерений, чем показом готовых решений. Google, напротив, делала ставку на собственные модели Gemini, что обеспечивало ей имидж технологически более самостоятельной компании.

Скриншот интерфейса поискового AI Mode, показанный на I/O-2025.
Однако реализовать все заявленные функции в полном объеме не удалось ни одной из сторон. Так, запуск AI Overviews в поисковике Google сопровождался рядом курьезов и сбоев: система нередко выдавала абсурдные или даже опасные советы. Причина крылась в неспособности ИИ различать иронию, сарказм и провокационные запросы. Тем не менее, Google оперативно реагировала на ошибки, постепенно снижая число странных ответов от Gemini. Компания продолжила расширять функциональность AI Overviews и увеличивать географию его доступности.
Ошибки Google с AI Overviews на фоне промахов Apple выглядели скорее как технические недочеты. Первый ограниченный набор функций Apple Intelligence появился лишь в октябре 2024 года: пользователям стали доступны инструменты для редактирования текста, обновленный ассистент Siri, интеллектуальные сводки уведомлений и другие элементы. Несмотря на долгожданный запуск, первые обзоры оказались сдержанными.
«Все вроде бы работает, но после недели использования я не почувствовала, что сэкономила много времени или усилий», — писала Эллисон Джонсон из The Verge. «Не стоит ожидать, что iPhone будет ощущаться совершенно иначе после этого обновления», — отмечала Лиза Идичикко в CNET.
Появились сомнения, не упустила ли Apple момент: рынок ИИ стремительно насыщается, а компания, похоже, опаздывает. Генеральный директор Тим Кук парировал критику, заявив в интервью The Wall Street Journal, что приоритетом было не опережение конкурентов, а создание качественного продукта: «Мы не были первыми, кто занялся искусственным интеллектом. Но мы сделали это так, как считаем лучшим для пользователя».
Тем не менее, по мере выхода новых версий iOS стало ясно, что заявленные возможности реализуются медленно и частично. В марте 2025 года против Apple подали иск, обвинив компанию в недостоверной рекламе и недобросовестной конкуренции. Предметом претензий стал, в частности, рекламный ролик с Беллой Рамзи, выпущенный в сентябре 2024 года, в котором демонстрировались функции Siri, к тому моменту так и не ставшие доступными.

Белла Рамзи в ролике для iPhone 16 демонстрирует «персонализированную» Siri — ИИ-функции, объявленные «уже доступными», но так и не выпущенные к продаже, из-за чего в марте 2025-го Apple столкнулась с иском о ложной рекламе. Сентябрь, 2024 год.
За несколько дней до этого Bloomberg со ссылкой на источники сообщил о растущем недовольстве внутри самой компании. По данным издания, старший директор Apple по разработке Siri Робби Уокер назвал ситуацию с задержками «некрасивой и позорной» во время закрытой встречи с подчиненными.
По данным Bloomberg, в момент демонстрации Apple Intelligence на конференции WWDC в июне 2024 года у компании был лишь частично функционирующий прототип. Источники издания сообщают, что Робби Уокера — старшего директора, отвечающего за развитие Siri, — особенно возмутило, что маркетинговая команда использовала неготовые ИИ-функции в промокампаниях, включая продвижение iPhone 16. На официальном сайте утверждалось, что смартфон «создан для Apple Intelligence», хотя соответствующий функционал отсутствовал. По словам Уокера, команде, вероятно, придется пойти на компромиссы, поскольку ресурсы компании распределены между несколькими приоритетными направлениями.
Тем временем Apple столкнулась с еще одной стратегической проблемой: компания пока не смогла ответить на растущую популярность поисковых систем с ИИ-интерфейсом, несмотря на их нестабильную точность. В апреле 2025 года, как признал старший вице-президент Эдди Кью, количество поисковых запросов в Safari впервые за 22 года пошло на спад.
Apple уже начала переговоры с OpenAI, Anthropic и Perplexity по поводу интеграции их ИИ-поисков в браузер Safari, однако, по информации СМИ, первые результаты можно ожидать не раньше 2026 года. Более того, Apple рассматривает возможность интеграции в свои устройства даже Gemini — продукт компании Google, своего прямого конкурента на ИИ-рынке.
На фоне этого генеральный директор Тим Кук продолжает настаивать, что Apple добилась «существенного прогресса» в развитии Siri и сопутствующих ИИ-функций.
Майская конференция Google I/O 2025 вновь была целиком посвящена искусственному интеллекту. Одним из центральных анонсов стала вкладка AI Mode — альтернативный режим работы поиска, в котором вместо традиционной выдачи пользователь взаимодействует с чат-ботом Gemini. В перспективе Google планирует встроить туда функции поиска и автоматической покупки товаров, включая виртуальную примерочную: ИИ анализирует фотографию пользователя и показывает, как будет сидеть одежда.
Сервис Google Meet получил функцию почти синхронного перевода речи — пока в тестовом режиме и только для английского и испанского языков. Также Google представила обновленные генеративные модели: Imagen 4 для создания изображений, Veo 3 для генерации видео со звуком, и новое приложение Flow, объединяющее возможности Gemini, Veo и Imagen для комплексной работы с мультимедиа-контентом.
Голосовой ассистент Project Astra, впервые представленный в 2024 году, также получил заметное обновление. Он теперь способен анализировать видео с камеры в реальном времени и инициировать диалог самостоятельно — например, если «заметит» ошибку в тетради. Некоторые действия Astra способен выполнять без прямой команды пользователя.
Project Astra
Business Insider резюмировал впечатление от конференции Google словами: «Да, это было тщательно смонтированное промовидео, но после него Siri выглядит устаревшей на несколько поколений». По заявлению самой Google, на I/O было представлено ровно сто новых функций. Цель компании — встроить ИИ-инструменты во все устройства на Android: смартфоны, планшеты и даже очки смешанной реальности. Последние — под названием Project Aura — также были продемонстрированы, и на фоне медленного старта Vision Pro от Apple выглядели как прямой вызов конкуренту.
Реакция на презентацию была показательной. «Не могу поверить, что говорю это, но я подумываю перейти с iOS на Android», — написал Махмуд Итани в Macworld, отметив, что Google стремится превратить Gemini в ядро своей экосистемы, тогда как Apple ограничивается точечными ИИ-надстройками. Результат, по его мнению, очевиден: пока iPhone предлагает базовое редактирование текста и генерацию случайных изображений, Android меняет модель взаимодействия с цифровыми продуктами.
Профильные издания пишут, что после I/O сделать выбор между экосистемами стало сложнее. Siri все чаще называют «технологическим рудиментом» — хотя и признают, что Apple еще может наверстать упущенное. Ведь и Google вступила в ИИ-гонку с опозданием, активизировавшись лишь после успеха OpenAI.
По мнению Марка Гурмана, проблемы Apple обусловлены не только техническим отставанием, сколько культурным — компанией движет привычка ждать, пока конкуренты совершат все ошибки, а затем выпускать доработанный продукт. Но такой подход плохо сочетается с динамикой ИИ-индустрии, где выигрывает тот, кто действует быстро, а не безупречно.
В Apple это осознают. Старший вице-президент Эдди Кью уже высказывал опасения, что искусственный интеллект способен нанести Apple такой же урон, какой она сама когда-то нанесла Nokia. Первая волна сомнений даже среди верных пользователей после I/O лишь укрепила эти тревоги.
Ответ Apple может прозвучать уже в июне — на конференции WWDC 2025. Однако ожидания скромные: аналитики прогнозируют акцент на редизайне операционных систем, а ИИ-инструменты, скорее всего, вновь будут представлены осторожно. Срыв запуска Apple Intelligence не располагает к смелым заявлениям.
Об ИИ

Что сделают Сэм и Джони?
Похоже, это будет устройство для постсмартфонной эпохи
