Apple Intelligence — приватность в эпоху встроенного ИИ
Объясняем, что такое Apple Intelligence и как компания обеспечивает приватность пользователей при использовании ИИ на устройствах. Также обсуждаем партнёрство Apple с OpenAI и рассматриваем потенциальные риски для безопасности данных.
В июне 2024 года компания Apple представила Apple Intelligence — персональную интеллектуальную систему для iPhone, iPad и Mac, которая добавляет в устройства ИИ-функции. Эта система сможет приоритизировать электронные письма, редактировать тексты, создавать картинки и многое другое. В тот же день Apple и OpenAI заявили о сотрудничестве для интеграции ChatGPT в устройства Apple для расширения их ИИ-возможностей.
Тема встроенного в устройства ИИ вызывает достаточно противоречивую реакцию, ведь потенциально такой подход даёт ИИ практически неограниченный доступ к пользовательским данным. Сегодня поговорим о том, какие меры предпринимает Apple, чтобы обеспечить приватность пользователей, и насколько оправданы страхи по поводу сотрудничества компании с OpenAI.
Что такое Private Cloud Compute (PCC) и как это поможет обеспечить приватность пользователей Apple?
Компания Apple известна своей приоритизацией приватности пользователей. Поэтому система Apple Intelligence использует сложный гибридный подход, чтобы, с одной стороны, сохранить конфиденциальность, а с другой стороны, предоставить пользователям максимально продвинутые ИИ-функции. Суть этого подхода заключается в том, что часть запросов будет обрабатываться локально на устройстве, а другая часть — в специально разработанной для этого инфраструктуре под названием Private Cloud Compute (PCC).
Разумеется, локальная обработка наиболее предпочтительна для сохранения приватности, поскольку никакие данные не покидают устройство. В результате пользователь может быть уверен, что разработавшая ИИ компания не получит доступ к его личной информации.
Однако производительность современных смартфонов, конечно, не сравнима с мощностями огромных дата-центров, под завязку наполненных новейшими разработками Nvidia. Поэтому модель, работающая прямо на устройстве, не способна отвечать на запросы пользователей с тем же качеством, что и облачные ИИ — по крайней мере пока.
И здесь мы приходим к облачной части Apple Intelligence — Private Cloud Compute (PCC). Вот как формулируется общая философия, которой руководствовалась компания при разработке этой инфраструктуры:
«Гарантии безопасности и конфиденциальности наиболее надёжны, когда они полностью обеспечиваются на техническом уровне».
Поэтому для сохранения приватности пользователей Apple создала специальные серверы на базе собственных процессоров и разработала для них отдельную ОС, которая представляет собой гибридную, облегчённую версию iOS и macOS.
Одна из главных особенностей этих серверов — они не способны долговременно хранить данные, потому что в них физически нет жёстких дисков. Помимо этого, в PCC-серверах используется аппаратный менеджер ключей шифрования Apple, известный как Secure Enclave. При каждой перезагрузке он случайным образом создаёт уникальный ключ для шифрования файлов, хранящихся в оперативной памяти сервера. Такая двойная защита позволяет быть уверенным в том, что после перезапуска сервера PCC никакие данные невозможно восстановить.
Apple также исключила «аварийные» лазейки, которые позволяют системным администраторам с высоким уровнем привилегий получить доступ к системе при её сбое. Их часто добавляют в подобные инфраструктуры на случай чрезвычайных ситуаций. Private Cloud Compute не допускает привилегированного доступа и на техническом уровне существенно ограничивает возможность удалённого управления.
Как обеспечивается приватность в интеграции с OpenAI?
Сотрудничество Apple и OpenAI для интеграции ChatGPT в «яблочные» устройства также вызвало крайне противоречивую реакцию. Илон Маск даже заявил, что запретит своим сотрудникам использовать устройства Apple для работы. Давайте разберёмся, насколько оправданы страхи, вызванные этим сотрудничеством.
Самое важное, что необходимо понимать про интеграцию ChatGPT в устройства Apple, — ChatGPT никак не связан с инфраструктурой Apple Private Cloud Compute и все операции с данными при его использовании происходят на серверах OpenAI. Таким образом, при взаимодействии со встроенным ChatGPT приватность пользователей будет определяться уже политиками OpenAI, а не Apple.
При этом Apple сделала всё возможное, чтобы пользователи осознанно принимали решение обратиться с запросом к ChatGPT. Прежде всего, по умолчанию использование ChatGPT отключено. Для его активации пользователю необходимо в настройках вручную включить возможность работы ИИ от OpenAI. То есть существует возможность в принципе не использовать ChatGPT, если вы, как Илон Маск, не доверяете OpenAI.
После активации ChatGPT на устройстве Apple Intelligence сможет предлагать пользователям ответить на их запрос с помощью него, а не собственной ИИ-модели Apple. Это будет происходить в тех случаях, когда Apple Intelligence определит, что ChatGPT лучше справится с задачей.
Критерии, по которым Apple Intelligence будет это определять, не вполне понятны. Однако для приватности пользователей важнее то, что перед каждым обращением к ChatGPT Apple Intelligence будет запрашивать их согласие. Поэтому они смогут понимать и, главное, контролировать, какая информация будет доступна OpenAI.
Помимо всего вышеперечисленного, Apple обещает удалять всю идентифицирующую информацию при отправке запроса в ChatGPT. Правда, как мы прекрасно понимаем, само содержание запросов к ИИ часто содержит массу конфиденциальной информации, так что тут многое будет зависеть от самих пользователей.
Наконец, следует отметить, что сотрудничество с OpenAI не будет эксклюзивным: Apple также готовит интеграцию с Google Gemini, вероятно, основанную на тех же принципах, что и партнёрство с OpenAI. Приложение Gemini недавно стало доступно в iOS, однако полноценное взаимодействие Apple Intelligence с ИИ-чатботом Google, по слухам, заработает не ранее следующего года.
Риски встроенного в устройства ИИ
Несмотря на все старания Apple, невозможно отрицать, что встроенный ИИ создаёт совершенно новую огромную поверхность для атак. Основатель и гендиректор центра инноваций Future Crew Евгений Черешнев отмечает:
«Новые вызовы в области приватности и безопасности данных, которые создаёт генеративный ИИ, вскоре заставят крупные организации ограничить использование на своей территории устройств со встроенным искусственным интеллектом».
Чтобы адресовать уязвимости, которые могут быть найдены на новой поверхности атаки, Apple расширила свою программу баг-баунти. Теперь в неё входят и уязвимости в Apple Intelligence. Компания заявила, что выплатит до $1 млн любому, кто сообщит об эксплойтах, позволяющих удалённо запускать вредоносный код на серверах Private Cloud Compute.
Apple также пообещала вознаграждение до $250 тыс. исследователям, которые сообщат об эксплойтах, способных извлекать конфиденциальную информацию пользователей или запросы, отправляемые в облако. Компания также отметила, что будет «рассматривать любые проблемы кибербезопасности, имеющие значительное влияние», которые выходят за рамки опубликованных категорий.
Пока к сервису имеют доступ только пользователи из США. В декабре этого года Apple Intelligence также появится на устройствах пользователей из Австралии, Канады, Новой Зеландии, Южной Африки и Великобритании. Смогут ли им пользоваться жители Евросоюза, пока не до конца понятно — несмотря на все старания Apple, сервис может не соответствовать местному законодательству о защите пользовательских данных. Будет ли доступен Apple Intelligence в России, пока также неизвестно.