Как в разных странах маркируют ИИ-контент
Почему крупнейшие страны вводят обязательную маркировку ИИ-контента и как она выглядит на практике
Future Crew
Блок инноваций ПАО «МТС»
Генеративные нейросети уже успели применить и в политической пропаганде, и в фальсификации порно со знаменитостями, и для мошенничества. Согласно свежему прогнозу Deloitte, одна только финансовая индустрия в США к 2027 году понесет ущерб до $40 млрд из-за распространения мошеннических схем, основанных на дипфейках. Ситуация была бы проще, если бы каждое видео или фото, сгенерированное при помощи ИИ, можно было легко отличить от настоящего. Именно к этому стремятся регуляторы США, Евросоюза, КНР и России, вводя законодательные требования о маркировке контента, произведенного ИИ. Во всех этих регионах приоритетом регулирования называют борьбу с дезинформацией, деструктивным контентом и нарушением прав личности.
Европейское регулирование
Принятый в марте Регламент об искусственном интеллекте (EU AI Act) охватывает все сферы применения ИИ. Описанные в нем меры вводятся поэтапно, а маркировка ИИ-контента станет обязательной с мая 2025 года.
Закон предполагает, что все поставщики ИИ-систем обязаны соответствовать «требованиям прозрачности». Для этого системы, генерирующие аудио, изображения, видео и текст, должны внедрять в созданный контент машиночитаемые отметки, позволяющие определить его как синтетический. Технические решения по маркировке должны быть надежны, эффективны и совместимы между собой. Это могут быть водяные знаки, идентификаторы в метаданных, криптографические методы подтверждения происхождения информации, цифровые отпечатки и т.д. Более конкретных требований к маркировке в AI Act нет — вопрос отдан на откуп органам технической стандартизации, которые его пока не проработали.
От маркировки освобождены ИИ-системы, помогающие в «стандартном редактировании» и не приводящие к существенным изменениям в обрабатываемой информации.
В AI Act по примеру GDPR сразу установлены серьезные санкции за несоблюдение требований закона: штраф до €15 млн или до 3% глобального оборота компании-нарушителя за прошедший финансовый год. Закон обязаны соблюдать игроки, чьи продукты и сервисы доступны в Евросоюзе или для европейцев, находящихся за пределами ЕС.
ЕС первым в мире принял комплексный закон, регулирующий все аспекты применения ИИ, и другие страны наверняка будут опираться на опыт европейцев. Однако Ассоциация индустрии компьютеров и коммуникаций (CCIA Europe) уже высказывает опасения, что излишне строгое регулирование ограничит инновационный потенциал европейских ИИ-компаний.
Регулирование в США
Единого акта, регулирующего ИИ-контент, в США нет. Проект федерального закона об обязательной маркировке ИИ-контента был представлен в марте. Проект предполагает, что весь созданный ИИ контент должен быть промаркирован водяными знаками и метаданными. Помимо этого, согласно акту, демонстрация такого контента должна сопровождаться предупреждением. Детали технических решений должен разработать институт по стандартизации (NIST).
Принятый в октябре 2023 года указ о безопасной разработке и использовании ИИ детально описывает обязанности правительственных структур и федеральных агентств, включающий маркировку ИИ-контента, однако коммерческие компании он затрагивает лишь косвенно. Разработчики базовых ИИ-моделей обязаны делиться с правительством результатами различных тестов на безопасность ИИ, а министерству торговли поручено выпустить рекомендации по аутентификации и маркировке созданного ИИ контента. Минторг делегировал этот вопрос в подчиненный ему NIST.
Институт пока опубликовал черновик рекомендаций, а финальный документ будет готов к концу года. В нынешней версии пока нет конкретных указаний на требуемые методы маркировки и способы показа этой маркировки пользователю.
Каждый из рассмотренных NIST инструментов, включая видимые и невидимые водяные знаки, метаданные с цифровой подписью, а также различные детекторы, которые способны различать ИИ-контент по его мелким характерным особенностям, имеет свои недостатки и не обещает полноценного решения проблемы. NIST предлагает комбинировать эти инструменты с общественными инициативами, такими как образование потребителей.
Многие штаты США принимают свои законодательные акты по ИИ: например, по данным ресурса multistate.ai, в 27 штатах запрещено производство и распространение «дипфейков, созданных без согласия» — за это вводится ответственность вплоть до уголовной. Большинство таких законов посвящено «сексуальным» и «политическим» дипфейкам, а общего требования маркировать весь синтетический контент на сегодня нет ни в одном штате.
Россия и Китай
Комитет Госдумы РФ по информполитике ведет разработку закона о маркировке ИИ-контента. Речь идет видимой глазом маркировке, то есть водяных знаках. По задумке депутатов, российские ИИ-сервисы должны будут внедрять маркировку автоматически, а следить за исполнением закона поручат Роскомнадзору.
В Китае провайдеры ИИ-сервисов обязаны маркировать созданный контент в рамках действующих с августа 2023 года «временных административных мер для генеративных ИИ-сервисов». Подробные технические рекомендации были выпущены 25 августа китайским комитетом технической стандартизации в сфере ИБ (TC260).
Согласно анализу от юридической фирмы Covington & Burling, эти рекомендации предписывают внедрять в сгенерированный контент три компонента:
- хорошо видимый полупрозрачный водяной знак, а для аудио и текстов — предупреждение «создано ИИ» в самом начале текста или звукозаписи;
- невидимый водяной знак, надежно считываемый компьютерными методами из любых 10 секунд аудиозаписи или фрагмента изображения 384х384. В водяном знаке должно быть закодировано название ИИ-сервиса;
- текстовые метаданные в медиафайлах, содержащие имя ИИ-сервиса, время создания контента и вспомогательную информацию.
Нарушение правил маркировки грозит административной ответственностью, ранее закрепленной в китайских законах о кибербезопасности и защите персональных данных. Зарубежные сервисы могут быть заблокированы за нарушение.