Разработка политики и законов для регулирования сферы применения искусственного интеллекта (ИИ) становится одной из приоритетных задач государств мира. Данный процесс необходим как для стимулирования его развития, так и управления возможными рисками и угрозами.
Искусственный интеллект представляет собой актуальную проблему правовой политики нового направления в юридической науке Узбекистана. По данным Индекса искусственного интеллекта Стэнфордского института ИИ, ежегодное количество законов, связанных с ИИ, принимаемых в 127 странах, охваченных исследованием, увеличилось с одного в 2016м до 37 в 2022 году. Документы включают широкий спектр тем, таких как регулирование и управление, промышленная стратегия, исследования, развитие талантов и инфраструктура.
Однако основной подход к регулированию ИИ фокусируется на управлении рисками и предвзятости алгоритмов машинного обучения, начиная с уровня входных данных и заканчивая моделями принятия решений. В дискуссиях о правовом регулировании сферы выдвигаются предложения как по «жесткому», так и по «мягкому» правовому воздействию. «Жесткие» правовые подходы, по мнению ученых-юристов, сталкиваются с проблемами быстрого развития технологий, когда традиционные законы не успевают за новыми приложениями и рисками, а разнообразие приложений ИИ создает вызовы для существующих регулирующих органов, которые зачастую имеют ограниченную юрисдикцию. Альтернативой являются подходы «мягкого» права, обладающие большей гибкостью и умеющие адаптироваться к новым технологиям. Однако у них часто отсутствует значительный потенциал правоприменения.
Разные страны применяют разные подходы к регулированию ИИ. Рассмотрим подробнее опыт некоторых государств.
В Китае действует План развития искусственного интеллекта нового поколения, представленный в июле 2017 года. В документе Центральный комитет Коммунистической партии Китая и Госсовет КНР призвали руководящие органы страны содействовать развитию ИИ до 2030 года. Важным аспектом плана является ускоренное регулирование вопросов этического и правового обеспечения в этом направлении. Политика гарантирует государственный контроль над китайскими компаниями и ценными данными, требуя хранения информации о пользователях внутри страны и обязательного использования национальных стандартов для искусственного интеллекта, включая большие данные, облачные вычисления и промышленное программное обеспечение.
В 2021 году Китай опубликовал этические рекомендации по использованию ИИ, которые требуют, чтобы исследователи гарантировали соответствие искусственного интеллекта общечеловеческим ценностям, всегда контролировали его и не ставили под угрозу общественную безопасность. В 2023м введены временные меры по управлению услугами генеративного ИИ (способен генерировать текст, изображения или другие медийные данные в ответ на подсказки).
Европейский союз активно участвует в глобальном регулировании цифровых технологий посредством Общего регламента по защите данных, законов о цифровых услугах и о цифровых рынках. Закон об искусственном интеллекте, принятый в ЕС в 2023 году, считается наиболее продвинутым нормативным актом. Европейская стратегия в области искусственного интеллекта поддерживается группой экспертов высокого уровня по ИИ. В апреле 2019го Еврокомиссия опубликовала этические рекомендации для заслуживающего доверия ИИ, а в июне того же года рекомендации по политике и инвестициям в отношении заслуживающего доверия ИИ. В 2020м было запрошено мнение касательно разработки законодательства в области ИИ, и этот процесс продолжается.
В феврале 2020го Европейская комиссия опубликовала Белую книгу по искусственному интеллекту европейский подход к совершенству и доверию. Она состоит из двух основных блоков: «экосистема совершенства» и «экосистема доверия». В предлагаемом подходе различаются приложения ИИ по степени риска. С высоким должны соответствовать строгим требованиям в отношении данных, точности и контроля. С низким могут регулироваться схемой добровольной маркировки.
А недавно Совет ЕС принял Закон об искусственном интеллекте, направленный на гармонизацию правил в области ИИ. Документ разработан по принципу, ориентированному на риски, что означает следующее: чем выше угроза причинения вреда обществу, тем строже правила. Закон является первым в своем роде и может установить глобальный стандарт регулирования ИИ. Направлен на содействие развитию и внедрению безопасных и надежных систем искусственного интеллекта на едином рынке ЕС как частными, так и государственными субъектами. В то же время закон обеспечивает уважение основных прав граждан ЕС, стимулирует инвестиции и инновации в области искусственного интеллекта в Европе. Применяется только к областям законодательства Евросоюза и предусматривает некоторые исключения для систем, используемых исключительно в военных, оборонных и исследовательских целях.
Закон классифицирует разные типы ИИ в зависимости от уровня риска. На системы, представляющие лишь ограниченный риск, будут распространяться минимальные обязательства по прозрачности. Системы ИИ с высоким уровнем риска — авторизуются при условии соблюдения ряда требований и обязательств для получения доступа на рынок ЕС. Использующие когнитивно-поведенческие манипуляции и социальный скоринг будут запрещены в Евросоюзе, поскольку данные риски признаны неприемлемыми. Закон также запрещает применение ИИ для превентивной полицейской деятельности на основе профилирования и систем, использующих биометрические данные для категоризации людей по признакам.
Прежде чем некоторые организации, предоставляющие государственные услуги, развернут систему ИИ высокого риска, необходимо оценить ее влияние на фундаментальные права человека. Закон предусматривает повышение прозрачности в отношении разработки и использования систем ИИ высокого риска.
В ноябре 2020 года Немецкий институт нормотворчества, Немецкая комиссия по электротехническим, электронным и информационным технологиям и Федеральное министерство экономики и энергетики Германии опубликовали первое издание Немецкой дорожной карты стандартизации искусственного интеллекта. Этот документ описывает требования к будущим нормам и стандартам в контексте ИИ. Реализация рекомендаций призвана укрепить немецкую экономику и науку в международной конкуренции в области ИИ. Второе издание, опубликованное в декабре 2022го, охватывает основные темы и фундаментальные вопросы, представляя обзор терминов и среды ИИ. Документ содержит 116 потребностей в стандартизации и шесть основных рекомендаций к действию.
В 2018 году Министерство науки, инноваций и университетов Испании утвердило Стратегию исследований и разработок в области искусственного интеллекта. С формированием второго правительства Педро Санчеса в январе 2020го были усилены направления, связанные с новыми технологиями, находившиеся прежде в ведении Министерства экономики страны. Так, в 2020 году создан Государственный секретариат по цифровизации и искусственному интеллекту (SEDIA), разработавший Национальную стратегию в области искусственного интеллекта, где обозначены меры по управлению ИИ и этические стандарты его использования. В 2021 году правительство сообщило, что эти идеи будут развиваться через новое правительственное агентство. На данные цели в 2022м было выделено пять миллионов евро. Испания стала первой европейской страной с агентством, занимающимся надзором за ИИ.
Великобритания поддержала применение и развитие искусственного интеллекта в бизнесе посредством стратегии цифровой экономики. В государственном секторе Департамент цифровых технологий, культуры, СМИ и спорта консультировал по вопросам этики данных, а Институт Алана Тьюринга давал рекомендации по ответственному проектированию и внедрению систем ИИ. В 2020 году Национальный центр кибербезопасности Великобритании выпустил руководство по интеллектуальным инструментам безопасности. А в 2021м страна опубликовала свою десятилетнюю Национальную стратегию ИИ, описывающую меры по оценке долгосрочных рисков ИИ, включая катастрофические риски.
В США в 2016 году администрация Президента начала уделять внимание рискам и правилам, связанным с ИИ, представив отчет о подготовке к будущему искусственного интеллекта. В документе подчеркивается необходимость оценки рисков для общественной безопасности при разработке регулирующих мер. В стране принят стратегический план исследований и разработок в области искусственного интеллекта, а в 2019-м создана Комиссия национальной безопасности по искусственному интеллекту для продвижения технологий ИИ в интересах национальной безопасности и обороны. В 2023-м принят новый Билль о правах в сфере ИИ, который включает меры защиты американцев в эпоху искусственного интеллекта. В октябре прошлого года Президент США подписал указ о безопасном, защищенном и заслуживающем доверия искусственном интеллекте, который предоставляет организациям полномочия применять существующие законы к разработке ИИ, в том числе с учетом социальных проблем.
Таким образом, можно констатировать, что регулирование ИИ продолжает эволюционировать, отражая разнообразие подходов и приоритетов разных стран и регионов, направленных на обеспечение безопасного и этичного использования технологий. В Европейском союзе акцент делается на подходе, основанном на правах человека. В США следуют рыночному подходу. А в Китае продвигается видение о том, что правительство играет ключевую роль в регулировании и развитии ИИ.
Важно отметить, что законодательство и нормативные акты в области искусственного интеллекта должны охватывать три основные темы: управление автономными интеллектуальными системами, ответственность за их использование и вопросы конфиденциальности данных. Законодатели в свою очередь, разрабатывая нормативные акты, обязаны учитывать такие факторы, как взаимосвязь между регулированием ИИ и этическими нормами.
Ш.Собиров
главный научный сотрудник сектора
законодательства в социальной сфере