21 февраля 2024 года принят Указ Президента «О Государственной программе по реализации Стратегии «Узбекистан — 2030» в «Год поддержки молодежи и бизнеса». Документом предусмотрены обеспечение кибербезопасности и эпидемиологической стабильности, внедрение современных биометрических систем гарантированного обеспечения защиты персональных данных граждан, противодействие мошенничеству в банковской сфере и платежных системах.

Согласно отчету ГУП «Центр кибербезопасности», если в 2022 году в национальном сегменте киберпространства Республики Узбекистан было зафиксировано свыше четырех млн кибератак, то в 2023-м — уже более 11 млн. Таким образом, за прошлый период наблюдается выраженный рост кибератак на 148 процентов. Данная тенденция в условиях всеобщей цифровой трансформации будет со временем только усиливаться, что обусловливает необходимость особого внимания со стороны государства и общества к данному вопросу.

Мировое виртуальное пространство наполнено видео и фотоизображениями, аудиоданными блогеров, артистов, политиков и других медийных людей, что позволяет преступникам использовать их для создания фальшивых видео- и аудиоматериалов в своих криминальных целях при помощи технологии дипфейк.

Дипфейк (от англ. deepfake — «глубокая подделка») — метод синтеза контента, основанный на машинном обучении и искусственном интеллекте. На исходное изображение, видео или звук накладываются фрагменты другого контента: лица, мимики, голоса, интонации. Термин представляет собой смесь слов «глубокое обучение» и «фейк».

В последнее время в Узбекистане также участились случаи распространения фейковых видео с участием известных политических деятелей, спортсменов, бизнесменов, блогеров. Практически во всех случаях предлагаются возможности быстрого обогащения путем создания инвестиционных платформ или получения компенсации.

За счет большего доверия к видеоматериалам, а также низкой информированности населения о существовании данных технологий ущерб от преступлений с использованием дипфейков в разы более значительный по сравнению с традиционными видами злодеяний.

Общей тенденцией является рост во всем мире случаев мошенничества с использованием дипфейков. К примеру, в марте 2019 года в Великобритании руководитель крупной энергетической компании перевел 220 тысяч евро на счет мошенников после телефонного звонка с использованием голосового дипфейка. Сгенерированный нейросетями голос имел даже присущий вышестоящему начальнику немецкий акцент и особенности интонации.

В феврале 2024-го в Гонконге мошенники получили у транснациональной корпорации 26 млн долларов при помощи технологии дипфейк. Сотруднику компании в китайском финансовом центре поступил звонок по видеоконференции от человека, выдавшего себя за старшего менеджера компании, с просьбой перевести деньги на определенные банковские счета. В видеоконференции участвовали несколько участников, но все, кроме жертвы, были фейковыми. Мошенники нашли общедоступные видео- и аудиоматериалы на YouTube, а затем использовали технологию, чтобы синтезировать их голоса и обмануть сотрудника компании.

Если в первом случае использовался голосовой дипфейк, то в последнем параллельно несколько дипфейк-видео разных лиц.

Кроме того, использование дипфейков с участием политических лидеров в современных социально-политических условиях может спровоцировать кризисы и привести к дестабилизации общества.

Специалисты отмечают, что современные конфликты сопровождаются предварительным информационно-психологическим воздействием, направленным на формирование международного общественного мнения о необходимости вмешательства в дела государств, а также активным применением мер невоенного характера, среди которых и информационно-психологические.

В интернете достаточное количество дипфейков с участием отдельных глав государств. В качестве примера политического дипфейка специалисты зачастую отмечают фальшивое видео спикера Палаты представителей Конгресса США Нэнси Пелоси, которое в 2019 году распространили в социальных сетях. Видео было умышленно замедлено, чтобы казалось, что политик невнятно произносит слова и ведет себя так, как будто находится в алкогольном опьянении.

С учетом указанных рисков и угроз в ряде стран на государственном уровне проводятся специализированные исследования в данном направлении и принимаются соответствующие меры по противодействию дипфейкам. К примеру, в Великобритании в соответствии с законопроектом о безопасности в интернете (Online Safety Bill) распространение дипфейков личного характера криминализировано и введена ответственность в виде штрафа до 18 млн фунтов, а в особо серьезных случаях — тюремное заключение.

Вместе с тем по результатам проведенного исследования экспертами Лаборатории Касперского производство дипфейка является наиболее востребованной услугой в даркнете. Стоимость 60 секунд в среднем составляет от 300 до 20 тысяч долларов.

Летом 2019 года Комитет по разведке Палаты представителей Конгресса США провел открытые слушания по тематике угроз национальной безопасности, создаваемых искусственным интеллектом, в первую очередь Deepfake AI, в ходе которых единогласно принято решение о том, что дипфейки представляют реальную угрозу для американского общества на разных уровнях.

Администрацией киберпространства Китая принят специальный закон, в котором определен уголовный запрет поставщикам и пользователям сетевых аудио- и видеоинформационных услуг публиковать и распространять ложную информацию или дипфейки в интернете без четкого обозначения того, что соответствующий контент создан с использованием ИИ или виртуальной реальности.

Данный акт запрещает использовать дипфейк, если применение технологии выступает угрозой национальной безопасности и социальной стабильности, нарушает общественный порядок, посягает на законные права и интересы граждан, несет в себе ложную информацию.

Применение технологии дипфейк запрещается крупнейшими сайтами, включая Reddit, X, Facebook. Почти все платформы социальных сетей имеют политику, направленную на запрет использования фальшивых новостей.

В нашем национальном законодательстве не определена обязанность маркировки дипфейков с целью недопущения их злонамеренного использования. В большинстве случаев противоправное использование дипфейков возможно при условии цифровой неграмотности населения, отсутствии информации и целенаправленного просвещения о потенциальных рисках и угрозах, которые они несут.

Доступность фото и видео с изображением физических лиц создает условия для их использования в противоправных целях, что влечет за собой нарушение прав физических лиц на изображение, нанесение вреда их чести и достоинству, а также репутации. Дипфейки нарушают права собственности субъектов. То есть независимо от репутационного вреда использование и распространение изображения или видео человека без разрешения наносит ему дополнительный вред.

В случае криминализации дипфейков специалистами предлагается два варианта уголовно-правового регулирования их злонамеренного использования при совершении ряда преступлений. Первый предусматривает выделение отдельной главы в Уголовном кодексе, которая будет объединять разные виды преступления с использованием данной технологии. Второй, на наш взгляд, более предпочтительный для сохранения структуры и логики Уголовного кодекса, предусматривает внесение отдельного квалифицирующего признака в диспозицию соответствующих статей.

Кроме того, в статье 99 Гражданского кодекса Республики Узбекистан установлено, что право гражданина на изображение не отчуждаемо, не передаваемо иным способом и подлежит защите. При этом остается открытым вопрос использования голоса для создания голосовых дипфейков, поскольку в указанной статье Гражданского кодекса РУз определено именно «право на изображение». В связи с чем национальное гражданско-правовое законодательство нуждается в закреплении охраны права на голос человека либо на защиту от использования или воспроизведения его биометрических данных в целом.

Новая технология динамично развивается. Если дипфейки первого поколения выявляются с вероятностью 100 процентов, то сегодня эти показатели составляют от 15 до 30 процентов. Ведущие технологические научно-исследовательские учреждения мира, IT-корпорации и другие организации занимаются целевыми исследованиями по разработке средств и методов выявления признаков использования технологии дипфейк, на что выделяются отдельное государственное финансирование и целевые гранты.

При этом в уголовном судопроизводстве широко используются фото-, аудио- и видеодоказательства. Технология дипфейк в аспекте криминалистической идентификации личности ставит под сомнение допустимость и достоверность аудио- и видеоматериалов доказательной базы (записи видеокамер, диктофонных записей, файлов видеорегистраторов). Как правило, судебная фототехническая, фоноскопическая, видеотехническая экспертизы проводятся не во всех случаях использования представленных доказательств, а по решению следователя, прокурора или суда либо ходатайству адвоката. Вместе с тем сегодня стоит вопрос разработки надежной судебно-экспертной методики выявления дипфейка.

Организационно-правовые меры применения дипфейков.

С учетом всеобщей цифровой трансформации общества и государства необходимы своевременное реагирование на риски и угрозы злонамеренного использования технологии дипфейк в мире, принятие комплекса правовых и организационных форм защиты.

Важное значение в противодействии данному явлению имеют цифровая грамотность населения, проведение разъяснительной работы среди граждан о необходимости соблюдения информационной безопасности, а также совершенствование подготовки сотрудников правоохранительных органов, осуществляющих расследование.

Предлагается рассмотреть вопрос о включении в статью 121 Закона Республики Узбекистан «Об информатизации» нормы, в которой будет закреплено обязательство по внесению обязательной маркировки (отметки) видео- и аудиоматериалов в интернете, социальных сетях и мессенджерах о применении технологии дипфейк при создании или демонстрации определенного рода материалов. Введение маркировки данных материалов и их демонстрация позволят исключить их использование в злонамеренных целях, послужат росту цифровой грамотности и правовой просвещенности населения о рисках мошенничества, вымогательства и иных негативных последствиях с использованием дипфейков.

Рекомендуется изучить вопрос по внесению дополнительного квалифицирующего признака в статьи 166, 168, 2446 и другие вышеуказанные составы Уголовного кодекса Республики Узбекистан за использование технологии искусственного интеллекта. За использование дипфейка в данном случае предусмотреть сразу уголовную ответственность без предварительной административной преюдиции с учетом представляемого уровня общественной опасности.

Целесообразно рассмотреть вопрос о закреплении в статье 99 Гражданского кодекса РУз права лица, в том числе умершего, на защиту от использования или воспроизведения его биометрических данных в целом. В правоприменительной практике были случаи использования голосовых дипфейков. В связи с чем данный биометрический параметр также будет защищен от воспроизведения в злонамеренных целях в рамках гражданско-правовых отношений.

Необходимо проведение целевых научных изысканий специализированными научно-исследовательскими учреждениями и негосударственными организациями по выявлению использования данных технологий, направленных на разработку специальных средств и методов выявления дипфейков, а также финансирование данных исследований.

Дипфейки — огромный политический ресурс. Несут потенциальную угрозу, затрагивающую личные права граждан, представляют возможность манипулирования общественным мнением, создают дестабилизацию в обществе, связанную с интересами национальных или иных меньшинств, а также дискредитируют доказательственную базу, подрывая доверие к судебно-правовой системе. В связи с этим необходимо своевременно реагировать на факты злонамеренного использования данной технологии.