Creation of deepfakes as the offense against the person

Abstract

The article covers usage of deepfake technologies. They may be used to commit various crimes, but can lead to serious harm to a person. This harm is partly covered by provisions on libel and pornography, but both of them leave certain acts with intimate images out of the criminal law field. This is why some criminal law provisions need to be modified.

Source type: Conferences
Years of coverage from 2022
inLibrary
Google Scholar
  • Moscow State University named after M.V. Lomonosov
CC BY f
11-14
0

Downloads

Download data is not yet available.
To share
Alekseeva Т. (2025). Creation of deepfakes as the offense against the person . Digital Technologies and Law, 1(3), 11–14. Retrieved from https://inlibrary.uz/index.php/digteclaw/article/view/128463
T Alekseeva, Moscow State University named after M.V. Lomonosov
postgraduate student, lawyer, Analytical Center for Criminal Law and Criminology
0
Citations
Crossref
Сrossref
Scopus
Scopus

Abstract

The article covers usage of deepfake technologies. They may be used to commit various crimes, but can lead to serious harm to a person. This harm is partly covered by provisions on libel and pornography, but both of them leave certain acts with intimate images out of the criminal law field. This is why some criminal law provisions need to be modified.


background image

Цифровые технологии в системе теоретико-исторических правовых наук

ЦИФРОВЫЕ ТЕХНОЛОГИИ В СИСТЕМЕ

ТЕОРЕТИКО-ИСТОРИЧЕСКИХ ПРАВОВЫХ НАУК


Т. С. Алексеева,

аспирант,

Московский государственный университет

имени М. В. Ломоносова,

юрист,

Аналитический центр уголовного права и криминологии

СОЗДАНИЕ ДИПФЕЙКОВ

КАК ПРЕСТУПЛЕНИЕ ПРОТИВ ЛИЧНОСТИ

Аннотация.

В статье обозначены аспекты использования технологии ди-

пфейков: они могут быть использованы для совершения различных преступле-
ний, но способны причинить существенный вред личности. Частично он охвачен
нормой о клевете, частично – оборотом порнографических материалов, но и то,
и другое оставляет вне уголовно-правового поля ряд общественно опасных дей-
ствий с интимными изображениями. Это обуславливает необходимость уточне-
ния в нормы уголовного закона.

Ключевые слова:

уголовное право, дипфейк, изображение человека, лич-

ная тайна, порнография, компьютерная информация, изготовление

CREATION OF DEEPFAKES

AS THE OFFENSE AGAINST THE PERSON

Abstract.

The article covers usage of deepfake technologies. They may be used

to commit various crimes, but can lead to serious harm to a person. This harm is partly
covered by provisions on libel and pornography, but both of them leave certain acts
with intimate images out of the criminal law field. This is why some criminal law pro-
visions need to be modified.

Keywords:

criminal law, deepfake, personal image, personal secrecy, pornog-

raphy, computer information, production

Введение.

Выбор темы, обозначенной в заглавии статьи, предопределен

несколькими факторами: среди них общее распространение технологий измене-
ния изображений, потенциальное достижение высокой степени их достоверно-
сти, сбор и использование биометрических персональных данных различными
организациями. Риски неправомерного использования изображения и голосовых
образцов повышаются в связи с большим количеством данных, доступных для
неопределенного круга лиц в социальных сетях.

Тем не менее уголовное право, будучи по своей природе

ultima ratio

, не

является приоритетным выбором при конструировании механизма защиты права
на изображение, а потому при постановке вопроса об уголовно-правовой защите
от дипфейков следует решить, во-первых,

когда

нужно задействовать уголовно-


background image

Цифровые технологии в системе теоретико-исторических правовых наук

правовой механизм, во-вторых –

какой объект

защищается в данном случае,

в-третьих –

какое действие

в отношении

какого предмета

должно лежать

в основе объективной стороны состава.

Защита личности от дипфейков: когда и почему?

В контексте дипфей-

ков внимание законодателей рано привлекло использование подобных материа-
лов для влияния на политические процессы (в частности, механизм защиты от
таких действий создан во многих штатах США) [2. С. 374–375]. Многообразны
правомерные варианты использования (в культурных, образовательных, реклам-
ных и прочих целях, а также в рамках реализации свободы выражения мнений,
при условии соблюдении законодательных ограничений и прав других лиц).

Тем не менее лицу, зафиксированному на сгенерированном изображении,

может быть причинен вред, достаточный для уголовно-правового вмешательства
и различный по своей правовой природе. Неверное впечатление, сформированное
голосом или изображением, способно причинить вред, в первую очередь, чести
и достоинству, но также идентичности лица, его контролю над информацией о себе,
иными словами – неприкосновенности частной жизни в ее широком понимании.

Это нередко часть единой линии поведения, которая может быть соверше-

на и с небольшим объемом сведений о человеке; технология дипфейков способна
повысить достоверность информации, размещаемой от имени другого лица.
Иллюстрации варьируются от простого использования чужого изображения для
аватара [см., напр., 4] до объявлений на сайтах знакомств, с адресом и номером
телефона, провоцирующих соответствующее сексуальное поведение в адрес по-
терпевшего [6. С. 79].

Создание ложного впечатления о человеке в отдельных случаях соответ-

ствовует признакам клеветы, при условии определенной конкретизации сведе-
ний: если имеется в виду видеоизображение, легко представить сведения, кото-
рые могут быть почерпнуты из него (напр., «сгенерированный» процесс дачи или
получения взятки, что однозначно относится к сведениям, порочащим честь
и достоинство). Статичное изображение человека с меньшей вероятностью от-
ражает информацию, которая может быть признана фактической.

«Ассортимент» объектов: критерии выбора.

Отвечая на вопрос, какие

нормы могут защитить от общественно опасных дипфейков, исследователи очень
часто называют клевету и незаконный оборот порнографической продукции. При-
менительно к клевете, как было отмечено выше, нет принципиально новых проблем
квалификации. Изображение или голос отличаются повышенной достоверностью
в глазах окружающих, это «второй уровень ложности» [7. С. 433], но признаки со-
става от этого не нуждаются в уточнении. Между тем далеко не все изображения,
приносящие вред, могут быть предметом клеветы: например, сами по себе интим-
ные фотографии не содержат порочащих сведений, если не указывают на связь
с конкретным лицом для определенных порочащих целей.

Применительно к порнографии отмечается, что «действующая редакция

ст. 242 УК РФ позволяет квалифицировать так называемый FaceSwap ˂…˃ как
изготовление порнографических материалов» [3. С. 100]. Соглашаясь с этим
утверждением, отмечу, что квалификация создания дипфейка в качестве изготов-
ления порнографического материала не решает проблемы защиты личности:
изображенный не становится потерпевшим.


background image

Цифровые технологии в системе теоретико-исторических правовых наук

Изображение является предметом нескольких составов преступлений про-

тив личности. Для защиты права на изображение актуальнее всего, помимо кле-
веты, ст. 137 УК РФ («Нарушение неприкосновенности частной жизни»): ее дис-
позиция не содержит упоминания изображений, но охватывает случаи, когда
изображения являются личной тайной. Наиболее яркая иллюстрация – интимные
изображения, которые нередко получены законно (по согласию изображенного
лица), но впоследствии распространены по мотиву ревности, в результате воз-
никновения личных неприязненных отношений. Предмет ст. 137 УК РФ также
показывает, почему оборот порнографии не может защитить личность: часть
действий, которые квалифицируются как распространение личной тайны, не яв-
ляются распространением порнографических материалов, по результатам искус-
ствоведческих экспертиз (см., напр., Кассационное определение Второго КСОЮ
от 2 марта 2021 г. № 77-566/2021: одна из интимных фотографий потерпевших –
порнографическая).

Сгенерированные изображения предметом ст. 137 УК РФ быть не могут:

тайной является исключительно информация, соответствующая действительно-
сти. C той же проблемой столкнулись правопорядки, в которых в норме о защите
частной жизни изображения были обособлены: в частности, Уголовным кодек-
сом Испании интимные изображения защищены в ст. 197, однако эта норма охва-
тывает исключительно действительные изображения – дипфейки вне ее действия
[8. С. 6–7].

Предмет и действия с ним, или основы построения составов.

Дипфей-

ки – как результат и первичный образец, как материал для такого результата –
с позиции уголовного закона в самом общем виде могут быть описаны как опре-
деленные «сведения», «информация». К дипфейкам будет применим и термин
«компьютерная информация»; едва ли при этом можно согласиться с тем, что
именно она является основным объектом при любом использовании технологии.

Для исследователей бланкетного регулирования после вывода, что внеш-

ность и голос не защищаются авторским правом, неизбежен переход к анализу
режима персональных и, в частности, биометрических данных [1. С. 115–116].
Хотя и изображения, и образец голоса в целом к таковым относятся, для них
применимо требование идентификации лица: далеко не любое изображение мо-
жет установить личность (именно поэтому по ряду дел по ст. 137 УК РФ сторона
защиты ссылается на то, что часть распространенных изображений не иденти-
фицирует потерпевшего, см., напр.: Апелляционное определение Новосибирско-
го областного суда от 14 января 2022 г. по делу № 22-7540/2021).

Представляется, что изображение и голос могут быть названы в норме

именно таким образом, без отсылки к персональным данным; что же касается
деяния, то в действующем уголовном законе есть «модификация» [компьютер-
ной информации], «изготовление» [порнографических материалов], «создание»
[компьютерных программ]. Будут ли они достаточны для криминализации? Если
в основе результата лежит законно полученное изображение лица, которое пре-
вращено в интимное с помощью технологий и оставлено создателем для личного
пользования, то общественная опасность отсутствует. Однако использование
(напр., для шантажа) и распространение могут причинить существенный вред
личности.


background image

Цифровые технологии в системе теоретико-исторических правовых наук

Заключение.

Для многих составов дипфейк – средство, которое по усмот-

рению законодателя может «заслужить» квалифицирующий признак (как в раз-
рабатываемом законопроекте) [5]. Однако дипфейк, содержащий интимные све-
дения, играет немалую роль для причинения вреда частной жизни, неприкосно-
венности лица, а потому заслуживают внимания использование изготовленного
изображения в неправомерных целях, распространение подобных изображений.

Список литературы

1.

Добробаба М. Б. Дипфейки как угроза правам человека // Lex russica.

2022. Т. 75, № 11. С. 112–119.

2.

Дремлюга Р. И., Коробеев А. И. Борьба с распространением реалистичных

аудиовизуальных поддельных материалов за рубежом (deepfake): уголовно-
правовые и криминологические аспекты // Всероссийский криминологический
журнал. 2021. Т. 15, № 3. С. 372–379.

3.

Ефремова М. А., Русскевич Е. А. Дипфейк (deepfake) и уголовный закон //

Вестник Казанского юридического института МВД России. 2024. Т. 15, № 2 (56).
С. 97–105.

4.

Береги

фейс

смолоду

//

Блог

KasperskyDaily.

URL:

https://www.kaspersky.ru/blog/findface-experiment/11671

(дата

обращения:

06.09.2024).

5.

В Госдуме назвали возможный срок внесения законопроекта о дипфейках

// URL:

www.gazeta.tu/social/news/2024/09/08/23878183.shtml?updated

(дата обраще-

ния: 08.09.2024).

6.

Филатова М. А. Уголовная ответственность за киберсталкинг // Уголовное

право. 2020. № 4. С. 77–82.

7.

Garon Jon M. An AI’s Picture Paints A Thousand Lies: Designating Responsi-

bility for Visual Libel // Journal of Free Speech Law. 2023. No. 3. P. 425–454.

8.

Jareño Leal, Ángeles. El derecho a la imagen íntima y el Código penal.

La calificación de los casos de elaboración y difusión del deepfake sexual // Revista
Electrónica de Ciencia Penal y Criminología. 2024. Núm. 26–09. Pp. 1–37.


Е. Ю. Антонова,

доктор юридических наук, профессор,

Университет прокуратуры Российской Федерации,

Дальневосточный юридический институт (филиал)

ВОВЛЕЧЕНИЕ В ТЕРРОРИСТИЧЕСКУЮ, ЭКСТРЕМИСТСКУЮ

И ДИВЕРСИОННУЮ ДЕЯТЕЛЬНОСТЬ С ИСПОЛЬЗОВАНИЕМ

ЦИФРОВЫХ ТЕХНОЛОГИЙ: УГОЛОВНО-ПОЛИТИЧЕСКИЙ АСПЕКТ

Аннотация

. В статье рассматриваются отдельные уголовно-политические

вопросы о мерах правового воздействия на субъекты, вовлекающие (склоняю-
щие, вербующие) других лиц в совершение преступлений террористического ха-
рактера, экстремистской или диверсионной направленности с использованием
цифровых технологий. Раскрываются общественная опасность и механизм со-
вершения таких преступлений. Определено, что цифровые технологии исполь-

References

Добробаба М. Б. Дипфейки как угроза правам человека // Lex russica. 2022. Т. 75, № 11. С. 112-119.

Дремлюга Р. И., Коробеев А. И. Борьба с распространением реалистичных аудиовизуальных поддельных материалов за рубежом (deepfake): уголовноправовые и криминологические аспекты // Всероссийский криминологический журнал. 2021. Т. 15, № 3. С. 372-379.

Ефремова М. А., Русскевич Е. А. Дипфсйк (dccpfakc) и уголовный закон // Вестник Казанского юридического института МВД России. 2024. Т. 15, № 2 (56). С. 97-105.

Береги фейс смолоду // Блог KasperskyDaily. URL: https://www.kasperskv.ru/blog/lindfacc-cxperiment/11671 (дата обращения: 06.09.2024).

В Госдуме назвали возможный срок внесения законопроекта о дипфейках // URL: www.gazeta.tu/social/news/2024/09/08/23878183.shtml?updated (дата обращения: 08.09.2024).

Филатова М. А. Уголовная ответственность за киберсталкинг // Уголовное право. 2020. № 4. С. 77-82.

Garon Jon М. An Al’s Picture Paints A Thousand Lies: Designating Responsibility for Visual Libel // Journal of Free Speech Law. 2023. No. 3. P. 425-454.

Jareno Leal, Angeles. El derecho a la imagen intima у el Codigo penal. La calificacion de los casos de elaboration у difusion del deepfake sexual // Revista Electronica de Ciencia Penal у Criminologia. 2024. Num. 26-09. Pp. 1-37.