Виноградова Е.А. —
Потенциальные угрозы несанкционированного использования политических дипфейков в период политических выборов: международный опыт
// Мировая политика. – 2024. – № 3.
– 和。 44 - 60.
DOI: 10.25136/2409-8671.2024.3.71519
URL: https://e-notabene.ru/wi/article_71519.html
阅读文章
注释,注释: Предметом данного исследования выступают новые политические технологии, основанные на использовании искусственного интеллекта, в частности, практики введения избирателей в заблуждение посредством создания и распространения дипфейков (англ. «deepfake»). Целью данного исследования является выявление угроз и рисков, связанных с несанкционированным применением политических дипфейков в международной практике. Для достижения этой цели автор анализирует концепции влияния политических дипфейков на выборы, выделяет типы, виды и риски дипфейков в политической практике различных стран. Политический дипфейк (ПД) автор данного исследования определяет, как специальную кампанию с применением технологии искусственного интеллекта (ИИ) для подрыва репутации политических лидеров с целью изменения хода избирательной борьбы или для дискредитации уже действующего политика. В процессе исследования помимо нормативно-институционального и исторического методов применялись концептуальный и контент-анализ (при изучении основных подходов и интерпретаций технологии дипфейк в научной литературе), элементы анализа вторичных статистических данных. В статье дается характеристика основных типов политических дипфейков и приводятся примеры их злонамеренного использования на политических выборах 2023-2024 гг. На основе авторского анализа в научный оборот впервые вводиться классификация видов политических дипфейков, оказывающих воздействие на когнитивные функции целевых аудиторий.
Классификация видов политических дипфейков, приведенная в данном исследовании позволяет по-новому взглянуть на проблему когнитивного влияния этого вида дезинформации на общественное мнение.
Полученные выводы свидетельствуют о том, что в период 2017-2024 гг. технологии искусственного интеллекта стали активно применяться для манипулирования целевыми аудиториями во время политических выборов.
Одной из основных трудностей в регулировании политических дипфейков является их завуалированность за счет использования смешанных типов данного вида манипуляций. Существенным препятствием в регулировании данной технологии является также отсутствие общепризнанных международных стандартов. Полученные автором результаты будут интересны для политологов, социологов, специалистов в области СМИ, государственной политики, мировой политики и международных отношений, а также для студентов перечисленных специальностей.
Abstract: The subject of this study is new political technologies based on the use of artificial intelligence.
The purpose of this study is to identify the threats and risks associated with the unauthorised use of political deepfakes in international practice. To achieve this goal, the author analyses the concepts of the influence of political deepfakes on elections, identifies types and risks of deepfakes in the political practice of different countries. The author of this study defines a political deepfake as a special campaign using artificial intelligence technology to undermine the reputation of political leaders in order to change the course of the electoral struggle or to discredit an incumbent politician. In the process of research, in addition to normative-institutional and historical conceptual and content analysis, elements of analysis of secondary statistical data were used.
The article gives a characteristic of the main types of political deepfakes and provides examples of their maliciousness. On the basis of the author's analysis, the classification of types of political deepfakes, which have an impact on the cognitive functions of target audiences, is introduced into scientific circulation for the first time. Classification of types of political deepfakes, given in this study allows us to take a new look at the problem of cognitive impact of this type of disinformation on public opinion. The findings suggest that between 2017 and 2024, artificial intelligence technologies have become actively used to manipulate target audiences during political elections.
One of the main difficulties in regulating political deepfakes is their veiling due to the use of mixed types of this type of manipulation.