3.78 BYN
3.00 BYN
3.43 BYN
Криминальная сторона дипфейков - как определить, где правда, а где ложь

Громкие заголовки, сводки одной строкой, фото и даже видеоподтверждение. В эпоху цифровизации грани стираются и становится все сложнее определить, где правда, а где ложь. Быстрая передача информации и широкий охват аудитории.
Вспомним Гонконг, где для раскачивания общества использовали мессенджеры - Ватсап, Телеграмм. Или 2020 год в нашей стране, когда через мир виртуальный управляли и координировали сознанием и безумием погромов вполне реальных. И пока эксперты спорят, идет или не идет сейчас третья мировая, сказать о том, что идет первая информационная война, можно уже точно. Причем без правил и конвенций.
Элементы ботов продемонстрировали свои способности в конце 2010-х - начале 2020-х годов, распространяя дезинформацию, влияя на результаты выборов и радикализируя группы, там, где это было необходимо, для привлечения масс к уличным погромам.
Сергей Дик, аналитик:
"Мы знаем, что используется много методов. Я бы хотел остановиться на одном из основных методов создания ложного контента - это использование генеративного искусственного интеллекта для создания дипфейков. Что такое дипфейк? Дипфейк - это синтезированное искусственным интеллектом аудио- или видеоизображение, которое используется для того, чтобы доносить информацию, которую необходимо тому, кто это сгенерировал".
Еще 10 лет назад для того, чтобы изменить внешность человека, нужен был грим, маска, пластическая операция. Сегодня это несколько кликов. Сгенерировать картинку просто даже школьнику в мобильном телефоне. И дипфейки вышли за рамки Голливуда в мир реальный. Вот из того, что мило, можно создать картинку патриотичного кота или оживить, например, фото.
Но у дипфейков есть и криминальная сторона. Искусственный интеллект способен сгенерировать голос так, что его не отличишь от оригинала. Этим активно пользуются мошенники во всем мире. Те же интонация, тембр, даже характер, манера общения.
В Объединенных Арабских Эмиратах произошел резонансный случай. Злоумышленники подделали голос руководителя крупного энергетического холдинга. Обман достиг невероятных масштабов. Через дипфейк преступникам удалось заполучить почти 35 млн долларов. Но дипфейк - в первую очередь инструмент политической борьбы, ведения гибридных психологических войн. Зрение всегда было более надежным способом получения информации о реальности, чем текст. И процессы визуального коллективного опьянения становятся лучшими друзьями стратегов. Теперь любому публичному человеку можно вложить в уста абсолютно любое заявление, которое он никогда не делал. А вот абсолютной защиты пока нет. Только критическое мышление и факт-чекинг.
"Я абсолютно убежден, что в современном мире все данные нужно брать под контроль, любой контент. В Китае, например, все данные принадлежат государству. И якобы демократический Европейский Союз, и якобы демократические Соединенные Штаты, там приняты очень жесткие законы. Искусственный интеллект генеративный будет выдавать ту повестку, которая необходима, исходя из того, на каких данных он будет обучаться. Это говорит о том, что нужно обязательно законодательно регулировать, анархии здесь быть не должно, тем более анонимности, потому что это может потом вырасти в терроризм", - отметил Сергей Дик.
Сегодня многие страны приходят к выводу, что интернет, искусственный интеллект не должны быть бесконтрольны. Собственно, всемирная паутина, дитя холодной войны - это секретная разработка Пентагона, которая превратилась из средства массовой коммуникации в инструмент для решения геополитических задач. Превратилась? Или такой и задумывалась? Подробности смотрите в рубрике "Катюшин расчет".