3.73 BYN
2.92 BYN
3.41 BYN
Человек против "машины": какое влияние имеют нейросети сегодня
Индия, как говорят, - родина лучших айтишников планеты, но и у них появился более чем достойный конкурент. Нейросети пишут код, автоматизируют обработку документов и ставят диагнозы, создают рекламные креативы и помогают в обучении.
И вот парадокс: чем умнее "машины", тем острее человек ощущает собственную уязвимость. Голос подделывают за секунды, лицо переносят на чужое тело, а мошенники взламывают аккаунт не с помощью пароля, а через цифровую копию. Алгоритмы знают о нас больше, чем мы сами: формируют желания и уже управляют выбором.
Неестественная мимика, размазанная картинка и роботизированный голос - обычно под таким критерием человек на экране определяет ненастоящего персонажа. А что если сегодня искусственный интеллект умеет больше, чем мы думаем?

Был проведен эксперимент. Из четырех видео нужно было определить, где настоящий человек, а где искусственный интеллект. Из 35 опрошенных полностью правильный ответ дали двое. Две девушки на видео - это популярные ИИ-аватары из соцсетей, на которых зарабатывают обычные люди. Но почему же, смотря на подобные картинки, у людей будто "замыливается" глаз?
Светлана Пашкевич, завцентром мозга Института физиологии НАН Беларуси:
"Благодаря пластической хирургии наши лица стали похожими на лица искусственного интеллекта. Поэтому становится все сложнее отличить живое человеческое лицо от лица, которое уподобляется. Почему мы воспринимаем искусственный интеллект с некоторым сомнением? Первое - это странная симметрия. Редко есть алгоритмы, которые способны работать с легким изменением. Мы воспринимаем отраженный свет, который должны воспроизвести нейронные сети. Они не могут сделать это пока что так же хаотично, как мы воспринимаем нашим мозгом".

"Есть типы лица: монголоидные, негроидные, европеоидные. Здесь очень сложно подстроить. Когда мы проводили исследование, выяснили: чтобы распознать одну клетку без маркеров и светящихся точек, нужно сделать более 20 тыс. ее фотографий в разных положениях и ракурсах. То есть для того, чтобы искусственный интеллект мог сгенерировать лицо, ему нужно такое количество лиц одного человека, а не многих людей. Поэтому лица состоят из микста разных людей, у которых отсутствует индивидуальность", - отметила Светлана Пашкевич.
В таких условиях, по мнению ученых, человеку для обработки информации и принятия верного решения необходимо больше времени - хотя бы 80 секунд. Но ввести в заблуждение можно и цифровой ум.
Искусственный интеллект уже давно перестал быть исключительно инструментом добра. О новых опасностях для детей предупреждает ООН. Кроме дипфейков и кибербуллинга, злоумышленники могут использовать нейросети для анализа поведения, интересов и эмоционального состояния ребенка в интернете, чтобы адаптировать свою стратегию совращения. В Беларуси треть правонарушений совершается в Сети.

Александр Рингевич, замначальника главного управления Министерства внутренних дел Беларуси:
"Злоумышленники чаще всего получают доступ к аккаунтам в мессенджерах. Используя историю переписки, они создают поддельные фото, видео, а также, возможно, некие голосовые сообщения, которые озвучены голосом нашего потерпевшего. Чаще всего это связано с предложением предоставления реквизитов банковских платежных карт либо перечисления денежных средств в адрес тех реквизитов, которые непосредственно уже указывает злоумышленник".
Публикация фейков на основе искусственного интеллекта может обернуться штрафом или даже уголовным делом, если контент вводит в заблуждение, нарушает общественный порядок или создает угрозу безопасности. Упоминается ИИ в Декрете № 8 "О развитии цифровой экономики". Также принят модельный закон о технологиях искусственного интеллекта в странах Содружества. Но единого документа, который полностью регулирует деятельность нейросетей в Беларуси, пока нет.
Владимир Боровенко, зампредседателя Постоянной комиссии Палаты представителей Национального собрания Беларуси:
"Создана рабочая группа, в которую вошли представители всех заинтересованных структур. Сейчас достаточно активно ведется работа по разработке закона. У нас используются в основном зарубежные системы. В развитии отраслей, которые требуют применения высокорисковых систем интеллекта, сегодня идет речь о технологическом суверенитете. Для систем, обеспечивающих безопасность страны или безопасность человека, мы должны использовать свои разработки. Механизмы, которые в той или иной мере в каких-то странах используются, будут учтены при разработке закона об искусственном интеллекте".
Искусственный разум автоматизирует обработку документов, помогает врачам ставить диагнозы, разработчикам - писать код. С его помощью создают рекламные креативы и треки вытесняют звезд эстрады из топ-чартов. Какую черту может переступить цифровой ум - уже вопрос будущего.















