3.76 BYN
2.80 BYN
3.28 BYN
Богодель об опасности делегировать решения ИИ: Искусственный интеллект достаточно кровожадный

Буквально накануне атаки на Иран министр обороны США Пит Хегсет по решению Трампа объявил Anthropic - ключевую компанию по разработке нейронных связей для военной промышленности Штатов - угрозой национальной безопасности. Что думают военные США и Беларуси об ИИ в армии - в программе "Это другое".

Спор возник из-за того, что Anthropic сопротивлялся, чтобы военные и спецслужбы использовали систему искусственного интеллекта под названием Claude для работы полностью автономного оружия или широкомасштабного внутреннего наблюдения. Трамп воспринял это как нежелание сотрудничать с американским ВПК. (Для понимания, практически все военные ведомства США оснащены разработанным Anthropic искусственным интеллектом Claude).
При Трампе компания заключила контракт с Пентагоном на 200 млн долларов и согласилась поставить ПО гражданским агентствам за доллар. Для перехода на новую систему американский президент дал до полугода. Те, кто заменит Anthropic, уже нашлись - OpenAI, а также компания Илона Маска.

Марк Милли, генерал армии США в отставке (2023 г.):
"Если искусственный интеллект развить до предела, может возникнуть ситуация, когда машины будут принимать решения без участия человека. Это может быть очень, очень опасная вещь. Сейчас стандарт Министерства обороны США требует, чтобы все решения принимались с участием человека в контуре управления. Но другие страны могут не придерживаться такого же подхода".
"Искусственный интеллект обладает колоссальной мощью. Он уже наступает нам на пятки. Я предполагаю, что, вероятно, в течение максимум 10-15 лет он будет оптимизирован для управления военными операциями. А если сочетать его с робототехникой, то, скорее всего, около трети или 20 % сил современных армий США, России, Китая и др. уже через 15 лет или около того будут роботизированными", - таким мнением еще в 2023 году поделился американский генерал.
Если окажется, что Claude был в цепочке принятия решений и нанесения удара по школе в Иране, ожидается скандал на уровне конгресса. А значит, надежды Пентагона на автономное ИИ-оружие сильно пострадают.
Почему именно сейчас американская компания Anthropic запретила использовать в Соединенных Штатах свой искусственный интеллект для распознания целей, в том числе для слежки, попросили прокомментировать замначальника факультета Генштаба ВС Военной академии Беларуси Андрея Богоделя.

"На сегодняшний день никакой искусственный интеллект в принципе не может гарантировать 100 % того, что вы поразите именно того человека, которого вы планируете поразить. Но при этом дают достаточно высокую вероятность - от 80 до 90 %, - отметил он. - В этом случае мы должны понимать, что из 100 убитых человек 10-20 человек будут просто невинноубиенными".
Эксперт обратил внимание, что искусственный интеллект, в отличие от человека, не обладает какими-то нормами морали. И когда он принимает решения, он принимает как машина. "Несмотря на то что нейросети устроены по принципу, как действует человек, именно у ИИ заложена возможность поражения людей, которые являются предполагаемыми целями, допускается поражать совместно с семьями, вместе с соседями, теми, кто живет рядом, - пояснил Андрей Богодель. - Также они допускают, что при поражении целей вероятность определить, что именно этот человек таковым является, составляет где-то порядка 60 или 70 %. Если мы все эти вероятности совместим, то, конечно же, искусственный интеллект достаточно кровожадный".
Отвечая на вопрос, как внедряется ИИ в военизированные компании США, он предложил посмотреть на то, как развивается сегодня военная наука и военные исследования в Соединенных Штатах. "Компания RAND Corporation (ведущий американский аналитический центр, созданный для исследований в интересах вооруженных сил США). Как они видят нанесение ударов по противнику? Первое - это обезглавливающий, обезоруживающий, упреждающий удар. Ничего не напоминает? Именно так начиналась операция в Иране, именно с упреждающего удара", - рассказал он.
Еще одна корпорация - DARPA (Управление перспективных исследовательских проектов Минобороны США). "На сегодняшний день она формирует более прикладные направления применения вооружений, военной техники. Она целиком пошла в микроэлектронику, создание дронов и робототехники с применением искусственного интеллекта, квантовых вычислений и биотехнологий, - перечислил Андрей Богодель. - DARPA избрала 3 направления. Palantir - тоже одна из таких крупнейших военных компаний сегодня, которые развивают именно вопросы искусственного интеллекта и обработки большого количества различных данных".















