искусственный интеллект оружие армия
Единственный способ убедить страны не использовать ИИ в оружии, - аппелировать к их чувству самосохранения.
Специалист в области компьютерных технологий Стюарт Рассел (Stuart Russell) встретился в прошлом месяце с высокопоставленными представителями Министерства обороны Великобритании с единственной целью - предупредить о том, что превращение искусственного интеллекта в оружие чревато уничтожением человеческой расы.
Британец по национальности, профессор Калифорнийского университета в Беркли Стюарт Рассел является пионером в области исследований искусственного интеллекта. Последние десять лет он прилагает огромные усилия для того, чтобы не допустить использования ИИ для нахождения и убийства людей.
Рассел, регулярно встречающийся с правительствами на международном уровне, отметил, что США и Россия, а также Великобритания, Израиль и Австралия по-прежнему выступают против моратория на использование автономного смертоносного оружия.
"По-прежнему наблюдается сбой в коммуникации, многие правительства и военные не понимают, в чем заключается возражение (против использования автономного смертоносного оружия - ред.)", - сообщил Рассел изданию Financial Times.
Их главный аргумент заключается в следующем: "Мы же не продаем оружие в торговых центрах, и в случае с технологиями ИИ тоже не будем".
Однако профессор считает, что легкое, дешевое и простое в производстве оружие с использованием технологий ИИ может стать таким же повсеместным, как автоматические винтовки, более 100 млн из которых находятся в частных руках.
Оружие на базе технологий ИИ перестало быть лишь научной фантастикой и превратилось в быстро развивающуюся, совершенно нерегулируемую отрасль, считает профессор.
"Вы можете купить его уже сегодня. Оно рекламируется в Сети", - заявил Стюарт.
В ноябре 2017 года турецкая компания STM представила Kargu - полностью автономный боевой дрон, способный поражать цели, базируясь на изображениях и системе распознавания лиц. Дрон использовался во время военных конфликтов в Ливии в 2020 году, несмотря на запрет ООН продавать ей оружие.
Стюарт также упомянул израильский летательный аппарат с неподвижным крылом Harpy, способный брать на борт до 23 кг взрывчатки, и его преемника Harop. Оба самолета могут управляться удаленно или летать автономно, если человек-оператор укажет местоположение цели и саму цель. Harop уже предположительно приобрела армия в Индии и Азербайджане.
Рассел предупредил, что распространение оружия на базе ИИ представляет собой неминуемую и реальную угрозу.
"Смертоносный квадрокоптер с искусственным интеллектом может быть размером с банку крема для обуви [...]. Около трех граммов взрывчатки достаточно, чтобы убить человека с близкого расстояния. Обычный контейнер способен вместить миллион смертоносных боеприпасов, и [...] их всех можно запустить одновременно. Так что неизбежным концом будет то, что автономное оружие станет дешевым, избирательным оружием массового уничтожения", - сообщил Стюарт.
В конечном счете, считает профессор, единственный способ убедить такие правительства, как США, Россия и Великобритания, все еще противящихся запрету, - это апеллировать к их чувству самосохранения.
SECURITYLAB.RU