В сфере создания автономного оружия на основе ИИ, которое будет способно выполнять военные задачи, подозреваю, что мы столкнемся с феноменом, когда все страны будут гнаться за иллюзорным превосходством, совершенно забывая о том, что это превосходство относительно и самоубийственно. Здесь нужны серьезные усилия по ограничению или даже запрету такого оружия, но нынешняя международная обстановка этому не способствует. Я настроен довольно пессимистически в этом отношении, но выход только один — международные системы контроля и запретов над этим оружием. Иначе все окажутся под угрозой применения такого оружия.
Никаких международных конвенций, ограничений и договоров в области автономного оружия не существует. Эта тема возникла сравнительно недавно, но ее уже обсуждают на уровне
ООН. Генсек ООН верно ставит вопрос о моральной неприемлемости разработки и использования такого оружия. Но сумеет ли вообще человечество в условиях того мирового беспорядка, в котором мы живем, договориться о запрете такого рода оружия?
Автономное оружие, использующее искусственный интеллект (ИИ), крайне опасно из-за отсутствия факторов сдерживания его развития, по этой причине необходимо на международном уровне предпринять усилия по контролю над этим типом вооружений, заявил РИА Новости глава комиссии Совета Федерации по информполитике Алексей Пушков.
"В сфере создания автономного оружия на основе ИИ, которое будет способно выполнять военные задачи, подозреваю, что мы столкнемся с феноменом, когда все страны будут гнаться за иллюзорным превосходством, совершенно забывая о том, что это превосходство относительно и самоубийственно. Здесь нужны серьезные усилия по ограничению или даже запрету такого оружия, но нынешняя международная обстановка этому не способствует. Я настроен довольно пессимистически в этом отношении, но выход только один — международные системы контроля и запретов над этим оружием. Иначе все окажутся под угрозой применения такого оружия", - сказал Пушков.
Глава комиссии подчеркнул, что автономное оружие надо приравнивать к оружию бактериологическому, биологическому и химическому, то есть "тем видам оружия, которые носят морально неприемлемый характер и должны быть запрещены, потому что последствия их развития будут непредсказуемыми".
"Никаких международных конвенций, ограничений и договоров в области автономного оружия не существует. Эта тема возникла сравнительно недавно, но ее уже обсуждают на уровне ООН. Генсек ООН верно ставит вопрос о моральной неприемлемости разработки и использования такого оружия. Но сумеет ли вообще человечество в условиях того мирового беспорядка, в котором мы живем, договориться о запрете такого рода оружия?" - добавил парламентарий.
По словам Пушкова, будет большое сопротивление поставить данный тип вооружений под международный контроль, так как фактор страха здесь гораздо ниже по сравнению с ядерным оружием.
"Автономное оружие с использованием искусственного интеллекта в отличие от ядерного оружия не имеет сдерживающего фактора. Такому оружию даётся задание осуществить военную задачу, и это оружие выполняет задачу, не оглядываясь на последствия. Атака с его применением не грозит взаимным уничтожением: наносятся чувствительные ограниченные удары по целям, представляющим военный интерес. Однако такие удары могут спровоцировать большую войну", - объяснил политик.
Пушков заявил, что на данный момент в войнах уже применяются некоторые виды вооружений с использованием ИИ: "дроны, которым задается определенная программа, а ИИ уже сам их ведет и выбирает цель, а также самонаводящиеся ракетные системы, которые работают в автономном режиме".
"Одной из самых главных угроз на данный момент является технология, когда процесс убийства становится абсолютно автономным от человека, — это создание роботов-убийц. Такие роботы могут быть нацелены на уничтожение конкретного человека или объекта. Причем они могут появиться уже в обозримой перспективе", - резюмировал глава комиссии Совфеда.
Источник: РИА Новости