Международные эксперты поддерживают запрет «роботов-убийц»

None
None
НУР-СУЛТАН. КАЗИНФОРМ - Сегодня в городе Нур-Султане начала свою работу региональная конференция «Автономные системы оружия летального действия: превентивный запрет» в рамках продвижения стратегических инициатив Казахстана в области ядерного разоружения и укрепления международной безопасности. Об этом передает МИА «Казинформ» со ссылкой на Центр международной безопасности и политики.

Организатором мероприятия выступил Центр международной безопасности и политики (Center for International Security and Policy (Казахстан) при содействии международной коалиции неправительственных организаций «Кампания по запрету боевых роботов» (Campaign to Stop Killer Robots www.stopkillerrobots.org).

Эксперты из Азербайджана, Армении, Беларуси, Казахстана, Кыргызстана, Молдовы, России, и Таджикистана обсуждают вопросы необходимости превентивного юридического запрета автономных систем оружия летального действия (АСОЛД).

За последнее десятилетие быстрое развитие технологий изменило облик военных действий, поставив новые гуманитарные и правовые проблемы и открыв эру растущей автономии в оружии.

Сегодня некоторые высокотехнологичные страны разрабатывают полностью автономное оружие, которое после активации сможет выбирать и поражать цели без дальнейшего участия человека. Эти системы вооружений представляют собой серьезную проблему для защиты гражданского населения и соблюдения норм международного права в области прав человека и гуманитарного права.

«Разработка полностью автономного оружия поднимает множество моральных, этических, технических, правовых вопросов и вопросов безопасности. Позволить машинам принимать решения о жизни или смерти - значит пересечь фундаментальную моральную черту», - отметил в своём выступлении директор Центра международной безопасности и политики (CISP) Алимжан Ахметов.

По его словам, не имея человеческого суждения и способности понимать контекст, роботы не смогут принимать сложные этические решения на динамичном поле битвы.

«Использование этих систем создаст пробел в подотчетности с неопределенностью относительно того, кто будет нести юридическую ответственность за действия робота: командир, программист, производитель или сам робот. А разработка и распространение этого вида оружия дестабилизируют международную безопасность, снижая порог развязывания войны и потенциально способствуя глобальной гонке вооружений», - сказал А. Ахметов.

На площадке ООН в рамках Конвенции о негуманном оружии сессионно работает Группа правительственных экспертов в целях выработки рекомендаций государствам-членам ООН по данному вопросу.

Наиболее активные сторонники (Австрия, Бразилия, Чили, и др, всего - 28 государств) превентивного запрета АСОЛД выступают за скорейшее начало переговоров по выработке юридического инструмента в целях сохранения значимого человеческого контроля в применении АСОЛД.

В 2018 году в Бельгии были приняты парламентские резолюции о запрете данного вида оружия. Компания Google взяла на себя обязательства не проектировать и не разрабатывать искусственный интеллект для использования в системах вооружений, и более 200 технологических компаний и групп пообещали не разрабатывать смертоносное автономное оружие.

На веб-саммите в ноябре 2018 года Генеральный секретарь ООН Антониу Гутерриш заявил, что автономные системы вооружения с возможностью и полномочиями лишать человека жизни будут политически неприемлемыми, морально недопустимыми и должны быть запрещены. Генсек ООН заверил в своей поддержке усилия государств по разработке новых мер, направленных на неизменное сохранение человеческого контроля при применении силы.

Целью проведения региональной конференции в Казахстане является повышение осведомленности по данному вопросу, а также оказание содействия в выработке национальных позиций государств региона.

Завтра участники региональной конференции обсудят юридический, технический и этический аспекты АСОЛД.

Сейчас читают