Мы уже писали о том, что ведётся дискуссия о том, этично ли (и вообще, допустимо ли) создавать и использовать на поле боя полностью автономных боевых роботов, вооружённых летальным оружием, и самостоятельно принимающих решение на его использование. Известные робототехники высказываются ЗА и ПРОТИВ
Итак, статья ПРОТИВ использование автономных боевых роботов. Вот что думает по этому поводу Стюарт Рассел — преподаватель информатики и директор Центра Интеллектуальных Систем в Беркли, соавтор стандартного учебника “Искусственный интеллект: современный подход”…
Мы приветствуем вклад Эвана Аскермана (Evan Ackerman) в обсуждение предлагаемого запрета на наступательное автономное оружие. Это — сложный вопрос и есть интересные аргументы с обеих сторон, которые должны быть тщательно уравновешены. Процесс идет полным ходом. Уже в последние годы написано несколько сотен работ на эту тему написаны в последние несколько лет мозговыми центрами, экспертами по контролю над вооружениями и национальными государствами. Его статья (это ответ на открытое письмо, подписанное более чем 2500 исследователями в области робототехники) содержит четыре основных момента:
• Запрет на такие системы оружия вряд ли будет успешным. Поэтому, не стоит на это тратить усилий.
• Запрет технологии не решит проблему, потому что проблема на самом деле- это готовность людей использовать технологию для зла.
• Самый главный вопрос: смогут ли в бою автономные вооруженные роботы быть более этичными, чем вооруженные люди?
• То, в чем мы действительно нуждаемся — сделать автономные вооруженные роботы этичными.
Следует заметить, что его первые два аргумента относятся к любым системам вооружений. Всё мировое сообщество успешно запретило биологическое оружие. И даже для оружия, такого как химическое оружие, противопехотные мины, кассетные и фосфорные боеприпасы (для которых запреты были нарушены или не были ратифицированы некоторыми государствами), «клеймение» мировым сообществом нарушителей ограничило использование перечисленного выше оружия. Интересно, поддерживает ли Аскерман те запреты и, если да, то почему? Аргумент 2, фактически, обвиняет технологию в злых склонностях людей. Мы не соглашаемся. Цель (препятствовать тому, чтобы злые люди получили доступ к технологии), состоит в том, чтобы препятствовать тому, чтобы они убили большое количество людей. Международные соглашения могут достаточно эффективно действовать в этом отношении, останавливая гонку вооружений и предотвращая крупномасштабное производство оружия массового уничтожения (и «негуманного оружия» типа фосфорных боеприпасов). Кроме того, соглашение, конечно, не относится к защитному оружию против роботов, даже если оно работают в автономном режиме.
Прокомментируем вопрос 3. Автономное оружие абсолютно отличается от вооружённого человека. И оно может использоваться совершенно различными способами. Наше открытое письмо ясно дает понять, что ключевой вопрос – это доступность на черном рынке большого количества дешёвых микророботов, уничтожающих живую силу. Которые могут быть развернуты одним человеком, чтобы анонимно убить тысячи или миллионы людей, которые соответствуют критериям программирования их хозяина. Потенциально автономное оружие – это оружие массового поражения. В то время как некоторые страны не смогли бы использовать автономных боевых роботов в таких целях, другие страны (и, конечно, террористы) могли бы пойти на это.
Перейдём к четвертому пункту Аcкермана: его альтернативный план создания автономных вооруженных этичных роботов. Теоретически – план прекрасен, и, вероятно, в отдалённом будущем технически осуществим. Но где гарантии, что государства-изгои, диктаторы и террористические группы не запрограммируют боевых роботов «наоборот», сделав их поведение на поле боя анти этичным?
В одном мы соглашаемся с Аcкерманом: ведение переговоров о запрещении автономного летального оружия и осуществление его запрета будут очень трудным делом. Но необходимо настойчиво делать попытки, потому, что успех принесёт большую пользу будущему человечеству.
Нет комментарий