Мы не можем предотвратить появление автономных вооруженных роботов. Вопрос, который мы должны задать: могут ли они, воюя лучше чем люди, уменьшить количество жертв с обеих сторон?
И вот ещё одна статья ЗА использование автономных боевых роботов (их ещё называют «роботы-убийцы»), в которой приводится открытое письмо, представленное на Международной совместной конференции по искусственному интеллекту (Joint Conference on Artificial Intelligence) в Буэнос-Айресе, которое подписано более чем 1000 экспертов и исследователей в области робототехники.
Приведём полный текс этого письма.
Автономное оружие выбирает и поражает цели без человеческого вмешательства. Оно может быть, например, вооруженным дроном, который может искать и ликвидировать людей, соответствующих определенным критериям. Но автономным оружием не являются крылатые ракеты или удаленно пилотируемые дроны, для которых люди принимают все решения по их целям. Технология искусственного интеллекта (AI) достигла такого уровня, когда развертывание систем автономного оружия (которое называют также «роботами-убийцами») – дело ближайшего будущего. И появление «роботов-убийц» описывают как третью революцию в войне после изобретения пороха и ядерного оружия.
Много аргументов были приведены за и против автономного оружия. Ключевой вопрос для человечества сегодня состоит в том, начать ли глобальную гонку вооружений искусственного интеллекта или препятствовать тому, чтобы она началась. Если военные, имеющие власть, настойчиво будут продвигать разработку автономного оружия, то глобальная гонка AI вооружений будет неизбежной. И конечная точка этой технологической траектории очевидна: автономное оружие станет завтрашним автоматом Калашникова. В отличие от ядерного оружия, автономное оружие не требуют никакого дорогостоящего или труднодоступного сырья (такого, например, как обогащённый уран). Таким образом, оно станут повсеместным и дешевым для технически развитых стран. И это только вопрос времени, когда автономное оружие появятся на черном рынке и в руках террористов или диктаторов, желающих лучше управлять своим населением, военачальников, желающие совершить этническую чистку, и т.д. Автономное оружие идеально для выполнения таких задач, как убийства особо важных персон для дестабилизации страны, выборочного убийства особой этнической группы. Однако есть вероятность, что автономное оружие может сделать поле боя более безопасными для гражданских лиц.
У большинства химиков и биологов нет желания разрабатывать химическое или биологическое оружие. Аналогично, большинство робототехников и специалистов в области интеллектуальных технологий не имеют никакого желания разрабатывать интеллектуальное оружие. Действительно, химики и биологи широко поддержали международные соглашения, которые успешно запретили химическое и биологическое оружие. Так же, как и большинство физиков поддержало соглашения, запрещающие ядерное оружие в космосе и ослепляющие лазерное оружие.
Таким образом, мы полагаем, что искусственный интеллект имеет большой потенциал, чтобы принести пользу человечеству во многих отношениях, а начинать гонку интеллектуальных вооружений — плохая идея. Которая должна быть предотвращена запретом на наступательное автономное оружие без человеческого контроля. Основная идея этого письма в том, что, если мы не объявим вне закона автономное оружие прямо сейчас, то будет своего рода гонка автономный вооружений, которая приведет к быстрому распространению простых и дешёвых «роботов-убийц», таких, например, как автономный дрон.
Но проблема ведь в том, что никакое письмо, декларация ООН, или даже формальный запрет, ратифицированный многими странами, не сможет предотвратить способности людей построить автономные, использованные в военных целях роботы. Просто барьеры, препятствующие людям развивать такие системы, слишком низкие. Рассмотрим “вооруженный квадрокоптер” (вертолёт с четырьмя роторами). Сегодня можно купить управляемый смартфоном квадрокоптер за 300 $ США в игрушечном магазине. А что можно будет купить завтра? Эта технология уже существует и постоянно улучшается. Потому, что есть коммерческий интерес в том, чтобы квадрокоптеры были более автономными, летали дальше и несли большую полезную нагрузку. А это то, что нужно для военной системы. И возможно, что маленькие коммерческие квадрокоптеры станут столь же «продвинутыми» (и более дешевыми), чем малочисленные вооруженные военные квадрокоптеры. Мы не собираемся останавливать развитие коммерческих квадрокоптеров хотя бы потому, что многие хотят, чтобы их обслуживали дроны доставки. Вообще говоря, сама технология не может быть хорошей или плохой. Это мы принимаем решение сделать хорошо или плохо при помощи этой технологии. И нельзя только закрыть глаза и начать кричать “СТОП!” если Вы видите что-то зловещее на горизонте, когда одновременно у этой технологии есть потенциал для положительного прогресса.
Что реально необходимо — это способ сделать автономные вооруженные роботы этичными, потому что невозможно предотвратить их появление.
Фактически, самое главное, что это письмо делает: оно пытается донести мысль, что автономные роботы не обязательно принесут больше непреднамеренных разрушений и смертей, чем вооруженные люди. Есть надежда, что, возможно, роботы смогут так же хорошо (или даже лучше) идентифицировать вражескую цель, чем люди. Для людей разработаны правила ведения боя, которые определяют, оправдано ли применение оружия. Например, у Вашей цели есть оружие? Направлено ли оружие на Вас? Ведётся ли из оружия огонь? Были ли Вы ранены? Это — такие вещи, которые робот может определить при помощи существующих в настоящее время датчиков.
Следует отметить, что правила ведения боя допускают применение оружия на упреждение. Другими словами, если у вражеской цели есть оружие, и оно направлено на Вас, Вы в целях самозащиты можете выстрелить раньше, чем это сделает Ваш противник. Роботы могли быть еще более осторожными, чем человек. Можно запрограммировать роботов так, чтобы он не применял оружие до тех пор, пока не будут подтверждены все признаки того, что вражеская мишень уже активно применяет оружие. Так как роботы — не живые, и у них отсутствуют эмоции, они смогут быть под огнем, пока не решат, что применение собственного оружия соответствует всем необходимым критериям. Люди не смогут сделать этого.
В 2009г. Известные робототехники Рональд Аркин, Патрик Улэм и Бриттани Дункан опубликовали работу, названную “Нравственный регулятор на ограничение летального действия автономного оружия”, в которой рассказывалось, как программировать вооруженный автономный робот, чтобы он действовал в рамках законов войны и правил ведения боя. Журнал «h +» взял интервью у Аркина «RA». И вот то, что он сказал:
h +: Некоторые исследователи утверждают, что никакие роботы или интеллектуальные системы не смогут отличить вооружённого врага (мишень) от гражданского лица. И что в настоящее время этой способности просто не существует. Вы думаете, что это — просто краткосрочное технологическое ограничение? Что такие технологические предположения Вы делаете в конструкции Вашего нравственного ограничителя?
РА: Я соглашаюсь, что сегодня не существует эффективной технологии, позволяющей с высокой вероятностью отличить врага от мирного жителя. Но я не думаю, что есть какие-то фундаментальное научные ограничения к достижению цели: «роботы-убийцы» должны лучше отличать вооружённого противника от мирного жителя, чем человек и, за счёт этого, уменьшить небоевые жертвы. Приведу аналогию с автономным автомобилем. Ожидать, что автономный автомобиль будет безопасным для пешеходов на 100 % нереалистично. Но, если автономный автомобиль будет даже на 5% безопасней, чем автомобиль, управляемый водителем, он имеет право на существование. Автономные автомобили, вероятно, будут намного более безопасными, чем здесь сказано. И возможно, что автономные вооруженные роботы будут также намного безопаснее для гражданского населения, чем вооружённые люди. И если у автономных вооруженных роботов действительно есть такой потенциал (уменьшать небоевые жертвы), не мы ли тогда этически обязаны развить их?
Если есть какие-либо сомнения относительно того, насколько этичными эти системы могли бы быть, можно их всесторонне протестировать на манекенах. И смотреть, что они делают. Они иногда будут «глючить»? Иногда да: и во время тестирования и после. Но большое преимущество роботов состоит в том, что их поведение прослеживаемо. И они обучаются программно: если один робот делает что-то не так, то можно проследить цепь его решений (которые программируются человеком), чтобы узнать, что произошло. Как только ошибка найдена, она может быть устранена. И можно быть уверенным, что робот снова не сделает ту же самую ошибку. Этого нельзя сделать с людьми.
Я соглашаюсь, что потенциальный риск автономного оружия в том, что снижается порог принятия решения о применении летального оружия. Но так было всегда, с тех пор, когда кто-то понял, что лучше (безопаснее для себя) кинуть во врага камнем вместо того, чтобы приблизиться вплотную и ударить его кулаком. Всегда происходит непрерывное развитие технологий, которые позволяют нам уничтожать врагов, минимизируя собственный риск. Пример тому – баллистические и крылатые ракеты. И, если утверждать, что автономные вооруженные дроны или наземные роботы ещё понизят этот порог, то это значит возлагаете вину на технологию, а не людей, решающих, как использовать эту технологию.
Примеры: цепная ядерная реакция и баллистическая ракета.
Хочу сказать предельно ясно: я не выступаю за разработку роботов, убивающих людей. Но это письмо о потенциальной ценности вооруженных автономных роботов. И я полагаю, что у нас должна быть аргументированная дискуссия на эту тему вместо попыток запрета автономных боевых роботов. Нужно достигнуть обоснованного решения этой проблемы вместо того, чтобы просто требовать объявить “роботы убийцы” вне закона.
Закончим эту статью довольно эмоциональным высказыванием Рональда Аркина: «Я ненавижу термин «робот-убийца». И я ненавижу использование этого термина авторами письма. Робототехники приложили много усилий, борясь против образа «робота убийцы», который навязан нам массовой культурой. И теперь, группа умных людей, которые знают об автономном оружии намного больше чем обыватель, использует ту же самую риторику, чтобы напугать людей, а не договариваться с ними. Кто-нибудь хочет появление «роботов убийцы». Подавляющее большинство людей ответит «нет». Но, если авторы письма призывают к аргументированным дебатам о вооруженных автономных системах, зачем привлекать в свою пользу эмоциональную реакцию?
Нет комментарий