Среди возможных причин Конца Света футурологи называют разные события. Вырвавшиеся из под контроля нанороботы, падение метеорита, суперизвержение вулкана. Есть и ещё 1 возможная причина – изобретение и создание Искусственного интеллекта. Именно эту причину рассматривает в своей книге «Наше последнее изобретение: Искусственный интеллект и конец человеческой эры» писатель Джеймс Баррот. Изложение интервью с писателем мы и предлагаем вашему вниманию.
Прежде, чем компьютеры станут умнее человека пройдёт ещё немало лет. Однако оценить возможные риски для Человечества можно уже сейчас. Что мы можем предусмотреть и о чём должны задуматься уже сейчас – эти вопросы и рассматривает в своей книге писатель.
Вы утверждаете, что суперинтеллекту будет безразлична судьба человека и это будет для нас опасно. Можете ли Вы пояснить свою точку зрения?
Во-первых, я думаю, что мы уже в какой-то степени готовы к возможным угрозам со стороны ИИ благодаря научной фантастике. Терминатор, ХЭЛ 9000 – как говорится, если что-то существует только благодаря Голливуду, то это не значит, что этого не может случиться в реальности. Суперинтеллект никоим образом не подразумевает благожелательности. Разве Вы своему ноутбуку можете нравиться или не нравиться? Почему же мы должны считать, что ИИ будет в этом отношении отличаться? Люди склонны к атропоцентризму и часто приписывают свои мысли и желания окружающим предметам и явлениям. Благожелательные лица мы видим в обычных облаках, гроза – не просто явление природы, а гнев богов…Мы ожидаем, что созданный нами артефакт, разумная машина, будет нам благодарен за своё существование и будет нас оберегать и защищать. Но это наши качества, а не машины. Когда ИИ осознает себя, он будет стремиться к тому, чтобы обеспечить своё существование любыми путями. И это желание может войти в противоречие с нашими стремлениями.
Сможем ли запрограммировать ИИ так, чтобы он не смог нам повредить, вроде как в законах робототехники, которые придумал Айзек Азимов?
3 закона робототехники часто упоминаются, как некоторая панацея для управления суперинтеллектом. Но они были созданы писателем для создания драматизма в его произведениях. Его классическое произведение «Я робот», практически, каталог возможных противоречий между этими 3 законами. Мало того, что наши культурные ценности трудно привить машине. Они и сами различны в зависимости от страны, времени, религии. Мы часто между собой не можем достичь консенсуса. Так что мы сможем дать машине? И буду ли наши сегодняшние ценности иметь значение через 100 лет?
Когда Вы говорите о наших усилиях по сдерживания ИИ, Вы проводите аналогию, где человек приходит в себя в тюрьме, которой управляют мыши. Конечно, человек сможет манипулировать мышами. Не будет ли супермозг манипулировать человеком?
Книга является предупреждением. Это призыв к идеям о том, что надо уже сейчас разработать принципы управления суперинтеллектом. Пример с решением о рекомбинантных ДНК хороший пример того, что люди могут заранее договориться о проведении экспериментов и снизить возможные риски. Учёные сначала приостановили все работы, а потом выработали единые протоколы безопасности. Это значит, что прежде чем соберёмся разделить планету с ИИ мы должны выработать принципы управления сверхразумными машинами.
Когда Вы писали эту книгу, наверное вы думали, «Вот и все. Мы обречены. Ничто не может быть сделано»?
Да. И я думал, что мы должны быть в состоянии предотвратить такое развитие событий. Искусственный интеллект – это такая же технология двойного назначения, как и ядерные процессы. Можно построить электростанцию, а можно получить Хиросиму. Возможно, мы сумеем решить эту проблему со временем.
Нет комментарий