Более 1000 экспертов в области искусственного интеллекта со всего мира, включая Илона Маска, подписали открытую петицию о прекращении разработки и исследования систем и программ ИИ, более мощных и продвинутых, чем GPT 4. В письме содержится просьба о шестимесячном перерыве во всей работе, связанной с продвинутыми системами ИИ, поскольку эксперты считают, что эта разработка может представлять потенциальную угрозу человеческому обществу.
Письмо о запрете ИИ
Открытое письмо под названием «Приостановить эксперименты с искусственным интеллектом» было опубликовано Future Of Life Institue — некоммерческой организацией, работающей над снижением глобальных рисков, с которыми сталкивается человечество. В том числе рассматриваются риски, связанные с неслыханным развитием передового искусственного интеллекта.
Письмо подписано не просто какими-то там неравнодушными фанатами технологий, а первыми людьми в своих направлениях. Среди них бизнесмены, исследователи и другие видные деятели. В том числе, ученые и профессоры в области искусственного интеллекта. В число подписавшихся входят: лауреат премии Тьюринга Йошуа Бенджио, профессор компьютерных наук из Беркли Стюарт Рассел, соучредитель Apple Стив Возняк, автор Homo Sapiens Юваль Ноа Харари, генеральный директор Stability AI Эмад Мостак и многие другие. Даже Илон Маск отметился в этом послании миру.
Чем опасен искусственный интеллект
В письме говорится, что системы искусственного интеллекта, возможности которого конкурируют с человеческими, представляют серьезную опасность для общества и человечества в целом. И ведущие лаборатории искусственного интеллекта также признали этот потенциальный риск. Так же в письме говорится, что в недавнем развитии ИИ наблюдалась гонка за разработкой и развертыванием более мощных цифровых умов, которые может быть трудно контролировать. Такие мощные системы ИИ, по мнению подписавших обращение, следует разрабатывать только после того, как их положительные эффекты и риски можно будет уверенно контролировать.
При этом письмо в прямую не призывает к полному прекращению разработки подобных систем. В частности, в нем говорится о 6-месячной паузе в обучении систем искусственного интеллекта, более мощных, чем GPT-4. Авторы просят все лаборатории искусственного интеллекта и независимых экспертов разработать общие протоколы, которые гарантируют полную безопасность систем. А еще разработчики систем ИИ должны работать с правительствами, чтобы выработать базу общественного взаимодействия с новыми мощными системами.
Гэри Маркус, профессор Нью-Йоркского университета, который также подписал письмо, сказал, что письмо хоть и не идеально, но верно по духу. Сейчас скорость развития ИИ слишком высока, и пока мы не поймем, насколько это безопасно, лучше притормозить. Он также добавил, что крупные игроки становятся все более скрытными в отношении того, что они делают. Вне всяких сомнений, это затрудняет защиту общества от огромного количества потенциальных рисков.
По всему миру многие учреждения и правительства выразили обеспокоенность этическими и юридическими проблемами, создаваемыми продвинутым искусственным интеллектом, таким как ChatGPT. Даже правоохранительные органы уже напрямую предупреждают об угрозах цифровых мозгов.
Ответственность для нейросетей
Так, недавно Европол предупредил о возможном использовании систем искусственного интеллекта, таких как ChatGPT, для киберпреступлений, попыток фишинга и распространения дезинформации. То есть для этой штуковины надо еще придумать законы, которые она должна соблюдать, как и любой человек. Ведь, как говорил знаменитый дядя Бэн: «Чем выше сила, тем выше и ответственность». Хотя в этом произведении речь была о другом, но сейчас эти слова применимы и к системам ИИ.
Присоединяйтесь к нам в Telegram!
Использование ИИ в учебе
Многие образовательные учреждения и университеты также выразили обеспокоенность по поводу ChatGPT и аналогичных программ искусственного интеллекта. Например, несколько нью-йоркских колледжей решили запретить студентам использовать ChatGPT для выполнения домашних заданий. А ведь были даже случаи написания дипломной работы таким образом.
Чтобы обеспечить соблюдение запрета, университеты заблокировали доступ к веб-сайту ChatGPT через свои серверы. Департамент образования также поддержал этот шаг, ограничив доступ к ChatGPT из-за опасений по поводу его потенциального негативного влияния на обучение студентов, а также на точность и безопасность контента.
Системы ИИ развиваются настолько быстро, что просто не могут не пугать. С одной стороны, это заманчиво, но когда на другой чаше весов сценарии вроде тех, где Скайнет создала армию терминаторов и от человечества мало что осталось, приходится задуматься. Вот только получится ли нашим умом создать действенную систему безопасности, о которой говорят авторы письма? Ведь обходить ее будет (если решит это сделать) существенно более развитый искусственный интеллект, чем наш. В конце концов, потенциально у него нет предела развития.
Нет комментарий