Поиск искусственного интеллекта, способного просто по-дружески поддерживать разговор, оказался не на шутку долгим. Когда Алан Тьюринг, отец современных вычислительных систем, представил свой знаменитый тест, который должен был показать истинный разум у компьютерной программы, он поставил весьма амбициозную цель для железок. Если бы компьютер мог убедить группу судей-людей, что они говорят с человеком – если бы он мог поддерживать разговор – это свидетельствовало бы о наличии искусственного интеллекта, который развился до такой степени, что стал неотличим от человеческого.
Эта перчатка была брошена в 1950 году. До сих пор ни одной компьютерной программе не удалось пройти тест Тьюринга. Отдельные лжеподвиги – не в счет.
Почему лжеподвиги? Потому что их скорее считают провалами, чем достижениями. Например, Джозеф Вайзенбаум еще в 1966 году, когда компьютеры программировались при помощи больших перфокарт, разработал программное обеспечение для обработки естественной речи – ELIZA. «Элиза» была машиной, которая должна была поддерживать разговор, притворяясь психотерапевтом; с ней можно поговорить и сегодня.
Говорить с «Элизой» немного странно. Она часто перефразирует то, что вы сказали, поэтому, для примера, если вы скажете «я чувствую себя подавленным», она может ответить: «Ты пришел ко мне, потому что чувствуешь себя подавленным?». Когда она не понимает, что вы говорите, она отвечает «да уж» или «расскажи мне больше».
В течение первых строк диалога, особенно если вы относитесь к ней, как к своему врачу, «Элиза» может быть весьма убедительной. Когда Вайзенбаум это заметил, его это слегка встревожило: люди были готовы видеть в алгоритме человека больше, чем в нем было человечного. Вскоре, хотя некоторые испытуемые все же поняли, что имеют дело с машиной, они открывали ей свои глубокие переживания и секреты. Они изливали свою душу машине. Когда секретарь Вайзенбаума поговорила с «Элизой», хотя она и знала, что говорит с программой, она все равно настояла, чтобы Вайзенбаум покинул комнату.
Часть неожиданной реакции, которую вызывала ELIZA, может быть вызвана тем, что люди более склонны открываться машине, понимая, что их никто не осудит, даже если машина вообще не сможет сказать ничего связанного или чем-то помочь. Эффект Элизы был назван именно в честь этой компьютерной программы: люди склонны наделять машины человеческими чертами или думать о них как о людях.
Сам Вайзенбаум, который впоследствии стал глубоко подозрительно относиться к влиянию компьютеров и искусственного интеллекта на человеческую жизнь, был поражен, что люди были готовы поверить, что его скрипт был человеком. «Я и подумать не мог, что крайне короткое знакомство с простой компьютерной программой приведет к такому бредовому мышлению у вполне нормальных людей».
Эффект Элизы мог встревожить Вайзенбаума, но он интриговал и очаровывал других на протяжении десятилетий. Возможно, вы заметили его и на себе, разговаривая с ИИ вроде Siri, Alexa или Google Assistant — эти коротенькие ответы кажутся чересчур реальными. В здравом рассудке вы знаете, что говорите с большим куском кода, хранящимся где-то в эфире. Но подсознательно вам кажется, будто вы говорите с человеком.
Дальше — больше. Facebook открыла свою программу Messenger и предоставила программное обеспечение людям и компаниям, чтобы те могли создавать собственных чатботов. Обработка естественной речи продвигалась скачком и ползком с 1960-х годов. Сегодня вы можете найти приветливых чатботов вроде Мицуку, которая недавно выиграла приз Лёбнера, которым награждают машины, вот-вот готовые решить тест Тьюринга. Она будет отвечать на все, что вы ей напишете. Идея простая: если уже есть приложение для заказа пиццы, почему бы не заказать пиццу, попросив, например, чатбота, будто старого друга?
Стартапы вроде Semantic Machines надеются, что их виртуальные ассистенты смогут взаимодействовать с вами, будто секретари, при этом имея возможность добывать информацию из Интернета. Скоро они будут всюду.
Но люди, которые делают чатботов — как с социальной, так и с коммерческой жилкой, — сталкиваются с общей проблемой: люди, возможно, подсознательно, принимают чатботов для людей и расстраиваются, когда те не могут поддерживать нормальную беседу. Разочарование с недопониманием часто связывают с завышенными изначальными ожиданиями.
До сих пор ни одна машина не смогла научиться понимать контекст — учитывать, что было сказано ранее, ссылаться на это и отвечать, основываясь на текущем положении диалога. Даже Мицуку часто будет пытаться вспомнить тему разговора уже через пару строчек диалога.
Это понятно. Разговор может быть многогранным и сложным. На все, что вы говорите, могут быть сотни ответов, которые будут иметь смысл. Когда же вы создаете дополнительные слои разговора, эти факторы множатся, умножая и всевозможные вариации диалога. Это сложнее, чем игра в шахматы или го.
Но это не мешает людям пытаться создавать новых чатботов. Совсем недавно Amazon запустил конкурс Alexa Prize, в рамках которого победителю среди ИИ будет присужден приз в 500 000 долларов и еще миллион долларов сверху, если команда разработчиков сможет создать «социального бота», способного поддерживать разговор с человеческими пользователями в течение 20 минут на разнообразные темы.
Среди обозначенных тем — наука и техника, политика, спорт и сплетни о знаменитостях. Недавно были анонсированы финалисты: чатботы из университетов в Праге, Эдинбурге и Сиэтле. Финалисты были выбраны в соответствии с рейтингами пользователей Alexa.
Сузив область разговора к определенному кругу тем, чатбот начинает искусно обходить проблему контекста. Гораздо проще моделировать разговор, который касается ограниченных определенной областью тем.
Разработка машины, которая может поддержать практически любой разговор с собеседником в лице человека, может быть сложной. Возможно, она потребует общего искусственного интеллекта для полноценного решения, нежели используемых ранее подходов с записанными ответами или нейронными сетями, которые ассоциируют вводные данные с ответами.
Но машина, которая будет вести содержательный диалог и которой люди смогут наслаждаться, обязательно будет. Победитель Alexa Prize будет объявлен в ноябре. Эффект Элизы означает, что мы доверимся машинам раньше, чем думали.
Нет комментарий