Недавно робототехники из Массачусетского технологического института (MIT) использовали мозговой интерфейс, чтобы помочь роботам поправлять себя, когда они собираются сделать ошибку. Это очень интересный футуристический материал. Но метод работает только тогда, если на голову его оператора одета специальная «шляпа», которая может классифицировать мозговые волны в 10-ти миллисекундном диапазоне.
Робот задаёт уточняющие вопросы, чтобы не сделать ошибку

В Университете Брауна исследователи работают над более социальным подходом, который поможет роботам более точно взаимодействовать с людьми. Позволяя роботу смоделировать его собственный беспорядок в интерактивной задаче «выбрать предмет», робот может задать соответствующие вопросы, чтобы при необходимости получить разъяснения, которые помогут точно понять, что хотят люди. И никакая «шляпа» не нужна.

Если стоит задача (для человека или робота) выбрать один предмет из многих, она простая, если предмет уникален. И она становится более сложной, если предмет нужно выбрать из нескольких похожих предметов. Например, Вы — механик, и хотите, чтобы помощник принес Вам инструмент. Вы можете указать на подставку под инструменты и сказать: «Принеси мне вон тот инструмент». Ваш помощник (если он человек), посмотрит, куда Вы показываете. И, если на полке будет мало инструментов, помощник, вероятно, сможет принести, нужный инструмент. Но если полка завалена почти одинаковыми инструментами (например, гаечными ключами под гайки разных размеров), Ваш помощник не сможет точно определить, о каком инструменте Вы говорите. Помощник попросят уточнить. Может быть, указав на инструмент, он переспросит: «Этот»?
Чтобы не совершить ошибки таких ситуациях как эта, у Вашего помощника должно быть понимание двусмысленности и неуверенности. Он должен понять, когда недостаточно информации, чтобы правильно выполнить задачу. И затем принять правильные меры, чтобы при необходимости получить больше информации. Для робота-помощника это намного более трудная проблема, чем для человека. Указывание пальцем, жесты, пристальный взгляд и языковые сигналы (все способы которые люди используют, чтобы сообщить информацию), роботы обычно плохо понимают.
Робототехники создали систему с мудрёным названием «Обратная связь для совместной передачи частично обозреваемого Марковского процесса принятия решений» или сокращённо FETCH-POMDP. Она в состоянии понять неявное значение общих жестов и объединить эти значения с тем, что человек, делающий жесты, говорит. Чтобы улучшить своё понимание того, что хочет человек. В предположении того, что человек говорит правду, сотрудничает с системой, система в состоянии смоделировать свой собственный «беспорядок» и задавать вопросы только при необходимости, для уточнения, чтобы не быть назойливой.
Чтобы проверить систему, исследователи просили участников эксперимента, (которые понятия не имели, как поставить роботу задачу), чтобы робот Бэкстер принес определённую вещь. Одну треть времени, робот не задал вопросов; одну треть времени, робот всегда задавал уточняющие вопросы. И заключительную треть времени робот задавал вопросы только тогда, когда он решил, что вопрос необходим. Исследователи ожидали, что робот будет самым быстрым, когда он не задаёт вопросов, и самым точным, когда он всегда задаёт вопросы. Но оказалось, что при интеллектуальном подходе задавания вопросов (при необходимости) роботу удалось быть и самым быстрым и самым точным. Это вызвано тем, что при задавании вопросов людьми, часто возникали ошибки транскрипции (например, «да» путалось с «рукой»). Таким образом, больше вопросов означало больше ошибок.Интересно то, что участники эксперимента приписали роботу такие способности, которых у него на самом деле не было. Во время испытаний многие участники использовали предложные фразы, чтобы описать нужные предметы. Например: «Подай мне ложку слева от миски». Несмотря на то, что модель языка в этой работе не составляла справочные фразы, робот смог использовать интеллектуальную социальную обратную связь, чтобы выяснить то, чего желал человек. Это может объяснить, почему многие пользователи сообщили, что думали, что робот действительно понимал предложные фразы. Существуют методы для интерпретации справочного языка. Но проблемы в его понимании все еще остаются. А разработанная модель поможет исправлять ошибки независимо от точного метода понимания языка. Исследователи планируют обновить свою модель, чтобы включать в неё справочные формулировки. Они также хотят добавить такие вещи как отслеживание глазами, чтобы еще больше улучшить точность.